Limitazioni e considerazioni dei flussi di datiDataflows limitations and considerations

Esistono alcune limitazioni relative alla creazione, all'aggiornamento e alla gestione della capacità dei flussi di dati, che gli utenti devono conoscere, come descritto nelle sezioni seguenti.There are a few dataflow limitations across authoring, refreshes, and capacity management that users should keep in mind, as described in the following sections.

Creazione di flussi di datiDataflow Authoring

Quando creano flussi di dati, gli utenti devono tenere presenti le considerazioni seguenti:When authoring dataflows, users should be mindful of the following considerations:

  • La creazione nei flussi di dati viene eseguita nell'ambiente Power Query online (PQO). Vedere le limitazioni descritte in Limiti di Power Query.Authoring in Dataflows is done in the Power Query Online (PQO) environment; see the limitations described in Power Query limits. Poiché la creazione dei flussi di dati viene eseguita nell'ambiente Power Query online (PQO), gli aggiornamenti eseguiti sulle configurazioni dei carichi di lavoro dei flussi di dati influiscono solo sugli aggiornamenti e non hanno alcun impatto sull'esperienza di creazioneBecause dataflows authoring is done in the Power Query Online (PQO) environment, updates performed on the Dataflows workload configurations only impact refreshes, and will not have an impact on the authoring experience

  • I flussi di dati possono essere modificati solo dai proprietariDataflows can only be modified by their owners

  • I flussi di dati non sono disponibili in Area di lavoro personaleDataflows are not available in My Workspace

  • I flussi di dati che usano le origini dati del gateway non supportano più credenziali per la stessa origine datiDataflows using gateway data sources do not support multiple credentials for the same data source

  • L'uso del connettore Web.Page richiede un gatewayUsing the Web.Page connector requires a gateway

Considerazioni sulle APIAPI Considerations

Per altre informazioni sulle API REST supportate per i flussi di dati, vedere le informazioni di riferimento sulle API REST.More about supported Dataflows REST APIs can be found in the REST API reference. Occorre tenere presenti le considerazioni seguenti:Here are some considerations to keep in mind:

  • L'esportazione e l'importazione di un flusso di dati assegnano un nuovo ID a tale flusso di datiExporting and Importing a dataflow gives that dataflow a new ID

  • L'importazione di flussi di dati che contengono entità collegate non correggerà i riferimenti esistenti all'interno del flusso di dati (queste query devono essere corrette manualmente prima di importare il flusso di dati)Importing dataflows that contain linked entities will not fix the existing references within the dataflow (these queries should be fixed manually before importing the dataflow)

  • I flussi di dati possono essere sovrascritti con il parametro CreateOrOverwrite, se inizialmente sono stati creati usando l'API di importazioneDataflows can be overwritten with the CreateOrOverwrite parameter, if they have initially been created using the import API

Flussi di dati in CondivisoDataflows in Shared

Sono presenti limitazioni per i flussi di dati nelle capacità condivise:There are limitations for Dataflows in shared capacities:

  • Quando si aggiornano i flussi di dati, i timeout in Shared sono pari a 2 ore per ogni entità e a 3 ore per ogni flusso di datiWhen refreshing Dataflows, timeouts in Shared are 2 hours per entity, and 3 hours per Dataflow
  • Non si possono creare entità collegate in flussi di dati condivisi, anche se possono esistere all'interno del flusso di dati, purché la proprietà Load Enabled nella query sia disabilitataLinked entities cannot be created in shared Dataflows, although they can exist within the Dataflow as long as the Load Enabled property on the query is disabled
  • Non si possono creare entità calcolate in flussi di dati condivisiComputed entities cannot be created in shared Dataflows
  • Servizi cognitivi e ML automatizzato non sono disponibili nei flussi di dati condivisiAutoML and Cognitive services are not available in shared Dataflows
  • L'aggiornamento incrementale non funziona nei flussi di dati condivisiIncremental refresh does not work in shared Dataflows

Flussi di dati in PremiumDataflows in Premium

I flussi di dati esistenti in Premium presentano le limitazioni e considerazioni seguenti.Dataflows that exist in Premium have the following limitations and considerations.

Considerazioni sugli aggiornamenti e sui dati:Refreshes and data considerations:

  • Quando si aggiornano i flussi di dati, i timeout sono pari a 24 ore (senza distinzioni per le entità e/o i flussi di dati)When refreshing Dataflows, timeouts are 24 hours (no distinction for entities and/or dataflows)

  • La modifica di un flusso di dati da un criterio di aggiornamento incrementale a un normale aggiornamento, o viceversa, eliminerà tutti i datiChanging a dataflow from an incremental refresh policy to a normal refresh, or vice versa, will drop all data

  • La modifica dello schema di un flusso di dati eliminerà tutti i datiModifying a dataflow's schema will drop all data

Entità collegate e calcolate:Linked and Computed Entities:

  • Le entità collegate possono raggiungere una profondità di 32 riferimentiLinked entities can go down to a depth of 32 references

  • Le dipendenze cicliche delle entità collegate non sono consentiteCyclic dependencies of linked entities are not allowed

  • Un'entità collegata non può essere unita a un'entità normale che riceve i dati da un'origine dati localeA linked entity can't be joined with a regular entity that gets its data from an on-premises data source

  • Quando una query (ad esempio, la query A) viene usata nel calcolo di un'altra query (query B) nei flussi di dati, la query B diventa un'entità calcolata.When a query (query A, for example) is used in the calculation of another query (query B) in dataflows, query B becomes a calculated entity. Le entità calcolate non possono fare riferimento a origini locali.Calculated entities cannot refer to on-premises sources.

Motore di calcolo:Compute Engine:

  • Mentre si usa il motore di calcolo, si verifica un aumento iniziale del 10%-20% del tempo necessario per l'inserimento dati.While using the Compute engine, there is an approximate 10% to 20% initial increase in time for data ingestion.

    1. Questo aumento si applica solo al primo flusso di dati che si trova nel motore di calcolo e legge i dati dall'origine datiThis only applied to the first dataflow that is on the compute engine, and reads data from the data source
    2. Per i flussi di dati successivi che usano l'origine tale aumento non è previstoSubsequent dataflows, that use the source one will not incur the same penalty
  • Solo determinate operazioni usano il motore di calcolo e solo se vengono usate tramite un'entità collegata o come entità calcolata.Only certain operations make use of the compute engine, and only when used through a linked entity or as a computed entity. Un elenco completo delle operazioni è disponibile in questo post di blog.A full list of operations is available in this blog post.

Gestione delle capacità:Capacity Management:

  • Per impostazione predefinita, le capacità di Power BI Premium hanno un servizio di gestione risorse interno che limita i carichi di lavoro in modi diversi quando la memoria per l'esecuzione della capacità è insufficiente.By design, the Premium Power BI Capacities have an internal resource manager which throttles the workloads in different ways when the capacity is running on low memory.

    1. Per i flussi di dati, questa limitazione dovuta all'utilizzo della memoria riduce il numero di contenitori M disponibiliFor Dataflows, this throttling pressure reduces the number of available M Containers
    2. Se la memoria per i flussi di dati viene impostata sul 100% con un contenitore di dimensioni appropriate per le dimensioni dei dati, il carico di lavoro gestirà il numero di contenitori in modo appropriatoThe memory for Dataflows can be set to 100%, with an appropriately sized container for your data sizes, and the workload will manage the number of containers appropriately
  • Per trovare il numero approssimativo di contenitori, dividere la memoria totale allocata al carico di lavoro per la quantità di memoria allocata a un contenitoreThe approximate number of containers can be found out by dividing the total memory allocated to the workload by the amount of memory allocated to a container

Utilizzo di flussi di dati nei set di datiDataflow usage in datasets

  • Quando si crea un set di dati in Power BI Desktop e quindi lo si pubblica nel servizio Power BI, assicurarsi che le credenziali usate in Power BI Desktop per l'origine dati dei flussi di dati siano le stesse credenziali usate quando il set di dati viene pubblicato nel servizio.When creating a dataset in Power BI Desktop, and then publishing it to the Power BI service, ensure the credentials used in Power BI Desktop for the Dataflows data source are the same credentials used when the dataset is published to the service.
    1. Se tali credenziali non corrispondono, durante l'aggiornamento del set di dati viene visualizzato l'errore Chiave non trovataFailing to ensure those credentials are the same results in a Key not found error upon dataset refresh

Passaggi successiviNext steps

Gli articoli seguenti contengono altre informazioni sui flussi di dati e su Power BI:The following articles provide more information about dataflows and Power BI: