Omezení toků dat a související požadavkyDataflows limitations and considerations

Existuje několik omezení toku dat pro vytváření, aktualizace a správu kapacit, která by uživatelé měli mít na paměti. Jsou popsána v následujících částech.There are a few dataflow limitations across authoring, refreshes, and capacity management that users should keep in mind, as described in the following sections.

Vytváření toku datDataflow Authoring

Při vytváření toků dat by uživatelé měli mít na paměti následující důležité informace:When authoring dataflows, users should be mindful of the following considerations:

  • Vytváření v tocích dat se provádí v prostředí Power Query Online (PQO). Podívejte se na omezení popsaná v části omezení Power Query.Authoring in Dataflows is done in the Power Query Online (PQO) environment; see the limitations described in Power Query limits. Vzhledem k tomu, že se vytváření toků dat provádí v prostředí Power Query Online (PQO), budou mít aktualizace provedené v konfiguracích úloh toků dat vliv pouze na aktualizace a nebudou mít žádný vliv na prostředí pro vytváření obsahu.Because dataflows authoring is done in the Power Query Online (PQO) environment, updates performed on the Dataflows workload configurations only impact refreshes, and will not have an impact on the authoring experience

  • Toky dat můžou upravovat pouze jejich vlastníci.Dataflows can only be modified by their owners

  • Toky dat nejsou dostupné v části Můj pracovní prostor.Dataflows are not available in My Workspace

  • Toky dat využívající zdroje dat brány nepodporují více přihlašovacích údajů pro stejný zdroj dat.Dataflows using gateway data sources do not support multiple credentials for the same data source

  • Použití konektoru Web.Page vyžaduje bránu.Using the Web.Page connector requires a gateway

Informace k rozhraním APIAPI Considerations

Další informace o podporovaných rozhraních REST API pro toky dat najdete v dokumentaci k REST API.More about supported Dataflows REST APIs can be found in the REST API reference. Tady je několik důležitých informací, které je potřeba mít na paměti:Here are some considerations to keep in mind:

  • Export a import toku dat poskytuje toku dat nové ID.Exporting and Importing a dataflow gives that dataflow a new ID

  • Import toků dat, které obsahují propojené entity, neopraví existující odkazy v toku dat (tyto dotazy by se měly před importem toku dat opravit ručně).Importing dataflows that contain linked entities will not fix the existing references within the dataflow (these queries should be fixed manually before importing the dataflow)

  • Toky dat lze přepsat pomocí parametru CreateOrOverwrite, pokud byly původně vytvořeny pomocí rozhraní API pro import.Dataflows can be overwritten with the CreateOrOverwrite parameter, if they have initially been created using the import API

Toky dat v plánu SharedDataflows in Shared

Pro toky dat ve sdílených kapacitách existují omezení:There are limitations for Dataflows in shared capacities:

  • Při aktualizaci toků dat jsou časové limity v plánu Shared 2 hodiny na entitu a 3 hodiny na datový tok.When refreshing Dataflows, timeouts in Shared are 2 hours per entity, and 3 hours per Dataflow
  • Propojené entity nelze vytvořit ve sdílených tocích dat. Mohou ale v toku dat existovat, pokud je vlastnost Load Enabled v dotazu zakázaná.Linked entities cannot be created in shared Dataflows, although they can exist within the Dataflow as long as the Load Enabled property on the query is disabled
  • Ve sdílených tocích dat se nedají vytvářet počítané entity.Computed entities cannot be created in shared Dataflows
  • AutoML a Cognitive Services nejsou ve sdílených tocích dat dostupné.AutoML and Cognitive services are not available in shared Dataflows
  • Přírůstková aktualizace ve sdílených tocích dat nefunguje.Incremental refresh does not work in shared Dataflows

Toky dat v plánu PremiumDataflows in Premium

Toky dat, které existují na úrovni Premium, mají následující omezení a požadavky.Dataflows that exist in Premium have the following limitations and considerations.

Aktualizace a požadavky na data:Refreshes and data considerations:

  • Při aktualizaci toků dat jsou časové limity 24 hodin (bez rozlišení entit a/nebo toků dat).When refreshing Dataflows, timeouts are 24 hours (no distinction for entities and/or dataflows)

  • Změna toku dat ze zásad přírůstkové aktualizace na normální aktualizaci, nebo naopak, zahodí všechna data.Changing a dataflow from an incremental refresh policy to a normal refresh, or vice versa, will drop all data

  • Při změně schématu toku dat dojde k zahození všech dat.Modifying a dataflow's schema will drop all data

Propojené a počítané entity:Linked and Computed Entities:

  • Propojené entity můžou mít hloubku až 32 odkazů.Linked entities can go down to a depth of 32 references

  • Cyklické závislosti propojených entit nejsou povolené.Cyclic dependencies of linked entities are not allowed

  • Propojenou entitu nelze spojit s běžnou entitou, která získává data z místního zdroje dat.A linked entity can't be joined with a regular entity that gets its data from an on-premises data source

  • Pokud se v tocích dat používá dotaz (například dotaz A) při výpočtu jiného dotazu (dotazu B), stane se z dotazu B počítaná entita.When a query (query A, for example) is used in the calculation of another query (query B) in dataflows, query B becomes a calculated entity. Počítané entity nemůžou odkazovat na místní zdroje.Calculated entities cannot refer to on-premises sources.

Výpočetní modul:Compute Engine:

  • Při použití výpočetního modulu je při příjmu dat přibližně 10% až 20% počáteční nárůst času.While using the Compute engine, there is an approximate 10% to 20% initial increase in time for data ingestion.

    1. Týká se to pouze prvního toku dat ve výpočetním modulu, který čte data ze zdroje dat.This only applied to the first dataflow that is on the compute engine, and reads data from the data source
    2. U následných toků dat, které používají tento zdroj dat, nedojde ke stejné penalizaci.Subsequent dataflows, that use the source one will not incur the same penalty
  • Výpočetní modul využívají pouze některé operace a pouze při použití prostřednictvím propojené entity nebo počítané entity.Only certain operations make use of the compute engine, and only when used through a linked entity or as a computed entity. Úplný seznam operací je k dispozici v tomto blogovém příspěvku.A full list of operations is available in this blog post.

Správa kapacity:Capacity Management:

  • Kapacity Power BI Premium mají interního správce prostředků, který reguluje úlohy různými způsoby, pokud je kapacita spuštěná při nedostatku paměti.By design, the Premium Power BI Capacities have an internal resource manager which throttles the workloads in different ways when the capacity is running on low memory.

    1. U toků dat omezuje tato regulace počet dostupných kontejnerů M.For Dataflows, this throttling pressure reduces the number of available M Containers
    2. Paměť pro datové toky se dá nastavit na 100 %, s kontejnerem s vhodně nastavenou velikostí pro velikosti vašich dat, a úloha bude počet kontejnerů vhodně spravovat.The memory for Dataflows can be set to 100%, with an appropriately sized container for your data sizes, and the workload will manage the number of containers appropriately
  • Přibližný počet kontejnerů se dá zjistit vydělením celkové paměti přidělené úloze množstvím paměti přidělené kontejneru.The approximate number of containers can be found out by dividing the total memory allocated to the workload by the amount of memory allocated to a container

Využití toků dat v datových sadáchDataflow usage in datasets

  • Když vytváříte datovou sadu v Power BI Desktopu a potom ji publikujete do služby Power BI, ujistěte se, že přihlašovací údaje použité v Power BI Desktopu pro zdroj dat toků dat jsou stejné jako přihlašovací údaje, které se použijí při publikování datové sady do služby.When creating a dataset in Power BI Desktop, and then publishing it to the Power BI service, ensure the credentials used in Power BI Desktop for the Dataflows data source are the same credentials used when the dataset is published to the service.
    1. Pokud se vám nepodaří zajistit, aby tyto přihlašovací údaje byly stejné, dojde při aktualizaci datové sady k chybě Klíč se nenašel.Failing to ensure those credentials are the same results in a Key not found error upon dataset refresh

Další krokyNext steps

Další informace o tocích dat a Power BI najdete v následujících článcích:The following articles provide more information about dataflows and Power BI: