Beperkingen en overwegingen van gegevensstromenDataflows limitations and considerations

Er zijn enkele gegevensstroomlimieten voor het ontwerpen, vernieuwen en capaciteitsbeheer waarmee gebruikers rekening moeten houden, zoals beschreven in de volgende secties.There are a few dataflow limitations across authoring, refreshes, and capacity management that users should keep in mind, as described in the following sections.

Ontwerpen van gegevensstromenDataflow Authoring

Bij het ontwerpen van gegevensstromen moeten gebruikers rekening houden met de volgende zaken:When authoring dataflows, users should be mindful of the following considerations:

  • Ontwerpen in gegevensstromen vindt plaats in de omgeving Power Query Online (PQO); zie de beperkingen die worden beschreven in Power Query-limieten.Authoring in Dataflows is done in the Power Query Online (PQO) environment; see the limitations described in Power Query limits. Omdat het ontwerpen van gegevensstromen plaatsvindt in de PQO-omgeving (Power Query Online), hebben de updates die worden uitgevoerd op de werkbelastingconfiguraties van gegevensstromen alleen invloed op vernieuwingen en heeft dit geen invloed op de ontwerpervaringBecause dataflows authoring is done in the Power Query Online (PQO) environment, updates performed on the Dataflows workload configurations only impact refreshes, and will not have an impact on the authoring experience

  • Gegevensstromen kunnen alleen worden gewijzigd door hun eigenarenDataflows can only be modified by their owners

  • Gegevensstromen zijn niet beschikbaar in Mijn werkruimteDataflows are not available in My Workspace

  • Gegevensstromen waarvoor gateway-gegevensbronnen worden gebruikt, bieden geen ondersteuning voor meerdere referenties voor dezelfde gegevensbronDataflows using gateway data sources do not support multiple credentials for the same data source

  • Er is een gateway vereist om de Web.Page-connector te gebruikenUsing the Web.Page connector requires a gateway

Overwegingen voor API'sAPI Considerations

Meer informatie over ondersteunde REST API's van gegevensstromen vindt u in de REST API-naslaginformatie.More about supported Dataflows REST APIs can be found in the REST API reference. Hierna volgen enkele aandachtspunten waarmee u rekening moet houden:Here are some considerations to keep in mind:

  • Door een gegevensstroom te exporteren en importeren krijgt die gegevensstroom een nieuwe idExporting and Importing a dataflow gives that dataflow a new ID

  • Door het importeren van gegevensstromen die gekoppelde entiteiten bevatten, worden de bestaande verwijzingen in de gegevensstroom niet gecorrigeerd (deze query's moeten handmatig worden gecorrigeerd voordat de gegevensstroom wordt geïmporteerd)Importing dataflows that contain linked entities will not fix the existing references within the dataflow (these queries should be fixed manually before importing the dataflow)

  • Gegevensstromen kunnen worden overschreven met de parameter CreateOrOverwrite als ze in eerste instantie zijn gemaakt met behulp van de API voor importerenDataflows can be overwritten with the CreateOrOverwrite parameter, if they have initially been created using the import API

Gegevensstromen in GedeeldDataflows in Shared

Er gelden beperkingen voor gegevensstromen in gedeelde capaciteiten:There are limitations for Dataflows in shared capacities:

  • Bij het vernieuwen van gegevensstromen zijn time-outs in Gedeeld 2 uur per entiteit en 3 uur per gegevensstroomWhen refreshing Dataflows, timeouts in Shared are 2 hours per entity, and 3 hours per Dataflow
  • Gekoppelde entiteiten kunnen niet worden gemaakt in gedeelde gegevensstromen, hoewel ze in de gegevensstroom kunnen bestaan zolang de eigenschap Load enabled voor de query is uitgeschakeldLinked entities cannot be created in shared Dataflows, although they can exist within the Dataflow as long as the Load Enabled property on the query is disabled
  • Berekende entiteiten kunnen niet worden gemaakt in gedeelde gegevensstromenComputed entities cannot be created in shared Dataflows
  • AutoML en Cognitive Services zijn niet beschikbaar in gedeelde gegevensstromenAutoML and Cognitive services are not available in shared Dataflows
  • Incrementeel vernieuwen werkt niet in gedeelde gegevensstromenIncremental refresh does not work in shared Dataflows

Gegevensstromen in PremiumDataflows in Premium

Gegevensstromen die in Premium bestaan, hebben de volgende beperkingen en overwegingen.Dataflows that exist in Premium have the following limitations and considerations.

Overwegingen met betrekking tot vernieuwingen en gegevens:Refreshes and data considerations:

  • Bij het vernieuwen van gegevensstromen, duren time-outs 24 uur (geen onderscheid voor entiteiten en/of gegevensstromen)When refreshing Dataflows, timeouts are 24 hours (no distinction for entities and/or dataflows)

  • Als u een gegevensstroom wijzigt van een incrementeel vernieuwingsbeleid naar een normale vernieuwing, of andersom, worden alle gegevens verwijderdChanging a dataflow from an incremental refresh policy to a normal refresh, or vice versa, will drop all data

  • Als u het schema van een gegevensstroom wijzigt, worden alle gegevens verwijderdModifying a dataflow's schema will drop all data

Gekoppelde en berekende entiteiten:Linked and Computed Entities:

  • Gekoppelde entiteiten kunnen tot een diepte van 32 verwijzingen omlaag gaanLinked entities can go down to a depth of 32 references

  • Cyclische afhankelijkheden van gekoppelde entiteiten zijn niet toegestaanCyclic dependencies of linked entities are not allowed

  • Een gekoppelde entiteit kan niet worden samengevoegd met een normale entiteit waarvoor de gegevens worden opgehaald uit een on-premises gegevensbronA linked entity can't be joined with a regular entity that gets its data from an on-premises data source

  • Wanneer een query (bijvoorbeeld query A) wordt gebruikt voor de berekening van een andere query (query B) in gegevensstromen, wordt query B een berekende entiteit.When a query (query A, for example) is used in the calculation of another query (query B) in dataflows, query B becomes a calculated entity. Berekende entiteiten kunnen niet verwijzen naar on-premises bronnen.Calculated entities cannot refer to on-premises sources.

Berekeningsengine:Compute Engine:

  • Bij het gebruik van de berekeningsengine is er sprake van een toename van 10% tot 20% van de initiële tijd voor gegevensopname.While using the Compute engine, there is an approximate 10% to 20% initial increase in time for data ingestion.

    1. Dit wordt alleen toegepast op de eerste gegevensstroom die zich op de berekeningsengine bevindt en gegevens leest uit de gegevensbronThis only applied to the first dataflow that is on the compute engine, and reads data from the data source
    2. Op de volgende gegevensstromen die eenmaal gebruikmaken van de bron, wordt niet dezelfde vermindering toegepastSubsequent dataflows, that use the source one will not incur the same penalty
  • Alleen bepaalde bewerkingen maken gebruik van de berekeningsengine en alleen wanneer ze worden gebruikt via een gekoppelde entiteit of als een berekende entiteit.Only certain operations make use of the compute engine, and only when used through a linked entity or as a computed entity. Een volledige lijst met bewerkingen is te vinden in deze blogpost.A full list of operations is available in this blog post.

Capaciteitsbeheer:Capacity Management:

  • De Premium Power BI-capaciteiten hebben standaard een interne resourcebeheerder die de werkbelasting op verschillende manieren beperkt wanneer de capaciteit weinig geheugen heeft.By design, the Premium Power BI Capacities have an internal resource manager which throttles the workloads in different ways when the capacity is running on low memory.

    1. In het geval van gegevensstromen vermindert deze beperkingsdruk het aantal beschikbare M-containersFor Dataflows, this throttling pressure reduces the number of available M Containers
    2. Het geheugen voor gegevensstromen kan worden ingesteld op 100%, met een geschikte container voor uw gegevensgroottes; de werkbelasting beheert dan het aantal containers op de juiste manierThe memory for Dataflows can be set to 100%, with an appropriately sized container for your data sizes, and the workload will manage the number of containers appropriately
  • Het geschatte aantal containers kan worden gevonden door het totale geheugen dat aan de werkbelasting is toegewezen, te delen door de hoeveelheid geheugen die aan een container is toegewezenThe approximate number of containers can be found out by dividing the total memory allocated to the workload by the amount of memory allocated to a container

Gebruik van gegevensstroom in gegevenssetsDataflow usage in datasets

  • Wanneer u een gegevensset maakt in Power BI Desktop en deze vervolgens publiceert naar de Power BI-service, moet u ervoor zorgen dat de referenties die in Power BI Desktop voor de gegevensbron Gegevensstroom worden gebruikt, dezelfde referenties hebben wanneer de gegevensset wordt gepubliceerd naar de service.When creating a dataset in Power BI Desktop, and then publishing it to the Power BI service, ensure the credentials used in Power BI Desktop for the Dataflows data source are the same credentials used when the dataset is published to the service.
    1. Wanneer u er niet voor zorgt dat deze referenties hetzelfde zijn, resulteert dat in een fout Sleutel niet gevonden bij het vernieuwen van de gegevenssetFailing to ensure those credentials are the same results in a Key not found error upon dataset refresh

Volgende stappenNext steps

De volgende artikelen bieden meer informatie over gegevensstromen en Power BI:The following articles provide more information about dataflows and Power BI: