Einschränkungen und Überlegungen bezüglich DataflowsDataflows limitations and considerations

Es gibt einige Einschränkungen für Dataflows hinsichtlich Erstellung, Aktualisierung und Kapazitätsverwaltung, derer sich Benutzer bewusst sein sollten. Informationen dazu finden Sie in den folgenden Abschnitten.There are a few dataflow limitations across authoring, refreshes, and capacity management that users should keep in mind, as described in the following sections.

DataflowerstellungDataflow Authoring

Bei Erstellung von Dataflows sollten sich Benutzer der folgenden Überlegungen bewusst sein:When authoring dataflows, users should be mindful of the following considerations:

  • Die Dataflowerstellung erfolgt in der PQO-Umgebung (Power Query Online). Informationen zu den Einschränkungen finden Sie unter Power Query Online-Einschränkungen.Authoring in Dataflows is done in the Power Query Online (PQO) environment; see the limitations described in Power Query limits. Da die Dataflowerstellung in der PQO-Umgebung (Power Query Online) erfolgt, wirken sich Updates für Workloadkonfigurationen von Dataflows nur auf Aktualisierungsvorgänge aus, nicht jedoch auf das Erstellen selbst.Because dataflows authoring is done in the Power Query Online (PQO) environment, updates performed on the Dataflows workload configurations only impact refreshes, and will not have an impact on the authoring experience

  • Dataflows können nur von ihren Besitzern bearbeitet werden.Dataflows can only be modified by their owners

  • Dataflows sind unter Mein Arbeitsbereich nicht verfügbar.Dataflows are not available in My Workspace

  • Dataflows, für die Gatewaydatenquellen verwendet werden, unterstützen mehrere Anmeldeinformationen für dieselbe Datenquelle nicht.Dataflows using gateway data sources do not support multiple credentials for the same data source

  • Die Verwendung eines Web.Page-Connectors erfordert ein Gateway.Using the Web.Page connector requires a gateway

API-ÜberlegungenAPI Considerations

Weitere Informationen zu unterstützten REST-APIs für Dataflows finden Sie unter Dataflows.More about supported Dataflows REST APIs can be found in the REST API reference. Im Anschluss folgen einige Punkte, die Sie berücksichtigen sollten:Here are some considerations to keep in mind:

  • Beim Exportieren sowie Importieren eines Dataflows erhält der Dataflow eine neue ID.Exporting and Importing a dataflow gives that dataflow a new ID

  • Das Importieren von Dataflows, die verknüpfte Entitäten enthalten, behebt Probleme mit vorhandenen Verweisen innerhalb des Dataflows nicht. Probleme bei diesen Abfragen sollten manuell behoben werden, bevor der Dataflow importiert wird.Importing dataflows that contain linked entities will not fix the existing references within the dataflow (these queries should be fixed manually before importing the dataflow)

  • Dataflows können durch den CreateOrOverwrite-Parameter überschrieben werden, wenn sie ursprünglich mithilfe der Import-API erstellt wurden.Dataflows can be overwritten with the CreateOrOverwrite parameter, if they have initially been created using the import API

Dataflows in SharedDataflows in Shared

Für Dataflows in Shared-Kapazitäten gelten einige Einschränkungen:There are limitations for Dataflows in shared capacities:

  • Beim Aktualisieren von Dataflows betragen Timeouts in Shared-Kapazitäten zwei Stunden pro Entität und drei Stunden pro Dataflow.When refreshing Dataflows, timeouts in Shared are 2 hours per entity, and 3 hours per Dataflow
  • Verknüpfte Entitäten können in Shared-Dataflows nicht erstellt werden, obwohl sie innerhalb des Dataflows vorhanden sein können, solange die LoadEnabled-Eigenschaft für die Abfrage deaktiviert ist.Linked entities cannot be created in shared Dataflows, although they can exist within the Dataflow as long as the Load Enabled property on the query is disabled
  • Berechnete Entitäten können in Shared-Dataflows nicht erstellt werden.Computed entities cannot be created in shared Dataflows
  • AutoML und Cognitive Services sind in Shared-Dataflows nicht verfügbar.AutoML and Cognitive services are not available in shared Dataflows
  • Inkrementelle Aktualisierungen funktionieren in Shared-Dataflows nicht.Incremental refresh does not work in shared Dataflows

Dataflows in PremiumDataflows in Premium

Für Dataflows in Premium-Kapazitäten gelten die folgenden Einschränkungen und Überlegungen.Dataflows that exist in Premium have the following limitations and considerations.

Überlegungen zu Aktualisierungen und Daten:Refreshes and data considerations:

  • Beim Aktualisieren von Dataflows betragen Timeouts 24 Stunden. Hierbei wird nicht zwischen Entitäten und/oder Dataflows unterschieden.When refreshing Dataflows, timeouts are 24 hours (no distinction for entities and/or dataflows)

  • Das Ändern eines Dataflows in einer inkrementellen Aktualisierungsrichtlinie in eine normale Aktualisierung oder umgekehrt führt zu einem Verlust aller Daten.Changing a dataflow from an incremental refresh policy to a normal refresh, or vice versa, will drop all data

  • Beim Bearbeiten des Schemas eines Dataflows werden alle Daten gelöscht.Modifying a dataflow's schema will drop all data

Verknüpfte und berechnete Entitäten:Linked and Computed Entities:

  • Verknüpfte Entitäten können bis zu 32 Verweise aufweisen.Linked entities can go down to a depth of 32 references

  • Zyklische Abhängigkeiten von verknüpften Entitäten sind nicht zulässig.Cyclic dependencies of linked entities are not allowed

  • Eine verknüpfte Entität kann nicht mit einer normalen Entität verbunden werden, die Daten aus einer lokalen Datenquelle abruft.A linked entity can't be joined with a regular entity that gets its data from an on-premises data source

  • Wenn eine Abfrage (z. B. Abfrage A) in der Berechnung einer anderen Abfrage (Abfrage B) in Dataflows auftritt, wird Abfrage B zu einer berechneten Entität.When a query (query A, for example) is used in the calculation of another query (query B) in dataflows, query B becomes a calculated entity. Berechnete Entitäten können sich nicht auf lokale Quellen beziehen.Calculated entities cannot refer to on-premises sources.

Compute-Engine:Compute Engine:

  • Bei Verwendung der Compute-Engine erhöht sich die Zeit für die Datenerfassung zu Beginn um etwa zehn bis 20 Prozent.While using the Compute engine, there is an approximate 10% to 20% initial increase in time for data ingestion.

    1. Dies gilt nur für den ersten Dataflow, der sich in der Compute-Engine befindet und Daten aus der Datenquelle liest.This only applied to the first dataflow that is on the compute engine, and reads data from the data source
    2. Für anschließende Dataflows, die die Quelle verwenden, fällt dieser Abzug nicht an.Subsequent dataflows, that use the source one will not incur the same penalty
  • Nur bestimmte Vorgänge nutzen die Compute-Engine und dies auch nur, wenn die Verwendung über eine verknüpfte Entität oder als berechnete Entität erfolgt.Only certain operations make use of the compute engine, and only when used through a linked entity or as a computed entity. Eine vollständige Liste der Vorgänge finden Sie in diesem Blogbeitrag.A full list of operations is available in this blog post.

Kapazitätsverwaltung:Capacity Management:

  • Power BI-Kapazitäten mit Premium-Tarif sind so entworfen, dass sie über einen internen Ressourcen-Manager verfügen, der die Arbeitsauslastungen auf verschiedene Weise drosselt, wenn der Kapazität der Arbeitsspeicher ausgeht.By design, the Premium Power BI Capacities have an internal resource manager which throttles the workloads in different ways when the capacity is running on low memory.

    1. Bei Dataflows reduziert diese Drosselung die Anzahl verfügbarer Container.For Dataflows, this throttling pressure reduces the number of available M Containers
    2. Der Arbeitsspeicher für Dataflows kann auf 100 Prozent festgelegt werden. Dabei wird die Größe des Containers entsprechend der Größe Ihrer Daten passend ausgewählt. Die Arbeitsauslastung verwaltet die Anzahl der Container entsprechend.The memory for Dataflows can be set to 100%, with an appropriately sized container for your data sizes, and the workload will manage the number of containers appropriately
  • Die ungefähre Anzahl an Containern kann ermittelt werden, indem die der Arbeitsauslastung insgesamt zugeordnete Arbeitsspeichermenge durch die Arbeitsspeichermenge geteilt wird, die einem Container zugeordnet ist.The approximate number of containers can be found out by dividing the total memory allocated to the workload by the amount of memory allocated to a container

Dataflownutzung in DatasetsDataflow usage in datasets

  • Sorgen Sie beim Erstellen eines Datasets in Power BI Desktop und beim anschließenden Veröffentlichen des Datasets für den Power BI-Dienst dafür, dass es sich bei den in Power BI Desktop für die Datenquelle der Dataflows verwendeten Anmeldeinformationen um dieselben handelt, die auch beim Veröffentlichen des Datasets für den Dienst genutzt wurden.When creating a dataset in Power BI Desktop, and then publishing it to the Power BI service, ensure the credentials used in Power BI Desktop for the Dataflows data source are the same credentials used when the dataset is published to the service.
    1. Sorgen Sie nicht dafür, dass dieselben Anmeldeinformationen genutzt werden, führt dies zu einem Schlüssel nicht gefunden-Fehler bei Aktualisierungen des Datasets.Failing to ensure those credentials are the same results in a Key not found error upon dataset refresh

Nächste SchritteNext steps

In den folgenden Artikeln finden Sie weitere Informationen zu Dataflows und Power BI:The following articles provide more information about dataflows and Power BI: