Überlegungen und Einschränkungen zu Dataflows

Es gibt einige Einschränkungen für Dataflows hinsichtlich Erstellung, Aktualisierung und Kapazitätsverwaltung, derer sich Benutzer bewusst sein sollten. Informationen dazu finden Sie in den folgenden Abschnitten.

Allgemeine Einschränkungen

  • Dataflows sind möglicherweise nicht für alle DoD-Kunden der US-Behörden verfügbar. Informationen zur Featureparität für Behördenumgebungen finden Sie im Artikel Power BI für US-Behördenkunden.
  • Gelöschte Datenquellen werden nicht von der Datenquellenseite des Dataflows entfernt, was ein gutartiges Verhalten ist und sich nicht auf die Aktualisierung oder Bearbeitung von Dataflows auswirkt. In der Herkunftsansicht werden gelöschte Datenquellen als Herkunft für einen Dataflow angezeigt.
  • Gelöschte Datenquellen werden weiterhin auf der Einstellungsseite in der Dropdownliste für Gateways angezeigt.
  • Tiefe bezieht sich auf Dataflows, die mit anderen Dataflows verknüpft sind. Die derzeitige maximale Tiefe ist 32.
  • Breadth (Breite) bezieht sich auf Entitäten innerhalb eines Dataflows.
    • Es gibt keine Leitlinien oder Einschränkungen für die optimale Anzahl von Entitäten in einem Dataflow. Für freigegebene Dataflows gilt jedoch eine Obergrenze für Aktualisierungen von zwei Stunden pro Entität und drei pro Dataflow. Wenn Sie über zwei Entitäten verfügen, die jeweils zwei Stunden benötigen, sollten diese sich also nicht im selben Dataflow befinden.
    • Bei Power BI Premium basieren die Leitlinien und Obergrenzen eher auf einzelnen Anwendungsfällen als auf bestimmten Anforderungen. Die einzige Einschränkung für Power BI Premium ist ein Zeitfenster von 24 Stunden für Aktualisierungen pro Dataflow.
  • Wenn Sie mehr als 10 Dataflows arbeitsbereichsübergreifend aktualisieren möchten, ist ein Power BI Premium-Abonnement erforderlich.
  • Einschränkungen bezüglich Power Query finden Sie im Artikel Power Query Online-Grenzwerte.
  • Globale Variablen in einem URL-Argument werden von Power BI-Dataflows nicht unterstützt.
  • Multi-Geo wird derzeit nicht unterstützt, es sei denn, Sie konfigurieren den Speicher für die Nutzung Ihres eigenen Azure Data Lake Gen2-Speicherkontos.
  • VNETs werden durch Verwendung eines Gateways unterstützt.
  • Wenn Sie Berechnete Entitäten mit Gatewaydatenquellen verwenden, sollte die Datenerfassung in anderen Datenquellen ausgeführt werden als die Berechnungen. Die berechneten Entitäten sollten auf Entitäten basieren, die nur für die Erfassung verwendet werden, und in ihren eigenen Mashupschritten nicht selbst Daten erfassen.
  • In Power BI-Dataflows können Sie zwar Parameter verwenden, diese aber nur bearbeiten, wenn Sie den gesamten Dataflow bearbeiten. In dieser Hinsicht verhalten sich Parameter in Dataflows ähnlich wie deklarierte Konstanten.
  • Einige Connectors in "Problembehandlung bei Aktualisierungsszenarien " werden für Datenflüsse und Datenmarts in Premium-Arbeitsbereichen nicht unterstützt.

Dataflowerstellung

Berücksichtigen Sie bei der Erstellung von Dataflows folgende Überlegungen:

  • Die Dataflowerstellung erfolgt in der PQO-Umgebung (Power Query Online). Informationen zu den Einschränkungen finden Sie unter Power Query Online-Grenzwerte. Da die Dataflowerstellung in der PQO-Umgebung (Power Query Online) erfolgt, wirken sich Updates für Workloadkonfigurationen von Dataflows nur auf Aktualisierungsvorgänge aus, nicht jedoch auf das Erstellen selbst.

  • Dataflows können nur von ihren Besitzern bearbeitet werden.

  • Dataflows sind unter Mein Arbeitsbereich nicht verfügbar.

  • Dataflows, für die Gatewaydatenquellen verwendet werden, unterstützen nicht mehrere Anmeldeinformationen für dieselbe Datenquelle.

  • Die Verwendung eines Web.Page-Connectors erfordert ein Gateway.

API-Überlegungen

Weitere Informationen zu unterstützten REST-APIs für Dataflows finden Sie unter Dataflows. Im Anschluss folgen einige Punkte, die Sie berücksichtigen sollten:

  • Beim Exportieren sowie Importieren eines Dataflows erhält der Dataflow eine neue ID.

  • Das Importieren von Dataflows, die verknüpfte Tabellen enthalten, aktualisiert die vorhandenen Verweisen innerhalb des Dataflows nicht. (Diese Abfragen sollten manuell aktualisiert werden, bevor der Dataflow importiert wird.)

  • Beim Bereitstellen eines Dataflows können Sie die Konflikthandler GenerateUniqueName und Abort-Parameter nutzen, um den Vorgang entweder abzubrechen, wenn er bereits vorhanden ist, oder die API anweisen, stattdessen automatisch einen eindeutigen Namen zu erstellen. Dataflows können durch den CreateOrOverwrite-Parameter überschrieben werden, wenn sie ursprünglich mithilfe der Import-API erstellt wurden.

Dataflows in gemeinsam genutzten Kapazitäten

Für Dataflows in gemeinsam genutzten Kapazitäten (keine Premium-Kapazitäten) gelten die folgenden Einschränkungen:

  • Beim Aktualisieren von Dataflows betragen die Timeouts in einer gemeinsam genutzten Kapazität zwei Stunden pro Tabelle und drei Stunden pro Dataflow.
  • Verknüpfte Tabellen können in gemeinsam genutzten Dataflows nicht erstellt werden, obwohl sie innerhalb des Dataflows vorhanden sein können, solange die LoadEnabled-Eigenschaft für die Abfrage deaktiviert ist.
  • Berechnete Tabellen können in gemeinsam genutzten Dataflows nicht erstellt werden.
  • AutoML und Cognitive Services sind in gemeinsam genutzten Dataflows nicht verfügbar.
  • Inkrementelle Aktualisierungen funktionieren in gemeinsam genutzten Dataflows nicht.

Dataflows in Premium

Für Dataflows in Premium gelten die folgenden Überlegungen und Einschränkungen.

Überlegungen zu Aktualisierungen und Daten:

  • Beim Aktualisieren von Dataflows beträgt das Timeout 24 Stunden. Hierbei wird nicht zwischen Tabellen und/oder Dataflows unterschieden.

  • Das Ändern eines Dataflows von einer inkrementellen Aktualisierung in eine normale Aktualisierung oder umgekehrt führt zu einem Verlust aller Daten.

  • Beim Bearbeiten des Schemas eines Dataflows werden alle Daten gelöscht.

  • Bei Verwendung einer Premium-Einzelbenutzerlizenz (PPU) mit Dataflows werden Daten beim Verschieben aus einer Premium-Einzelbenutzerumgebung gelöscht.

  • Wenn ein Dataflow im Kontext einer Premium-Einzelbenutzerlizenz aktualisiert wird, sind die Daten für Benutzer ohne Premium-Einzelbenutzerlizenz nicht sichtbar.

  • Die inkrementelle Aktualisierung funktioniert nur mit Dataflows, wenn die erweiterte Compute-Engine aktiviert ist.

Verknüpfte und berechnete Tabellen:

  • Verknüpfte Tabellen können bis zu 32 Verweise aufweisen.

  • Zyklische Abhängigkeiten verknüpfter Tabellen sind nicht zulässig.

  • Eine verknüpfte Tabelle kann nicht mit einer normalen Tabelle verbunden werden, die Daten aus einer lokalen Datenquelle abruft.

  • Wenn eine Abfrage (z. B. Abfrage A) in der Berechnung einer anderen Abfrage (Abfrage B) in Dataflows auftritt, wird Abfrage B zu einer berechneten Tabelle. Berechnete Tabellen können sich nicht auf lokale Quellen beziehen.

Compute-Engine:

  • Bei Verwendung der Compute-Engine erhöht sich die Zeit für die Datenerfassung zu Beginn um etwa 10 bis 20 %.

    • Dies gilt nur für den ersten Dataflow, der sich in der Compute-Engine befindet und Daten aus der Datenquelle liest.
    • Für darauffolgende Dataflows, die den Quelldataflow verwenden, gilt diese Erhöhung nicht.
  • Nur bestimmte Vorgänge nutzen die Compute-Engine und dies auch nur, wenn die Verwendung über eine verknüpfte Tabelle oder als berechnete Tabelle erfolgt. Eine vollständige Liste der Vorgänge finden Sie in diesem Blogbeitrag.

Kapazitätsverwaltung:

  • Power BI Premium-Kapazitäten sind so konzipiert, dass sie über eine interne Resource Manager-Instanz verfügen, die die Workloads auf verschiedene Weise drosselt, wenn die Kapazität über wenig freien Arbeitsspeicher verfügt.

    1. Bei Dataflows reduziert diese Drosselung die Anzahl verfügbarer M-Container.
    2. Der Arbeitsspeicher für Dataflows kann auf 100 Prozent festgelegt werden. Dabei wird die Größe des Containers entsprechend der Größe Ihrer Daten passend ausgewählt. Die Workload verwaltet die Anzahl der Container entsprechend.
  • Die ungefähre Anzahl an Containern kann ermittelt werden, indem die der Workload insgesamt zugeordnete Arbeitsspeichermenge durch die Arbeitsspeichermenge geteilt wird, die einem Container zugeordnet ist.

Dataflownutzung in Semantikmodellen

  • Sorgen Sie beim Erstellen eines Semantikmodells in Power BI Desktop und beim anschließenden Veröffentlichen des Semantikmodells für den Power BI-Dienst dafür, dass es sich bei den in Power BI Desktop für die Datenquelle der Dataflows verwendeten Anmeldeinformationen um dieselben handelt, die auch beim Veröffentlichen des Semantikmodells für den Dienst genutzt wurden.
    1. Wenn Sie nicht sicherstellen, dass dieselben Anmeldeinformationen genutzt werden, führt dies zum Fehler Schlüssel nicht gefunden bei der Aktualisierung des Semantikmodells.

Hinweis

Wenn die Struktur des Dataflows geändert wird, z. B. durch eine neue oder umbenannte Spalte, wird die Änderung nicht im Semantikmodell angezeigt. Die Änderung kann zudem dazu führen, dass eine Datenaktualisierung im Power BI-Dienst für das Semantikmodell so lange fehlschlägt, bis es in Power BI Desktop aktualisiert und erneut veröffentlicht wird.

Dataflows und benannte Verbindungen

Bei Verwendung von Dataflows mit benannten Verbindungen gelten die folgenden Einschränkungen:

  • Sie können nur eine einzige Cloudverbindung eines bestimmten Pfads und Typs erstellen, z. B. können Sie nur eine SQL-Cloudverbindung mit Server/Datenbank erstellen. Sie können mehrere Gatewayverbindungen erstellen.
  • Sie können Clouddatenquellen nicht benennen oder umbenennen; aber Sie können Gatewayverbindungen benennen und umbenennen.

Einschränkungen für ADLS

  • ADLS ist in GCC-, GCC High- und DoD-Umgebungen nicht verfügbar. Weitere Informationen finden Sie unter Power BI für US-Behördenkunden.
  • Aufgrund von Änderungen an den ADLS Gen2-APIs müssen Sie der Ressource als Besitzer zugewiesen sein.
  • Die Migration von Azure-Abonnements wird nicht unterstützt. Hierfür gibt es jedoch zwei Alternativen:
    • Erster Ansatz: Nach der Migration kann der Benutzer das Anfügen von Arbeitsbereichen aufheben und diese Arbeitsbereiche anschließend wieder anfügen. Wenn Sie das Konto auf Mandantenebene verwenden, müssen Sie das Anfügen für alle Arbeitsbereiche aufheben, dann das Anfügen auf der Mandantenebene aufheben und schließlich die Arbeitsbereiche wieder anfügen. Dies kann bei Kunden, die nicht alle Dataflows löschen möchten oder über viele Arbeitsbereiche verfügen, unerwünscht sein.
    • Zweiter Ansatz: Wenn das obige Vorgehen nicht möglich ist, senden Sie eine Supportanfrage, um die Abonnement-ID in der Datenbank ändern zu lassen.
  • ADLS unterstützt die meisten Elemente in der Liste im Abschnitt Verzeichnis- und Dateinamen des Artikels zur Benennung von Arbeitsbereichen und Dataflows aufgrund der folgenden Einschränkungen nicht:
    • Power BI gibt entweder einen nicht hilfreichen Fehler zurück oder lässt das Ausführen des Prozesses zu, gibt bei der Aktualisierung jedoch einen Fehler zurück.
  • Mandantenübergreifende ADLS-Abonnements werden nicht unterstützt. Die an Power BI angefügte ADLS-Instanz muss zu dem Azure-Mandanten gehören, den Power BI für Microsoft Entra ID verwendet.

Dataflow-Datentypen

Die in Dataflows unterstützten Datentypen lauten wie folgt:

Mashupdatentyp Dataflow-Datentyp
Time Time
Date Date
Datetime Datetime
DatumZeitzone (DateTimeZone) DateTimeOffset
Logisch Boolean
Text String
Any String
Währung Decimal
Int8 Int64
Int16 Int64
Int32 Int64
Int64 Int64
Double Double
Prozentwert Double
Single Double
Decimal Double
Number Double
Duration Nicht unterstützt
Binary Nicht unterstützt
Funktion Nicht unterstützt
Tabelle Nicht unterstützt
List Nicht unterstützt
Datensatz Nicht unterstützt
type Nicht unterstützt
Aktion Nicht unterstützt
Keiner Nicht unterstützt
Null Nicht unterstützt

In den folgenden Artikeln finden Sie weitere Informationen zu Dataflows und Power BI: