Konfigurieren und Verwenden eines Dataflows
Mit Dataflows können Sie Daten aus mehreren Quellen vereinheitlichen und die vereinheitlichten Daten für die Modellierung vorbereiten. Wenn Sie einen Dataflow erstellen, werden Sie aufgefordert, die Daten für den Dataflow zu aktualisieren. Sie müssen den Dataflow aktualisieren, bevor er in einem Dataset in Power BI Desktop verwendet werden kann oder bevor Sie auf ihn als verlinkte oder berechnete Tabelle verweisen können.
Konfigurieren von Dataflows
Klicken Sie zur Konfiguration der Aktualisierung eines Dataflows erst auf das Menü Mehr (Auslassungspunkte) und dann auf Einstellungen.

Unter Einstellungen finden Sie viele Optionen für Ihren Dataflow, die in den folgenden Abschnitten beschrieben werden.

Besitz übernehmen: Wenn Sie nicht der Besitzer des Dataflows sind, werden viele dieser Einstellungen deaktiviert. Sie können den Besitz des Dataflows übernehmen, indem Sie auf Übernehmen klicken. Sie werden dazu aufgefordert, Anmeldeinformationen einzugeben, damit sichergestellt werden kann, dass Sie über die erforderlichen Zugriffsrechte verfügen.
Gatewayverbindung: In diesem Abschnitt können Sie auswählen, ob der Dataflow ein Gateway verwendet und welches Gateway verwendet werden soll.
Anmeldeinformationen für die Datenquelle: In diesem Abschnitt können Sie auswählen, welche Anmeldeinformationen verwendet werden, und ändern, wie Sie sich bei der Datenquelle authentifizieren.
Vertraulichkeitsbezeichnung: In diesem Abschnitt können Sie die Vertraulichkeit der Daten im Dataflow definieren. Weitere Informationen zu Vertraulichkeitsbezeichnungen finden Sie unter Anwenden von Vertraulichkeitsbezeichnungen in Power BI.
Geplante Aktualisierung: Hier können Sie die Tageszeiten definieren, an denen der ausgewählte Dataflow aktualisiert werden soll. Dataflows können genauso häufig aktualisiert werden wie Datasets.
Enhanced Compute Engine settings (Erweiterte Compute-Engine-Einstellungen): Hier können Sie definieren, ob der Dataflow innerhalb der Compute-Engine gespeichert wird. Die Compute-Engine ermöglicht es anschließenden Dataflows, die auf diesen Dataflow verweisen, Zusammenführungen, Verknüpfungen und andere Transformationen viel schneller durchzuführen als gewöhnlich. Außerdem kann DirectQuery für den Dataflow ausgeführt werden. Wenn Sie On (Ein) auswählen, wird sichergestellt, dass der Dataflow immer im DirectQuery-Modus unterstützt wird und für alle Verweise die Engine verwendet werden kann. Wenn Sie Optimiert auswählen, wird die Engine nur verwendet, wenn es einen Verweis auf diesen Dataflow gibt. Wenn Sie Off (Aus) auswählen, werden die Compute-Engine und die DirectQuery-Funktion für diesen Dataflow deaktiviert.
Endorsements (Vermerke): Sie können definieren, ob der Dataflow zertifiziert oder höhergestuft ist.
Hinweis
Dataflows können von Benutzern in einem Premium-Arbeitsbereich, Benutzern mit einer pro-Lizenz und Benutzern mit einer Premium pro Benutzer-Lizenz (PPU) erstellt werden.
Aktualisieren eines Dataflows
Dataflows sind Bausteine, die aufeinander aufbauen. Angenommen, Sie verfügen über einen Dataflow namens Rohdaten und eine verknüpfte Tabelle mit dem Namen Transformierte Daten, die eine mit dem Dataflow Rohdaten verknüpfte Tabelle enthält. Wenn eine geplante Aktualisierung für den Dataflow Rohdaten ausgelöst wird, werden im Anschluss auch alle anderen Dataflows ausgelöst, die auf diese verweisen. Diese Funktion erzeugt eine Kettenreaktion für Aktualisierungen, sodass Sie Dataflows nicht manuell planen müssen. Bei der Aktualisierung von verknüpften Tabellen gibt es einiges zu beachten:
Eine verknüpfte Tabelle wird nur durch eine Aktualisierung ausgelöst, wenn sie im selben Arbeitsbereich gespeichert ist.
Verknüpfte Tabellen können nicht bearbeitet werden, wenn eine Quelltabelle aktualisiert wird. Wenn einer der Dataflows in einer Bezugskette nicht aktualisiert werden kann, wird für sämtliche Dataflows ein Rollback auf die alten Daten ausgeführt. Dataflowaktualisierungen werden innerhalb eines Workspace auf Transaktionsebene ausgeführt.
Es werden nur die Tabellen aktualisiert, auf die verwiesen wird, wenn sie durch den Abschluss einer Aktualisierung eines Quelldataflows ausgelöst werden. Zur Planung aller Tabellen sollten Sie für die verknüpfte Tabelle ebenfalls einen Aktualisierungszeitplan festlegen. Sie sollten jedoch keinen Aktualisierungszeitplan für verknüpfte Dataflows festlegen, um doppelte Aktualisierungen zu vermeiden.
Aktualisierung abbrechen: Im Gegensatz zu Datasets besteht für Dataflows die Möglichkeit, Aktualisierungsvorgänge abzubrechen. Wenn eine Aktualisierung lange dauert, können Sie über die Auslassungspunkte neben dem jeweiligen Dataflow die Dataflowoptionen öffnen und dann auf Aktualisierung abbrechen klicken.
Inkrementelle Aktualisierung (nur Premium): Dataflows können auch inkrementell aktualisiert werden. Wählen Sie hierzu den gewünschten Dataflow aus, und klicken Sie auf das Symbol „Inkrementelle Aktualisierung“.

Wenn Sie inkrementelle Aktualisierungen einrichten, werden Parameter zum Dataflow hinzugefügt, um den Datumsbereich festzulegen. Ausführliche Informationen zum Einrichten der inkrementellen Aktualisierung finden Sie im Artikel Inkrementelle Aktualisierung in Power Query.
In einigen Situationen sollten Sie die inkrementelle Aktualisierung nicht auswählen:
Für verknüpfte Tabellen sollten keine inkrementellen Aktualisierungen verwendet werden, wenn sie auf einen Dataflow verweisen. Dataflows unterstützen kein Query Folding (auch nicht, wenn DirectQuery für die Tabelle aktiviert ist).
Für Datasets, die auf Dataflows verweisen, sollten keine inkrementellen Aktualisierungen verwendet werden. Aktualisierungen von Dataflows sind in der Regel sehr leistungsfähig, weshalb keine inkrementellen Aktualisierungen benötigt werden sollten. Wenn Aktualisierungen zu lange dauern, empfiehlt es sich, die Compute-Engine oder den DirectQuery-Modus zu verwenden.
Verwenden von Dataflows
Es gibt drei Möglichkeiten, Dataflows zu verwenden:
Erstellen Sie eine verknüpfte Tabelle für den Dataflow, damit andere Dataflowautoren die Daten verwenden können.
Erstellen Sie ein Dataset für den Dataflow, damit Benutzer die Daten für die Erstellung von Berichten verwenden können.
Stellen Sie über externe Tools, die das CDM-Format lesen können, eine Verbindung her.
Verwendung über Power BI Desktop: Wenn Sie einen Dataflow verwenden möchten, führen Sie Power BI Desktop aus, und klicken Sie im Dialogfeld Daten abrufen auf den Power BI-Connector für Dataflows.
Hinweis
Der Power BI-Connector für Dataflows verwendet andere Anmeldeinformationen als die des zum jeweiligen Zeitpunkt angemeldeten Benutzers. Dies ist beabsichtigt, damit Benutzer mehrere Mandanten verwenden können.

Wählen Sie aus, welche Dataflows und Tabellen Sie miteinander verknüpfen möchten.
Hinweis
Sie können zu jedem Dataflow und jeder Tabelle eine Verbindung herstellen, unabhängig davon, wo sie gespeichert sind und ob sie in einem Premium-Arbeitsbereich oder einem anderen Arbeitsbereich definiert wurden.

Wenn DirectQuery verfügbar ist, werden Sie dazu aufgefordert auszuwählen, ob Sie eine Verbindung mit den Tabellen über DirectQuery oder über einen Import herstellen möchten.
Im DirectQuery-Modus können Sie große Datasets schnell auf lokaler Ebene abfragen. Sie können jedoch keine weiteren Transformationen durchführen.
Wenn Sie sich für einen Import der Daten in Power BI entscheiden, muss das Dataset unabhängig vom Dataflow aktualisiert werden.
Nächste Schritte
In den folgenden Artikeln finden Sie weitere Informationen zu Dataflows und Power BI: