Freigeben über


Self-Service Datenaufbereitung mit Dataflows

Mit dem wachsenden Datenvolumen wächst auch die Herausforderung, diese Daten in gut strukturierte, umsetzbare Informationen zu verwandeln. Sie benötigen Daten, die für Apps, KI-Workloads oder Analysen vorbereitet sind, damit Sie Datenmengen schnell in umsetzbare Erkenntnisse umwandeln können. Mit der Self-Service-Datenvorbereitung im Power Apps Portal können Sie Daten mit wenigen Klicks in Microsoft Dataverse oder das Azure Data Lake Storage Gen2-Konto Ihres Unternehmens transformieren und laden.

Dataflows wurden eingeführt, um Unternehmen dabei zu unterstützen, Daten aus unterschiedlichen Quellen zu vereinheitlichen und für den Verbrauch vorzubereiten. Sie können Dataflows mit vertrauten Self-Service-Tools erstellen, um große Datenmengen aufzunehmen, zu transformieren, zu integrieren und anzureichern. Beim Erstellen eines Dataflows definieren Sie Datenquellenverbindungen, ETL (Extrahieren, Transformieren, Laden) Logik und Ziel, in das die resultierenden Daten geladen werden sollen. Nach der Erstellung können Sie den Aktualisierungsplan eines Dataflows so konfigurieren, dass er angibt, wie oft er ausgeführt werden soll. Darüber hinaus macht die neue modellgetriebene Rechen-Engine den Prozess der Datenaufbereitung überschaubarer, deterministischer und für Dataflow-Kunden weniger schwerfällig. Mit Dataflows können Aufgaben, die früher von einer Daten-IT-Organisation erstellt und überwacht wurden (und viele Stunden oder Tage), nun mit wenigen Klicks von Personen erledigt werden, die nicht einmal Datenwissenschaftler sind, wie z. B. App-Ersteller, Business-Analysten und Reportgeneratoren.

Dataflows speichern Daten in Tabellen. Eine Tabelle ist eine Zeilengruppe, in der Daten gespeichert werden, ähnlich zur Speicherung von Daten in einer Tabelle einer Datenbank. Kunden können benutzerdefinierte Tabellenschemata definieren oder die Standardtabellen des Common Data Model nutzen. Das Common Data Model ist eine gemeinsame Datensprache, die von Geschäfts- und Analyseanwendungen verwendet wird. Das Metadatensystem des Common Data Model ermöglicht die Konsistenz von Daten und deren Bedeutung über Anwendungen und Geschäftsprozesse hinweg, wie beispielsweise Power Apps, Power BI, einige Dynamics 365-Anwendungen (modellgetriebene Anwendungen) und Azure, die Daten in Übereinstimmung mit dem Common Data Model speichern. Die resultierenden Tabellen eines Dataflows können dann in einer der folgenden Varianten gespeichert werden:

  • Dataverse. Ermöglicht die sichere Speicherung und Verwaltung von Daten, die von Geschäftsanwendungen verwendet werden, die mit Power Apps und Power Automate erstellt wurden.

  • Azure Data Lake Storage Gen2. Ermöglicht die Zusammenarbeit mit Personen in Ihrem Unternehmen über Power BI, Azure Data und AI-Dienste oder speziell entwickelte Branchenanwendungen, die Daten aus dem Lake lesen. Dataflows, die Daten in ein Azure Data Lake Storage Gen2-Konto laden, speichern Daten in Common Data Model-Ordnern. Common Data Model Ordner enthalten schematisierte Daten und Metadaten in einem standardisierten Format, um den Datenaustausch zu erleichtern und die volle Interoperabilität über Dienste hinweg zu ermöglichen, die Daten produzieren oder verbrauchen, die im Azure Data Lake Storage-Konto eines Unternehmens als gemeinsame Speicherschicht gespeichert sind.

Sie können Dataflows verwenden, um Daten aus einer großen und wachsenden Anzahl von unterstützten lokalen und Cloud-basierten Datenquellen wie Excel, Azure SQL Database, SharePoint, Azure Data Explorer, Salesforce, Oracle-Datenbank und mehr aufzunehmen.

Nach der Auswahl der Datenquelle können Sie die Power Query Low-Code/No-Code-Erfahrung nutzen, um die Daten zu transformieren und auf Standard-Tabellen im Common Data Model abzubilden oder eigene Tabellen zu erstellen. Fortgeschrittene Benutzer können die M-Sprache eines Dataflows direkt bearbeiten, um Dataflows vollständig anzupassen, ähnlich wie bei der Power Query, die Millionen von Power BI Desktop und Excel-Benutzern bereits kennen.

Nachdem Sie einen Dataflow erstellt und gespeichert haben, müssen Sie ihn in der Cloud ausführen. Sie können wählen, ob Sie einen Dataflow manuell auslösen oder die Häufigkeit für den Power Platform Dataflow Dienst für Sie planen möchten. Wenn ein Dataflow einen Lauf beendet, stehen seine Daten zur Verfügung. Um Dataflowdaten in Dataverse zu laden, kann der Common Data Service-Konnektor in Power Apps, Power Automate, Excel und allen anderen Anwendungen verwendet werden, die den Dataverse-Konnektor unterstützen. Um von Dataflows zu profitieren, die im Azure Data Lake Storage Gen2-Konto Ihres Unternehmens gespeichert sind, können Sie den Power Platform Dataflow-Konnektor in Power BI Desktop verwenden oder direkt auf die Dateien im Lake zugreifen.

Wie man Dataflows verwendet

Der vorherige Abschnitt lieferte Hintergrundinformationen zur Dataflow-Technologie. In diesem Abschnitt erhalten Sie einen Überblick darüber, wie Dataflows in einem Unternehmen verwendet werden können.

Hinweis

Sie müssen einen kostenpflichtigen Power Apps-Plan haben, um Dataflows zu verwenden, aber Sie werden nicht separat für die Verwendung von Dataflows berechnet.

Daten auf Dataverse laden

Dataflows können verwendet werden, um Tabellen in den Common Data Service zu füllen, die dann in Power Apps Anwendungen verwendet werden. Mit ein paar Klicks können Sie Daten aus Online- und lokalen Datenquellen integrieren.

Erweiterung des gemeinsamen Datenmodells für Ihre Geschäftsanforderungen

Für Unternehmen, die das Common Data Model erweitern und darauf aufbauen wollen, ermöglichen Dataflows Business Intelligence-Experten, die Standardtabellen anzupassen oder neue zu erstellen. Dieser Self-Service-Ansatz zur Anpassung des Datenmodells kann dann zusammen mit Dataflows verwendet werden, um Power BI-Dashboards zu erstellen, die auf ein Unternehmen zugeschnitten sind.

Erweitern Sie Ihre Fähigkeiten mit Azure Data und AI Services.

Die Power Platform-Dataflows können so konfiguriert werden, dass sie Dataflow-Daten im Azure Data Lake Storage-Gen2-Konto Ihres Unternehmens speichern. Wenn eine Umgebung mit dem Data Lake Ihres Unternehmens verbunden ist, können Datenwissenschaftler und Entwickler leistungsstarke Azure-Produkte wie Azure Machine Learning, Azure Databricks, Azure Data Factory und mehr nutzen.

Weitere Informationen über die Azure Data Lake Storage Gen2- und Dataflowintegration, einschließlich der Erstellung von Dataflows, die sich im Azure Data Lake Ihrer Organisation befinden, finden Sie unter Azure Data Lake Storage Gen2 für Datenflussspeicher verbinden.

Zusammenfassung der Self-Service Datenvorbereitung für Big Data in Power Apps.

Es gibt mehrere Szenarien und Beispiele, in denen Dataflows es Ihnen ermöglichen, eine bessere Kontrolle - und schnellere Einblicke - über Ihre Geschäftsdaten zu erhalten. Andere Personen in Ihrem Unternehmen können Dataflows entweder über Dataverse, den Power Platform Dataflow-Konnektor in Power BI oder über den direkten Zugriff auf den Ordner Common Data Service von Dataflow im Azure Data Lake Storage Gen2-Konto Ihres Unternehmens nutzen. Unter Verwendung eines durch das Common Data Model definierten Standard-Datenmodells (Schema) können Geschäftsanwendungen vom Schema einer Tabelle abhängen und von der Art und Weise, wie die Daten erstellt wurden oder von welcher Datenquelle abstrahiert werden. Wenn ein Dataflow einen geplanten Lauf beendet, sind die Daten bereit für die Modellierung und Erstellung von Apps, Flows oder BI-Insights in sehr kurzer Zeit (was früher Monate oder länger gedauert hat).

Das standardisierte Format des Common Data Model ermöglicht es den Mitarbeitern in Ihrem Unternehmen, Anwendungen zu erstellen, die schnell, einfach und automatisch Visualisierungen und Berichte generieren. Diese beinhalten, sind aber nicht beschränkt auf:

  • Abbildung Ihrer Daten aus verschiedenen Quellen auf Standardtabellen im Common Data Model, um Daten zu vereinheitlichen und das bekannte Schema zu nutzen, um Out-of-the-Box-Anwendungen zu betreiben.

  • Erstellen Sie Ihre eigenen benutzerdefinierten Tabellen, um Daten in Ihrem Unternehmen zu vereinheitlichen.

  • Erstellung von Power BI-Berichten und Dashboards zur Nutzung von Dataflowdaten.

  • Erstellen der Integration mit Azure Data und AI-Services über das Azure Data Lake Storage Gen2-Konto Ihres Unternehmens.

Nächste Schritte

Dieser Artikel gab einen Überblick über die Vorbereitung von Self-Service-Daten im Power Apps Portal und darüber, wie Sie diese nutzen können. In den folgenden Themen werden die üblichen Nutzungsszenarien für Dataflows näher erläutert:

Weitere Informationen zu Power Query und geplanter Aktualisierung finden Sie in diesen Artikeln:

Weitere Informationen zum Common Data Model finden Sie in seinem Übersichtsartikel:

Hinweis

Können Sie uns Ihre Präferenzen für die Dokumentationssprache mitteilen? Nehmen Sie an einer kurzen Umfrage teil. (Beachten Sie, dass diese Umfrage auf Englisch ist.)

Die Umfrage dauert etwa sieben Minuten. Es werden keine personenbezogenen Daten erhoben. (Datenschutzbestimmungen).