データフローとセルフサービスのデータ準備の概要Introduction to dataflows and self-service data prep

データの量は増え続けるので、データを整った形式のアクションにつながる情報に変換することが課題です。As data volume continues to grow, so does the challenge of wrangling that data into well-formed, actionable information. 大量のデータをアクションにつながる分析情報に迅速に変換できるよう、分析を行ったり、ビジュアル、レポート、ダッシュボードに設定したりする準備が整っているデータが必要です。We want data that’s ready for analytics, to populate visuals, reports, and dashboards, so we can quickly turn our volumes of data into actionable insights. Power BI のビッグ データに対するセルフサービスのデータ準備を使用すると、ほんの数クリックでデータを Power BI の分析情報にできます。With self-service data prep for big data in Power BI, you can go from data to Power BI insights with just a few clicks.

データのフロー

データフローを使用する場合When to use dataflows

データフローは、次のシナリオをサポートするように設計されています。Dataflows are designed to support the following scenarios:

  • Power BI 内の多くのデータセットおよびレポートで共有できる再利用可能な変換ロジックを作成します。Create reusable transformation logic that can be shared by many datasets and reports inside Power BI. データフローにより、基になるデータ要素の再利用性が促進され、クラウドまたはオンプレミスのデータ ソースとの個別の接続を作成する必要がなくなります。Dataflows promote reusability of the underlying data elements, preventing the need to create separate connections with your cloud or on-premise data sources.

  • 独自の Azure Data Lake Gen 2 ストレージ内のデータを公開し、他の Azure サービスを未加工の基になるデータに接続できるようにします。Expose the data in your own Azure Data Lake Gen 2 storage, enabling you to connect other Azure services to the raw underlying data.

  • 基になるシステムに接続するのではなく、アナリストにデータフローへの接続を強制することで、信頼できる単一の情報源を作成し、アクセスするデータと、データをレポート作成者に公開する方法を制御することができます。Create a single source of the truth by forcing analysts to connect to the dataflows, rather than connecting to the underlying systems, providing you with control over which data is accessed, and how data is exposed to report creators. また、データを業界標準の定義にマッピングして、Power Platform の他のサービスや製品で使用できるように、きちんとキュレーションされたビューを作成することもできます。You can also map the data to industry standard definitions, enabling you to create tidy curated views, which can work with other services and products in the Power Platform.

  • 大量のデータを処理して ETL を大規模に実行する場合、Power BI Premium を使用したデータフローはより効率的に拡張され、柔軟性が向上します。If you want to work with large data volumes and perform ETL at scale, dataflows with Power BI Premium scales more efficiently and gives you more flexibility. データフローにより、さまざまなクラウドおよびオンプレミスのソースがサポートされます。Dataflows supports a wide range of cloud and on-premise sources.

  • アナリストが基になるデータ ソースに直接アクセスするのを防ぎます。Prevent analysts from having direct access to the underlying data source. レポート作成者はデータフローに基づいて作成できるため、基になるデータソースへのアクセスを少数の個人にのみ許可し、アナリストがデータフローにアクセスし、それに基づいて作成できるようにする方が便利な場合があります。Since report creators can build on top of dataflows, it may be more convenient for you to allow access to underlying data sources only to a few individuals, and then provide access to the dataflows for analysts to build on top of. このアプローチを使用すると、基になるシステムへの負荷が削減され、管理者は、システムが更新から読み込まれるタイミングをより細かく制御できます。This approach reduces the load to the underlying systems, and gives administrators finer control of when the systems get loaded from refreshes.

データ フローを作成した後は、Power BI Desktop と Power BI サービスを使用して、Common Data Model を活用するデータセット、レポート、ダッシュボード、アプリを作成し、ビジネス アクティビティについての詳細な分析情報を取得できます。Once you’ve created a dataflow, you can use Power BI Desktop and the Power BI service to create datasets, reports, dashboards, and apps that leverage the Common Data Model to drive deep insights into your business activities. データセットと同様に、データフローの更新スケジュールは、データフローを作成したワークスペースから直接管理されます。Dataflow refresh scheduling is managed directly from the workspace in which your dataflow was created, just like your datasets.

次のステップNext steps

この記事では、Power BI でのビッグ データ用のセルフサービスのデータ準備の概要と、それを使用するさまざまな方法を説明しました。This article provided an overview of self-service data prep for big data in Power BI, and the many ways you can use it.

データフローと Power BI の詳細については、以下の記事を参照してください。The following articles provide more information about dataflows and Power BI:

Common Data Model について詳しくは、次の概要記事をご覧ください。For more information about the Common Data Model, you can read its overview article: