Power BI でのセルフサービスのデータ準備 (プレビュー)Self-service data prep in Power BI (Preview)

データの量は増え続けるので、データを整った形式のアクションにつながる情報に変換することが課題です。As data volume continues to grow, so does the challenge of wrangling that data into well-formed, actionable information. 大量のデータをアクションにつながる分析情報に迅速に変換できるよう、分析を行ったり、ビジュアル、レポート、ダッシュボードに設定したりする準備が整っているデータが必要です。We want data that’s ready for analytics, to populate visuals, reports, and dashboards, so we can quickly turn our volumes of data into actionable insights. Power BI のビッグ データに対するセルフサービスのデータ準備を使用すると、ほんの数クリックでデータを Power BI の分析情報にできます。With self-service data prep for big data in Power BI, you can go from data to Power BI insights with just a few clicks.

Power BI でデータフローを使用する

Power BI では、ばらばらのソースからデータを取りまとめてモデリング用に準備するのに役立つデータフローが導入されています。Power BI introduces dataflows to help organizations unify data from disparate sources and prepare it for modeling. アナリストは、使い慣れたセルフサービス ツールを使用して簡単にデータフローを作成できます。Analysts can easily create dataflows, using familiar, self-service tools. データフローは、データ ソース接続、ETL ロジック、更新スケジュールなどを定義することにより、ビッグ データの取り込み、変換、統合、補強を行うために使用されます。Dataflows are used to ingest, transform, integrate, and enrich big data by defining data source connections, ETL logic, refresh schedules, and more. さらに、データフローの一部である新しいモデル駆動型計算エンジンにより、データ アナリストやレポート作成者にとっても、データの準備が管理しやすくなり、より決定論的になり、面倒でなくなります。In addition, the new model-driven calculation engine that's part of dataflows makes the process of data preparation more manageable, more deterministric, and less cumbersome for data analysts and report creators alike. スプレッドシートが影響を受けたすべての数式を再計算するのと同じように、データフローはユーザーに代わってエンティティやデータ要素の変更を管理し、更新を自動化して、基本的なデータ更新であっても面倒で時間がかかっていたロジック チェックを軽減します。Similar to how spreadsheets handle recalculations for all affected formulas, dataflows manage changes for an entity or data element on your behalf, automating updates, and alleviating what used to be tedious and time consuming logic checks for even a basic data refresh. データフローを使用すると、データ科学者が監視する必要のあった (そして、完了するまでに何時間または何日も要した) タスクを、アナリストやレポート作成者が数回クリックするだけで処理できるようになります。With dataflows, tasks that once required data scientists to oversee (and many hours or days to complete) can now be handled with a few clicks by analysts and report creators.

データは、Azure Data Lake Storage Gen2 内の Common Data Model にエンティティとして格納されます。Data is stored as entities in the Common Data Model in Azure Data Lake Storage Gen2. データフローの作成と管理は、Power BI サービスのアプリ ワークスペースで行います。Dataflows are created and managed in app workspaces by using the Power BI service.

注意

データフローの機能はプレビュー中であり、一般公開前に変更および更新される可能性があります。the dataflows functionality is in preview, and is subject to change and updates prior to general availability.

データフロー は、Common Data Model を使用するように設計されています。Common Data Model は、マイクロソフトによって公開されている、データのビルド、使用、および分析を容易にする目的で作成されているデータ スキーマの標準化されたモジュール型の拡張可能なコレクションです。Dataflows are designed to use the Common Data Model, a standardized, modular, extensible collection of data schemas published by Microsoft that are designed to make it easier for you to build, use, and analyze data. このモデルでは、データ ソースから Power BI ダッシュボードを作成する手間がほとんどかかりません。With this model, you can go from data sources to Power BI dashboards with nearly zero friction.

データフローを使用すると、Dynamics 365、Salesforce、Azure SQL Database、Excel、SharePoint など、サポートされている大規模で拡大するオンプレミスおよびクラウドベースのデータ ソースから、データを取り込むことができます。You can use dataflows to ingest data from a large and growing set of supported on-premises and cloud- based data sources including Dynamics 365, Salesforce, Azure SQL Database, Excel, SharePoint, and more.

その後、Common Data Model の標準エンティティにデータをマップし、既存のエンティティを変更および拡張して、カスタム エンティティを作成できます。You can then map data to standard entities in the Common Data Model, modify and extend existing entities, and create custom entities. 熟練したユーザーは、既に数百万人の Power BI Desktop および Excel のユーザーが知っている Power Query のエクスペリエンスと同様に、Power Query に組み込まれたセルフサービスでコーディングが少量または不要の作成エクスペリエンスを使用して、完全にカスタマイズされたデータフローを作成できます。Advanced users can create fully customized dataflows, using a self-service, low- code/no-code, built-in Power Query authoring experience, similar to the Power Query experience that millions of Power BI Desktop and Excel users already know.

データ フローを作成した後は、Power BI Desktop と Power BI サービスを使用して、Common Data Model の機能を活用するデータセット、レポート、ダッシュボード、アプリを作成し、ビジネス アクティビティについての詳細な分析情報を取得できます。Once you’ve created a dataflow, you can use Power BI Desktop and the Power BI service to create datasets, reports, dashboards, and apps that leverage the power of the Common Data Model to drive deep insights into your business activities.

データセットと同様に、データフローの更新スケジュールは、データフローを作成したワークスペースから直接管理されます。Dataflow refresh scheduling is managed directly from the workspace in which your dataflow was created, just like your datasets.

データフローのしくみHow dataflows work

データフローのしくみの例を次に示します。Here are some examples of how dataflows can work for you:

  • 組織では、Common Data Model の標準エンティティにデータをマップしたり、独自のカスタム エンティティを作成したりすることができます。Organizations can map their data to standard entities in the Common Data Model or create their own custom entities. その後、これらのエンティティを構成要素として使用し、すぐに動作するレポート、ダッシュボード、アプリを作成して、組織全体のユーザーに配布できます。These entities can then be used as building blocks to create reports, dashboards, and apps that work out of the box, and distribute them to users across their organization.

  • Microsoft のデータ コネクタの豊富なコレクションを使用することで、組織では、独自のデータ ソースをデータフローに接続し、Power Query を使用して提供元からデータをマップして Power BI に取り込むことができます。Using the extensive collection of Microsoft data connectors, organizations can connect their own data sources to dataflows, using Power Query to map the data from its origin and bring it into Power BI. データがデータフローによってインポートされると (および、指定された頻度で更新されると)、それらのデータフロー エンティティを Power BI Desktop アプリケーションで使用して、魅力的なレポートとダッシュボードを作成できます。Once that data is imported by a dataflow (and refreshed at a specified frequency), those dataflow entities may be used in the Power BI Desktop application to create compelling reports and dashboards.

データフローを使用する方法How to use dataflows

前のセクションでは、Power BI でデータフローを使用して強力な分析をすばやく作成するさまざまな方法について説明しました。The previous section described a handful of ways dataflows can be used to quickly create powerful analytics in Power BI. このセクションでは、組織でデータフローを使用して分析情報をすばやく作成する方法と、BI プロフェッショナルが独自のデータフローを作成し、自分の組織に合わせて分析情報をカスタマイズする方法を説明します。In this section, you get a tour of how quickly you can create insights using dataflows in an organization, get a quick view into how BI Pros can create their own dataflows, and customize insights for their own organization.

ビジネス ニーズに合わせて Common Data Model を拡張するExtend the common data model for your business needs

Common Data Model (CDM) を拡張したいビジネス インテリジェンス プロフェッショナルは、データフローを使用して標準エンティティをカスタマイズしたり、新しいエンティティを作成したりできます。For organizations that want to extend the Common Data Model (CDM), dataflows enable business intelligence professionals to customize the standard entities, or create new ones. データ モデルのカスタマイズに対するこのセルフサービス アプローチをデータフローで使用して、組織に合わせて調整されたアプリと Power BI ダッシュボードを構築できます。This self-service approach to customizing the data model can then be used with dataflows to build apps and Power BI dashboards that are tailored to an organization.

プログラムでデータフローを定義するDefine dataflows programmatically

データフローを作成するために独自のプログラムによるソリューションを開発したい場合もあります。You might also want to develop your own programmatic solutions to create dataflows. カスタム データフロー定義ファイル (model.json) をプログラムで作成するためのパブリック API と機能により、組織に固有のデータと分析のニーズに適したカスタム ソリューションを作成します。With public APIs and the capability to programmatically create custom dataflow definition files (model.json), you create a custom solution that fits your organization’s unique data and analytics needs.

パブリック API により、Power BI とデータフローを操作するシンプルで簡単な方法が開発者に提供されます。Public APIs allow developers simple and easy ways to interact with Power BI and dataflows.

Azure で機能を拡張するExtend your capabilities with Azure

Azure Data Lake Storage Gen2 は、すべての有料 Power BI サブスクリプションに含まれています (ユーザーあたり 10 GB、P1 ノードあたり 100 TB)。Azure Data Lake Storage Gen2 is included with every paid Power BI subscription (10 GB per user, 100 TB per P1 node). そのため、Azure Data Lake でのセルフサービスのデータ準備を簡単に始めることができます。So, you can easily get started with self-service data prep on Azure Data Lake.

Power BI は、組織の Azure Data Lake Storage Gen2 アカウントにデータフローのデータを格納するように構成できます。Power BI can be configured to store dataflow data in your organization’s Azure Data Lake Storage Gen2 account. Power BI が Azure サブスクリプションに接続されると、データ開発者やデータ科学者は、Azure Machine Learning、Azure Databricks、Azure Data Factory などの強力な Azure 製品を利用できます。When Power BI is connected to your Azure subscription, data developers and data scientists can leverage powerful Azure products such as Azure Machine Learning, Azure Databricks, Azure Data Factory, and more.

また、Power BI では、組織の Azure Data Lake Storage アカウントに格納されている、Common Data Model 形式でスキーマ化されたデータを含むフォルダーにも接続できます。Power BI can also connect to folders with schematized data in the Common Data Model format, which are stored your organization’s Azure Data Lake Storage account. これらのフォルダーは、Azure データ サービスなどのサービスで作成できます。These folders can be created by services such as Azure data services. これらのフォルダーに接続することにより、アナリストは Power BI でこのデータをシームレスに操作できます。By connecting to these folders, analysts can work seamlessly with this data in Power BI.

Power BI Premium でデータフロー機能Dataflow capabilities on Power BI Premium

データフロー機能とワークロードが Power BI Premium サブスクリプションで動作するためには、その Premium 容量に対してデータフロー ワークロードを有効にする必要があります。For dataflow features and workloads to operate on a Power BI Premium subscription, the dataflow workload for that Premium capacity must be turned on. Power BI Premium について詳しくは、「Microsoft Power BI Premium とは何ですか?」をご覧ください。You can learn more about Power BI Premium in the what is Power BI Premium article.

次の表では、Power BI Pro アカウントと Power BI Premium でのデータフローの機能とその容量の比較を示します。The following table describes dataflow features and their capacities when using a Power BI Pro account, and how that compares to using Power BI Premium.

データフローの機能Dataflow capability Power BI ProPower BI Pro Power BI PremiumPower BI Premium
スケジュールされた更新Scheduled refresh 8 回/日8 per day 4848
合計ストレージTotal Storage 10 GB/ユーザー10 GB/user 100 TB/ノード100 TB/node
Power Query Online でのデータフローの作成Dataflow Authoring with Power Query Online + +
Power BI 内でのデータフローの管理Dataflow Management within Power BI + +
Power BI Desktop でのデータフロー データ コネクタDataflows Data Connector in the Power BI Desktop + +
Azure との統合Integration with Azure + +
計算されたエンティティ (M によるストレージ内変換)Computed Entities (in-storage transformations via M) +
新しいコネクタNew connectors + +
データフローの増分更新Dataflow incremental refresh +
Power BI Premium 容量での実行/変換の並列実行Running on Power BI Premium capacity / Parallel execution of transforms +
データフローでリンクされたエンティティDataflow linked entities +
Common Data Model の標準化されたスキーマ/組み込みのサポートStandardized Schema / Built-In Support for the Common Data Model + +

Power BI でのビッグ データ用のセルフサービス データ準備の概要Summary of self-service data prep for big data in Power BI

この記事で既に説明したように、データフローによりビジネス データの制御が向上して分析情報の取得が速くなる複数のシナリオと例があります。As mentioned previously in this article, there are multiple scenarios and examples where dataflows can enable you to get better control – and faster insights – from your business data. Common Data Model によって定義されている標準データ モデル (スキーマ) を使用すると、データフローで貴重なビジネス データをインポートし、これまでは数か月以上もかかっていた BI 分析情報のモデリングと作成のためのデータの準備を、非常に短い期間で行うことができます。Using a standard data model (schema) defined by the Common Data Model, dataflows can import your valuable business data, and have the data ready for modeling and creation of BI insights in a very short period... in what used to take months, or longer, to create.

Common Data Model の標準化された形式でビジネス データを格納することにより、BI プロフェッショナル (または開発者) は、すばやく簡単にビジュアルやレポートを自動生成するアプリを作成できます。By storing business data in the standardized format of the Common Data Model, your BI Pros (or developers) can create apps that generate quick, easy, and automatic visuals and reports. 次のものが含まれますが、これだけではありません。Those include, but aren’t limited to:

  • データを統合し、既知のスキーマを利用してすぐに使用可能な分析情報を取得するための、Common Data Model の標準エンティティへのデータのマッピングMapping your data to standard entities in the Common Data Model to unify data and leverage the known schema to drive out-of-the-box insights
  • 組織全体のデータを統合するための独自のカスタム エンティティの作成Creating your own custom entities to unify data across your organization
  • データ フローの一部としての外部データの使用と更新、およびそのデータをインポートすることによる分析情報の生成Use and refresh external data as part of a dataflow, and enable import of that data to drive insights
  • 開発者向けのデータフローの開始Getting started with dataflows for developers

次の手順Next Steps

この記事では、Power BI でのビッグ データ用のセルフサービスのデータ準備の概要と、それを使用するさまざまな方法を説明しました。This article provided an overview of self service data prep for big data in Power BI, and the many ways you can use it. 以下の記事では、データフローの一般的な使用シナリオについてさらに詳しく説明します。The following articles go into more detail about common usage scenarios for dataflows.

Power Query とスケジュールされた更新について詳しくは、次の記事をご覧ください。For more information about Power Query and scheduled refresh, you can read these articles:

Common Data Model について詳しくは、次の概要記事をご覧ください。For more information about the Common Data Model, you can read its overview article: