Power Apps でのデータフローの作成と使用についてCreate and use dataflows in Power Apps

Power Apps にて利用可能となった高度なデータ プレパレーションでは、データフローと呼ばれるデータの集合を作成することができます。ここでは、様々なソースのビジネスデータとの接続、データの保全、データの変換、変換したデータの Common Data Service あるいは Azure Data Lake Gen2 ストレージのアカウントへの読み込み、を行うことができます。With advanced data preparation available in Power Apps, you can create a collection of data called a dataflow, which you can then use to connect with business data from various sources, clean the data, transform it, and then load it to Common Data Service or your organization’s Azure Data Lake Gen2 storage account.

データフローは、 Power Apps サービス内の環境で作成、管理されるエンティティ (テーブルと類似しています) の集合です。A dataflow is a collection of entities (entities are similar to tables) that are created and managed in environments in the Power Apps service. データフローが作成された環境から直接、データフローにエンティティを追加、編集することができ、データの更新スケジュールの管理もすることができます。You can add and edit entities in your dataflow, as well as manage data refresh schedules, directly from the environment in which your dataflow was created.

Power Apps ポータルでのデータフローの作成が完了したら、 Common Data Service コネクタまたは Power BI Desktop データフローコネクタを使用してデータを取得することが出来ます。このどちらを使用するかはデータフローの作成先によって変わります。Once you create a dataflow in the Power Apps portal, you can get data from it using the Common Data Service connector or Power BI Desktop Dataflow connector, depending on which destination you chose when creating the dataflow.

データフローの使用にあたっては3つの主要な手順があります:There are three primary steps to using a dataflow:

  1. Power Apps にてデータフローを作成します。Author the dataflow in the Power Apps portal. 出力されたデータを読み込む場所 (データの取得元) と、Power Query の手順を選択し、専用のMicrosoft ツールを使用してデータの変換を行います。You select the destination to load the output data to, the source to get the data from, and the Power Query steps to transform the data using Microsoft tools that are designed to make doing so straightforward.

  2. スケジュールのデータフローが実行されます。Schedule dataflow runs. これはデータフローが読み込み、変換するデータを Power Platform データフローが更新する頻度です。This is the frequency in which the Power Platform Dataflow should refresh the data that your dataflow will load and transform.

  3. 指定したストレージに読み込んだデータを使用します。Use the data you loaded to the destination storage. アプリケーション、ワークフロー、 Power BI レポート 、ダッシュボードの作成することができます。また、Azure Data Factory、 Azure Databricks などの Azure データサービスやCommon Data Model フォルダ標準をサポートする他のサービスを使用して、組織のレイクにあるデータフローの Common Data Model フォルダに直接接続することができます。You can build apps, flows, Power BI reports, and dashboards or connect directly to the dataflow’s Common Data Model folder in your organization’s lake using Azure data services like Azure Data Factory, Azure Databricks or any other service that supports the Common Data Model folder standard.

以下のセクションでは、これらの各手順について説明しており、各手順を完了するにあたって使用するツールの理解を深めることができます。The following sections look at each of these steps so you can become familiar with the tools provided to complete each step.

データフローの作成Create a dataflow

データフローはひとつの環境内に作成されます。Dataflows are created in one environment. したがって、それらの表示や管理は同環境からのみ行うことができます。Therefore, you will only be able to see and manage them from that environment. また、ワークフローでデータのデータを抽出するユーザーは、レコードを作成した環境へのアクセスができる必要があります。In addition, individuals who want to get data from your dataflow must have access to the environment in which you created it.

注意

現在、 Power Apps の コミュニティ プラン ライセンス では データフローの作成は使用できません。Creating dataflows is currently not available with Power Apps Community Plan licenses.

  1. Power Appsにサインインし、自分がどの環境に割り当てられているかを確認し、コマンド バーの右側に環境スイッチャーがあることを確認してください。Sign in to Power Apps, and verify which environment you're in, find the environment switcher near the right side of the command bar.

    環境スイッチャー

  2. 左側のナビゲーション ウィンドウで、 データの横にある矢印を選択します。On the left navigation pane, select the down arrow next to Data.

    データの選択

  3. データ リストから データフロー を選択し、 新規データフロー を選択します。In the Data list, select Dataflows and then select New dataflow.

    データフローの作成

  4. 読み込み対象を選択する ページで、エンティティを保存する格納先を選択します。On the Select load target page, select the destination storage where you want entities to be stored. データフローはエンティティを Common Data Service 、あるいは自社組織の Azure Data Lake storage に保存することが出来ます。Dataflows can store entities in Common Data Service or in your organization's Azure Data Lake storage account. データを読み込む先を指定したら、データのワークフローの 名前 を入力し、 作成 を選択します。Once you select a destination to load data to, enter a Name for the dataflow, and then select Create.

    読み込み対象の選択

    重要

    データフローの所有者になることができるのは、作成者1人のみです。There is only one owner of any dataflow—the person who created it. 所有者のみがデータフローを編集することが出来ます。Only the owner can edit the dataflow. データのワークフローによって作成されたのデータに対する承認とアクセス権については、データの読み込みを行った場所によって変わってきます。Authorization and access to data created by the dataflow depend on the destination you loaded data to. Common Data Service に読み込まれたデータは、 Common Data Service コネクタを介して利用することができ、データにアクセスするユーザーは Common Data Service に許可される必要があります。Data loaded into Common Data Service will be available via the Common Data Service Connector and requires the person accessing the data to be authorized to Common Data Service. Azure Data Lake Gen2 ストレージアカウントに読み込まれたデータは Power Platform データフロー コネクタ経由でアクセスでき、そのデータにアクセスするには、そのデータが作成された環境内のメンバーシップが必要です。Data loaded into your organization’s Azure Data Lake Gen2 storage account is accessible via the Power Platform Dataflow connector and access to it requires membership within the environment it was created in.

  5. データ ソースの選択 ページで、エンティティが保存されているデータソースを選択し、 作成するを選択します。On the Choose data source page, select the data source where the entities are stored, and then select Create. 表示されたデータ ソースを選択して、データ フロー エンティティを作成することができます。The selection of data sources displayed allows you to create dataflow entities.

    データ ソースの選択

  6. データソースを選択したら、データ ソースへの接続に使用するアカウント情報を含む接続先設定の入力を求められます。After you select a data source, you’re prompted to provide the connection settings, including the account to use when connecting to the data source.

    データソースへの接続

  7. 接続がされたら、エンティティに使用するデータを選択してください。Once connected, you select the data to use for your entity. データとソースを選択すると、 Power Platform Dataflowサービスは続いてデータフロー内のデータを最新の状態に保つために、データソースに再接続します。これは、この設定プロセスの後半で選択する頻度で行われます。When you choose data and a source, the Power Platform Dataflow service will subsequently reconnect to the data source in order to keep the data in your dataflow refreshed, at the frequency you select later in the setup process.

    データを選択します

エンティティで使用するデータを選択したら、データフローエディタを使用して、そのデータをデータフローで使用するために必要な形式に成形または変換することができます。Now that you've selected the data to use in the entity, you can use the dataflow editor to shape or transform that data into the format necessary for use in your dataflow.

データフローエディタを使用してデータを成形または変換するUse the dataflow editor to shape or transform data

Power BI Desktop のPower Query エディタと同様に、Power Query の編集機能を使用して、選択したデータをエンティティに最も適した形式に成形することができます。You can shape your data selection into a form that works best for your entity using a Power Query editing experience, similar to the Power Query Editor in Power BI Desktop. Power Query に関する詳細については、 Power BI Desktopにおけるクエリの概要を参照してください。To learn more about Power Query, see Query overview in Power BI Desktop.

クエリ エディタがステップごとに作成するコードを確認する場合や、独自のシェーピング コードを作成する場合には、高度なエディタを使用することができます。If you want to see the code that Query Editor is creating with each step, or if you want to create your own shaping code, you can use the advanced editor.

詳細エディター

データフローと Common Data ModelDataflows and the Common Data Model

データフローエンティティには、ビジネスデータを Common Data Model に簡単にマッピングし、Microsoft やサードパーティのデータで拡張し、機械学習に簡単にアクセスできる新たなツールが含まれています。Dataflows entities include new tools to easily map your business data to the Common Data Model, enrich it with Microsoft and third-party data, and gain simplified access to machine learning. これらの新機能を活用することで、ビジネス データに関するインテリジェントで実用的な情報を提供することができます。These new capabilities can be leveraged to provide intelligent and actionable insights into your business data. 以下に説明するクエリーの編集手順で変換を完了すると、Common Data Modelで定義されているように、データソーステーブルの列を標準エンティティフィールドにマッピングすることができます。Once you’ve completed any transformations in the edit queries step described below, you can map columns from your data source tables to standard entity fields as defined by the Common Data Model. 標準エンティティには、Common Data Model で定義された既知のスキーマがあります。Standard entities have a known schema defined by the Common Data Model.

このアプローチと Common Data Model に関する詳細情報については、 Common Data Model を参照してください。For more information about this approach, and about the Common Data Model, see The Common Data Model.

データフローで Common Data Model を活用するには、 クエリの編集 ダイアログの 標準にマッピング の変換を選択します。To leverage the Common Data Model with your dataflow, select the Map to Standard transformation in the Edit Queries dialog. 表示された エンティティのマッピング 画面で、マッピングを行う標準エンティティを選択します。In the Map Entities screen that appears, select the standard entity that you want to map.

標準エンティティにマッピングする

標準フィールドにソース列をマッピングすると、以下が発生します:When you map a source column to a standard field, the following occurs:

  1. ソース列には標準フィールド名が使用されます (名称が異なる場合はカラムの名前が変更されます)。The source column takes on the standard field name (the column is renamed if the names are different).

  2. ソース列は、標準フィールドのデータ型を取得します。The source column gets the standard field data type.

Common Data Model の標準を保持するには、マッピングされていないすべての標準フィールドは NULL 値となります。To keep the Common Data Model standard entity, all standard fields that are not mapped get Null values.

マッピングされていないソース列はすべて残留し、マッピングの結果がユーザー定義のフィールドを持つ標準エンティティとなります。All source columns that are not mapped remain as is to ensure that the result of the mapping is a standard entity with custom fields.

選択が完了し、エンティティとそのデータ設定が完了したら、次の手順 (データフローの更新頻度の選択) に進みます。Once you’ve completed your selections and your entity and its data settings are complete, you’re ready for the next step, which is selecting the refresh frequency of your dataflow.

更新頻度の設定Set the refresh frequency

エンティティの定義が完了したら、接続されたデータソースごとの更新頻度を設定します。Once your entities have been defined, you’ll want to schedule the refresh frequency for each of your connected data sources.

  1. データフローでは、データを最新の状態に保つためにデータ更新のプロセスを使用しています。Dataflows use a data refresh process to keep data up to date. Power Platform データフロー設定ツールでは、データフローを任意のスケジュール間隔で手動または自動での更新を選択することが出来ます。In the Power Platform Dataflow authoring tool, you can choose to refresh your dataflow manually or automatically on a scheduled interval of your choice. 更新を自動的に設定するには、 自動的に更新する を選択します。To schedule a refresh automatically, select Refresh automatically.

    自動で更新する

  2. データフローの更新頻度、開始日と時間をUTC時間で入力します。Enter the dataflow refresh frequency, start date, and time, in UTC.

  3. 作成を選択します。Select Create.

Azure Data Lake Storage Gen2に格納されているデータフローを使用するUsing dataflows stored in Azure Data Lake Storage Gen2

組織によっては、データフローの作成と管理に独自のストレージを使用する場合が想定されます。Some organizations might want to use their own storage for creation and management of dataflows. 要件に従ってストレージアカウントを正しく設定していればば、データフローを Azure Data Lake Storage Gen2 と統合することができます。You can integrate dataflows with Azure Data Lake Storage Gen2 if you follow the requirements to set up the storage account properly. 詳細情報: データフロー ストレージに Azure Data Lake Storage Gen2を接続するMore information: Connect Azure Data Lake Storage Gen2 for dataflow storage

データ接続のトラブルシューティングTroubleshooting data connections

データフローのデータソースへと接続すると、問題が発生する場合があります。There might be occasions when connecting to data sources for dataflows runs into issues. このセクションでは、問題発生時のトラブルシューティングをご案内します。This section provides troubleshooting tips when issues occur.

  • Salesforce コネクタSalesforce connector. Salesforce の試用アカウントをデータフローで使用すると、接続エラーとなりますが特に何のメッセージも表示されません。Using a trial account for Salesforce with dataflows results in a connection failure with no information provided. これを解決するには、Salesforce の運用アカウント、または開発アカウントを使用してください。To resolve this, use a production Salesforce account or a developer account for testing.

  • SharePoint コネクタSharePoint connector. SharePoint サイトのルートアドレスを指定していることを確認してください。これにはサブフォルダやドキュメントを含めません。Make sure you supply the root address of the SharePoint site, without any subfolders or documents. 例として、 https://microsoft.sharepoint.com/teams/ObjectModel のような形のリンクを使用してください。For example, use a link similar to https://microsoft.sharepoint.com/teams/ObjectModel.

  • JSON ファイル コネクタJSON File connector. 現在は、 JSON ファイルへの接続には、基本認証のみを使用することができます。Currently you can connect to a JSON file using basic authentication only. たとえば、 https://XXXXX.blob.core.windows.net/path/file.json?sv=2019-01-01&si=something&sr=c&sig=123456abcdefg のようなURLには現在対応していません。For example, a URL similar to https://XXXXX.blob.core.windows.net/path/file.json?sv=2019-01-01&si=something&sr=c&sig=123456abcdefg is currently not supported.

  • Azure SQL Data Warehouse.Azure SQL Data Warehouse. データフローは、Azure SQLデータ ウェアハウスの Azure Active Directory 認証に現在対応していません。Dataflows do not currently support Azure Active Directory authentication for Azure SQL Data Warehouse. このような場合には基本認証を使用してください。Use basic authentication for this scenario.

次のステップNext steps

以下の記事では、データフローを使用するにあたっての詳細情報とシナリオを提供しています:The following articles are useful for further information and scenarios when using dataflows:

Common Data Model の詳細については、次を参照してください:For more information about the Common Data Model: