データフローの制限事項と考慮事項Dataflows limitations and considerations

以下のセクションで説明するように、作成、更新、容量管理に関して、ユーザーが留意する必要のあるデータフローの制限がいくつかあります。There are a few dataflow limitations across authoring, refreshes, and capacity management that users should keep in mind, as described in the following sections.

データフローの作成Dataflow Authoring

データフローを作成するとき、ユーザーは次の点に注意する必要があります。When authoring dataflows, users should be mindful of the following considerations:

  • データフローでの作成は、Power Query Online (PQO) 環境で行われます。Power Query の制限事項に関する記事で説明されている制限事項を参照してください。Authoring in Dataflows is done in the Power Query Online (PQO) environment; see the limitations described in Power Query limits. データフローの作成は Power Query Online (PQO) 環境で行われるため、データフロー ワークロード構成に対して行われた更新は、更新にのみ反映され、作成エクスペリエンスには反映されませんBecause dataflows authoring is done in the Power Query Online (PQO) environment, updates performed on the Dataflows workload configurations only impact refreshes, and will not have an impact on the authoring experience

  • データフローは所有者のみが変更できますDataflows can only be modified by their owners

  • データフローは、"マイ ワークスペース" においては利用できませんDataflows are not available in My Workspace

  • ゲートウェイ データ ソースを使用するデータフローにおいては、同じデータ ソースに対する複数の資格情報はサポートされませんDataflows using gateway data sources do not support multiple credentials for the same data source

  • Web.Page コネクタを使用するには、ゲートウェイが必要ですUsing the Web.Page connector requires a gateway

API の考慮事項API Considerations

サポートされている Dataflows REST API の詳細については、REST API のリファレンスを参照してください。More about supported Dataflows REST APIs can be found in the REST API reference. 注意すべきいくつかの考慮事項を次に示します。Here are some considerations to keep in mind:

  • データフローをエクスポートおよびインポートすると、そのデータフローに新しい ID が割り当てられますExporting and Importing a dataflow gives that dataflow a new ID

  • リンクされたエンティティが含まれるデータ フローをインポートしても、データフロー内の既存の参照は修正されません (これらのクエリは、データフローをインポートする前に手動で修正する必要があります)Importing dataflows that contain linked entities will not fix the existing references within the dataflow (these queries should be fixed manually before importing the dataflow)

  • もともとインポート API を使用して作成されたデータフローは、CreateOrOverwrite パラメーターを使用して上書きできますDataflows can be overwritten with the CreateOrOverwrite parameter, if they have initially been created using the import API

共有内のデータフローDataflows in Shared

共有容量内のデータフローには制限があります。There are limitations for Dataflows in shared capacities:

  • データフローを更新するときの共有でのタイムアウトは、エンティティごとに 2 時間、データフローごとに 3 時間ですWhen refreshing Dataflows, timeouts in Shared are 2 hours per entity, and 3 hours per Dataflow
  • リンクされたエンティティは、共有データフロー内に作成することはできませんが、クエリで "読み込み有効" プロパティが無効になっている限り、データフロー内に存在することができますLinked entities cannot be created in shared Dataflows, although they can exist within the Dataflow as long as the Load Enabled property on the query is disabled
  • 計算対象エンティティを共有データフロー内に作成することはできませんComputed entities cannot be created in shared Dataflows
  • AutoML と Cognitive Services は、共有データフローでは使用できませんAutoML and Cognitive services are not available in shared Dataflows
  • 増分更新は、共有データフローでは機能しませんIncremental refresh does not work in shared Dataflows

Premium でのデータフローDataflows in Premium

Premium に存在するデータフローには、次の制限事項と考慮事項があります。Dataflows that exist in Premium have the following limitations and considerations.

更新とデータに関する考慮事項:Refreshes and data considerations:

  • データフローを更新するときのタイムアウトは 24 時間です (エンティティとデータフローの区別はありません)When refreshing Dataflows, timeouts are 24 hours (no distinction for entities and/or dataflows)

  • 増分更新ポリシーから通常の更新に、またはその逆にデータフローを変更すると、すべてのデータが削除されますChanging a dataflow from an incremental refresh policy to a normal refresh, or vice versa, will drop all data

  • データフローのスキーマを変更すると、すべてのデータが削除されますModifying a dataflow's schema will drop all data

リンクされたエンティティと計算対象エンティティ:Linked and Computed Entities:

  • リンクされたエンティティは、32 参照の深さにまですることができますLinked entities can go down to a depth of 32 references

  • リンクされたエンティティの循環依存関係は許可されていませんCyclic dependencies of linked entities are not allowed

  • オンプレミスのデータ ソースからデータを取得する、通常のエンティティとリンクされたエンティティを結合することはできませんA linked entity can't be joined with a regular entity that gets its data from an on-premises data source

  • データフローで別のクエリ (クエリ B) の計算に (たとえばクエリ A などの) クエリが使用されている場合、クエリ B が計算エンティティになります。When a query (query A, for example) is used in the calculation of another query (query B) in dataflows, query B becomes a calculated entity. 計算エンティティは、オンプレミスのソースを参照できません。Calculated entities cannot refer to on-premises sources.

コンピューティング エンジン:Compute Engine:

  • コンピューティング エンジンを使用している間、データ インジェストの時間が最初に約 10% から 20% 増加します。While using the Compute engine, there is an approximate 10% to 20% initial increase in time for data ingestion.

    1. これは、コンピューティング エンジン上の最初のデータフローでの、データ ソースからのデータの読み取りにのみ該当しますThis only applied to the first dataflow that is on the compute engine, and reads data from the data source
    2. ソース 1 を使用する後続のデータフローにおいては、同じペナルティは発生しませんSubsequent dataflows, that use the source one will not incur the same penalty
  • 特定の操作によってのみ、リンク エンティティを通して、または計算対象エンティティとして使用される場合にのみ、コンピューティング エンジンが使用されます。Only certain operations make use of the compute engine, and only when used through a linked entity or as a computed entity. 操作の完全な一覧については、このブログ記事を参照してください。A full list of operations is available in this blog post.

容量管理:Capacity Management:

  • 設計上、Premium Power BI 容量には内部リソース マネージャーがあり、容量が低メモリで実行されているときにさまざまな方法でワークロードが調整されます。By design, the Premium Power BI Capacities have an internal resource manager which throttles the workloads in different ways when the capacity is running on low memory.

    1. データフローの場合、この調整によって、使用可能な M コンテナーの数が減少しますFor Dataflows, this throttling pressure reduces the number of available M Containers
    2. データフローのメモリは、データ サイズに合わせて適切にサイズ設定されたコンテナーを使用して 100% に設定でき、コンテナーの数はワークロードによって適切に管理されますThe memory for Dataflows can be set to 100%, with an appropriately sized container for your data sizes, and the workload will manage the number of containers appropriately
  • コンテナーのおおよその数は、ワークロードに割り当てられたメモリの総量を、コンテナーに割り当てられたメモリの量で割ることによって確認できますThe approximate number of containers can be found out by dividing the total memory allocated to the workload by the amount of memory allocated to a container

データセットでのデータフローの使用Dataflow usage in datasets

  • Power BI Desktop でデータセットを作成した後、それを Power BI サービスに発行する場合、データフローのデータ ソースに対して Power BI Desktop で使用されている資格情報が、データセットがサービスに発行されるときに使用される資格情報と同じであることを確認します。When creating a dataset in Power BI Desktop, and then publishing it to the Power BI service, ensure the credentials used in Power BI Desktop for the Dataflows data source are the same credentials used when the dataset is published to the service.
    1. それらの資格情報が同じでないと、データセットの更新時に "キーが見つからない" というエラーが発生しますFailing to ensure those credentials are the same results in a Key not found error upon dataset refresh

次のステップNext steps

データフローと Power BI の詳細については、以下の記事を参照してください。The following articles provide more information about dataflows and Power BI: