Veri akışı sınırlamaları ve önemli noktalarDataflows limitations and considerations

Veri akışı yazma, yenileme ve kapasite yönetimi konularında kullanıcıların dikkat etmesi gereken birkaç sınırlama vardır. Bu sınırlamalar aşağıdaki bölümlerde açıklanmıştır.There are a few dataflow limitations across authoring, refreshes, and capacity management that users should keep in mind, as described in the following sections.

Veri akışı yazmaDataflow Authoring

Veri akışı yazan kullanıcıların aşağıdaki noktalara dikkat etmesi gerekir:When authoring dataflows, users should be mindful of the following considerations:

  • Veri akışlarında yazma işlemi Power Query Online (PQO) ortamında gerçekleştirilir. Power Query sınırları sayfasında belirtilen sınırlamaları inceleyin.Authoring in Dataflows is done in the Power Query Online (PQO) environment; see the limitations described in Power Query limits. Veri akışı yazma işlemi Power Query Online (PQO) ortamında gerçekleştirildiğinden veri akışı iş yükü yapılandırmalarında gerçekleştirilen güncelleştirmeler yalnızca yenilemeleri etkiler; yazma deneyimini etkilemezBecause dataflows authoring is done in the Power Query Online (PQO) environment, updates performed on the Dataflows workload configurations only impact refreshes, and will not have an impact on the authoring experience

  • Veri akışları yalnızca sahipleri tarafından değiştirilebilirDataflows can only be modified by their owners

  • Veri akışları, Çalışma Alanım sayfasında kullanılamazDataflows are not available in My Workspace

  • Ağ geçidi veri kaynaklarını kullanan veri akışları, aynı veri kaynağı için birden çok kimlik bilgisini desteklemezDataflows using gateway data sources do not support multiple credentials for the same data source

  • Web.Page bağlayıcısını kullanmak için bir ağ geçidi gerekirUsing the Web.Page connector requires a gateway

API'lerde dikkat edilmesi gerekenlerAPI Considerations

Desteklenen veri akışları REST API'leri hakkında daha fazla bilgi için bkz. REST API başvurusu.More about supported Dataflows REST APIs can be found in the REST API reference. Dikkat etmeniz gereken noktalardan bazıları şunlardır:Here are some considerations to keep in mind:

  • Bir veri akışı dışarı ve içeri aktarıldığında yeni bir kimliğe sahip olurExporting and Importing a dataflow gives that dataflow a new ID

  • Bağlantılı varlıkların bulunduğu veri akışlarını içeri aktarmak, veri akışı içindeki mevcut başvuruları düzeltmez (bu sorgular veri akışı içeri aktarılmadan önce el ile düzeltilmelidir)Importing dataflows that contain linked entities will not fix the existing references within the dataflow (these queries should be fixed manually before importing the dataflow)

  • CreateOrOverwrite ile başlangıçta içeri aktarma API'si kullanılarak oluşturulmuş olan veri akışlarının üzerine yazılabilirDataflows can be overwritten with the CreateOrOverwrite parameter, if they have initially been created using the import API

Paylaşılan kapasitelerdeki veri akışlarıDataflows in Shared

Paylaşılan kapasitelerde veri akışları için bazı sınırlamalar vardır:There are limitations for Dataflows in shared capacities:

  • Veri akışlarını yenileme sırasında paylaşılan kapasitelerdeki zaman akışları varlık başına 2 saat, veri akışı başına ise 3 saat olarak belirlenmiştirWhen refreshing Dataflows, timeouts in Shared are 2 hours per entity, and 3 hours per Dataflow
  • Paylaşılan veri akışlarında bağlantılı varlık oluşturulamaz; bu varlıklar sorgudaki Load Enabled özelliği devre dışı bırakıldığı sürece veri akışında mevcut olabilirLinked entities cannot be created in shared Dataflows, although they can exist within the Dataflow as long as the Load Enabled property on the query is disabled
  • Paylaşılan veri akışlarında hesaplanan varlık oluşturulamazComputed entities cannot be created in shared Dataflows
  • Paylaşılan veri akışlarında AutoML ve Bilişsel Hizmetler kullanılamazAutoML and Cognitive services are not available in shared Dataflows
  • Paylaşılan veri akışlarında artımlı yenileme çalışmazIncremental refresh does not work in shared Dataflows

Premium kapasitelerdeki veri akışlarıDataflows in Premium

Premium kapasitelerdeki veri akışları aşağıdaki sınırlamalara ve dikkat edilmesi gereken noktalara sahiptir.Dataflows that exist in Premium have the following limitations and considerations.

Yenilemeler ve verilerle ilgili dikkat edilecek konular:Refreshes and data considerations:

  • Veri akışları yenilenirken zaman aşımı 24 saattir (varlıklar ve/veya veri akışları için ayrım yoktur)When refreshing Dataflows, timeouts are 24 hours (no distinction for entities and/or dataflows)

  • Bir veri akışının yenileme ilkesini artımlı yerine normal olarak değiştirmek veya bunun tersini yapmak tüm verilerin bırakılmasına neden olurChanging a dataflow from an incremental refresh policy to a normal refresh, or vice versa, will drop all data

  • Veri akışının şemasının değiştirilmesi tüm verilerin bırakılmasına neden olurModifying a dataflow's schema will drop all data

Bağlantılı ve hesaplanan varlıklar:Linked and Computed Entities:

  • Bağlantılı varlıklar en fazla 32 başvuru düzeyine sahip olabilirLinked entities can go down to a depth of 32 references

  • Bağlantılı varlıkların döngüsel bağımlılıklarına izin verilmezCyclic dependencies of linked entities are not allowed

  • Bağlantılı bir varlık, verilerinin şirket içi veri kaynağından alan normal bir varlıkla birleştirilemezA linked entity can't be joined with a regular entity that gets its data from an on-premises data source

  • Veri akışlarında bir sorgu (örneğin, A sorgusu), başka bir sorgunun (B sorgusu) hesaplanması için kullanıldığında B sorgusu hesaplanmış bir varlık olur.When a query (query A, for example) is used in the calculation of another query (query B) in dataflows, query B becomes a calculated entity. Hesaplanmış varlıklar, şirket içi kaynaklara başvuramaz.Calculated entities cannot refer to on-premises sources.

İşlem altyapısı:Compute Engine:

  • İşlem altyapısı kullanıldığında veri alımı için başlangıçta yaklaşık olarak %10 ile %20 arasında süre artışı olur.While using the Compute engine, there is an approximate 10% to 20% initial increase in time for data ingestion.

    1. Bu durum yalnızca işlem altyapısında bulunan ve veri kaynağında bulunan verileri okuyan ilk veri akışı için geçerlidirThis only applied to the first dataflow that is on the compute engine, and reads data from the data source
    2. Kaynak veri akışını kullanan sonraki veri akışları aynı artışla karşılaşmazSubsequent dataflows, that use the source one will not incur the same penalty
  • İşlem altyapısı yalnızca belirli işlemler tarafından ve yalnızca bağlantılı varlık veya hesaplana varlık üzerinden kullanılır.Only certain operations make use of the compute engine, and only when used through a linked entity or as a computed entity. Tüm işlemlerin yer aldığı listeye bu blog gönderisinden ulaşabilirsiniz.A full list of operations is available in this blog post.

Kapasite Yönetimi:Capacity Management:

  • Premium Power BI kapasiteleri tasarım gereği bellek azaldığında iş yüklerini farklı şekillerde kısıtlayan dahili bir kaynak yöneticisine sahiptir.By design, the Premium Power BI Capacities have an internal resource manager which throttles the workloads in different ways when the capacity is running on low memory.

    1. Bu kısıtlama baskısı, veri akışları için kullanılabilir durumdaki M kapsayıcısı sayısını azaltırFor Dataflows, this throttling pressure reduces the number of available M Containers
    2. Verinizin boyutu için uygun boyuta sahip bir kapsayıcı kullanarak veri akışlarının belleğini %100 olarak ayarlayabilirsiniz; bu durumda iş yükü kapsayıcı sayısını uygun şekilde yönetirThe memory for Dataflows can be set to 100%, with an appropriately sized container for your data sizes, and the workload will manage the number of containers appropriately
  • Yaklaşık kapsayıcı sayısını elde etmek için iş yüküne ayrılmış olan toplam belleği kapsayıcıya ayrılmış olan bellek miktarına bölebilirsinizThe approximate number of containers can be found out by dividing the total memory allocated to the workload by the amount of memory allocated to a container

Veri kümelerinde veri akışı kullanımıDataflow usage in datasets

  • Power BI Desktop'ta oluşturduğunuz veri kümesini Power BI hizmetinde yayımlarken veri akışlarının veri kaynağı için Power BI Desktop uygulamasında kullanılan kimlik bilgilerinin veri kümesi hizmette yayımlandığında kullanılan kimlik bilgileriyle aynı olduğundan emin olun.When creating a dataset in Power BI Desktop, and then publishing it to the Power BI service, ensure the credentials used in Power BI Desktop for the Dataflows data source are the same credentials used when the dataset is published to the service.
    1. Bu kimlik bilgilerinin farklı olması, veri kümesi yenilendiğinde Anahtar bulunamadı hatasına neden olurFailing to ensure those credentials are the same results in a Key not found error upon dataset refresh

Sonraki adımlarNext steps

Aşağıdaki makaleler veri akışları ve Power BI hakkında daha fazla bilgi sunmaktadır:The following articles provide more information about dataflows and Power BI: