Konfigurace úloh v podobě toků dat Power BI PremiumConfigure Power BI Premium dataflow workloads

V předplatném Power BI Premium můžete vytvářet úlohy v podobě toků dat.You can create dataflow workloads in your Power BI Premium subscription. Power BI využívá k popisu obsahu Premium koncept úloh.Power BI uses the concept of workloads to describe Premium content. Úlohy zahrnují datové sady, stránkované sestavy, datové toky a umělou inteligenci.Workloads include Datasets, Paginated Reports, Dataflows, and AI. Úlohy v podobě toků dat vám umožní používat samoobslužnou přípravu dat, a to k ingestaci, transformaci, integraci a obohacení dat.The dataflows workload lets you use dataflows self-service data preparation to ingest, transform, integrate, and enrich data. Toky dat v Power BI Premium se spravují přes portál pro správu.Power BI Premium dataflows are managed in the Admin portal.

Portál pro správu toků dat v Power BI Premium

Následující části popisují, jak toky dat povolit ve vaší organizaci a jak upřesnit jejich nastavení v kapacitě Premium. K dispozici jsou také doporučení k běžnému použití.The following sections describe how to enable dataflows in your organization, how to refine their settings in your Premium capacity, and guidance for common usage.

Povolení toků dat v Power BI PremiumEnabling dataflows in Power BI premium

Prvním předpokladem pro používání toků dat ve vašem předplatném Power BI Premium je povolení tvorby a používání toků dat ve vaší organizaci.The first requirement for using dataflows in your Power BI premium subscription is to enable the creation and use of dataflows for your organization. Na portálu pro správu vyberte Nastavení klienta a posuvník v části Nastavení toku dat přesuňte na Povoleno, jak je znázorněno na následujícím obrázku.In the Admin portal, select Tenant Settings and switch the slider under Dataflow settings to Enabled, as shown in the following image.

Portál pro správu toků dat v Power BI Premium

Po povolení má úloha v podobě toku dat výchozí konfiguraci.After enabling the Dataflows workload, it is configured with default settings. Toto nastavení můžete upravit podle potřeby.You might want to tweak these settings as you see fit. V další části popíšeme, kde se tato nastavení nacházejí, popíšeme je a pomůžeme vám porozumět, kdy je vhodné hodnoty změnit pro optimalizaci výkonu toku dat.Next, we'll describe where these settings live, describe each, and help you understand when you might want to change the values to optimize your dataflow performance.

Upřesnění nastavení toku datRefining dataflow settings

Po povolení toků dat můžete pomocí portálu pro správu změnit, tedy upřesnit, jak se budou toky dat vytvářet a jak budou využívat prostředky ve vašem předplatném Power BI Premium.Once dataflows are enabled, you can use the Admin portal to change, or refine, how dataflows are created and how they use resources in your Power BI Premium subscription. Úpravu nastavení toku dat si ukážeme v následujících krocích.The following steps show how to adjust your dataflow settings.

  1. Na portálu pro správu vyberte Nastavení klienta, aby se vypsaly všechny vytvořené kapacity.In the Admin portal, select Tenant settings to list all capacities that have been created. Vyberte kapacitu, u níž chcete spravovat nastavení.Select a capacity to manage its settings.

    Výběr kapacity, u níž chcete spravovat nastavení

  2. Vaše kapacita Power BI Premium odráží prostředky, které jsou dostupné pro vaše toky dat.Your Power BI Premium capacity reflects the resources available for your dataflows. Velikost kapacity můžete změnit tak, že vyberete tlačítko Změnit velikost, jak je znázorněno na následujícím obrázku.You can change your capacity's size by selecting the Change size button, as shown in the following image.

    Změna velikosti kapacity

  3. V nastavení kapacity můžete nakonfigurovat nastavení toků dat, a to po rozbalení položky Úlohy.In Capacity settings, you can configure dataflow settings by expanding Workloads.

    Rozbalení části Úlohy

  4. V části Úlohy se posuňte do oblasti Toky dat.In the Workloads section, scroll to the Dataflows area. Následující obrázek znázorňuje nastavení, pomocí nichž můžete upravit nebo upřesnit chování úlohy v podobě toku dat pro vaši kapacitu.The following image shows the settings you can use to control or refine the dataflow workload's behavior for your capacity.

    Nastavení pro úlohy v podobě toku dat

Základní popis nastavení pro toky dat najdete v následující tabulce.The following table provides a basic description of the dataflows settings.

Oddíl správyAdmin section Název nastaveníSetting name PopisDescription
Velikost kapacityCapacity Size Změnit velikostChange Size Je uvedena aktuálně vybraná kapacita s možnostmi, jak se dá změnit.The current selected capacity is listed, with options to change the capacity. Změnou tohoto nastavení můžete kapacitu škálovat nahoru nebo dolů.Changing this setting allows for scale up or scale down of the capacity.
ÚlohaWorkload Maximální paměť (%)Max Memory (%) Maximální procento dostupné paměti, kterou můžou toky dat použít v kapacitě.The maximum percentage of available memory that dataflows can use in a capacity.
ÚlohaWorkload Vylepšený výpočetní modul pro toky datEnhanced Dataflows Compute Engine Tuto možnost povolte, pokud chcete při práci s velkými objemy dat až 20krát zrychlit výpočty.Enable this option for up to 20x faster calculation of computed entities when working with large-scale data volumes. Abyste nový modul aktivovali, musíte restartovat kapacitu.You must restart the capacity to activate the new engine. Další informace najdete v části Vylepšený výpočetní modul pro toky dat.For more information, see Enhanced dataflows compute engine.
ÚlohaWorkload Velikost kontejneruContainer Size Maximální velikost kontejneru, kterou toky dat používají pro každou entitu v toku dat.The maximum size of the container that dataflows use for each entity in the dataflow. Výchozí hodnota je 700 MB.The default value is 700 MB. Další informace najdete v části Velikost kontejneru.For more information, see Container size.
ÚlohaWorkload Paměť výpočetního modulu (%)Compute engine memory (%) Maximální procento paměti přidělené výpočetnímu modulu.The maximum percentage of memory allocated to the compute engine. Výchozí hodnota je 30 %.The default value is 30%

S jednotlivými možnostmi a s jejich vlivem na úlohy v podobě toku dat se podrobněji seznámíme v následujících částech.In the following sections, we go into detail about each of the settings and how they affect your dataflow workload.

Vysvětlení možností úloh v podobě toků datUnderstanding dataflow workload options

Úlohu v podobě toku dat si můžeme jednoduše vysvětlit na základě analogie.A simple way to think about dataflow workload options is to use an analogy. Velikost kapacity, tedy váš typ instance Power BI Premium, si můžete představit jako restauraci.The Capacity size, or the type of Power BI Premium Instance you have, can be thought of as your restaurant. V této restauraci máte k dispozici paměť úlohy, což je vaše kuchyň.Within your restaurant, you have your workload memory, which is your kitchen. Výpočetní modul pak představuje troubu.The compute engine is your oven. A konečně, kontejner představuje kvalitu, kterou přináší váš šéfkuchař.And lastly, the container is the sort of quality of your chef. Při vyhodnocování možností pro úlohu v podobě toku dat si představme, že připravujeme jídlo na velkou a velmi důležitou večeři.To evaluate your dataflow workload options, imagine preparing a meal for a large, or very significant dinner. Očekáváte důležité hosty a večeři potřebujete nachystat tak, aby byla připravena k podávání, ještě než přijdou.You have important guests coming over and you must have dinner ready to be served by the time they arrive.

Na základě analogie s restaurací vysvětlíme jednotlivá nastavení a poskytneme související pokyny.We'll use this restaurant analogy as we explain and provide guidance on each of the setting. Začneme na nejvyšší úrovni – u kapacity Premium – protože to je první volba, kterou uděláte, když se rozhodnete pro Power BI Premium.We'll start at the top level - your Premium Capacity - as this is the first choice you make when using Power BI Premium.

Jednotky SKU pro kapacitu Premium – vertikální navýšení kapacity hardwaruPremium capacity SKUs - scale up the hardware

Úlohy Power BI Premium využívají k obsluhování rychlých dotazů napříč různými typy úloh kombinaci front-endových a back-endových jader.Power BI Premium workloads use a combination of front-end and backend cores to serve fast queries across the various workload types. V části Uzly kapacity najdete tabulku, která uvádí aktuální specifikace jednotlivých dostupných nabídek.The capacity nodes article includes a chart that illustrates the current specifications across each of the available workload offerings. Kapacita A3 a vyšší využívá výpočetní modul, takže pokud chcete používat vylepšený výpočetní modul, začněte právě od této úrovně (Uzly kapacity).Capacities of A3 and greater can take advantage of the compute engine, so when you want to use the enhanced compute engine, start there – Capacity nodes.

V naší analogii s restaurací je volba kapacity jako výběr restaurace vyšší kvality.In our restaurant analogy, choosing a capacity is like choosing a higher-quality restaurant. Při vyšších nákladech můžete očekávat lepší úroveň výkonu vzhledem k navýšenému počtu front-endových a back-endových jader a větší paměti.Though a higher cost, you can expect a higher level of performance due to the increase in front-end cores, backend cores, and more memory. Když se rozhodnete pro větší restauraci, získáte větší kuchyň a lepší šéfkuchaře, což je obdobou upgradu na vyšší SKU v Power BI Premium – získáte tím vyšší rychlost procesorů, větší objem paměti pro jednotlivé operace a silnější paralelismus.When you go to a bigger restaurant, you get a bigger kitchen, and better chefs, which are akin to upgrading to a higher SKU in Power BI Premium, giving you the benefit of increasing CPU speed, increasing memory per operation and adding more parallelism.

Maximální paměť – vyhrazení kapacity pro toky datMax memory - dedicating a capacity for dataflows

Nastavení Maximální paměť (%) je procento fyzické paměti dostupné pro kapacitu Premium, které se poskytuje pro úlohy v podobě toků dat.The Max Memory % setting is the percentage of memory, out of the physical memory available to the Premium capacity, provided for dataflows workloads. Pro úlohy můžete v podstatě vyhradit celou kapacitu – kapacita se pak bude dynamicky škálovat podle potřeb vámi nastaveného přidělení.You can effectively dedicate up to the full capacity for a dataflows workload, and the capacity will scale up dynamically as needed to the allocation you set. Abychom se přidrželi naší analogie: pokud rozšíříte kuchyni, bude možné připravovat více jídel – obdobně můžete zvýšit kapacitu určenou pro toky dat, takže jich bude možné obsluhovat více.In our analogy, if you make your kitchen bigger you can cook more meals – similarly, you can increase your capacity's workload size for dataflows and allow more dataflows. I když se uplatňují zásady správného řízení dynamických prostředků, konfigurační možnost Maximální paměť (%) umožňuje vyhradit 100 % paměti pro úlohy v podobě toků dat.While there is dynamic resource governance in place, the Max Memory % configuration option lets you dedicate 100% of the memory for the dataflows workload. Toto nastavení by se mělo omezovat na vzácnou situaci, kdy potřebujete pro konkrétní úlohu v podobě toku dat zajistit celou paměť kapacity, což má v daném případě přednost před zásadami správného řízení prostředků.This is for the rare situation when you want to ensure the capacity's memory is available for your dataflow workload, rather than relying on the Resource Governance. V naší analogii bychom si to mohli představit jako vyhrazení kuchyně na přípravu konkrétního jídla pro určitého hosta – celá kuchyně by se věnovala tomuto úkolu.Using our analogy, this would be like making sure your kitchen is focusing on preparing a specific meal for a guest, dedicating the full kitchen to the task(s). Samozřejmě možnost vyhrazení větší kapacity neznamená, že jídlo bude chutnat lépe ani že se na stůl dostane dříve – vysvětlíme si to v další části.Of course, the ability to dedicate more doesn't mean better food, or faster time to table – as the next section explains.

Velikost kontejneru – otázky výkonu při aktualizacích dat nebo problémy s vyčerpáním pamětiContainer size - refresh or out of memory issues

Podívejme se teď na nastavení Velikost kontejneru (MB) .Next let's discuss the Container Size (Mb) setting. Toky dat využívají interně proces s názvem mashup containers, který vyhodnocuje procesy ETL.Internally, dataflows use a process called mashup containers to evaluate your ETL processes. Modul rozděluje logiku dotazů do kontejnerů a ty se pak můžou zpracovávat paralelně.The engine splits your query logic into these containers and they can process in parallel. Rozdělení na kontejnery v podstatě zajišťuje souběžné zpracování a zvyšuje výkon.The number of containers effectively provides concurrent processing and increases performance. Kontejnery jsou zaprvé omezené na základě kapacity, pak na základě % maximální paměti a nakonec na základě velikost paměti, kterou do nich výslovně přidělíte v nastavení kontejneru, což je ve výchozím nastavení 700 MB.These containers are constrained by the Capacity first, the Max Memory % setting second, and then the amount of memory you specifically allocate to them in the container setting, which by default is 700Mb. Platí, že je možné zvýšit objem hardwarové paměti a zvětšit velikost kontejneru, ale tím zároveň dojde k poklesu rozsahu paralelních operací, protože se u kontejneru vyhradí více paměti pro konkrétní proces ETL.So it's possible to increase the amount of hardware memory, and increase the container size, but doing so will decrease the parallel operations while dedicating more memory for specific ETL process within your containers. Pro počet kontejnerů platí omezení stanovené jako trojnásobek počtu back-endových jader, což je důležité, protože kontejner není možné nastavit na velmi malou velikost s cílem zajistit spouštění velkého množství paralelních kontejnerů.The number of containers is capped at three times the number of backend cores, which is important because you can't make the container very small, and have a lot of parallel containers beyond that point. Minimální velikost, na niž můžete kontejner nastavit, je 200 MB.The minimum size you can make a container is 200Mb. Velikost kontejneru je také omezená podle úrovně dotazu, což znamená, že každý dotaz se spustí ve svém vlastním kontejneru, ovšem s výjimkou případů, kdy dotazy odkazují na jiné dotazy – v takovém případě se aktualizují v rámci stejného kontejneru.The container size is also scoped to a query level, which means each query gets executed in its own container except when queries are referencing other queries, in which case they are refreshed as part of the same container.

Když se vrátíme k naší analogii: pokud budete mít v kuchyni méně kuchařů, kteří ale budou více specializovaní, bude možné jídlo připravit mnohem rychleji (s přihlédnutím k typu objednávek a složitosti jídla).Going back to our analogy, having fewer but more focused cooks in the kitchen enables you to cook a meal much faster, depending on the types of orders that are placed and the complexity of the meal. Kompromis, k němuž tu dochází, spočívá v menším počtu kuchařů, jejichž pozornost je ale více zaměřena na konkrétní jídlo.The tradeoff here is having fewer chefs, but more focused time for preparation. Obdobně platí, že pokud by se velikost kontejneru zvýšila na 1200 až 1500 MB, mohlo by to znamenat, že by menší počet složitějších úloh ETL (operace jako agregace, spojování, kontingenční tabulky a manipulace s řádky nebo sloupci) vedl ke zvýšení výkonu, protože by pro každý kontejner bylo k dispozici více paměti. V takovém případě by ale bylo třeba snížit počet kontejnerů.Similarly, increasing the container size measure to 1200-1500 MB can mean that a smaller number of more complex ETL jobs – activities such as aggregations, joins, pivots, row or column manipulations - can see a performance increase as we provide more memory for each container, but in doing so, reduce the number of containers. Jak vyplývá z naší analogie, příliš mnoho objednávek může následně zpomalit expedici z kuchyně, což je v tomto příkladu jakási velikost kontejneru – toto nastavení použijte v případě, že potřebujete provádět složité operace s entitami a jste ochotni rozsah paralelního zpracování „obětovat“ ve prospěch vyššího výkonu, protože nárůst u tohoto prostředku znamená rozdělení přidělené paměti mezi menší počet kontejnerů.Just as the analogy implies, too many orders can actually slow down the kitchen output, which is how you can think about container size – use this when you need complex entity operations to complete, and you're willing to trade parallelism for performance, since increasing this resource divides the memory allocated to fewer containers.

Abychom to shrnuli, vaším cílem je optimalizovat velikost kontejneru pro konkrétní používané dotazy.To summarize, you want to optimize your container size based on the queries being used. Například při pouhém načítání dat ze zdroje do entity není nutné provádět žádné složité operace – stačí je jen načíst do úložiště.For example, simply loading data from a source into an entity does not need to pull in data and perform any operations and just loads the data to storage. V takové situaci je žádoucí dosáhnout co největšího paralelismu, protože chcete operace načítání a aktualizací dat co nejvíce urychlit.You want as much parallelism as possible for this situation, as you want to increase the speed of the load and refresh operations. Když naopak přidáte více transformačních operací (složité filtry, spojování, agregace), bude nejspíše vhodné vyhradit více paměti, protože některé z těchto operací potřebujeme zpracovat v paměti.Conversely, when you add more transformation operations – complex filters, joins, aggregations, the memory may be much higher as we may need to process some of these transformation operations in memory. Nezapomeňte, že pokud máte v kapacitě jiné operace toků dat, může je to zpomalovat a nutit, aby ve frontě čekaly na volný interval pro své spuštění.Be aware that if you have other dataflow operations running on the capacity, it can slow those operations and force them to queue up to have an execution slot. Pro tento účel je tu aplikace Power BI Premium Capacity Metrics, která usnadňuje sledování a správu toků dat, výkon aktualizací a celkové kapacity.To this end, monitoring and management of dataflows, refresh performance, and the entire capacity is aided by the Power BI Premium Capacity Metrics app. V aplikaci Power BI Premium Capacity Metrics můžete použít filtr podle kapacity a zkontrolovat výkonnostní metriky obsahu pracovního prostoru.You can use the Power BI Premium Capacity Metrics app to filter by capacity, and review performance metrics for workspace content. Výkonnostní metriky a využití prostředků si můžete prohlédnout hodinu po hodině za posledních 7 dnů, a to pro veškerý obsah uložený v kapacitě Premium – jinými slovy, při prověřování výkonu toků dat se doporučuje začít u této aplikace.It's possible to review the performance metrics and resource usage by hour, for the past seven days, for all content stored within a Premium capacity – so for investigating dataflow performance, it's recommended to start with the app.

Vylepšený výpočetní modul – příležitost pro zvýšení výkonuEnhanced compute engine - an opportunity to improve performance

V naší analogii je vylepšený výpočetní modul něco jako kuchyňská trouba.In our analogy, the enhanced compute engine is like an oven. Power BI využívá výpočetní modul ke zpracovávání dotazů a aktualizačních operací.Power BI uses a compute engine to process your queries and refresh operations. Vylepšený výpočetní modul je dokonalejší než standardní modul: funguje tak, že načítá data do mezipaměti SQL a využívá SQL k urychlení transformací entit a aktualizačních operací, a také umožňuje připojení DirectQuery.The enhanced compute engine is an improvement over the standard engine, and works by loading data to a SQL Cache and uses SQL to accelerate entity transformation, refresh operations and enables DirectQuery connectivity. Pokud bychom tyto moduly přirovnali k troubám, tak s lepší troubou dokážete připravovat pokrmy rychleji a efektivněji.If we compare the engines to ovens, as you leverage the enhanced oven, you may be able to cook meals faster and more effectively. Při konfiguraci počítaných entit na Zapnuto nebo Optimalizováno (pokud to umožňuje konkrétní obchodní logika) bude Power BI využívat SQL s cílem zvýšit výkon.When configured to On or Optimized for computed entities, if your business logic allows for it, Power BI uses SQL speed up the performance. Při zapnutí modulu se zajistí i připojení DirectQuery.Having the engine On also provides for DirectQuery connectivity. Když se vrátíme k naší analogii, uvědomíme si, že při přípravě některých jídel se trouba nevyužívá, případně by využití lepší trouby neznamenalo žádný přínos.As the analogy suggests – certain meals might not need an oven, nor take advantage of the oven. Na vylepšený výpočetní modul je možné pohlížet podobným způsobem – ujistěte se, že pro vaše toky dat je vylepšený výpočetní modul skutečným přínosem.The enhanced compute engine can be thought of in a similar manner – make sure your dataflow usage is leveraging the enhanced compute engine properly.

Poznámka

Vylepšený výpočetní modul zatím není dostupný ve všech oblastech.The enhanced compute engine is not yet available in all regions.

Doporučení pro běžné scénářeGuidance for common scenarios

V této části najdete doporučení k běžným scénářům použití úloh v podobě toků dat v Power BI Premium.This section provides guidance for common scenarios when using dataflow workloads with Power BI Premium.

Pomalé aktualizace datSlow refresh times

Pomalé aktualizace dat obvykle souvisí s problémy s paralelním zpracováním.Slow refresh times are usually a parallelism issue. Měli byste si projít tyto možnosti řešení, a to v uvedeném pořadí:You should review the following options, in order:

  1. V případě pomalých aktualizací je klíčovým aspektem způsob přípravy dat.A key concept for slow refresh times is the nature of your data preparation. V naší analogii s restaurací, kterou jsme představili dříve v tomto článku, si představme, že už máme jídlo připravené a jen čekáme, až si ho někdo objedná.In our restaurant analogy explained earlier in this article, imagine having prepared food already, waiting to be used. V tomto scénáři se dá jídlo nachystat mnohem rychleji díky minimální době nutné pro přípravu.In this scenario, the food can be cooked much faster due to minimal prep time. Obdobně platí, že kdykoli můžete dobu aktualizace optimalizovat tím, že přípravu dat uskutečníte už ve zdroji a následně nastavíte přímou dotazovací logiku, měli byste takto postupovat.Similarly, whenever you can optimize your slow refresh times by taking advantage of your data source actually doing the preparation and performing upfront query logic, you should do s. Zvláště pokud jako zdroj používáte relační databázi, třeba SQL, ověřte, jestli se dá počáteční dotaz spustit přímo u zdroje, a pak tento zdrojový dotaz použijte v toku dat zajišťujícím počáteční extrakci ze zdroje dat.Specifically, when using a relational database such as SQL as your source, see if the initial query can be run on the source, and use that source query for your initial extraction dataflow for the data source. Pokud ve zdrojovém systému nemůžete použít nativní dotaz, proveďte operace, které může modul toků dat naskládat ve zdroji dat.If you cannot use a native query in the source system, perform operations that the dataflows engine can fold to the data source.

  2. Posuďte možnost rozložení dob aktualizace v rámci stejné kapacity.Evaluate spreading out refresh times on the same capacity. Aktualizační operace představují proces vyžadující významný výpočetní výkon.Refresh operations are a process that requires significant compute. Když se vrátíme k analogii s restaurací, je rozložení dob aktualizace obdobou omezení počtu hostů v restauraci.Using our restaurant analogy, spreading out refresh times is akin to limiting the number of guests in your restaurant. Stejně jako si hosté rezervují místa na určitou dobu a restaurace si plánují kapacitu, bude vhodné zvážit přesunutí aktualizačních operací na dobu mimo špičku.Just as restaurants will schedule guests and plan for capacity, you also want to consider refresh operations during times when usage is not at its full peak. Tím se může výrazně zmírnit tlak na kapacitu.This can go a long way toward alleviating strain on the capacity.

  3. Zvyšte celkový objem paměti přidělený dané úloze.Increase the overall amount of memory given to the workload. Představte si to jako kapacitu kuchyně.Think of this as the size of kitchen. Správné nastavení tohoto prostředku je obdobou určení optimálního počtu kuchařů.Refining this resource is similar to adjusting how many chefs can you fit in the kitchen. Provádí se to úpravou nastavení Maximální paměť (%) a jejím zvýšením až na 100 %.This is done by adjusting the Max Memory % setting, and increasing it up to 100%.

  4. Snižte velikost paměti přidělované kontejneru, čímž se umožní spuštění více kontejnerů.Decrease the amount of memory to the container, which allows for more containers. Můžete si to představit takto: místo angažování šéfkuchaře, jako je Gordon Ramsey, který se proslavil svými schopnostmi, najmete více kompetentních, ale méně nákladných kuchařů.You can think of this as: instead of hiring a famously capable chef like Gordon Ramsey, hire many competent but less expensive chefs. Takže v kuchyni budete mít více kuchařů, kteří ale dokážou provádět jen menší úlohy.So you have more cooks in the kitchen, but those chefs can only perform smaller tasks. Budete tedy mít více kontejnerů, ale s menší pamětí.Then you have more containers, but less memory.

  5. Proveďte oba předchozí kroky: umožníte tím ještě vyšší míru paralelismu, protože získáte více kuchařů i větší kuchyni.Do both of the previous steps, allowing for an even higher degree of parallelism, because you get more cooks and a bigger kitchen.

  6. Pokud kroky v této části požadovanou míru paralelismu nezajistí, zvažte upgrade své kapacity na vyšší SKU.If the steps in this section don't provide the desired degree of parallelism, consider upgrading your capacity to a higher SKU. Pak znovu postupujte podle předchozích kroků v této části.Then follow steps the previous steps in this section again.

Výjimky kvůli vyčerpání pamětiOut of memory exceptions

Pokud se setkáte s výjimkami kvůli vyčerpání paměti, je nutné zvýšit výkon kontejnerů a paměť.When you experience out of memory exceptions, you need to increase performance of the containers and memory. Proveďte následující kroky:Take the following steps.

  1. Zvyšte paměť v kontejneru.Increase memory on the container. Je to podobné jako nasazení jednoho hvězdného šéfkuchaře namísto mnoha běžných kuchařů, jak jsme si popsali v předchozí části.This is similar to having one star chef versus many chefs, as described in the previous section.

  2. Navyšte paměť pro úlohu a zajistěte více paměti pro kontejner.Increase memory to workload and more memory to container. V naší analogii by šlo o rozšíření kuchyně a zajištění velmi kvalitních kuchařů.In our analogy, it creates a bigger kitchen and higher-quality chefs.

  3. Pokud vám tyto změny nezajistí požadovanou míru paralelismu, zvažte nasazení vyšší jednotky SKU Power BI Premium.If these changes don't give you the desired degree of parallelism, consider a higher Power BI Premium SKU.

Zvýšení výkonu pomocí vylepšeného výpočetního moduluUsing the compute engine to improve performance

Provedením následujících kroků zajistíte lepší výkon u úloh spouštějících výpočetní modul:Take the following steps to enable workloads trigger the compute engine, and always improve performance:

U počítaných a propojených entit ve stejném pracovním prostoru:For computed and linked entities in the same workspace:

  1. Pokud jde o ingestování, zaměřte se na co nejrychlejší přesun dat do úložiště, přičemž filtry používejte jen v případě, že zmenšují celkovou velikost datové sady.For ingestion focus on getting the data into the storage as fast as possible, using filters only if they reduce the overall dataset size. Osvědčeným postupem je nespojovat s tímto krokem transformační logiku a umožnit modulu, aby se mohl zaměřit na počáteční shromáždění potřebných složek.It's best practice to keep your transformation logic separate from this step, and allow the engine to focus on the initial gathering of ingredients. Kromě toho umístěte transformační a obchodní logiku do samostatného toku dat ve stejném pracovním prostoru, a to s použitím propojených nebo počítaných entit. Díky tomu může modul aktivovat a urychlovat potřebné výpočty.Next, separate your transformation and business logic into a separate dataflow in the same workspace, using linked or computed entities; doing so allows for the engine to activate and accelerate your computations. V naší analogii je to jako příprava jídel v kuchyni: tato příprava se obvykle nespojuje s obstaráváním surovin a jde o nezbytný předpoklad pro následné vložení pokrmu do trouby.In our analogy, it's like food preparation in the kitchen: food preparation is typically a separate and distinct step from gathering your raw ingredients, and a pre-requisite for putting the food in the oven. Obdobně je třeba logiku připravit odděleně, a teprve pak využít výpočetní modul.Similarly, your logic needs to be prepared separately before it can take advantage of the compute engine.

  2. Ujistěte se, že provádíte operace, které se dají skládat, jako je sloučení, spojení, převod a další.Ensure you perform the operations that fold, such as merges, joins, conversion, and others.

  3. Toky dat sestavujte v souladu s publikovanými pokyny a omezeními.Building dataflows within published guidelines and limitations.

Můžete také využívat DirectQuery.You can also use DirectQuery.

Výpočetní modul je zapnutý, ale výkon je nízkýCompute engine is on but performance is slow

Při zkoumání scénářů, kdy je výpočetní modul zapnutý, ale výkon je nízký, proveďte tyto kroky:Take the following steps when investigating scenarios where the Compute engine is on, but you're seeing slower performance:

  1. Omezte počítané a propojené entity v rámci pracovního prostoru.Limit computed and linked entities that exist cross workspace.

  2. Pokud počáteční aktualizace probíhá se zapnutým výpočetním modulem, pak se data zapisují do datového jezera i mezipaměti.If your initial refresh with the compute engine turned on, then data gets written in the lake and in the cache. Tento zdvojený zápis znamená, že tyto aktualizace budou pomalejší.This double write means these refreshes will be slower.

  3. Pokud máte tok dat, který se propojuje s více toky dat, nezapomeňte aktualizace zdrojových toků naplánovat tak, aby se neaktualizovaly všechny současně.If you have a dataflow linking to multiple dataflows, make sure you schedule refreshes of the source dataflows so that they do not all refresh at the same time.

Další krokyNext steps

Další informace o tocích dat a Power BI najdete v následujících článcích:The following articles provide more information about dataflows and Power BI: