Power BI Premium-workloads configurerenConfigure Power BI Premium dataflow workloads

In uw Power BI Premium-abonnement kunt u gegevensstroomworkloads maken.You can create dataflow workloads in your Power BI Premium subscription. Power BI gebruikt het concept van workloads om Premium-inhoud te beschrijven.Power BI uses the concept of workloads to describe Premium content. Workloads zijn gegevenssets, gepagineerde rapporten, gegevensstromen en AI.Workloads include Datasets, Paginated Reports, Dataflows, and AI. Met de workload voor gegevensstromen kunt u de zelfservice voor gegevensvoorbereiding voor gegevensstromen gebruiken om gegevens op te nemen, te transformeren, te integreren en te verrijken.The dataflows workload lets you use dataflows self-service data preparation to ingest, transform, integrate, and enrich data. Power BI Premium-gegevensstromen worden beheerd in de Beheerportal.Power BI Premium dataflows are managed in the Admin portal.

Beheerportal voor gegevensstromen in Power BI Premium

In de volgende secties wordt beschreven hoe u gegevensstromen in uw organisatie kunt instellen, hoe u de instellingen ervan kunt aanpassen in uw Premium-capaciteit en krijgt u instructies voor algemeen gebruik.The following sections describe how to enable dataflows in your organization, how to refine their settings in your Premium capacity, and guidance for common usage.

Gegevensstromen inschakelen in Power BI PremiumEnabling dataflows in Power BI premium

De eerste vereiste om gegevensstromen te gebruiken in uw Power BI Premium-abonnement, is dat u het maken en gebruiken van gegevensstromen voor uw organisatie inschakelt.The first requirement for using dataflows in your Power BI premium subscription is to enable the creation and use of dataflows for your organization. Selecteer Tenantinstellingen in de Beheerportal en schakel de schuifregelaar onder Gegevensstroominstellingen naar Ingeschakeld, zoals wordt weergegeven in de volgende afbeelding.In the Admin portal, select Tenant Settings and switch the slider under Dataflow settings to Enabled, as shown in the following image.

Beheerportal voor gegevensstromen in Power BI Premium

Nadat u de workload voor gegevensstromen hebt ingeschakeld, wordt deze geconfigureerd met de standaardinstellingen.After enabling the Dataflows workload, it is configured with default settings. U kunt deze instellingen naar wens aanpassen.You might want to tweak these settings as you see fit. In de volgende stappen leest u waar deze instellingen zijn te vinden en beschrijven we deze. U leest wanneer u de waarden kunt wijzigen om de prestaties van uw gegevensstroom te optimaliseren.Next, we'll describe where these settings live, describe each, and help you understand when you might want to change the values to optimize your dataflow performance.

Gegevensstroominstellingen verfijnenRefining dataflow settings

Zodra gegevensstromen zijn ingeschakeld, kunt u de Beheerportal gebruiken om te wijzigen, of verfijnen, hoe gegevensstromen worden gemaakt en hoe ze resources gebruiken in uw Power BI Premium-abonnement.Once dataflows are enabled, you can use the Admin portal to change, or refine, how dataflows are created and how they use resources in your Power BI Premium subscription. In de volgende stappen ziet u hoe u de gegevensstroominstellingen kunt aanpassen.The following steps show how to adjust your dataflow settings.

  1. Selecteer in de Beheerportal de optie Tenantinstellingen om alle gemaakte capaciteiten weer te geven.In the Admin portal, select Tenant settings to list all capacities that have been created. Selecteer een capaciteit om de instellingen ervan te beheren.Select a capacity to manage its settings.

    Een capaciteit selecteren om instellingen te beheren

  2. Uw Power BI Premium-capaciteit weerspiegelt de beschikbare resources voor uw gegevensstromen.Your Power BI Premium capacity reflects the resources available for your dataflows. U kunt de grootte van uw capaciteit wijzigen door de knop Formaat wijzigen te selecteren, zoals wordt weergegeven in de volgende afbeelding.You can change your capacity's size by selecting the Change size button, as shown in the following image.

    De grootte van een capaciteit wijzigen

  3. In Instellingen voor capaciteit kunt u de instellingen voor de gegevensstroom configureren door Workloads uit te vouwen.In Capacity settings, you can configure dataflow settings by expanding Workloads.

    De sectie workloads uitvouwen

  4. Ga in de sectie Workloads naar het gebied Gegevensstromen.In the Workloads section, scroll to the Dataflows area. In de volgende afbeelding ziet u de instellingen die u kunt gebruiken om het gedrag van de gegevensstroomworkloads voor uw capaciteit te beheren of te verfijnen.The following image shows the settings you can use to control or refine the dataflow workload's behavior for your capacity.

    Instellingen voor gegevensstroomworkload

In de volgende tabel ziet u een basisbeschrijving van de instellingen voor gegevensstromen.The following table provides a basic description of the dataflows settings.

Sectie voor beheerdersAdmin section Naam van de instellingSetting name BeschrijvingDescription
CapaciteitsgrootteCapacity Size Formaat wijzigenChange Size De huidige geselecteerde capaciteit wordt weergegeven, met opties om de capaciteit te wijzigen.The current selected capacity is listed, with options to change the capacity. Als u deze instelling wijzigt, kan de capaciteit omhoog of omlaag worden geschaald.Changing this setting allows for scale up or scale down of the capacity.
WorkloadWorkload Maximaal geheugen (%)Max Memory (%) Het maximale percentage beschikbaar geheugen dat door gegevensstromen in een capaciteit kan worden gebruikt.The maximum percentage of available memory that dataflows can use in a capacity.
WorkloadWorkload Verbeterde rekenengine voor gegevensstromenEnhanced Dataflows Compute Engine Schakel deze optie in voor tot 20x snellere berekening van berekende entiteiten als u grootschalige gegevensvolumes gebruikt.Enable this option for up to 20x faster calculation of computed entities when working with large-scale data volumes. U moet de capaciteit opnieuw opstarten om de nieuwe engine te activeren.You must restart the capacity to activate the new engine. Zie Verbeterde rekenengine voor gegevensstromen voor meer informatie.For more information, see Enhanced dataflows compute engine.
WorkloadWorkload ContainergrootteContainer Size De maximumgrootte van de container die door gegevensstromen wordt gebruikt voor elke entiteit in de gegevensstroom.The maximum size of the container that dataflows use for each entity in the dataflow. De standaardwaarde is 700 MB.The default value is 700 MB. Zie Containergrootte voor meer informatie.For more information, see Container size.
WorkloadWorkload Geheugen van rekenengine (%)Compute engine memory (%) Het maximum percentage geheugen dat is toegewezen aan de rekenengine.The maximum percentage of memory allocated to the compute engine. De standaardwaarde is 30%The default value is 30%

In de volgende secties worden alle instellingen uitgebreid beschreven. U leest ook hoe deze van invloed zijn op de workload van uw gegevensstroom.In the following sections, we go into detail about each of the settings and how they affect your dataflow workload.

Opties voor gegevensstroomworkloadsUnderstanding dataflow workload options

Een eenvoudige manier om naar de opties voor gegevensstroomworkloads te kijken, is door middel van een analogie.A simple way to think about dataflow workload options is to use an analogy. De Capaciteitsgrootte, of het type Power BI Premium-exemplaar dat u hebt, kunt u zien als uw restaurant.The Capacity size, or the type of Power BI Premium Instance you have, can be thought of as your restaurant. In uw restaurant hebt u uw workloadgeheugen. Dit is uw keuken.Within your restaurant, you have your workload memory, which is your kitchen. De rekenengine is uw oven.The compute engine is your oven. En de container, ten slotte, is de kwaliteit van uw chef-kok.And lastly, the container is the sort of quality of your chef. Stelt u zich eens voor dat u een maaltijd voorbereidt voor een groot, belangrijk diner als een manier om de opties voor de gegevensstroomworkload te evalueren.To evaluate your dataflow workload options, imagine preparing a meal for a large, or very significant dinner. Er komen belangrijke gasten en het diner moet klaar staan om te worden geserveerd op het moment dat ze binnenkomen.You have important guests coming over and you must have dinner ready to be served by the time they arrive.

We gebruiken deze restaurantanalogie om de instellingen uit te leggen.We'll use this restaurant analogy as we explain and provide guidance on each of the setting. We beginnen op het hoogste niveau: uw Premium-capaciteit. Dit is namelijk de eerste keus die u maakt wanneer u Power BI Premium gebruikt.We'll start at the top level - your Premium Capacity - as this is the first choice you make when using Power BI Premium.

Premium-capaciteit SKU's: de hardware omhoog schalenPremium capacity SKUs - scale up the hardware

Power BI Premium-workloads gebruiken een combinatie van front-end- en back-endcores voor snelle query's over de verschillende typen workloads.Power BI Premium workloads use a combination of front-end and backend cores to serve fast queries across the various workload types. In het artikel over capaciteitsknooppunten staat een grafiek met de huidige specificaties voor elk van de beschikbare workloadaanbiedingen.The capacity nodes article includes a chart that illustrates the current specifications across each of the available workload offerings. Capaciteiten van A3 en hoger kunnen profiteren van de rekenengine, dus als u de verbeterde rekenengine wilt gebruiken, begint u daar - Capaciteitsknooppunten.Capacities of A3 and greater can take advantage of the compute engine, so when you want to use the enhanced compute engine, start there – Capacity nodes.

In onze restaurantanalogie kunt u het kiezen van een capaciteit vergelijken met het kiezen van een kwalitatief beter restaurant.In our restaurant analogy, choosing a capacity is like choosing a higher-quality restaurant. Hoewel het duurder is, kunt u een hoger prestatieniveau verwachten vanwege meer front-endcores, back-endcores en meer geheugen.Though a higher cost, you can expect a higher level of performance due to the increase in front-end cores, backend cores, and more memory. Wanneer u naar een groter restaurant gaat, is er een grotere keuken met betere chefs-koks, analoog aan upgraden naar een hogere SKU in Power BI Premium, waardoor u de CPU-snelheid kunt verhogen, het geheugen per bewerking kunt vergroten en meer parallellisme kunt toevoegen.When you go to a bigger restaurant, you get a bigger kitchen, and better chefs, which are akin to upgrading to a higher SKU in Power BI Premium, giving you the benefit of increasing CPU speed, increasing memory per operation and adding more parallelism.

Maximaal geheugen: een capaciteit voor gegevensstromen toewijzenMax memory - dedicating a capacity for dataflows

De instelling Maximumgeheugenpercentage is het percentage geheugen buiten het fysieke geheugen om dat beschikbaar is voor de Premium-capaciteit, dat wordt geboden voor gegevensstromenworkloads.The Max Memory % setting is the percentage of memory, out of the physical memory available to the Premium capacity, provided for dataflows workloads. U kunt effectief tot de volledige capaciteit voor een gegevensstroomworkload toewijzen. De capaciteit wordt dynamisch geschaald naar behoefte ten opzichte van de toewijzing die u hebt ingesteld.You can effectively dedicate up to the full capacity for a dataflows workload, and the capacity will scale up dynamically as needed to the allocation you set. Als u, in onze analogie, uw keuken groter maakt, kunt u meer maaltijden bereiden. Op dezelfde manier kunt u ook de workloadgrootte van uw capaciteit voor gegevensstromen vergroten en meer gegevensstromen toestaan.In our analogy, if you make your kitchen bigger you can cook more meals – similarly, you can increase your capacity's workload size for dataflows and allow more dataflows. Hoewel er sprake is van dynamisch resourcebeheer, kunt u met de configuratie-optie Maximumgeheugenpercentage 100% van het geheugen toewijzen aan de gegevensstroomworkload.While there is dynamic resource governance in place, the Max Memory % configuration option lets you dedicate 100% of the memory for the dataflows workload. Dit voor het zeldzame geval dat u er zeker van wilt zijn dat het geheugen van de capaciteit beschikbaar is voor de gegevensstroomworkload, in plaats van dat u vertrouwt op resourcebeheer.This is for the rare situation when you want to ensure the capacity's memory is available for your dataflow workload, rather than relying on the Resource Governance. Teruggrijpend naar onze analogie is dit te vergelijken met ervoor zorgen dat uw keuken zich bezighoudt met het bereiden van een specifieke maaltijd voor een gast, waarbij de volledige keuken zich wijdt aan deze taak.Using our analogy, this would be like making sure your kitchen is focusing on preparing a specific meal for a guest, dedicating the full kitchen to the task(s). De mogelijkheid om meer toe te wijzen, betekent natuurlijk niet dat het eten beter is, of dat de maaltijden sneller op tafel staan, zoals in de volgende sectie wordt uitgelegd.Of course, the ability to dedicate more doesn't mean better food, or faster time to table – as the next section explains.

Containergrootte: problemen met vernieuwen of geen geheugenContainer size - refresh or out of memory issues

We gaan nu de instelling Containergrootte (Mb) bespreken.Next let's discuss the Container Size (Mb) setting. Gegevensstromen gebruiken intern een proces met de naam mashup-containers om uw ETL-processen te evalueren.Internally, dataflows use a process called mashup containers to evaluate your ETL processes. De engine splitst uw querylogica op in deze containers en ze worden parallel verwerkt.The engine splits your query logic into these containers and they can process in parallel. Het aantal containers zorgt voor een efficiënte gelijktijdige verwerking en verhoogt de prestaties.The number of containers effectively provides concurrent processing and increases performance. Deze containers worden eerst beperkt door de Capaciteit, ten tweede door de instelling Maximumgeheugenpercentage en vervolgens door de hoeveelheid geheugen die u er specifiek aan toewijst in de containerinstelling, die standaard 700Mb is.These containers are constrained by the Capacity first, the Max Memory % setting second, and then the amount of memory you specifically allocate to them in the container setting, which by default is 700Mb. Het is dus mogelijk om de hoeveelheid hardwaregeheugen te verhogen en de containergrootte te vergroten, maar hierdoor wordt het aantal parallelle bewerkingen minder en wordt er meer geheugen toegewezen voor het specifieke ETL-proces in uw containers.So it's possible to increase the amount of hardware memory, and increase the container size, but doing so will decrease the parallel operations while dedicating more memory for specific ETL process within your containers. Het aantal containers wordt beperkt tot driemaal het aantal back-endcores. Dit is belangrijk, omdat u de container niet erg klein kunt maken en tot voorbij dat punt een groot aantal parallelle containers kunt hebben.The number of containers is capped at three times the number of backend cores, which is important because you can't make the container very small, and have a lot of parallel containers beyond that point. De minimale grootte van een container is 200 MB.The minimum size you can make a container is 200Mb. De containergrootte is ook toegewezen aan een queryniveau, wat betekent dat elke query wordt uitgevoerd in een eigen container, behalve wanneer query's verwijzen naar andere query's. In dat geval worden ze vernieuwd als onderdeel van dezelfde container.The container size is also scoped to a query level, which means each query gets executed in its own container except when queries are referencing other queries, in which case they are refreshed as part of the same container.

We kijken weer naar de analogie: met in de keuken minder koks, die wel meer gefocuste zijn, kunt u veel sneller een maaltijd bereiden, afhankelijk van de soorten bestellingen die worden geplaatst en hoe ingewikkeld de maaltijd is.Going back to our analogy, having fewer but more focused cooks in the kitchen enables you to cook a meal much faster, depending on the types of orders that are placed and the complexity of the meal. Het compromis hier is dat er minder chef-koks zijn, maar meer gerichte tijd voor bereiding.The tradeoff here is having fewer chefs, but more focused time for preparation. Op dezelfde manier kan het vergroten van de containergrootte tot 1200-1500 MB betekenen dat een kleiner aantal complexere ETL-taken (activiteiten zoals aggregaties, samenvoegingen, draaitabellen, rij- of kolombewerkingen), een prestatieverhoging kunnen leveren naarmate er meer geheugen beschikbaar is voor elke container, maar in dat geval vermindert u het aantal containers.Similarly, increasing the container size measure to 1200-1500 MB can mean that a smaller number of more complex ETL jobs – activities such as aggregations, joins, pivots, row or column manipulations - can see a performance increase as we provide more memory for each container, but in doing so, reduce the number of containers. Zoals de analogie ook impliceert, kunnen te veel bestellingen de keuken juist vertragen. Zo kunt u ook containergrootte zien: gebruik dit wanneer u wilt dat complexe entiteitsbewerkingen worden voltooid en u bereid bent om parallellisme in te ruilen voor prestatie, want door deze resource te vergroten, wordt het geheugen namelijk toegewezen aan minder containers.Just as the analogy implies, too many orders can actually slow down the kitchen output, which is how you can think about container size – use this when you need complex entity operations to complete, and you're willing to trade parallelism for performance, since increasing this resource divides the memory allocated to fewer containers.

Samenvattend, kunt u de containergrootte het beste optimaliseren op basis van de query's die worden gebruikt.To summarize, you want to optimize your container size based on the queries being used. Wanneer u bijvoorbeeld eenvoudig gegevens vanuit een bron naar een entiteit laadt, hoeven er geen gegevens te worden binnengehaald en hoeven er geen bewerkingen te worden uitgevoerd en worden de gegevens alleen maar geladen naar opslag.For example, simply loading data from a source into an entity does not need to pull in data and perform any operations and just loads the data to storage. In een dergelijke situatie wilt u zoveel mogelijk parallellisme, omdat u de snelheid van de laad- en vernieuwingsbewerkingen wilt verhogen.You want as much parallelism as possible for this situation, as you want to increase the speed of the load and refresh operations. Als u echter meer transformatiebewerkingen toevoegt (complexe filters, samenvoegingen, aggregaties), kan het geheugen veel hoger zijn, omdat we mogelijk enkele van deze transformatiebewerkingen in het geheugen moeten verwerken.Conversely, when you add more transformation operations – complex filters, joins, aggregations, the memory may be much higher as we may need to process some of these transformation operations in memory. Houd er rekening mee dat als er andere gegevensstroombewerkingen worden uitgevoerd op de capaciteit, dit deze bewerkingen kan vertragen en ervoor kan zorgen dat ze in de wachtrij worden geplaatst voor een uitvoeringssleuf.Be aware that if you have other dataflow operations running on the capacity, it can slow those operations and force them to queue up to have an execution slot. Het bewaken en beheren van gegevensstromen, vernieuwingsprestaties en de volledige capaciteit wordt daarbij ondersteund door de app Power BI Premium Capacity Metrics.To this end, monitoring and management of dataflows, refresh performance, and the entire capacity is aided by the Power BI Premium Capacity Metrics app. U kunt de app Power BI Premium-app voor metrische gegevens van capaciteit gebruiken om de inhoud op capaciteit te filteren en de metrische gegevens over de prestaties voor inhoud uit de werkruimte controleren.You can use the Power BI Premium Capacity Metrics app to filter by capacity, and review performance metrics for workspace content. U kunt de prestatiemetrieken en het resourcegebruik per uur controleren voor de afgelopen zeven dagen, voor alle inhoud die in een Premium-capaciteit is opgeslagen. Wat betreft het onderzoeken van de prestaties van gegevensstromen, wordt daarom aanbevolen om met de app te beginnen.It's possible to review the performance metrics and resource usage by hour, for the past seven days, for all content stored within a Premium capacity – so for investigating dataflow performance, it's recommended to start with the app.

Verbeterde rekenengine: een mogelijkheid om de prestaties te verbeterenEnhanced compute engine - an opportunity to improve performance

In onze analogie is de verbeterde rekenengine te vergelijken met een oven.In our analogy, the enhanced compute engine is like an oven. Power BI gebruikt een rekenengine om uw query's en vernieuwingsbewerkingen te verwerken.Power BI uses a compute engine to process your queries and refresh operations. De verbeterde rekenengine is een verbetering ten opzichte van de standaardengine. De engine werkt door gegevens naar een SQL-cache te laden en maakt gebruik van SQL om entiteitstransformatie te versnellen, bewerkingen te vernieuwen en DirectQuery-connectiviteit mogelijk te maken.The enhanced compute engine is an improvement over the standard engine, and works by loading data to a SQL Cache and uses SQL to accelerate entity transformation, refresh operations and enables DirectQuery connectivity. Als we de engines vergelijken met ovens, kunt u, wanneer u de verbeterde oven gebruikt, mogelijk sneller en effectiever maaltijden bereiden.If we compare the engines to ovens, as you leverage the enhanced oven, you may be able to cook meals faster and more effectively. Indien ingesteld op Aan of Geoptimaliseerd voor berekende entiteiten, kan Power BI, als de bedrijfslogica dat toestaat, gebruikmaken van SQL om de prestaties te versnellen.When configured to On or Optimized for computed entities, if your business logic allows for it, Power BI uses SQL speed up the performance. Wanneer de engine staat ingesteld op Aan, hebt u ook DirectQuery-connectiviteit.Having the engine On also provides for DirectQuery connectivity. Zoals blijkt uit de analogie is voor bepaalde maaltijden geen oven nodig of hoeft de over niet te worden gebruikt.As the analogy suggests – certain meals might not need an oven, nor take advantage of the oven. U kunt de verbeterde rekenengine op een vergelijkbare manier zien: zorg ervoor dat uw gegevensstroomverbruik op de juiste manier gebruikmaakt van de verbeterde rekenengine.The enhanced compute engine can be thought of in a similar manner – make sure your dataflow usage is leveraging the enhanced compute engine properly.

Notitie

De verbeterde rekenengine is nog niet beschikbaar in alle regio's.The enhanced compute engine is not yet available in all regions.

Richtlijnen voor algemene scenario'sGuidance for common scenarios

In deze sectie vindt u richtlijnen voor veelvoorkomende scenario's voor het gebruik van gegevensstroomworkloads met Power BI Premium.This section provides guidance for common scenarios when using dataflow workloads with Power BI Premium.

Trage vernieuwingstijdenSlow refresh times

Trage vernieuwingstijden zijn doorgaans een probleem met parallelle uitvoering.Slow refresh times are usually a parallelism issue. Controleer de volgende opties, in de aangegeven volgorde:You should review the following options, in order:

  1. Een belangrijk concept voor trage vernieuwingstijden is de aard van uw gegevensvoorbereiding.A key concept for slow refresh times is the nature of your data preparation. Stelt u zich naar aanleiding van onze eerder uiteengezette restaurantanalogie voor dat de maaltijden al zijn bereid, klaar om te worden geserveerd.In our restaurant analogy explained earlier in this article, imagine having prepared food already, waiting to be used. In dit scenario kan het eten veel sneller worden bereidt door minimale voorbereidingstijd.In this scenario, the food can be cooked much faster due to minimal prep time. En wanneer u uw trage vernieuwingstijden kunt optimaliseren door gebruik te maken van uw gegevensbron die de voorbereiding en uitvoering van querylogica van tevoren doet, moet u dat doen.Similarly, whenever you can optimize your slow refresh times by taking advantage of your data source actually doing the preparation and performing upfront query logic, you should do s. Wanneer u een relationele database als SQL gebruikt als uw bron, kunt u kijken of de oorspronkelijke query kan worden uitgevoerd op de bron en vervolgens die bronquery gebruiken voor de oorspronkelijke extractiegegevensstroom voor de gegevensbron.Specifically, when using a relational database such as SQL as your source, see if the initial query can be run on the source, and use that source query for your initial extraction dataflow for the data source. Als u geen systeemeigen query kunt gebruiken in het bronsysteem, voert u bewerkingen uit die de engine voor gegevensstromen kan insluiten in de gegevensbron.If you cannot use a native query in the source system, perform operations that the dataflows engine can fold to the data source.

  2. Evalueer het verspreiden van vernieuwingstijden op dezelfde capaciteit.Evaluate spreading out refresh times on the same capacity. Vernieuwingsbewerkingen zijn een proces waarvoor een aanzienlijke rekenkracht vereist is.Refresh operations are a process that requires significant compute. Met behulp van onze restaurantanalogie kunnen we het verspreiden van vernieuwingstijden vergelijken met het beperken van het aantal gasten in uw restaurant.Using our restaurant analogy, spreading out refresh times is akin to limiting the number of guests in your restaurant. Net zoals restaurants voor gasten een tafel reserveren en de capaciteit plannen, kunt u ook overwegen om vernieuwingsbewerkingen uit te voeren op momenten wanneer het gebruik niet op het hoogtepunt is.Just as restaurants will schedule guests and plan for capacity, you also want to consider refresh operations during times when usage is not at its full peak. Op die manier kunt u de belasting van de capaciteit verlichten.This can go a long way toward alleviating strain on the capacity.

  3. Verhoog de totale hoeveelheid geheugen die aan de workload is gegeven.Increase the overall amount of memory given to the workload. U kunt dit zien als de grootte van de keuken.Think of this as the size of kitchen. Het verfijnen van deze resource is vergelijkbaar met het aanpassen van het aantal chef-koks dat in de keuken past.Refining this resource is similar to adjusting how many chefs can you fit in the kitchen. Dit doet u door de instelling Maximumgeheugenpercentage aan te passen en de waarde te verhogen tot 100%.This is done by adjusting the Max Memory % setting, and increasing it up to 100%.

  4. Verlaag de hoeveelheid geheugen naar de container, waardoor meer containers zijn toegestaan.Decrease the amount of memory to the container, which allows for more containers. U kunt dit als volgt zien: in plaats van een beroemde chef-kok als Gordon Ramsey aan te nemen, kunt u ook meerdere goede, maar goedkopere chef-koks aannemen.You can think of this as: instead of hiring a famously capable chef like Gordon Ramsey, hire many competent but less expensive chefs. U hebt dan meer koks in de keuken, maar deze chef-koks kunnen alleen kleinere taken uitvoeren.So you have more cooks in the kitchen, but those chefs can only perform smaller tasks. U hebt dan meer containers, maar minder geheugen.Then you have more containers, but less memory.

  5. Voer beide stappen hiervoor uit, voor een nog hogere mate van parallellisme, omdat u meer koks en een grotere keuken krijgt.Do both of the previous steps, allowing for an even higher degree of parallelism, because you get more cooks and a bigger kitchen.

  6. Als de stappen in deze sectie niet de gewenste mate van parallellisme bieden, kunt u uw capaciteit upgraden naar een hogere SKU.If the steps in this section don't provide the desired degree of parallelism, consider upgrading your capacity to a higher SKU. Volg vervolgens de eerdere stappen in deze sectie opnieuw.Then follow steps the previous steps in this section again.

Uitzonderingen met betrekking tot onvoldoende geheugenOut of memory exceptions

Wanneer u te maken krijgt met uitzonderingen met betrekking tot onvoldoende geheugen, moet u de prestaties van de containers en het geheugen verhogen.When you experience out of memory exceptions, you need to increase performance of the containers and memory. Voer de volgende stappen uit.Take the following steps.

  1. Vergroot het geheugen van de container.Increase memory on the container. Dit is vergelijkbaar met het in dienst hebben van één sterrenkok versus meerdere koks, zoals beschreven in de vorige sectie.This is similar to having one star chef versus many chefs, as described in the previous section.

  2. Vergroot het geheugen voor de workload en meer geheugen voor de container.Increase memory to workload and more memory to container. In onze analogie krijgt u dan een grotere keuken en betere chef-koks.In our analogy, it creates a bigger kitchen and higher-quality chefs.

  3. Als deze wijzigingen niet de gewenste mate van parallellisme bieden, overweeg dan een hogere Power BI Premium SKU.If these changes don't give you the desired degree of parallelism, consider a higher Power BI Premium SKU.

De rekenengine gebruiken om de prestaties te verbeterenUsing the compute engine to improve performance

Voer de volgende stappen uit zodat workloads de rekenengine kunnen activeren en altijd de prestaties verbeteren:Take the following steps to enable workloads trigger the compute engine, and always improve performance:

Voor berekende en gekoppelde entiteiten in dezelfde werkruimte:For computed and linked entities in the same workspace:

  1. In het geval van gegevensopname moet u de gegevens zo snel mogelijk in de opslag zien te krijgen, waarbij u alleen filters gebruikt als ze de totale grootte van de gegevensset verlagen.For ingestion focus on getting the data into the storage as fast as possible, using filters only if they reduce the overall dataset size. Het is een best practice om uw transformatielogica gescheiden te houden van deze stap en de engine in staat te stellen zich te richten op de initiële verzameling van ingrediënten.It's best practice to keep your transformation logic separate from this step, and allow the engine to focus on the initial gathering of ingredients. Scheid vervolgens uw transformatie en bedrijfslogica in een afzonderlijke gegevensstroom in dezelfde werkruimte, met behulp van gekoppelde of berekende entiteiten. Hierdoor kan de engine uw berekeningen activeren en versnellen.Next, separate your transformation and business logic into a separate dataflow in the same workspace, using linked or computed entities; doing so allows for the engine to activate and accelerate your computations. In onze analogie is dit te vergelijken met het bereiden van eten in de keuken; voedselbereiding is over het algemeen een afzonderlijke en aparte stap van het verzamelen van de onbewerkte ingrediënten en een vereiste om het eten in de oven te kunnen zetten.In our analogy, it's like food preparation in the kitchen: food preparation is typically a separate and distinct step from gathering your raw ingredients, and a pre-requisite for putting the food in the oven. Op dezelfde manier moet uw logica afzonderlijk worden voorbereid voordat deze kan profiteren van de rekenengine.Similarly, your logic needs to be prepared separately before it can take advantage of the compute engine.

  2. Zorg ervoor dat u de bewerkingen uitvoert die insluiten, zoals samenvoegingen, koppelingen, conversie en andere.Ensure you perform the operations that fold, such as merges, joins, conversion, and others.

  3. Gegevensstromen bouwen binnen gepubliceerde richtlijnen en beperkingen.Building dataflows within published guidelines and limitations.

U kunt ook DirectQuery gebruiken.You can also use DirectQuery.

Rekenengine is ingeschakeld, maar de prestaties zijn traagCompute engine is on but performance is slow

Voer de volgende stappen uit wanneer u scenario's onderzoekt waarin de rekenengine aan is, maar u te maken hebt met tragere prestaties:Take the following steps when investigating scenarios where the Compute engine is on, but you're seeing slower performance:

  1. Beperk berekende en gekoppelde entiteiten die in de werkruimte bestaan.Limit computed and linked entities that exist cross workspace.

  2. Als de eerste vernieuwing wordt uitgevoerd met de rekenengine ingeschakeld, worden gegevens geschreven in de lake en in de cache.If your initial refresh with the compute engine turned on, then data gets written in the lake and in the cache. Deze dubbele schrijfbewerking brengt met zich mee dat deze vernieuwingen langzamer zijn.This double write means these refreshes will be slower.

  3. Als u een gegevensstroom hebt die is gekoppeld aan meerdere gegevensstromen, moet u ervoor zorgen dat u de vernieuwingen van de brongegevensstromen plant zodat ze niet allemaal tegelijkertijd vernieuwen.If you have a dataflow linking to multiple dataflows, make sure you schedule refreshes of the source dataflows so that they do not all refresh at the same time.

Volgende stappenNext steps

De volgende artikelen bieden meer informatie over gegevensstromen en Power BI:The following articles provide more information about dataflows and Power BI: