Große Datasets in Power BI Premium
Power BI-Datasets können Daten für eine optimierte Abfrageleistung in einem stark komprimierten In-Memory-Cache speichern. Dadurch wird eine schnelle Benutzerinteraktion ermöglicht. Mit Premium-Kapazitäten können große Datasets, die den Standardgrenzwert überschreiten, mit der Einstellung Großes Datasetspeicherformat ermöglicht werden. Wenn diese Option aktiviert ist, wird die Größe des Datasets vom Administrator durch die Premium-Kapazitätsgröße oder die maximale Größe beschränkt.
Große Datasets können für alle Premium-P-SKUs sowie eingebettete A-SKUs und mit Premium pro Benutzer (PPU) aktiviert werden. Die Größenbeschränkung für große Datasets in Premium ist vergleichbar mit Azure Analysis Services in Bezug auf die Größenbeschränkungen von Datenmodellen.
Abgesehen davon, dass die Speicherformateinstellung für große Datasets erforderlich ist, damit Datasets auf über 10 GB anwachsen können, bietet sie auch noch weitere Vorteile. Wenn Sie auf XMLA-Endpunkten basierende Tools für Datasetschreibvorgänge verwenden möchten, sollten Sie darauf achten, die Einstellung auch für Datasets zu aktivieren, die Sie nicht unbedingt als große Datasets bezeichnen würden. Wenn diese Einstellung aktiviert ist, kann das Speicherformat für große Datasets die Leistung von XMLA-Schreibvorgängen verbessern.
Große Datasets im Dienst wirken sich nicht auf die Power BI Desktop Modelluploadgröße aus, die weiterhin auf 10 GB beschränkt ist. Stattdessen können Datasets im Dienst bei einer Aktualisierung diesen Grenzwert überschreiten.
Wichtig
Power BI Premium unterstützt große Datasets. Aktivieren Sie die Option Großes Datasetspeicherformat, um Datasets in Power BI Premium zu verwenden, die den Standardgrenzwert überschreiten.
Aktivieren großer Datasets
In diesem Schritt wird beschrieben, wie Sie große Datasets für ein neues Modell aktivieren, das im Dienst veröffentlicht wurde. Bei bereits bestehenden Datasets ist nur Schritt 3 erforderlich.
Erstellen Sie ein Modell in Power BI Desktop. Falls das Dataset größer wird und immer mehr Arbeitsspeicher belegt, achten Sie darauf, eine inkrementelle Aktualisierung zu konfigurieren.
Veröffentlichen Sie das Modell als Dataset im Dienst.
Erweitern Sie im Dienstdatensatz >Einstellungen das Speicherformat "Große Datensätze>", legen Sie den Schieberegler auf "Ein" fest, und wählen Sie dann "Anwenden" aus.
Starten Sie eine Aktualisierung, um historische Daten basierend auf der Richtlinie für die inkrementelle Aktualisierung zu laden. Bei der ersten Aktualisierung kann das Laden der historischen Daten einige Zeit in Anspruch nehmen. Nachfolgende Aktualisierungen sollten je nach Ihrer Richtlinie für die inkrementelle Aktualisierung schneller erfolgen.
Festlegen des Standardspeicherformats
Für alle neuen Datasets, die in einem Arbeitsbereich einer Premium-Kapazität erstellt wurden, kann das Speicherformat für große Datasets standardmäßig aktiviert werden.
Wählen Sie im Arbeitsbereich Einstellungen>Premium aus.
Wählen Sie im Standardspeicherformat großes Datasetspeicherformat aus, und wählen Sie dann "Speichern" aus.
Aktivieren mithilfe von PowerShell
Das Speicherformat für große Datasets kann ebenfalls mithilfe von PowerShell aktiviert werden. Zum Ausführen der PowerShell-Cmdlets benötigen Sie Berechtigungen als Kapazitäts- und Arbeitsbereichadministrator.
Suchen Sie die Dataset-ID (GUID). Die ID finden Sie auf der Registerkarte Datasets des Arbeitsbereichs unter den Dataseteinstellungen in der URL.
Installieren Sie in der Eingabeaufforderung für den PowerShell-Administrator das Modul MicrosoftPowerBIMgmt.
Install-Module -Name MicrosoftPowerBIMgmt
Führen Sie die folgenden Cmdlets aus, um sich anzumelden und den Speichermodus des Datasets zu überprüfen.
Login-PowerBIServiceAccount (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
Es sollte die folgende Antwort ausgegeben werden. Als Speichermodus ist „ABF“ (Analysis Services-Sicherungsdatei) ausgewählt. Das ist die Standardeinstellung.
Id StorageMode -- ----------- <Dataset ID> Abf
Führen Sie die folgenden Cmdlets aus, um den Speichermodus festzulegen. Die Konvertierung in Files Premium kann einige Sekunden in Anspruch nehmen.
Set-PowerBIDataset -Id <Dataset ID> -TargetStorageMode PremiumFiles (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
Es sollte die folgende Antwort ausgegeben werden. Der Speichermodus ist jetzt auf Files Premium festgelegt.
Id StorageMode -- ----------- <Dataset ID> PremiumFiles
Sie können den Status der Dataset-Konvertierungen in und aus Files Premium mithilfe des Get-PowerBIWorkspaceMigrationStatus-Cmdlets überprüfen.
Entfernen von Datasets
Dataset-Eviktion ist ein Premium Feature, mit dem die Summe der Datasetgrößen erheblich größer als der für die erworbene SKU-Größe der Kapazität verfügbaren Arbeitsspeicher sein kann. Ein einzelnes Dataset ist weiterhin auf die Speichergrenzen des SKU beschränkt. Power BI verwendet die dynamische Speicherverwaltung, um inaktive Datasets aus dem Arbeitsspeicher zu entfernen. Datasets werden entfernt, damit Power BI andere Datasets laden können, um Benutzerabfragen zu adressieren. Weitere Informationen zur dynamischen Speicherverwaltung finden Sie unter Funktionsweise von Kapazitäten.
Hinweis
Wenn Sie darauf warten müssen, dass ein gevictes Dataset neu geladen werden soll, wird möglicherweise eine spürbare Verzögerung auftreten.
On-Demand-Last
Die On-Demand-Last ist standardmäßig für große Datasets aktiviert und kann erheblich verbesserte Ladezeit von vicierten Datasets bereitstellen. Mit on-Demand-Lade erhalten Sie die folgenden Vorteile während der nachfolgenden Abfragen und Aktualisierungen:
Relevante Datenseiten werden on-demand geladen (in den Arbeitsspeicher eingeblattt).
Für Abfragen werden schnell gevicte Datasets zur Verfügung gestellt.
On-Demand-Ladeflächen bieten zusätzliche Informationen zur dynamischen Verwaltungsansicht (DMV), die verwendet werden können, um Nutzungsmuster zu identifizieren und den Zustand Ihrer Modelle zu verstehen. Sie können beispielsweise die Temperatur- und Zuletztzugriffsstatistiken für jede Spalte im Dataset überprüfen, indem Sie die folgende DMV-Abfrage aus SQL Server Management Studio (SSMS) ausführen:
Select * from SYSTEMRESTRICTSCHEMA ($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS, [DATABASE_NAME] = '<Dataset Name>')
Überprüfen der Datasetgröße
Nach dem Laden historischer Daten können Sie SSMS über den XMLA-Endpunkt verwenden, um die geschätzte Datasetgröße im Fenster „Modelleigenschaften“ zu überprüfen.
Sie können die Größe des Datasets ebenfalls überprüfen, indem Sie die folgenden DMV-Abfragen aus SSMS ausführen. Wenn Sie die Spalten DICTIONARY_SIZE und USED_SIZE aus der Ausgabe addieren, erhalten Sie die Datasetgröße in Bytes.
SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMNS,
[DATABASE_NAME] = '<Dataset Name>') //Sum DICTIONARY_SIZE (bytes)
SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS,
[DATABASE_NAME] = '<Dataset Name>') //Sum USED_SIZE (bytes)
Standardsegmentgröße
Für Datasets, die das Speicherformat für große Datasets verwenden, legt Power BI die Standardsegmentgröße automatisch auf 8 Millionen Zeilen fest, um für große Tabellen ein gutes Gleichgewicht zwischen den Arbeitsspeicheranforderungen und der Abfrageleistung zu erreichen. Dies ist die gleiche Segmentgröße wie in Azure Analysis Services. Die Verwendung einer identischen Segmentgröße hilft dabei, vergleichbare Leistungsmerkmale bei der Migration eines großen Datenmodells von Azure Analysis Services zu Power BI sicherzustellen.
Überlegungen und Einschränkungen
Berücksichtigen Sie bei der Verwendung großer Datasets die folgenden Einschränkungen:
Neue Arbeitsbereiche sind erforderlich: Große Datasets funktionieren nur mit neuen Arbeitsbereichen.
Herunterladen von Dateien in Power BI Desktop: Wenn ein Dataset in Files Premium gespeichert wird, tritt beim Herunterladen als PBIX-Datei ein Fehler auf.
Unterstützte Regionen: Große Datasets sind in Azure-Regionen verfügbar, die Azure Premium Files Storage unterstützen. Überprüfen Sie die Tabelle in der Verfügbarkeit der Region, um eine Liste aller unterstützten Regionen anzuzeigen.
Festlegen der maximalen Größe des Datasets: Die maximale Größe des Datasets kann von Administratoren festgelegt werden. Weitere Informationen finden Sie unter Max Memory in Datasets.
Aktualisieren großer Datasets: Datasets, die in der Nähe der Hälfte der Kapazitätsgröße liegen (z. B. ein 12-GB-Dataset auf einer Größe von 25 GB) kann den verfügbaren Arbeitsspeicher während der Aktualisierung überschreiten. Mithilfe der erweiterten Aktualisierungs-REST-API oder des XMLA-Endpunkts können Sie fein gestrichelte Datenaktualisierungen ausführen, sodass der von der Aktualisierung benötigte Speicher minimiert werden kann, um in die Größe Ihrer Kapazität anzupassen.
Push-Datasets: Push-Datasets unterstützen das große Datasetspeicherformat nicht.
Pro wird nicht unterstützt – Große Datasets werden in Pro Arbeitsbereichen nicht unterstützt. Wenn ein Arbeitsbereich von Premium zu Pro migriert wird, werden alle Datasets mit der Einstellung für das große Datasetspeicherformat nicht geladen.
Sie können REST-APIs nicht verwenden, um die Einstellungen eines Arbeitsbereichs zu ändern, damit neue Datasets standardmäßig das große Datasetspeicherformat verwenden können.
Regionale Verfügbarkeit
Große Datasets in Power BI sind nur in Azure-Regionen verfügbar, die Azure Premium Files Storage unterstützen.
In der folgenden Liste sind Regionen aufgeführt, in denen große Datasets in Power BI verfügbar sind. Regionen, die nicht in der folgenden Liste enthalten sind, werden für große Modelle nicht unterstützt.
Hinweis
Sobald ein großes Dataset in einem Arbeitsbereich erstellt wurde, muss es in dieser Region verbleiben. Sie können einen Arbeitsbereich mit einem großen Dataset nicht einer Premium Kapazität in einer anderen Region neu zuweisen.
Azure-Region | Abkürzung der Azure-Region |
---|---|
Australien (Osten) | australiaeast |
Australien, Südosten | australiasoutheast |
Kanada, Osten | canadaeast |
Kanada, Mitte | canadacentral |
Indien, Mitte | centralindia |
USA (Mitte) | centralus |
Asien, Osten | eastasia |
East US | eastus |
USA (Ost) 2 | eastus2 |
Frankreich, Mitte | francecentral |
Frankreich, Süden | francesouth |
Japan, Osten | japaneast |
Japan, Westen | japanwest |
Korea, Mitte | koreacentral |
Korea, Süden | koreasouth |
USA Nord Mitte | northcentralus |
Nordeuropa | northeurope |
USA Süd Mitte | southcentralus |
Asien, Südosten | southeastasia |
Schweiz, Norden | switzerlandnorth |
Schweiz, Westen | schweizwest |
UK, Süden | uksouth |
UK, Westen | ukwest |
Europa, Westen | westeurope |
Indien, Westen | westindia |
USA (Westen) | westus |
USA, Westen 2 | westus2 |
Nächste Schritte
Über die folgenden Links können Sie auf nützliche Informationen für die Arbeit mit großen Modellen zugreifen: