Große Datasets in Power BI Premium

Power BI-Datasets können Daten für eine optimierte Abfrageleistung in einem stark komprimierten In-Memory-Cache speichern. Dadurch wird eine schnelle Benutzerinteraktion ermöglicht. Mit Premium-Kapazitäten können große Datasets, die den Standardgrenzwert überschreiten, mit der Einstellung Großes Datasetspeicherformat ermöglicht werden. Wenn diese Option aktiviert ist, wird die Größe des Datasets vom Administrator durch die Premium-Kapazitätsgröße oder die maximale Größe beschränkt.

Große Datasets können für alle Premium-P-SKUs sowie eingebettete A-SKUs und mit Premium pro Benutzer (PPU) aktiviert werden. Die Größenbeschränkung für große Datasets in Premium ist vergleichbar mit Azure Analysis Services in Bezug auf die Größenbeschränkungen von Datenmodellen.

Abgesehen davon, dass die Speicherformateinstellung für große Datasets erforderlich ist, damit Datasets auf über 10 GB anwachsen können, bietet sie auch noch weitere Vorteile. Wenn Sie auf XMLA-Endpunkten basierende Tools für Datasetschreibvorgänge verwenden möchten, sollten Sie darauf achten, die Einstellung auch für Datasets zu aktivieren, die Sie nicht unbedingt als große Datasets bezeichnen würden. Wenn diese Einstellung aktiviert ist, kann das Speicherformat für große Datasets die Leistung von XMLA-Schreibvorgängen verbessern.

Große Datasets im Dienst wirken sich nicht auf die Power BI Desktop Modelluploadgröße aus, die weiterhin auf 10 GB beschränkt ist. Stattdessen können Datasets im Dienst bei einer Aktualisierung diesen Grenzwert überschreiten.

Wichtig

Power BI Premium unterstützt große Datasets. Aktivieren Sie die Option Großes Datasetspeicherformat, um Datasets in Power BI Premium zu verwenden, die den Standardgrenzwert überschreiten.

Aktivieren großer Datasets

In diesem Schritt wird beschrieben, wie Sie große Datasets für ein neues Modell aktivieren, das im Dienst veröffentlicht wurde. Bei bereits bestehenden Datasets ist nur Schritt 3 erforderlich.

  1. Erstellen Sie ein Modell in Power BI Desktop. Falls das Dataset größer wird und immer mehr Arbeitsspeicher belegt, achten Sie darauf, eine inkrementelle Aktualisierung zu konfigurieren.

  2. Veröffentlichen Sie das Modell als Dataset im Dienst.

  3. Erweitern Sie im Dienstdatensatz >Einstellungen das Speicherformat "Große Datensätze>", legen Sie den Schieberegler auf "Ein" fest, und wählen Sie dann "Anwenden" aus.

    Enable large dataset slider

  4. Starten Sie eine Aktualisierung, um historische Daten basierend auf der Richtlinie für die inkrementelle Aktualisierung zu laden. Bei der ersten Aktualisierung kann das Laden der historischen Daten einige Zeit in Anspruch nehmen. Nachfolgende Aktualisierungen sollten je nach Ihrer Richtlinie für die inkrementelle Aktualisierung schneller erfolgen.

Festlegen des Standardspeicherformats

Für alle neuen Datasets, die in einem Arbeitsbereich einer Premium-Kapazität erstellt wurden, kann das Speicherformat für große Datasets standardmäßig aktiviert werden.

  1. Wählen Sie im Arbeitsbereich Einstellungen>Premium aus.

  2. Wählen Sie im Standardspeicherformat großes Datasetspeicherformat aus, und wählen Sie dann "Speichern" aus.

    Enable default storage format

Aktivieren mithilfe von PowerShell

Das Speicherformat für große Datasets kann ebenfalls mithilfe von PowerShell aktiviert werden. Zum Ausführen der PowerShell-Cmdlets benötigen Sie Berechtigungen als Kapazitäts- und Arbeitsbereichadministrator.

  1. Suchen Sie die Dataset-ID (GUID). Die ID finden Sie auf der Registerkarte Datasets des Arbeitsbereichs unter den Dataseteinstellungen in der URL.

    Dataset GUID

  2. Installieren Sie in der Eingabeaufforderung für den PowerShell-Administrator das Modul MicrosoftPowerBIMgmt.

    Install-Module -Name MicrosoftPowerBIMgmt
    
  3. Führen Sie die folgenden Cmdlets aus, um sich anzumelden und den Speichermodus des Datasets zu überprüfen.

    Login-PowerBIServiceAccount
    
    (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
    

    Es sollte die folgende Antwort ausgegeben werden. Als Speichermodus ist „ABF“ (Analysis Services-Sicherungsdatei) ausgewählt. Das ist die Standardeinstellung.

    Id                   StorageMode
    
    --                   -----------
    
    <Dataset ID>         Abf
    
  4. Führen Sie die folgenden Cmdlets aus, um den Speichermodus festzulegen. Die Konvertierung in Files Premium kann einige Sekunden in Anspruch nehmen.

    Set-PowerBIDataset -Id <Dataset ID> -TargetStorageMode PremiumFiles
    
    (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
    

    Es sollte die folgende Antwort ausgegeben werden. Der Speichermodus ist jetzt auf Files Premium festgelegt.

    Id                   StorageMode
    
    --                   -----------
    
    <Dataset ID>         PremiumFiles
    

Sie können den Status der Dataset-Konvertierungen in und aus Files Premium mithilfe des Get-PowerBIWorkspaceMigrationStatus-Cmdlets überprüfen.

Entfernen von Datasets

Dataset-Eviktion ist ein Premium Feature, mit dem die Summe der Datasetgrößen erheblich größer als der für die erworbene SKU-Größe der Kapazität verfügbaren Arbeitsspeicher sein kann. Ein einzelnes Dataset ist weiterhin auf die Speichergrenzen des SKU beschränkt. Power BI verwendet die dynamische Speicherverwaltung, um inaktive Datasets aus dem Arbeitsspeicher zu entfernen. Datasets werden entfernt, damit Power BI andere Datasets laden können, um Benutzerabfragen zu adressieren. Weitere Informationen zur dynamischen Speicherverwaltung finden Sie unter Funktionsweise von Kapazitäten.

Hinweis

Wenn Sie darauf warten müssen, dass ein gevictes Dataset neu geladen werden soll, wird möglicherweise eine spürbare Verzögerung auftreten.

On-Demand-Last

Die On-Demand-Last ist standardmäßig für große Datasets aktiviert und kann erheblich verbesserte Ladezeit von vicierten Datasets bereitstellen. Mit on-Demand-Lade erhalten Sie die folgenden Vorteile während der nachfolgenden Abfragen und Aktualisierungen:

  • Relevante Datenseiten werden on-demand geladen (in den Arbeitsspeicher eingeblattt).

  • Für Abfragen werden schnell gevicte Datasets zur Verfügung gestellt.

On-Demand-Ladeflächen bieten zusätzliche Informationen zur dynamischen Verwaltungsansicht (DMV), die verwendet werden können, um Nutzungsmuster zu identifizieren und den Zustand Ihrer Modelle zu verstehen. Sie können beispielsweise die Temperatur- und Zuletztzugriffsstatistiken für jede Spalte im Dataset überprüfen, indem Sie die folgende DMV-Abfrage aus SQL Server Management Studio (SSMS) ausführen:

Select * from SYSTEMRESTRICTSCHEMA ($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS, [DATABASE_NAME] = '<Dataset Name>')

Überprüfen der Datasetgröße

Nach dem Laden historischer Daten können Sie SSMS über den XMLA-Endpunkt verwenden, um die geschätzte Datasetgröße im Fenster „Modelleigenschaften“ zu überprüfen.

Estimated dataset size

Sie können die Größe des Datasets ebenfalls überprüfen, indem Sie die folgenden DMV-Abfragen aus SSMS ausführen. Wenn Sie die Spalten DICTIONARY_SIZE und USED_SIZE aus der Ausgabe addieren, erhalten Sie die Datasetgröße in Bytes.

SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMNS,
 [DATABASE_NAME] = '<Dataset Name>') //Sum DICTIONARY_SIZE (bytes)

SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS,
 [DATABASE_NAME] = '<Dataset Name>') //Sum USED_SIZE (bytes)

Standardsegmentgröße

Für Datasets, die das Speicherformat für große Datasets verwenden, legt Power BI die Standardsegmentgröße automatisch auf 8 Millionen Zeilen fest, um für große Tabellen ein gutes Gleichgewicht zwischen den Arbeitsspeicheranforderungen und der Abfrageleistung zu erreichen. Dies ist die gleiche Segmentgröße wie in Azure Analysis Services. Die Verwendung einer identischen Segmentgröße hilft dabei, vergleichbare Leistungsmerkmale bei der Migration eines großen Datenmodells von Azure Analysis Services zu Power BI sicherzustellen.

Überlegungen und Einschränkungen

Berücksichtigen Sie bei der Verwendung großer Datasets die folgenden Einschränkungen:

  • Neue Arbeitsbereiche sind erforderlich: Große Datasets funktionieren nur mit neuen Arbeitsbereichen.

  • Herunterladen von Dateien in Power BI Desktop: Wenn ein Dataset in Files Premium gespeichert wird, tritt beim Herunterladen als PBIX-Datei ein Fehler auf.

  • Unterstützte Regionen: Große Datasets sind in Azure-Regionen verfügbar, die Azure Premium Files Storage unterstützen. Überprüfen Sie die Tabelle in der Verfügbarkeit der Region, um eine Liste aller unterstützten Regionen anzuzeigen.

  • Festlegen der maximalen Größe des Datasets: Die maximale Größe des Datasets kann von Administratoren festgelegt werden. Weitere Informationen finden Sie unter Max Memory in Datasets.

  • Aktualisieren großer Datasets: Datasets, die in der Nähe der Hälfte der Kapazitätsgröße liegen (z. B. ein 12-GB-Dataset auf einer Größe von 25 GB) kann den verfügbaren Arbeitsspeicher während der Aktualisierung überschreiten. Mithilfe der erweiterten Aktualisierungs-REST-API oder des XMLA-Endpunkts können Sie fein gestrichelte Datenaktualisierungen ausführen, sodass der von der Aktualisierung benötigte Speicher minimiert werden kann, um in die Größe Ihrer Kapazität anzupassen.

  • Push-Datasets: Push-Datasets unterstützen das große Datasetspeicherformat nicht.

  • Pro wird nicht unterstützt – Große Datasets werden in Pro Arbeitsbereichen nicht unterstützt. Wenn ein Arbeitsbereich von Premium zu Pro migriert wird, werden alle Datasets mit der Einstellung für das große Datasetspeicherformat nicht geladen.

  • Sie können REST-APIs nicht verwenden, um die Einstellungen eines Arbeitsbereichs zu ändern, damit neue Datasets standardmäßig das große Datasetspeicherformat verwenden können.

Regionale Verfügbarkeit

Große Datasets in Power BI sind nur in Azure-Regionen verfügbar, die Azure Premium Files Storage unterstützen.

In der folgenden Liste sind Regionen aufgeführt, in denen große Datasets in Power BI verfügbar sind. Regionen, die nicht in der folgenden Liste enthalten sind, werden für große Modelle nicht unterstützt.

Hinweis

Sobald ein großes Dataset in einem Arbeitsbereich erstellt wurde, muss es in dieser Region verbleiben. Sie können einen Arbeitsbereich mit einem großen Dataset nicht einer Premium Kapazität in einer anderen Region neu zuweisen.

Azure-Region Abkürzung der Azure-Region
Australien (Osten) australiaeast
Australien, Südosten australiasoutheast
Kanada, Osten canadaeast
Kanada, Mitte canadacentral
Indien, Mitte centralindia
USA (Mitte) centralus
Asien, Osten eastasia
East US eastus
USA (Ost) 2 eastus2
Frankreich, Mitte francecentral
Frankreich, Süden francesouth
Japan, Osten japaneast
Japan, Westen japanwest
Korea, Mitte koreacentral
Korea, Süden koreasouth
USA Nord Mitte northcentralus
Nordeuropa northeurope
USA Süd Mitte southcentralus
Asien, Südosten southeastasia
Schweiz, Norden switzerlandnorth
Schweiz, Westen schweizwest
UK, Süden uksouth
UK, Westen ukwest
Europa, Westen westeurope
Indien, Westen westindia
USA (Westen) westus
USA, Westen 2 westus2

Nächste Schritte

Über die folgenden Links können Sie auf nützliche Informationen für die Arbeit mit großen Modellen zugreifen: