Store datasæt i Power BI Premium
Power BI-datasæt kan gemme data i en yderst komprimeret cache i hukommelsen, hvilket sikrer en optimeret forespørgselsydeevne og muliggør hurtig brugerinteraktivitet. med Premium kapaciteter kan store datasæt, der ligger uden for standardgrænsen, aktiveres med indstillingen large datasets storage format . Når funktionen er aktiveret, begrænses størrelsen af datasættet af størrelsen af Premium-kapaciteten eller den maksimale størrelse, som administratoren har angivet.
store datasæt kan aktiveres for alle Premium P-sku'er, integrerede et sku'er og med Premium pr. bruger (PPU). Grænsen for størrelsen af store datasæt i Premium kan sammenlignes med Azure Analysis Services, hvad angår begrænsninger for størrelsen af datamodellen.
Det er nødvendigt, for at datasæt kan vokse til mere end 10 GB, hvilket gør det muligt at få andre fordele ved at aktivere indstillingen for lagerformatet stort datasæt. Hvis du planlægger at bruge XMLA-slutpunkts baserede værktøjer til skrivehandlinger for datasættet, skal du sørge for at aktivere indstillingen, selv for datasæt, som du ikke nødvendigvis kan beskrive som et stort datasæt. Når indstillingen er aktiveret, kan Lagerformat af store datasæt forbedre ydeevnen af XMLA-skrivehandlinger.
Store datasæt i tjenesten påvirker ikke størrelsen af upload af Power BI Desktop-modeller, som stadig er begrænset til 10 GB. I stedet kan datasæt blive større end den grænse i tjenesten, når de opdateres.
Vigtigt
Power BI Premium understøtter store datasæt. aktivér lagrings formatet for store datasæt for at bruge datasæt i Power BI Premium, der er større end standardgrænsen.
Muliggør store datasæt
Disse trin indeholder en beskrivelse af, hvordan du muliggør store datasæt for en ny model, der er publiceret i tjenesten. I forbindelse med eksisterende datasæt er det kun trin 3, der er nødvendigt.
Opret en model i Power BI Desktop. Hvis dit datasæt bliver større og gradvist bruger mere hukommelse, skal du konfigurere Trinvis opdatering.
Publicer modellen til tjenesten som et datasæt.
I tjenesten > datasæt > Indstillinger skal du udvide Lagerformat af store datasæt, sætte skyderen til On og derefter klikke på Anvend.
Kald en opdatering for at indlæse historiske data baseret på politikken for trinvis opdatering. Det kan tage et stykke tid at indlæse historikken ved den første opdatering. Efterfølgende opdateringer bør være hurtigere, afhængigt af din politik for trinvis opdatering.
Angiv standardlagerformat
Alle nye datasæt, der oprettes i et arbejdsområde, som er tildelt en Premium-kapacitet, kan som standard have indstillingen Lagerformat af store datasæt aktiveret.
Klik på Indstillinger > Premium i arbejdsområdet.
Under Standardlagerformat skal du vælge Lagerformat af store datasæt og derefter klikke på Gem.
Aktivér med PowerShell
Du kan også aktivere indstillingen Lagerformat af store datasæt ved hjælp af PowerShell. Du skal have administratorrettigheder til kapacitet og arbejdsområde for at køre PowerShell-cmdlet'er.
Find datasæt-id’et (GUID). Du kan se id'et i URL'en under datasætindstillingerne under fanen Datasæt for arbejdsområdet.

Installér MicrosoftPowerBIMgmt-modulet fra en PowerShell-administratorprompt.
Install-Module -Name MicrosoftPowerBIMgmtKør følgende cmdlet'er for at logge på og kontrollere lagringstilstanden for datasættet.
Login-PowerBIServiceAccount (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorageSvaret skal være følgende. Lagringstilstanden er ABF (Analysis Services-sikkerhedskopifil), som er standard.
Id StorageMode -- ----------- <Dataset ID> AbfKør følgende cmdletter for at angive lagertilstanden. Det kan tage et par sekunder at konvertere til Premium-filer.
Set-PowerBIDataset -Id <Dataset ID> -TargetStorageMode PremiumFiles (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorageSvaret skal være følgende. Lagringstilstanden er nu angivet til Premium-filer.
Id StorageMode -- ----------- <Dataset ID> PremiumFiles
Du kan kontrollere status for datasætkonvertering til og fra Premium-filer ved hjælp af cmdlet'en Get-PowerBIWorkspaceMigrationStatus.
Fjernelse af datasæt
Power BI bruger dynamisk hukommelsesadministration til at fjerne inaktive datasæt fra hukommelsen. Power BI fjerner datasæt, så der kan indlæses andre datasæt til at håndtering af brugerforespørgsler. Administration af dynamisk hukommelse giver mulighed for, at summen af datasætstørrelser bliver betydeligt større end den hukommelse, der er tilgængelig på kapaciteten, men et enkelt datasæt skal kunne være i hukommelsen. Du finder flere oplysninger om administration af dynamisk hukommelse under Sådan fungerer kapaciteter.
Du bør overveje virkningen af fjernelse på store modeller. På trods af hurtig indlæsning af datasæt kan der stadig være en mærkbar forsinkelse for brugere, hvis de skal vente på, at store fjernede datasæt genindlæses. Derfor anbefales funktionen Store modeller i sin nuværende form primært til kapaciteter, der er dedikeret til virksomheds-BI-krav frem for kapaciteter, der er blandet med selvbetjenings-BI-krav. Der er mindre sandsynlighed for, at kapaciteter, der er dedikeret til virksomheds-BI-krav, udløser fjernelse og behov for at genindlæse datasæt. Kapaciteter for selvbetjenings-BI kan på den anden side kan have mange små datasæt, der oftere indlæses i og uden for hukommelsen.
Kontrol af datasætstørrelsen
Når du har indlæst historiske data, kan du bruge SQL Server Management Studio via XMLA-slutpunktet til at kontrollere størrelsen på det anslåede datasæt i vinduet modelegenskaber.

Du kan også kontrollere størrelsen på datasættet ved at køre følgende DMV-forespørgsler fra SQL Server Management Studio. Læg kolonnerne DICTIONARY_SIZE og USED_SIZE fra outputtet sammen for at se datasætstørrelsen i byte.
SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMNS,
[DATABASE_NAME] = '<Dataset Name>') //Sum DICTIONARY_SIZE (bytes)
SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS,
[DATABASE_NAME] = '<Dataset Name>') //Sum USED_SIZE (bytes)
Standard segmentstørrelse
for datasæt, der bruger det store lagerformat for datasæt, indstiller Power BI automatisk standard segmentstørrelsen til 8.000.000 rækker for at fastgøre en god balance mellem hukommelseskrav og forespørgsels ydeevne for store tabeller. Dette har samme segmentstørrelse som i Azure Analysis Services. Når størrelsen på segmenterne holdes justeret, hjælper det med at sikre sammenlignelige ydeevne egenskaber, når du overfører en stor datamodel fra Azure Analysis Services til Power BI.
Overvejelser og begrænsninger
Vær opmærksom på følgende begrænsninger, når du bruger store datasæt:
Nye arbejdsområder er påkrævet: Store datasæt fungerer kun sammen med Nye arbejdsområder.
Download Power BI Desktop: Hvis et datasæt er gemt i Premium-filer, mislykkes download som en. pbix-fil.
Understøttede områder: Store datasæt understøttes i alle Azure-områder, der understøtter Premium File Storage. Hvis du vil vide mere, skal du se Produkter, der er tilgængelige efter område, og se tabellen i det følgende afsnit.
Angivelse af den maksimale størrelse af datasættet: Maksimal størrelse af datasættet kan angives af administratorer. Maksimumværdien kan angives fra 0,1 GB og op til den maksimale kapacitet af SKU'en.
Push-datasæt: push-datasæt understøtter ikke lagerformatet for store datasæt.
Du kan ikke aktivere store datasæt ved hjælp af REST-API'EN.
Områdetilgængelighed
Store datasæt i Power BI er kun tilgængelige i bestemte Azure-områder, der understøtter Azure Premium File Storage.
Følgende liste indeholder områder, hvor store datasæt i Power BI er tilgængelige. Det er kun de områder, der er på følgende liste, hvor store modeller understøttes:
| Azure-område | Forkortelse for Azure-område |
|---|---|
| Det østlige Australien | australiaeast |
| Det sydøstlige Australien | Det sydøstlige Australien |
| Det østlige Canada | canadaeast |
| Det centrale Canada | canadacentral |
| Det centrale Indien | Det centrale Indien |
| Det centrale USA | Det centrale USA |
| Det østlige Asien | eastasia |
| Det østlige USA | Det østlige USA |
| Det østlige USA 2 | eastus2 |
| Det østlige Japan | Det østlige Japan |
| Det vestlige Japan | japanwest |
| Det centrale Sydkorea | koreacentral |
| Det sydlige Sydkorea | koreasouth |
| Det nordcentrale USA | northcentralus |
| Det nordlige Europa | northeurope |
| Det sydcentrale USA | Det sydcentrale USA |
| Det sydøstlige Asien | Det sydøstlige Asien |
| Det sydlige Storbritannien | uksouth |
| Det vestlige Storbritannien | ukwest |
| Det vestlige Europa | Det vestlige Europa |
| Det vestlige Indien | westindia |
| Det vestlige USA | westus |
| Det vestlige USA 2 | Det vestlige USA 2 |
Næste trin
Følgende links indeholder oplysninger, der kan være nyttige til at arbejde med store modeller:
- Azure Premium Files Storage
- Konfigurer understøttelse af Multi-Geo til Power BI Premium
- Medbring dine egne krypteringsnøgler til Power BI
- Sådan fungerer kapaciteter
- Trinvis opdatering for datasæt
Power BI har introduceret Power BI Premium Gen2 som et prøveversionstilbud, der forbedrer Power BI Premium-oplevelsen på følgende områder:
- Ydeevne
- Licens pr. bruger
- Større skalering
- Forbedrede målepunkter
- Automatisk skalering
- Reducerede administrationsomkostninger
Du kan finde flere Power BI Premium om Gen2 under Power BI Premium Generation 2.