Store datasæt i Power BI Premium

Power BI-datasæt kan gemme data i en yderst komprimeret cache i hukommelsen, hvilket sikrer en optimeret forespørgselsydeevne og muliggør hurtig brugerinteraktivitet. med Premium kapaciteter kan store datasæt, der ligger uden for standardgrænsen, aktiveres med indstillingen large datasets storage format . Når funktionen er aktiveret, begrænses størrelsen af datasættet af størrelsen af Premium-kapaciteten eller den maksimale størrelse, som administratoren har angivet.

store datasæt kan aktiveres for alle Premium P-sku'er, integrerede et sku'er og med Premium pr. bruger (PPU). Grænsen for størrelsen af store datasæt i Premium kan sammenlignes med Azure Analysis Services, hvad angår begrænsninger for størrelsen af datamodellen.

Det er nødvendigt, for at datasæt kan vokse til mere end 10 GB, hvilket gør det muligt at få andre fordele ved at aktivere indstillingen for lagerformatet stort datasæt. Hvis du planlægger at bruge XMLA-slutpunkts baserede værktøjer til skrivehandlinger for datasættet, skal du sørge for at aktivere indstillingen, selv for datasæt, som du ikke nødvendigvis kan beskrive som et stort datasæt. Når indstillingen er aktiveret, kan Lagerformat af store datasæt forbedre ydeevnen af XMLA-skrivehandlinger.

Store datasæt i tjenesten påvirker ikke størrelsen af upload af Power BI Desktop-modeller, som stadig er begrænset til 10 GB. I stedet kan datasæt blive større end den grænse i tjenesten, når de opdateres.

Vigtigt

Power BI Premium understøtter store datasæt. aktivér lagrings formatet for store datasæt for at bruge datasæt i Power BI Premium, der er større end standardgrænsen.

Muliggør store datasæt

Disse trin indeholder en beskrivelse af, hvordan du muliggør store datasæt for en ny model, der er publiceret i tjenesten. I forbindelse med eksisterende datasæt er det kun trin 3, der er nødvendigt.

  1. Opret en model i Power BI Desktop. Hvis dit datasæt bliver større og gradvist bruger mere hukommelse, skal du konfigurere Trinvis opdatering.

  2. Publicer modellen til tjenesten som et datasæt.

  3. I tjenesten > datasæt > Indstillinger skal du udvide Lagerformat af store datasæt, sætte skyderen til On og derefter klikke på Anvend.

    Skyder til muliggørelse af store datasæt

  4. Kald en opdatering for at indlæse historiske data baseret på politikken for trinvis opdatering. Det kan tage et stykke tid at indlæse historikken ved den første opdatering. Efterfølgende opdateringer bør være hurtigere, afhængigt af din politik for trinvis opdatering.

Angiv standardlagerformat

Alle nye datasæt, der oprettes i et arbejdsområde, som er tildelt en Premium-kapacitet, kan som standard have indstillingen Lagerformat af store datasæt aktiveret.

  1. Klik på Indstillinger > Premium i arbejdsområdet.

  2. Under Standardlagerformat skal du vælge Lagerformat af store datasæt og derefter klikke på Gem.

    Aktivér standardlagerformat

Aktivér med PowerShell

Du kan også aktivere indstillingen Lagerformat af store datasæt ved hjælp af PowerShell. Du skal have administratorrettigheder til kapacitet og arbejdsområde for at køre PowerShell-cmdlet'er.

  1. Find datasæt-id’et (GUID). Du kan se id'et i URL'en under datasætindstillingerne under fanen Datasæt for arbejdsområdet.

    GUID for datasæt

  2. Installér MicrosoftPowerBIMgmt-modulet fra en PowerShell-administratorprompt.

    Install-Module -Name MicrosoftPowerBIMgmt
    
  3. Kør følgende cmdlet'er for at logge på og kontrollere lagringstilstanden for datasættet.

    Login-PowerBIServiceAccount
    
    (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
    

    Svaret skal være følgende. Lagringstilstanden er ABF (Analysis Services-sikkerhedskopifil), som er standard.

    Id                   StorageMode
    
    --                   -----------
    
    <Dataset ID>         Abf
    
  4. Kør følgende cmdletter for at angive lagertilstanden. Det kan tage et par sekunder at konvertere til Premium-filer.

    Set-PowerBIDataset -Id <Dataset ID> -TargetStorageMode PremiumFiles
    
    (Get-PowerBIDataset -Scope Organization -Id <Dataset ID> -Include actualStorage).ActualStorage
    

    Svaret skal være følgende. Lagringstilstanden er nu angivet til Premium-filer.

    Id                   StorageMode
    
    --                   -----------
    
    <Dataset ID>         PremiumFiles
    

Du kan kontrollere status for datasætkonvertering til og fra Premium-filer ved hjælp af cmdlet'en Get-PowerBIWorkspaceMigrationStatus.

Fjernelse af datasæt

Power BI bruger dynamisk hukommelsesadministration til at fjerne inaktive datasæt fra hukommelsen. Power BI fjerner datasæt, så der kan indlæses andre datasæt til at håndtering af brugerforespørgsler. Administration af dynamisk hukommelse giver mulighed for, at summen af datasætstørrelser bliver betydeligt større end den hukommelse, der er tilgængelig på kapaciteten, men et enkelt datasæt skal kunne være i hukommelsen. Du finder flere oplysninger om administration af dynamisk hukommelse under Sådan fungerer kapaciteter.

Du bør overveje virkningen af fjernelse på store modeller. På trods af hurtig indlæsning af datasæt kan der stadig være en mærkbar forsinkelse for brugere, hvis de skal vente på, at store fjernede datasæt genindlæses. Derfor anbefales funktionen Store modeller i sin nuværende form primært til kapaciteter, der er dedikeret til virksomheds-BI-krav frem for kapaciteter, der er blandet med selvbetjenings-BI-krav. Der er mindre sandsynlighed for, at kapaciteter, der er dedikeret til virksomheds-BI-krav, udløser fjernelse og behov for at genindlæse datasæt. Kapaciteter for selvbetjenings-BI kan på den anden side kan have mange små datasæt, der oftere indlæses i og uden for hukommelsen.

Kontrol af datasætstørrelsen

Når du har indlæst historiske data, kan du bruge SQL Server Management Studio via XMLA-slutpunktet til at kontrollere størrelsen på det anslåede datasæt i vinduet modelegenskaber.

Anslået datasætstørrelse

Du kan også kontrollere størrelsen på datasættet ved at køre følgende DMV-forespørgsler fra SQL Server Management Studio. Læg kolonnerne DICTIONARY_SIZE og USED_SIZE fra outputtet sammen for at se datasætstørrelsen i byte.

SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMNS,
 [DATABASE_NAME] = '<Dataset Name>') //Sum DICTIONARY_SIZE (bytes)

SELECT * FROM SYSTEMRESTRICTSCHEMA
($System.DISCOVER_STORAGE_TABLE_COLUMN_SEGMENTS,
 [DATABASE_NAME] = '<Dataset Name>') //Sum USED_SIZE (bytes)

Standard segmentstørrelse

for datasæt, der bruger det store lagerformat for datasæt, indstiller Power BI automatisk standard segmentstørrelsen til 8.000.000 rækker for at fastgøre en god balance mellem hukommelseskrav og forespørgsels ydeevne for store tabeller. Dette har samme segmentstørrelse som i Azure Analysis Services. Når størrelsen på segmenterne holdes justeret, hjælper det med at sikre sammenlignelige ydeevne egenskaber, når du overfører en stor datamodel fra Azure Analysis Services til Power BI.

Overvejelser og begrænsninger

Vær opmærksom på følgende begrænsninger, når du bruger store datasæt:

  • Nye arbejdsområder er påkrævet: Store datasæt fungerer kun sammen med Nye arbejdsområder.

  • Download Power BI Desktop: Hvis et datasæt er gemt i Premium-filer, mislykkes download som en. pbix-fil.

  • Understøttede områder: Store datasæt understøttes i alle Azure-områder, der understøtter Premium File Storage. Hvis du vil vide mere, skal du se Produkter, der er tilgængelige efter område, og se tabellen i det følgende afsnit.

  • Angivelse af den maksimale størrelse af datasættet: Maksimal størrelse af datasættet kan angives af administratorer. Maksimumværdien kan angives fra 0,1 GB og op til den maksimale kapacitet af SKU'en.

  • Push-datasæt: push-datasæt understøtter ikke lagerformatet for store datasæt.

  • Du kan ikke aktivere store datasæt ved hjælp af REST-API'EN.

Områdetilgængelighed

Store datasæt i Power BI er kun tilgængelige i bestemte Azure-områder, der understøtter Azure Premium File Storage.

Følgende liste indeholder områder, hvor store datasæt i Power BI er tilgængelige. Det er kun de områder, der er på følgende liste, hvor store modeller understøttes:

Azure-område Forkortelse for Azure-område
Det østlige Australien australiaeast
Det sydøstlige Australien Det sydøstlige Australien
Det østlige Canada canadaeast
Det centrale Canada canadacentral
Det centrale Indien Det centrale Indien
Det centrale USA Det centrale USA
Det østlige Asien eastasia
Det østlige USA Det østlige USA
Det østlige USA 2 eastus2
Det østlige Japan Det østlige Japan
Det vestlige Japan japanwest
Det centrale Sydkorea koreacentral
Det sydlige Sydkorea koreasouth
Det nordcentrale USA northcentralus
Det nordlige Europa northeurope
Det sydcentrale USA Det sydcentrale USA
Det sydøstlige Asien Det sydøstlige Asien
Det sydlige Storbritannien uksouth
Det vestlige Storbritannien ukwest
Det vestlige Europa Det vestlige Europa
Det vestlige Indien westindia
Det vestlige USA westus
Det vestlige USA 2 Det vestlige USA 2

Næste trin

Følgende links indeholder oplysninger, der kan være nyttige til at arbejde med store modeller:

Power BI har introduceret Power BI Premium Gen2 som et prøveversionstilbud, der forbedrer Power BI Premium-oplevelsen på følgende områder:

  • Ydeevne
  • Licens pr. bruger
  • Større skalering
  • Forbedrede målepunkter
  • Automatisk skalering
  • Reducerede administrationsomkostninger

Du kan finde flere Power BI Premium om Gen2 under Power BI Premium Generation 2.