Del via


Forståelse af forskellene mellem dataflowtyper

Dataflow bruges til at udtrække, transformere og indlæse data til en lagerdestination, hvor de kan udnyttes til forskellige scenarier. Da det ikke er alle lagerdestinationer, der har de samme egenskaber, varierer nogle funktioner og funktionsmåder for dataflowet afhængigt af den lagerdestination, som dataflowet indlæser data i. Før du opretter et dataflow, er det vigtigt at forstå, hvordan dataene skal bruges, og vælge lagerdestinationen i henhold til kravene i din løsning.

Valg af en lagerdestination for et dataflow bestemmer dataflowets type. Et dataflow, der indlæser data i Dataverse-tabeller, er kategoriseret som et standarddataflow. Dataflow, der indlæser data i analysetabeller, er kategoriseret som et analytisk dataflow.

Dataflow, der er oprettet i Power BI, er altid analytiske dataflow. Dataflow, der er oprettet i Power Apps, kan enten være standard eller analytiske, afhængigt af dit valg, når du opretter dataflowet.

Standarddataflow

Et standarddataflow indlæser data i Dataverse-tabeller. Standarddataflow kan kun oprettes i Power Apps. En af fordelene ved at oprette denne type dataflow er, at alle programmer, der afhænger af data i Dataverse, kan arbejde med de data, der er oprettet af standarddataflow. Typiske programmer, der udnytter Dataverse-tabeller, er Power Apps, Power Automate, AI Builder og Power Virtual Agents.

Oprettelse af et standarddataflow.

Standardversioner af dataflow

Vi har arbejdet på betydelige opdateringer af standarddataflow for at forbedre deres ydeevne og pålidelighed. Disse forbedringer vil til sidst være tilgængelige for alle standarddataflow. Men i mellemtiden skelner vi mellem eksisterende standarddataflow (version 1) og nye standarddataflow (version 2) ved at tilføje en versionsindikator i Power Apps.

Standardversioner af dataflow.

Sammenligning af standarddataflowversioner

I følgende tabel vises de overordnede funktioners forskelle mellem standarddataflow V1 og V2 og indeholder oplysninger om hver funktions funktionsmåde i hver version.

Funktion Standard V1 Standard V2
Maksimalt antal dataflow, der kan gemmes med automatisk tidsplan pr. kundelejer 50 Ubegrænset
Maksimalt antal poster, der er indtaget pr. forespørgsel/tabel 500,000 Ubegrænset. Det maksimale antal poster, der kan indtages pr. forespørgsel eller tabel, afhænger nu af beskyttelsesgrænserne for Dataverse-tjenesten på indtagelsestidspunktet.
Indtagelseshastighed i dataverse Oprindelig ydeevne Forbedret ydeevne med nogle få faktorer. De faktiske resultater kan variere og afhænge af egenskaberne for de data, der indtages, og belastning af Dataverse-tjenesten på indtagelsestidspunktet.
Politik for trinvis opdatering Ikke understøttet Understøttet
Robusthed Når der registreres grænser for beskyttelse af dataversetjenesten, vil en post blive forsøgt igen op til tre gange. Når der registreres grænser for beskyttelse af dataversetjenesten, vil en post blive forsøgt igen op til tre gange.
Power Automate integration Ikke understøttet Understøttet

Analytiske dataflow

Et analysedataflow indlæser data til lagertyper, der er optimeret til analyse – Azure Data Lake Storage. Microsoft Power Platform-miljøer og Power BI-arbejdsområder giver kunderne en administreret lagringsplacering, der er samlet med disse produktlicenser. Derudover kan kunder knytte deres organisations Azure Data Lake-lagerkonto til en destination for dataflow.

Analysedataflow er i stand til yderligere analysefunktioner. Integration med Power BI's AI-funktioner eller brug af beregnede enheder, som vil blive diskuteret senere.

Du kan oprette analytiske dataflow i Power BI. Som standard indlæser de data i Power BI's administrerede lager. Men du kan også konfigurere Power BI til at gemme dataene i organisationens Azure Data Lake Storage.

Oprettelse af et analytisk dataflow i Power BI.

Du kan også oprette analytiske dataflows i Power Apps- og Dynamics 365 Customer Insights-portaler. Når du opretter et dataflow i Power Apps-portalen, kan du vælge mellem Dataverse-administreret analyselager eller på din organisations Azure Data Lake Storage-konto.

Oprettelse af analysedataflow i Power Platform.

AI-integration

Nogle gange kan det, afhængigt af kravet, være nødvendigt at anvende nogle AI- og machine learning-funktioner på dataene via dataflowet. Disse funktioner er tilgængelige i Power BI-dataflow og kræver et Premium-arbejdsområde.

AI-indsigt i et analysedataflow.

I følgende artikler beskrives det, hvordan du bruger AI-funktioner i et dataflow:

Bemærk, at de funktioner, der er angivet ovenfor, er Power BI-specifikke og ikke tilgængelige, når du opretter et dataflow i Power Apps- eller Dynamics 365-portalerne til kundeindsigt.

Beregnede tabeller

En af grundene til at bruge en beregnet tabel er muligheden for at behandle store mængder data. Den beregnede tabel hjælper i disse scenarier. Hvis du har en tabel i et dataflow, og en anden tabel i det samme dataflow bruger outputtet fra den første tabel, opretter denne handling en beregnet tabel.

Den beregnede tabel hjælper med ydeevnen af datatransformationerne. I stedet for at udføre de transformationer, der er nødvendige i den første tabel flere gange, udføres transformationen kun én gang i den beregnede tabel. Derefter bruges resultatet flere gange i andre tabeller.

Beregnet tabel i et analysedataflow.

Hvis du vil vide mere om beregnede tabeller, skal du gå til Oprettelse af beregnede tabeller i dataflow.

Beregnede tabeller er kun tilgængelige i et analytisk dataflow.

Standarddataflow i forhold til analytiske dataflow

I følgende tabel vises nogle forskelle mellem en standardtabel og en analysetabel.

Handling Standard Analytiske
Sådan opretter du Power Platform-dataflow Power BI-dataflow
Power Platform-dataflow ved at markere afkrydsningsfeltet Kun analytiske enheder, når du opretter dataflowet
Lagermuligheder Dataverse Power BI leverede Azure Data Lake-lager til Power BI-dataflow, Dataverse leverede Azure Data Lake-lager til Power Platform-dataflow eller kundeindgivne Azure Data Lake-lager
Power Query-transformationer Ja Ja
AI-funktioner Nej Ja
Beregnet tabel Nej Ja
Kan bruges i andre programmer Ja, via Dataverse Power BI-dataflow: Kun i Power BI
Power Platform-dataflow eller eksterne Power BI-dataflow: Ja via Azure Data Lake Storage
Tilknytning til standardtabel Ja Ja
Trinvis indlæsning Standardindlæsning
Det er muligt at ændre ved hjælp af afkrydsningsfeltet Slet rækker, der ikke længere findes i forespørgselsoutputtet ved indlæsningsindstillingerne
Standard for fuld indlæsning
Det er muligt at konfigurere trinvis opdatering ved at konfigurere den trinvise opdatering i indstillingerne for dataflowet
Planlagt opdatering Ja Ja, muligheden for at give ejerne af dataflowet besked om fejlen

Scenarier, hvor hver dataflowtype skal bruges

Her er nogle eksempelscenarier og anbefalinger til bedste praksis for hver type dataflow.

Brug på tværs af platforme – standarddataflow

Hvis din plan for oprettelse af dataflow er at bruge gemte data på flere platforme (ikke kun Power BI, men også andre Microsoft Power Platform-tjenester, Dynamics 365 osv.), er et standarddataflow et godt valg. Standarddataflow gemmer dataene i Dataverse, som du kan få adgang til via mange andre platforme og tjenester.

Tunge datatransformationer i store datatabeller – analysedataflow

Analytiske dataflow er en fremragende mulighed for at behandle store mængder data. Analytiske dataflow forbedrer også beregningskraften bag transformationen. Hvis dataene gemmes i Azure Data Lake Storage, øges skrivehastigheden til en destination. Sammenlignet med Dataverse (som kan have mange regler, der skal kontrolleres på tidspunktet for datalageret), er Azure Data Lake Storage hurtigere til læse-/skrivetransaktioner på en stor mængde data.

AI-funktioner – analysedataflow

Hvis du planlægger at bruge ai-funktionalitet via datatransformationsfasen, vil det være nyttigt at bruge et analytisk dataflow, fordi du kan bruge alle understøttede AI-funktioner sammen med denne type dataflow.