Streaming dataflows (prøveversion)
Organisationer ønsker at arbejde med data, som de kommer ind, ikke dage eller uger senere. det er nemt at finde ud af Power BI: forskellen mellem batch-, realtid-og streaming-data i dag forsvinder. Brugerne skal kunne arbejde med alle data, så snart de er tilgængelige.
Analytikere har normalt brug for teknisk hjælp til at håndtere streaming af datakilder, dataforberedelse, komplekse tidsbaserede handlinger og datavisualisering i realtid. IT-afdelinger er ofte afhængige af tilpassede systemer og en kombination af teknologier fra forskellige leverandører, så de kan analysere dataene på en rettidig basis. Uden denne kompleksitet kan de ikke give beslutningstagere med oplysninger i næsten realtid.
Streaming dataflows gør det muligt for forfattere at oprette forbindelse til, indlæse, mikse, modellen og bygge rapporter på baggrund af Streaming, næsten i realtidsdata direkte i den Power BI tjeneste. Tjenesten gør det muligt at trække og slippe uden kode oplevelser.
Brugerne kan blande og matche streaming-data med batch data, hvis de har brug for det. Dette gøres via en brugergrænseflade, der indeholder en diagramvisning , som gør det nemt at mikse data. Det producerede færdige artefakt er et data flow, som kan bruges i realtid til at oprette meget interaktiv, næsten i realtid. alle egenskaber for datavisualiseringer i Power BI arbejde med streaming af data på samme måde som med batch-data.

Brugerne kan udføre data forberedelses handlinger som f. eks. joinforbindelser og filtre. De kan også udføre tidsbestemte sammenlægninger (f. eks. tumbling, hopping og session Windows) til gruppevis handlinger.
Streaming dataflows i Power BI giver organisationer mulighed for at:
- Træf trygt beslutninger i næsten realtid. Organisationer kan være mere fleksible og træffe meningsfulde handlinger på baggrund af den mest opdaterede viden.
- Demokratisk streaming-data. Organisationer kan gøre data mere tilgængelig og nemmere at fortolke med en løsning uden kode og reducere IT-ressourcerne.
- Sæt gang i forhold til indsigt ved hjælp af en end-to-end-streamings analyse løsning med integreret datalagring og BI.
Streaming dataflows understøtter DirectQuery og automatisk registrering af opdatering/ændring af sider. Denne support gør det muligt for brugerne at oprette rapporter, der opdateres næsten i realtid, op til hvert sekund, ved at bruge alle de visuelle elementer, der er tilgængelige i Power BI.
Krav
Før du opretter din første streaming data flow, skal du sørge for, at du opfylder alle følgende krav:
hvis du vil oprette og køre et streaming-data flow, skal du have et arbejdsområde, der er en del af licensen Premium kapacitet eller Premium pr. bruger (PPU) .
Vigtigt
Hvis du bruger en PPU-licens, og du ønsker, at andre brugere skal bruge rapporter, der er oprettet med streaming dataflows, som er opdateret i realtid, skal de også bruge en PPU-licens. De kan derefter bruge rapporterne med den samme opdateringsfrekvens, som du konfigurerer, hvis denne opdatering er hurtigere end hvert 30. minut.
Aktivér dataflows for din lejer. Du kan finde flere oplysninger under Aktivering af dataflows i Power bi Premium.
hvis du vil sikre dig, at streaming dataflows fungerer i din Premium kapacitet, skal det udvidede beregningsprogram være slået til. programmet er som standard slået til, men Power BI kapacitets administratorer kan slå den fra. Hvis det er tilfældet, skal du kontakte administratoren for at slå den til.
det udvidede beregningsprogram er kun tilgængeligt i Premium P-eller embeddet A3 og større kapacitet. hvis du vil bruge streaming dataflows, skal du enten have PPU, a Premium P-kapacitet for enhver størrelse eller en integreret A3-eller større kapacitet. du kan finde flere oplysninger om Premium sku'er og deres specifikationer under kapacitet og sku'er i Power BI integreret analyse.
hvis du vil oprette rapporter, der opdateres i realtid, skal du sørge for, at din administrator (kapacitet og/eller Power BI for PPU) har aktiveret automatisk side opdatering. Sørg også for, at administratoren har tilladt et minimum opdateringsinterval, der passer til dine behov. Du kan finde flere oplysninger under automatisk side opdatering i Power bi.
Opret et streaming-data flow
et streaming-data flow, som dens data flow relative, er en samling af enheder (tabeller) oprettet og administreret i arbejdsområder i Power BI tjeneste. En tabel er et sæt felter, der bruges til at lagre data, ligesom en tabel i en database.
Du kan tilføje og redigere tabeller i din streaming data flow direkte fra det arbejdsområde, hvor din data flow blev oprettet. Den største forskel med almindelige dataflows er, at du ikke behøver at bekymre dig om opdateringer eller hyppighed. På grund af streaming af data er der en løbende Stream ind. Opdateringen er konstant eller uendelig, medmindre du stopper den.
Bemærk
Du kan kun have én type data flow pr. arbejdsområde. hvis du allerede har et almindeligt data flow i dit Premium arbejdsområde, kan du ikke oprette en data flow for streaming (og omvendt).
Sådan opretter du et streaming-data flow:
åbn Power BI-tjenesten i en browser, og vælg derefter et Premium-aktiveret arbejdsområde. (Streaming dataflows, f. eks. almindelige dataflows, er ikke tilgængelige i mit arbejdsområde).
Vælg den nye rullemenu, og vælg streaming data flow.

I den siderude, der åbnes, skal du navngive din streaming data flow. Angiv et navn i feltet navn (1), og vælg derefter Opret (2).

Visningen Tom diagram til streaming dataflows vises.
På følgende skærmbillede kan du se en færdig data flow. Den fremhæver alle de afsnit, der er tilgængelige for dig, i forbindelse med oprettelse i data flow-BRUGERGRÆNSEFLADEN til streaming.

Bånd: afsnit følger rækkefølgen af en "klassisk" analyse proces på båndet: input (også kaldet datakilder), transformationer (streaming ETL-handlinger), outputer og en knap til at gemme din status.
Diagram visning: Dette er en grafisk repræsentation af din data flow, fra input til handlinger til output.
Side rude: afhængigt af hvilken komponent du har valgt i diagramvisningen, har du indstillinger til at ændre hvert input, transformation eller output.
Faner til data preview, oprettelses fejl og kørselsfejl: for hvert vist kort vises resultaterne for det pågældende trin (Live for input og efter behov for transformationer og outputs).
I dette afsnit opsummeres også eventuelle oprettelses fejl eller advarsler, som du kan have i din dataflows. Hvis du vælger hver enkelt fejl eller advarsel, vælges den pågældende transformation. Desuden har du adgang til kørselsfejl, når data flow kører, f. eks. mistede meddelelser.
Du kan altid minimere dette afsnit af streaming dataflows ved at vælge pilen i øverste højre hjørne.
Et streaming data flow er bygget på tre hovedkomponenter: streaming af input, transformationer og output. Du kan have lige så mange komponenter, som du ønsker, herunder flere input, parallelle grene med flere transformationer og flere output.
Tilføj et streaming-input
Hvis du vil tilføje et streaming-input, skal du vælge ikonet på båndet og angive de oplysninger, der skal bruges i sideruden, for at konfigurere dem. Fra og med den 2021 understøtter prøveversionen af dataflows azure Event hubs og Azure-IOT hub som input.
Azure Event Hubs og Azure IoT Hub Services bygger på en fælles arkitektur for at lette den hurtige og skalerbare indtagelse og forbrug af hændelser. IoT Hub især skræddersyet som en central meddelelses hub til kommunikation i begge retninger mellem et IoT-program og de tilknyttede enheder.
Azure Event Hubs
Azure Event Hubs er en Big data-streamings platform og en hændelses indtagelses tjeneste. Det kan modtage og behandle millioner af hændelser pr. sekund. Data, der sendes til en event hub, kan overføres og gemmes ved hjælp af en hvilken som helst analyse udbyder i realtid eller batch-/lager adaptere.
Hvis du vil konfigurere en event hub som input til streaming dataflows, skal du vælge ikonet Event hub . Der vises et kort i diagramvisningen, herunder en siderude til konfigurationen.

Du har mulighed for at indsætte Event Hubs forbindelsesstreng. Streaming dataflows udfylder alle de nødvendige oplysninger, herunder den valgfri forbruger gruppe (der som standard er $default). Hvis du vil angive alle felter manuelt, kan du slå funktionen til at skifte mellem manuelt for at fremvise dem. Du kan få mere at vide om Event Hubs forbindelsesstrenge i Hent en event hubs forbindelsesstreng.
når du har konfigureret dine Event Hubs legitimationsoplysninger, og du vælger Forbind, kan du tilføje felter manuelt ved hjælp af + tilføj felt , hvis du kender feltnavnene. Hvis du i stedet vil registrere felter og datatyper automatisk baseret på en stikprøve af indgående meddelelser, skal du vælge felter til automatisk genkendelse. Når du vælger gear ikonet, kan du redigere legitimationsoplysningerne, hvis det er nødvendigt.

Når streaming dataflows registrerer felterne, kan du se dem på listen. Du får også vist en direkte prøveversion af de indgående meddelelser i tabellen data preview underdiagram visningen.
Du kan altid redigere feltnavnene eller fjerne eller ændre datatypen ved at vælge de tre prikker (...) ud for hvert felt. Du kan også udvide, vælge og redigere alle indlejrede felter fra indgående meddelelser som vist på følgende billede.

Azure IoT Hub
IoT Hub er en administreret tjeneste, der er hostet i skyen. Det fungerer som en central meddelelses hub til kommunikation i begge retninger mellem et IoT-program og de tilknyttede enheder. Du kan forbinde millioner af enheder og deres back-end-løsninger på en pålidelig og sikker måde. Næsten alle enheder kan have forbindelse til en IoT-hub.
IoT Hub-konfiguration svarer til Event Hubs konfiguration på grund af deres fælles arkitektur. Men der er nogle forskelle, herunder hvor du kan finde den Event Hubs-kompatible forbindelsesstreng til det indbyggede slutpunkt. Du kan få mere at vide om det IoT Hub indbyggede slutpunkt i læse enhed til Cloud-meddelelser fra det indbyggede slutpunkt.

Når du har indsat forbindelsesstrengen for det indbyggede slutpunkt, er al funktionalitet til at vælge, tilføje, automatisk genkendelse og redigeringsfelter, der kommer ind fra IoT Hub, den samme som i Event Hubs. Du kan også redigere legitimationsoplysningerne ved at vælge gear ikonet.
Tip
Hvis du har adgang til Event Hubs eller IoT Hub i din organisations Azure-portal, og du vil bruge den som input til din streaming-data flow, kan du finde forbindelses strengene på følgende placeringer:
For Event Hubs:
- I afsnittet Analytics skal du vælge alle tjenester > Event hubs.
- Vælg Event hubs navneområde > enheder/Event hubs, og vælg derefter Event hub-navnet.
- Vælg en politik på listen over delte adgangs politikker .
- Vælg knappen Kopier til Udklipsholder ud for feltet forbindelsesstreng – primær nøgle .
For IoT Hub:
- I afsnittet tingenes internet skal du vælge alle tjenester > IOT hubs.
- Vælg den IoT hub, du vil oprette forbindelse til, og vælg derefter indbyggede slutpunkter.
- Vælg knappen Kopier til Udklipsholder ud for det Event hubs-kompatible slutpunkt.
Når du bruger stream-data fra Event Hubs eller IoT Hub, har du adgang til følgende felter i metadata tid i din streaming-data flow:
- EventProcessedUtcTime: den dato og det klokkeslæt, hvor hændelsen blev behandlet.
- EventEnqueuedUtcTime: den dato og det klokkeslæt, hvor hændelsen blev modtaget.
Ingen af disse felter vises i eksempelvisningen input. Du skal tilføje dem manuelt.
BLOB-lager
Azure blob storage er Microsofts objekt lagerløsning til skyen. BLOB storage er optimeret til lagring af enorme mængder af ustrukturerede data. Ustrukturerede data er data, der ikke overholder en bestemt datamodel eller definition, f. eks. tekst eller binære data.
Du kan bruge Azure blobs som et streaming/reference-input. Streaming-blobs kontrolleres normalt hvert sekund for opdateringer. I modsætning til streaming-blob indlæses en reference-blob kun i starten af opdateringen. Det er statiske data, der ikke forventes at blive ændret, og den anbefalede grænse for 50 MB eller mindre.
Reference-blobs forventes at blive brugt sammen med streaming-kilder (f. eks. Gennem en JOINFORBINDELSE). Derfor skal et streaming-data flow med en reference-blob også have en stream-kilde.
Konfigurationen af Azure blobs er lidt anderledes end den, der findes i en Azure Event hub-node. Hvis du vil finde din Azure blob-forbindelsesstreng, skal du følge vejledningen under afsnittet ' Vis konto adgangsnøgler ' i denne artikel Administrer konto adgangsnøgler – Azure Storage.
Når du har angivet blob-forbindelsesstrengen, skal du også angive navnet på din objektbeholder samt kurve mønsteret i din mappe for at få adgang til de filer, du vil angive som kilde til din data flow.
For streaming-blobs forventes det, at mønsteret for Mappestien er en dynamisk værdi. Det kræves, at datoen skal være en del af angiven filsti for blob – der refereres til som {date}. Derudover er der en stjerne () i kurve mønsteret – f. eks. {Date}/{Time}/. JSON understøttes ikke.
Hvis du f. eks. har en blob med navnet ExampleContainer, hvor du gemmer indlejrede. JSON-filer – hvor det første niveau er oprettelsesdatoen, og det andet niveau er oprettelsestidspunktet (eg. 2021-10-21/16), og derefter ville dit objektbeholder input være "ExampleContainer", det mønster, der er angivet for mappestien, er "{Date}/{Time}", hvor du kan ændre dato-og klokkeslætsformatet.
Når din blob har forbindelse til slutpunktet, er al funktionalitet til valg, tilføjelse, automatisk registrering og redigering af felter fra Azure blob den samme som i Event Hubs. Du kan også redigere legitimationsoplysningerne ved at vælge gear ikonet.
Når data arbejdes med data i realtid, bliver dataene ofte komprimeret, og id'er bruges til at repræsentere objektet. En mulig use case for blobs kan også være som referencedata for dine streaming kilder. Reference data giver dig mulighed for at deltage i statiske data for at streame data for at forbedre dine streams til analyse. Lad os gennemgå et hurtigt eksempel på, hvornår det ville være nyttigt. Imagine du installerer sensorer i forskellige afdelings lagre for at måle, hvor mange personer der angiver lageret på et givent tidspunkt. Enheds-id'et skal normalt joinforbindes med en statisk tabel for at angive, hvilken afdelings butik og hvilken placering sensoren er placeret i. Nu er der følgende referencedata, men det er muligt at tilmelde sig disse data under indtagelses fasen for at gøre det nemt at se, hvilken butik der har det højeste output fra brugere.
Bemærk
Et streaming dataflows-job henter data fra Azure blob Storage eller ADLS Gen2 input hvert sekund, hvis blob-filen er tilgængelig. Hvis blob-filen ikke er tilgængelig, er der et eksponentielt neddrosling med en maksimal tidsforskydning på 90 sekunder.
Datatyper
De tilgængelige datatyper for streaming dataflows-felterne er:
- Dato / klokkeslæt: dato og klokkeslæt-felt i ISO-format.
- Float: decimaltal.
- Int: heltals nummer.
- Post: indlejret objekt med flere poster.
- Streng: Text.
Vigtigt
De datatyper, der er valgt for et streaming-input, har vigtige konsekvenser for din streaming data flow. Vælg datatypen lige så tidligt, som du kan i data flow, for at undgå at skulle stoppe den senere for at redigere.
Tilføj en transformation af streaming-data
Transformationer af streaming-data adskiller sig fra batch data transformationer. Næsten alle streaming-data har en tidskomponent, der påvirker alle involverede data Forberedelsesopgaver.
Hvis du vil tilføje en transformation af streaming data til din data flow, skal du vælge ikonet transformation på båndet for den pågældende transformation. Det pågældende kort slettes i diagramvisningen. Når du har valgt den, får du vist sideruden for den transformation, der skal konfigureres.
Fra og med den 2021 understøtter streaming dataflows følgende streaming transformationer.
Filtrer
Brug filter transformeringen til at filtrere hændelser baseret på værdien af et felt i inputtet. Afhængigt af datatypen (tal eller tekst) bevarer transformationen de værdier, der svarer til den valgte betingelse.

Bemærk
Inden for hvert kort får du vist oplysninger om, hvad transformationen ellers er nødvendig for at være klar. Når du f. eks. tilføjer et nyt kort, får du vist meddelelsen "konfiguration påkrævet". Hvis du mangler en node-Connector, kan du se en meddelelse af typen "fejl" eller "Advarsel".
Administrer felter
Med transformationen til Administrer felter kan du tilføje, fjerne eller omdøbe felter, der kommer ind fra et input eller en anden transformation. Indstillingerne i sideruden giver dig mulighed for at tilføje en ny ved at vælge Tilføj felt eller tilføje alle felter på én gang.

Tip
Når du har konfigureret et kort, giver diagramvisningen dig et kig på indstillingerne i selve kortet. I området Administrer felter i det foregående billede kan du f. eks. se de første tre felter, der administreres, og de nye navne, der er tildelt til dem. Hvert kort indeholder oplysninger, der er relevante for det.
Saml
Du kan bruge den samlede transformation til at beregne en aggregering (Sum, minimum, maksimum eller gennemsnit), hver gang en ny hændelse indtræffer i løbet af en tidsperiode. Denne handling giver dig også mulighed for at filtrere eller opdele sammenlægningen baseret på andre dimensioner i dine data. Du kan have en eller flere aggregeringer i samme transformation.
Hvis du vil tilføje en aggregering, skal du vælge ikonet transformation. Derefter skal du oprette forbindelse til et input, vælge sammenlægningen, tilføje alle filter-eller udsnit dimensioner og vælge den tidsperiode, som aggregeringen skal beregnes ud fra. I dette eksempel beregner vi summen af gebyrværdien efter den stat, hvor køretøjet ligger inden for de seneste 10 sekunder.

Vælg Tilføj aggregeringsfunktion for at føje en ny aggregering til den samme transformation. Vær opmærksom på, at filteret eller udsnittet gælder for alle sammenlægninger i transformationen.
Deltag
Brug Join -transformationen til at kombinere hændelser fra to input, der er baseret på de felt par, du vælger. Hvis du ikke vælger et felt par, vil joinforbindelsen være baseret på tid som standard. Standardværdien er, hvad der gør denne transformation anderledes end en batch.
Som med almindelige joinforbindelser har du forskellige muligheder for din tilmeldings logik:
- INNER JOIN: Medtag kun poster fra begge tabeller, hvor parret stemmer overens. I dette eksempel er der, hvor licens pladen matcher begge input.
- Venstre ydre joinforbindelse: Inkluder alle poster fra den anden tabel (første tabel) og kun posterne fra det andet, der stemmer overens med felternes par. Hvis der ikke er nogen forekomster, vil felterne fra det andet input være tomme.
Hvis du vil vælge typen af joinforbindelse, skal du vælge ikonet for den foretrukne type i sideruden.
Til sidst skal du vælge, hvor lang tid du vil have, at joinforbindelsen skal beregnes. I dette eksempel ser joinforbindelsen ud i løbet af de sidste 10 sekunder. Vær opmærksom på, at jo længere perioden er, jo mindre hyppigst er der, og jo flere behandlingsressourcer du skal bruge til transformationen.
Som standard er alle felter fra begge tabeller inkluderet. Præfikser til venstre (første node) og højre (anden node) i outputtet hjælper dig med at skelne kilden.

Gruppér efter
Brug Group by transformation til at beregne sammenlægninger på tværs af alle hændelser inden for et bestemt tidsvindue. Du har mulighed for at gruppere efter værdierne i et eller flere felter. Det ligner den samlede transformation, men giver flere muligheder for sammenlægning. Det indeholder også mere avancerede indstillinger for tidsvinduer. Det svarer også til aggregering, men du kan tilføje mere end én akkumulering pr. transformation.
De aggregeringer, der er tilgængelige i denne transformation, er: gennemsnit, antal, maksimum, minimum, fraktil (fortløbende og separat), standard afvigelse, Sum og varians.
Sådan konfigurerer du denne transformation:
- Vælg din foretrukne aggregering.
- Vælg det felt, du vil samle på.
- Vælg et valgfrit grupperingsfelt, hvis du vil have samlet beregning frem for en anden dimension eller kategori (f. eks. stat).
- Vælg din funktion til tidsvinduer.
Vælg Tilføj aggregeringsfunktion for at føje en ny aggregering til den samme transformation. Vær opmærksom på, at feltet Gruppér efter og funktionen til Vinduer vil gælde for alle sammenlægninger i transformationen.

Der angives et tidsstempel for afslutningen af tidsvinduet som en del af Transformations outputtet til reference.
I et afsnit senere i denne artikel forklares alle de typer tidsvinduer, der er tilgængelige for denne transformation.
Union
Brug Union -transformationen til at oprette forbindelse mellem to eller flere input for at føje hændelser med delte felter (med samme navn og datatype) til én tabel. Felter, der ikke stemmer overens, slettes og ikke medtages i outputtet.
Konfigurer tidsbestemt vindue-funktioner
Klokkeslæt Windows er en af de mest komplekse koncepter i streaming af data. Dette koncept er placeret i kernen i streaming Analytics.
Med streaming dataflows kan du konfigurere tidsvinduer, når du sammenfletter data, som en indstilling for Group by transformation.
Bemærk
Vær opmærksom på, at alle output resultater for funktioner i Vinduer beregnes i slutningen af tidsvinduet. Vinduets output vil være en enkelt hændelse, der er baseret på aggregeringsfunktionen. Denne hændelse vil have tidsstemplet for slutningen af vinduet, og alle vindues funktioner defineres med en fast længde.

Du kan vælge mellem fem slags tidsvinduer: tumbling, hopping, Glid, session og snapshot.
Tumbling vindue
Tumbling er den mest almindelige type tidsvindue. De vigtigste egenskaber ved tumbling Windows er, at de gentages, har samme tidslængde og ikke overlapper hinanden. En hændelse kan ikke tilhøre mere end ét tumbling-vindue.

Når du konfigurerer et tumbling vindue i streaming-dataflows, skal du angive varigheden af vinduet (det samme for alle vinduer i dette tilfælde). Du kan også angive en valgfri forskydning. Som standard medtager tumbling slutningen af vinduet og udelader starten. Du kan bruge denne parameter til at ændre denne funktionsmåde og inkludere hændelserne i starten af vinduet og udelukke dem i slutningen.

Hopping vindue
Hopping Windows "hop" fremad i tiden med en fast periode. Du kan tænke på dem som tumbling-vinduer, der kan overlappe og blive udsendt oftere end vinduesstørrelsen. Hændelser kan tilhøre mere end ét resultatsæt for et hopping vindue. Hvis du vil gøre et hopping vindue til samme som et tumbling-vindue, kan du angive størrelsen på hop, så den er det samme som vinduesstørrelsen.

Når du konfigurerer et hopping vindue i streaming-dataflows, skal du angive varigheden af vinduet (det samme som med tumbling Windows). Du skal også angive størrelsen på hop, der fortæller streaming dataflows, hvor ofte du ønsker, at aggregeringen skal beregnes for den definerede varighed.
Indstillingen offset er også tilgængelig i hopping-vinduer af samme årsag som i tumbling Windows: Hvis du vil definere logikken for medtagelse og udelukkelse af hændelser for starten og slutningen af hopping-vinduet.

Glidende vindue
Når du skubber vinduer, i modsætning til tumbling-eller hopping-vinduer, beregnes kun akkumuleringen for tidspunkter, når indholdet af vinduet faktisk ændres. Når en begivenhed kommer ind eller lukker vinduet, beregnes sammenlægningen. Så alle vinduer har mindst én hændelse. På samme måde som med hopping Windows kan begivenheder tilhøre mere end ét glidende vindue.

Den eneste parameter, du skal bruge til et glidende vindue, er varigheden, da selve hændelserne definerer, hvornår vinduet starter. Der kræves ingen offset Logic.

Sessions vindue
Sessions vinduer er den mest komplekse type. De grupperer de hændelser, der ankommer på samme tid, og filtrerer de perioder, hvor der ikke er nogen data. Det er derfor nødvendigt at angive:
- Timeout: hvor lang tid skal vente, hvis der ikke er nogen nye data.
- En maksimal varighed: den længste tid, som aggregeringen vil blive beregnet på, hvis dataene bliver ved med at blive overtrådt.
Du kan også definere en partition, hvis du vil.

Du opretter et sessions vindue direkte i sideruden til transformationen. Hvis du angiver en partition, vil sammenlægningen kun gruppere hændelser sammen for den samme nøgle.

Snapshot vindue
Snapshots af Windows grupperer begivenheder, der har samme tidsstempel. I modsætning til andre vinduer kræver et snapshot ikke nogen parametre, da det bruger klokkeslættet fra systemet.

Definer output
Når du er klar med input og transformationer, er det tid til at definere et eller flere outputs. fra og med den 1. juli 2021 understøtter streaming dataflows kun én outputtype: en Power BI tabel.
Dette output vil være en data flow-tabel (dvs. et objekt), som du kan bruge til at oprette rapporter i Power BI Desktop. Du skal joinforbinde noderne i det forrige trin med det output, du opretter, for at få det til at fungere. Derefter skal du blot gøre tabellen navn.

Når du har oprettet forbindelse til din data flow, vil denne tabel være tilgængelig, så du kan oprette visuelle elementer, der er opdateret i realtid for dine rapporter.
Data visning og fejl
Streaming dataflows leverer værktøjer, der kan hjælpe dig med at oprette, foretage fejlfinding af og evaluere ydeevnen i din analyse pipeline til streaming af data.
Lad os starte med data preview.
Eksempelvisning af Live data for input
Når du opretter forbindelse til en event hub eller IoT hub og vælger dens kort i diagramvisningen (fanen data preview ), får du vist en Live prøveversion af data, der kommer ind, hvis alle følgende er sande:
- Der udskydes data.
- Inputtet er konfigureret korrekt.
- Felter er blevet tilføjet.
Som vist på følgende skærmbillede kan du afbryde prøveversionen midlertidigt (1), hvis du vil se eller analysere ned i noget bestemt. Du kan også starte den igen, hvis du er færdig.
Du kan også se detaljerne for en bestemt post (en "celle" i tabellen) ved at markere den og derefter vælge Vis/skjul oplysninger (2). Skærmbilledet viser den detaljerede visning af et indlejret objekt i en post.

Statisk eksempelvisning af transformationer og output
Når du har tilføjet og konfigureret trin i diagramvisningen, kan du teste deres funktionsmåde ved at vælge knappen til statiske data
.
Når du har gjort det, evaluerer streamingdataflow alle transformationer og output, der er konfigureret korrekt. Streamingdataflow viser derefter resultaterne i prøveversionen af statiske data som vist på følgende billede.

Du kan opdatere eksempelvisningen ved at vælge Opdater statisk eksempel (1). Når du gør det, tager streamingdataflow nye data fra inputtet og evaluerer alle transformationer og output igen med eventuelle opdateringer, som du måske har udført. Indstillingen Vis/skjul oplysninger er også tilgængelig (2).
Oprettelsesfejl
Hvis du har fejl eller advarsler i forbindelse med oprettelse, vises de på fanen Oprettelsesfejl (1), som vist på følgende skærmbillede. Listen indeholder oplysninger om fejlen eller advarslen, korttypen (input, transformation eller output), fejlniveauet og en beskrivelse af fejlen eller advarslen (2). Når du vælger en af fejlene eller advarslerne, vælges det pågældende kort, og konfigurationssiden åbnes, så du kan foretage de nødvendige ændringer.

Kørselsfejl
Den sidste tilgængelige fane i prøveversionen er Runtime-fejl (1), som vist på følgende skærmbillede. Under denne fane vises eventuelle fejl i processen med at indsamle og analysere streamingdataflowet, efter at du har startet det. Du kan f.eks. få en kørselsfejl, hvis en meddelelse blev beskadiget, og dataflowet ikke kunne indtage den og udføre de definerede transformationer.
Da dataflows kan køre i lang tid, giver denne fane mulighed for at filtrere efter tidsperiode og downloade listen over fejl og opdatere den, hvis det er nødvendigt (2).

Rediger indstillinger for streamingdataflow
Som med almindelige dataflow kan indstillingerne for streamingdataflow ændres, afhængigt af behovene hos ejere og forfattere. Følgende indstillinger er unikke for streamingdataflow. I resten af indstillingerne kan du antage, at brugen er den samme på grund af den delte infrastruktur mellem de to typer dataflow.

Opdateringshistorik: Da streamingdataflow kører løbende, viser opdateringshistorikken kun oplysninger om, hvornår dataflowet blev startet, hvornår det blev annulleret, eller når det mislykkedes (med oplysninger og fejlkoder, når det er relevant). Disse oplysninger svarer til dem, der vises for almindelige dataflow. Du kan bruge disse oplysninger til at foretage fejlfinding af problemer eller til at Power BI support med de ønskede oplysninger.
Legitimationsoplysninger for datakilde: Denne indstilling viser de input, der er konfigureret for det specifikke streamingdataflow.
Forbedrede indstillinger for beregningsprogram: Streaming af dataflow har brug for det forbedrede beregningsprogram til at levere visualiseringer i realtid, så denne indstilling er som standard slået til og kan ikke ændres.
Varighed af opbevaring: Denne indstilling er specifik for streamingdataflow. Her kan du definere, hvor længe du vil bevare data i realtid, der skal visualiseres i rapporter. Historiske data gemmes som standard i Azure Blob-Storage. Denne indstilling er specifik for realtidssiden af dine data (varmt lager). Den minimale værdi her er 1 dag eller 24 timer.
Vigtigt
Mængden af hotte data, der lagres af denne opbevaringsvarighed, påvirker direkte ydeevnen af dine visualiseringer i realtid, når du opretter rapporter ud fra disse data. Jo mere opbevaring, du har her, jo flere visualiseringer i realtid i rapporter kan påvirkes af lav ydeevne. Hvis du har brug for at udføre en historikanalyse, anbefaler vi, at du bruger det kølelager, der leveres til streamingdataflow.
Kør og rediger et streamingdataflow
Når du gemmer og konfigurerer dit streamingdataflow, er alt klar til, at du kan køre det. Du kan derefter begynde at indsamle data i Power BI med den streaminganalyselogik, du har defineret.
Kør dit streamingdataflow
Du starter dit streamingdataflow ved først at gemme dataflowet og gå til det arbejdsområde, hvor du oprettede det. Peg på streamingdataflowet, og vælg den afspilningsknap, der vises. En pop op-meddelelse fortæller dig, at streamingdataflowet startes.

Bemærk
Det kan tage op til fem minutter, før data begynder at blive indtaget, og du kan se data, der kommer ind for at oprette rapporter og dashboards Power BI Desktop.
Rediger dit streamingdataflow
Når et streamingdataflow kører, kan det ikke redigeres. Men du kan gå ind i et streamingdataflow, der er i kørende tilstand, og se den analyselogik, som dataflowet er baseret på.
Når du går ind i et kørende streamingdataflow, deaktiveres alle redigeringsindstillinger, og der vises en meddelelse: "Dataflowet kan ikke redigeres, mens det kører. Stop dataflowet, hvis du vil fortsætte." Eksempelvisningen af data er også deaktiveret.
Hvis du vil redigere dit streamingdataflow, skal du stoppe det. Et stoppet dataflow vil medføre manglende data.
Den eneste oplevelse, der er tilgængelig, når et streamingdataflow kører, er fanen Runtime-fejl, hvor du kan overvåge funktionsmåden for dit dataflow for alle meddelelser, der slippes, og lignende situationer.

Overvej datalager, når du redigerer dit dataflow
Når du redigerer et dataflow, skal du tage højde for andre overvejelser. Hvis du ændrer en outputtabel, mister du data, der allerede er blevet sendt og gemt i en outputtabel, på samme måde som hvis du ændrer i et skema til Power BI almindelige dataflows. Grænsefladen indeholder tydelige oplysninger om konsekvenserne af eventuelle ændringer i dit streamingdataflow samt valgmuligheder for ændringer, du foretager, før du gemmer.
Denne oplevelse vises bedre med et eksempel. På følgende skærmbillede kan du se den meddelelse, du får, når du har føjet en kolonne til én tabel, ændret navnet på en anden tabel og lade en tredje tabel være den samme som før.

I dette eksempel slettes de data, der allerede er gemt i begge tabeller, som havde skema- og navneændringer, hvis du gemmer ændringerne. Hvis tabellen bliver ved med at være den samme, får du mulighed for at slette gamle data og starte fra bunden eller gemme dem til senere analyser sammen med nye data, der kommer ind.
Vær opmærksom på disse nuancer, når du redigerer dit streamingdataflow, især hvis du senere har brug for historiske data, der kan analyseres yderligere.
Forbrug et streamingdataflow
Når dit streamingdataflow kører, er du klar til at oprette indhold oven på dine streamingdata. Der er ingen strukturelle ændringer sammenlignet med det, du i øjeblikket skal gøre for at oprette rapporter, som opdateres i realtid. Men der er nogle nuancer og opdateringer, du skal overveje, så du kan drage fordel af denne nye type dataforberedelse til streamingdata.
Konfigurer datalager
Som vi nævnte før, gemmes data i streamingdataflow på følgende to placeringer. Brugen af disse kilder afhænger af, hvilken type analyse du forsøger at udføre.
- Varmt lager (analyse i realtid) : Når data kommer ind i Power BI fra streamingdataflow, lagres data på et varmt sted, hvor du kan få adgang til visualiseringer i realtid. Hvor mange data der gemmes i dette lager, afhænger af den værdi, du har defineret for varighed af opbevaring under indstillingerne for streamingdataflowet. Standarden (og minimum) er 24 timer.
- Fryselager (historisk analyse): En periode, der ikke falder i den periode, du har defineret for Opbevaringsvarighed, gemmes i fryselager (blobs) i Power BI, så du om nødvendigt kan forbruge det.
Bemærk
Der er overlap mellem disse to placeringer for datalageret. Hvis du har brug for at bruge begge placeringer sammen (f.eks. ændring i procentdelen dag for dag), skal du muligvis deduplikere dine poster. Det afhænger af time intelligence de beregninger, du foretager, og opbevaringspolitikken.
Forbind til streaming af dataflow fra Power BI Desktop
Med udgivelsen af Power BI Desktop i juli 2021 kan du bruge en ny connector kaldet Power Platform-dataflow (beta). Som en del af denne nye connector kan du for streamingdataflow se to tabeller, der svarer til det datalager, der tidligere er beskrevet.
Sådan opretter du forbindelse til dine data til streamingdataflow:
Gå til Hent data, søg efter Power Platform, og vælg derefter den Power Platform (beta) connector.

Log på med dine Power BI legitimationsoplysninger.
Vælg arbejdsområder. Søg efter det, der indeholder dit streamingdataflow, og vælg det pågældende dataflow. (I dette eksempel kaldes streamingdataflowet For betaling).
Bemærk, at alle dine outputtabeller vises to gange: én til streamingdata (varmt) og én til arkiverede data (kold). Du kan adskille dem ved hjælp af de etiketter, der tilføjes efter tabelnavnene, og ved hjælp af ikonerne.

Forbind til streamingdataene. Det arkiverede data case er den samme, der kun er tilgængelig i importtilstand. Vælg de tabeller, der indeholder navne streaming og varmt, og vælg derefter Indlæs.

Når du bliver bedt om at vælge en lagringstilstand, skal du vælge DirectQuery , hvis dit mål er at oprette visuelle elementer i realtid.

Nu kan du oprette visuelle elementer, målinger og meget mere ved hjælp af de funktioner, der er tilgængelige i Power BI Desktop.
Bemærk
den almindelige Power BI data flow-connector er stadig tilgængelig og fungerer med streaming dataflows med to uhensigtsmæssigheder:
- Det gør det kun muligt for dig at oprette forbindelse til varm lagring.
- Datavisningen i Connector fungerer ikke med streaming dataflows.
Aktivér automatisk opdatering af sider for visuelle elementer i realtid
Når rapporten er klar, og du har tilføjet alt det indhold, du vil dele, er det eneste trin, der er ved at sikre, at dine visuals opdateres i realtid. Du kan også bruge en funktion, der hedder automatisk side opdatering. Denne funktion giver dig mulighed for at opdatere visuelle elementer fra en DirectQuery-kilde så ofte som én sekund.
Du kan finde flere oplysninger om funktionen under automatisk side opdatering i Power bi. Disse oplysninger indeholder oplysninger om, hvordan du bruger dem, hvordan du konfigurerer dem, og hvordan du kontakter din administrator, hvis du har problemer. Her er de grundlæggende oplysninger om, hvordan du konfigurerer dem:
Gå til den rapport side, hvor de visuelle elementer skal opdateres i realtid.
Ryd alle visuelle elementer på siden. Hvis det er muligt, skal du vælge sidens baggrund.
Gå til ruden format (1), og slå side opdatering til/fra (2).

Konfigurer din ønskede hyppighed (op til hvert sekund, hvis administratoren har tilladt det), og Nyd opdateringerne i realtid i dine visuals.

hvis du vil dele en rapport i realtid, skal du først publicere den Power BI tjeneste igen. Derefter kan du konfigurere dine data flow-legitimationsoplysninger for datasættet og sharet.
Tip
Hvis rapporten ikke opdateres, så snart du har brug for den, eller i realtid, kan du se dokumentationen til automatisk opdatering af sider. Følg de ofte stillede spørgsmål og fejlfindings instruktioner for at finde ud af, hvorfor dette problem kan ske.
Overvejelser og begrænsninger
Generelle begrænsninger
- der kræves et Power BI Premium-abonnement (kapacitet eller PPU) for at oprette og køre streaming dataflows.
- Kun én type data flow er tilladt pr. arbejdsområde.
- Det er ikke muligt at foretage sammenkædning af almindelige og streaming dataflows.
- Kapaciteter, der er mindre end a3, tillader ikke brug af streaming dataflows.
- Hvis dataflows eller det udvidede beregningsprogram ikke er aktiveret i en lejer, kan du ikke oprette eller køre streaming dataflows.
- Arbejdsområder, der er forbundet til en Lagerkonto, understøttes ikke.
- Hver streaming-data flow kan levere op til 1 MB gennemløb.
Tilgængelighed
Prøveversionen af streaming dataflows er ikke tilgængelig i følgende regioner:
- Det centrale Indien
- Det nordlige Tyskland
- Det østlige Norge
- Det vestlige Norge
- Det centrale Forenede Arabiske Emirater
- Det nordlige Sydafrika
- Det vestlige Sydafrika
- Det nordlige Schweiz
- Det vestlige Schweiz
- Det sydøstlige Brasilien
Licensering
Antallet af tilladte streaming-dataflows pr. lejer afhænger af den licens, der bruges:
I forbindelse med almindelige kapaciteter kan du bruge følgende formel til at beregne det maksimale antal tilladte streaming-dataflows i en kapacitet:
Det maksimale antal streaming-dataflows pr. kapacitet = vCores i kapaciteten x 5
P1 har f. eks. 8 vCores: 8 * 5 = 40 streaming dataflows.
For Premium pr. bruger er det tilladt at have én streaming-data flow pr. bruger. Hvis en anden bruger ønsker at bruge et streaming-data flow i et PPU-arbejdsområde, er der også brug for en PPU-licens.
Data flow-oprettelse
Når du opretter streaming dataflows, skal du opmærksom af følgende ting:
- Streaming dataflows kan kun ændres af deres ejere, og kun hvis de ikke kører.
- Streaming dataflows er ikke tilgængelige i mit arbejdsområde.
Opretter forbindelse fra Power BI Desktop
du kan kun få adgang til et koldt lager ved at bruge den dataflows-connector (Power Platform) , der er tilgængelig fra og med den 2021. juli-opdatering til Power BI Desktop. den eksisterende Power BI data flow-connector tillader kun forbindelser til streaming af data (varmt). Connectorens data preview fungerer ikke.
Næste trin
Denne artikel leverede en oversigt over, hvordan du klargør data ved hjælp af streaming dataflows. Følgende artikler indeholder oplysninger om, hvordan du kan teste denne egenskab, og hvordan du bruger andre funktioner til streaming af data i Power BI: