Dataströmbearbetning utan kod i Azure Stream Analytics

Med redigeringsprogrammet utan kod kan du enkelt utveckla ett Stream Analytics-jobb för att bearbeta strömmande data i realtid med dra och släpp-funktioner utan att skriva en enda kodrad. Upplevelsen ger en arbetsyta som gör att du kan ansluta till indatakällor för att snabbt se dina strömmande data. Sedan kan du transformera den innan du skriver till dina mål.

Med redigeringsprogrammet utan kod kan du enkelt:

  • Ändra indatascheman.
  • Utför dataförberedelseåtgärder som kopplingar och filter.
  • Använd avancerade scenarier som tidsfönsteraggregeringar (rullande, hoppande och sessionsfönster) för grupp-by-åtgärder.

När du har skapat och kört dina Stream Analytics-jobb kan du enkelt operationalisera produktionsarbetsbelastningar. Använd rätt uppsättning inbyggda mått för övervakning och felsökning. Stream Analytics-jobb faktureras enligt prismodellen när de körs.

Förutsättningar

Innan du utvecklar dina Stream Analytics-jobb med hjälp av redigeringsprogrammet utan kod måste du uppfylla följande krav:

  • Strömmande indatakällor och målresurser för Stream Analytics-jobbet måste vara offentligt tillgängliga och kan inte finnas i ett virtuellt Azure-nätverk.
  • Du måste ha de behörigheter som krävs för att få åtkomst till strömmande in- och utdataresurser.
  • Du måste ha behörighet att skapa och ändra Azure Stream Analytics-resurser.

Kommentar

Redigeringsprogrammet utan kod är för närvarande inte tillgängligt i Kina-regionen.

Azure Stream Analytics-jobb

Ett Stream Analytics-jobb bygger på tre huvudkomponenter: strömmande indata, transformeringar och utdata. Du kan ha så många komponenter du vill, inklusive flera indata, parallella grenar med flera transformeringar och flera utdata. Mer information finns i Dokumentation om Azure Stream Analytics.

Kommentar

Följande funktioner och utdatatyper är inte tillgängliga när du använder redigeringsprogrammet utan kod:

  • Användardefinierade funktioner.
  • Frågeredigering i Azure Stream Analytics-frågebladet. Du kan dock visa frågan som genereras av redigeringsprogrammet utan kod på frågebladet.
  • Indata/utdata som läggs till i Azure Stream Analytics-indata-/utdatablad. Du kan dock visa indata/utdata som genereras av redigeringsprogrammet utan kod på indata-/utdatabladet.
  • Följande utdatatyper är inte tillgängliga: Azure Function, ADLS Gen1, PostgreSQL DB, Service Bus-kö/ämne, Tabelllagring.

Det finns två metoder för att komma åt redigeringsprogrammet utan kod för att skapa ditt stream analytics-jobb:

  1. Via Azure Stream Analytics-portalen (förhandsversion): Skapa ett Stream Analytics-jobb och välj sedan redigeringsprogrammet utan kod på fliken Kom igångöversiktssidan eller välj No-code editor i den vänstra panelen.

    Skärmbild som visar ingen kod på Azure Stream Analytics-portalplatser.

  2. Via Azure Event Hubs-portalen: Öppna en Event Hubs-instans. Välj Bearbeta data och välj sedan valfri fördefinierad mall.

    Skärmbild som visar val för att skapa ett nytt Stream Analytics-jobb.

    De fördefinierade mallarna kan hjälpa dig att utveckla och köra ett jobb för att hantera olika scenarier, inklusive:

Följande skärmbild visar ett slutfört Stream Analytics-jobb. Den visar alla avsnitt som är tillgängliga för dig när du skriver.

Skärmbild som visar avsnitten för redigeringsgränssnittet.

  1. Menyfliksområde: I menyfliksområdet följer avsnitt ordningen på en klassisk analysprocess: en händelsehubb som indata (även kallad datakälla), transformeringar (strömmande Etract-, Transformerings- och inläsningsåtgärder), utdata, en knapp för att spara förloppet och en knapp för att starta jobbet.
  2. Diagramvy: Det här är en grafisk representation av ditt Stream Analytics-jobb, från indata till åtgärder till utdata.
  3. Sidofönster: Beroende på vilken komponent du valde i diagramvyn visas inställningar för att ändra indata, transformering eller utdata.
  4. Flikar för dataförhandsgranskning, redigeringsfel, körningsloggar och mått: För varje panel visar dataförhandsgranskningen resultat för det steget (live för indata, på begäran för omvandlingar och utdata). Det här avsnittet sammanfattar även eventuella redigeringsfel eller varningar som du kan ha i ditt jobb när det utvecklas. Om du väljer varje fel eller varning väljs den transformeringen. Den innehåller också jobbmått som du kan utföra för att övervaka det jobb som körs.

Strömmande dataindata

Redigeringsprogrammet utan kod stöder strömmande dataindata från tre typer av resurser:

  • Azure Event Hubs
  • Azure IoT Hub
  • Azure Data Lake Storage Gen2

Mer information om strömmande dataindata finns i Strömma data som indata till Stream Analytics.

Kommentar

Redigeringsprogrammet utan kod i Azure Event Hubs-portalen har bara Event Hub som indataalternativ.

Skärmbild som visar indatatypen för direktuppspelning.

Azure Event Hubs som strömmande indata

Azure Event Hubs är en stordataströmningsplattform och händelseinmatningstjänst. Den kan ta emot och behandla miljoner händelser per sekund. Data som skickas till en händelsehubb kan omvandlas och lagras via valfri realtidsanalysprovider eller batchbearbetning/lagringskort.

Om du vill konfigurera en händelsehubb som indata för ditt jobb väljer du ikonen Händelsehubb . En panel visas i diagramvyn, inklusive en sidoruta för dess konfiguration och anslutning.

När du ansluter till din händelsehubb i redigeringsprogrammet utan kod rekommenderar vi att du skapar en ny konsumentgrupp (vilket är standardalternativet). Den här metoden hjälper till att förhindra att händelsehubben når gränsen för samtidiga läsare. Mer information om konsumentgrupper och om du bör välja en befintlig konsumentgrupp eller skapa en ny finns i Konsumentgrupper.

Om din händelsehubb är på basic-nivån kan du bara använda den befintliga $Default konsumentgruppen. Om din händelsehubb är på en Standard- eller Premium-nivå kan du skapa en ny konsumentgrupp.

Skärmbild som visar val av konsumentgrupp när du konfigurerar en händelsehubb.

När du ansluter till händelsehubben, om du väljer Hanterad identitet som autentiseringsläge, beviljas rollen Azure Event Hubs-dataägare till den hanterade identiteten för Stream Analytics-jobbet. Mer information om hanterade identiteter för en händelsehubb finns i Använda hanterade identiteter för att komma åt en händelsehubb från ett Azure Stream Analytics-jobb.

Hanterade identiteter eliminerar begränsningarna för användarbaserade autentiseringsmetoder. Dessa begränsningar omfattar behovet av att autentisera igen på grund av lösenordsändringar eller förfallodatum för användartoken som inträffar var 90:e dag.

Skärmbild som visar den hanterade identitet som valts som autentiseringsmetod.

När du har konfigurerat händelsehubbens information och valt Anslut kan du lägga till fält manuellt med hjälp av + Lägg till fält om du känner till fältnamnen. Om du i stället vill identifiera fält och datatyper automatiskt baserat på ett exempel på inkommande meddelanden väljer du Identifiera fält automatiskt. Om du väljer kugghjulssymbolen kan du redigera autentiseringsuppgifterna om det behövs.

När Stream Analytics-jobb identifierar fälten visas de i listan. Du ser också en liveförhandsgranskning av inkommande meddelanden i tabellen Dataförhandsgranskning under diagramvyn.

Ändra indata

Du kan redigera fältnamnen, ta bort fältet eller ändra datatypen eller ändra händelsetiden (Markera som händelsetid: TIMESTAMP BY-sats om ett datetime-typfält) genom att välja trepunktssymbolen bredvid varje fält. Du kan också expandera, välja och redigera alla kapslade fält från inkommande meddelanden, enligt följande bild.

Dricks

Detta gäller även indata från Azure IoT Hub och Azure Data Lake Storage Gen2.

Skärmbild som visar val för att lägga till, ta bort och redigera fälten för en händelsehubb.

Tillgängliga datatyper är:

  • DateTime: Datum- och tidsfält i ISO-format.
  • Flyttal: Decimaltal.
  • Int: Heltalsnummer.
  • Post: Kapslat objekt med flera poster.
  • Sträng: Text.

Azure IoT Hub som strömmande indata

Azure IoT Hub är en hanterad tjänst i molnet som fungerar som en central meddelandehubb för kommunikation mellan ett IoT-program och dess anslutna enheter. IoT-enhetsdata som skickas till IoT Hub kan användas som indata för ett Stream Analytics-jobb.

Kommentar

Azure IoT Hub-indata är tillgängliga i redigeringsprogrammet utan kod på Azure Stream Analytics-portalen.

Om du vill lägga till en IoT-hubb som strömmande indata för ditt jobb väljer du IoT Hub under Indata från menyfliksområdet. Fyll sedan i nödvändig information i den högra panelen för att ansluta IoT Hub till ditt jobb. Mer information om varje fält finns i Strömma data från IoT Hub till Stream Analytics-jobb.

Skärmbild som visar iot hub-konfiguration.

Azure Data Lake Storage Gen2 som strömmande indata

Azure Data Lake Storage Gen2 (ADLS Gen2) är en molnbaserad datasjölösning för företag. Den är utformad för att lagra enorma mängder data i valfritt format och för att underlätta analysarbetsbelastningar för stordata. Data som lagras i ADLS Gen2 kan bearbetas som en dataström av Stream Analytics. Mer information om den här typen av indata finns i Strömma data från ADLS Gen2 till Stream Analytics-jobb

Kommentar

Azure Data Lake Storage Gen2-indata är tillgängliga i redigeringsprogrammet utan kod på Azure Stream Analytics-portalen.

Om du vill lägga till en ADLS Gen2 som strömmande indata för ditt jobb väljer du ADLS Gen2 under Indata från menyfliksområdet. Fyll sedan i nödvändig information i den högra panelen för att ansluta ADLS Gen2 till ditt jobb. Mer information om varje fält finns i Strömma data från ADLS Gen2 till Stream Analytics-jobb

Skärmbild som visar Azure Data Lake Storage Gen2-indatakonfiguration.

Inmatningar av referensdata

Referensdata är statiska eller ändras långsamt över tid. Den används vanligtvis för att berika inkommande strömmar och göra sökningar i ditt jobb. Du kan till exempel koppla indata från dataströmmar till referensdata, ungefär som du skulle utföra en SQL-koppling för att söka efter statiska värden. Mer information om referensdataindata finns i Använda referensdata för sökningar i Stream Analytics.

Redigeringsprogrammet utan kod stöder nu två referensdatakällor:

  • Azure Data Lake Storage Gen2
  • Azure SQL Database

Skärmbild som visar en SQL Database-referensindatanod.

Azure Data Lake Storage Gen2 som referensdata

Referensdata modelleras som en sekvens med blobar i stigande ordning efter den datum/tid-kombination som anges i blobnamnet. Du kan bara lägga till blobar i slutet av sekvensen med hjälp av ett datum/en tid som är större än den som den sista bloben angav i sekvensen. Blobar definieras i indatakonfigurationen.

Välj först Referens ADLS Gen2 under avsnittet Indata i menyfliksområdet. Information om varje fält finns i avsnittet om Azure Blob Storage i Använda referensdata för sökningar i Stream Analytics.

Skärmbild som visar fält för att konfigurera Azure Data Lake Storage Gen2 som indata i redigeringsprogrammet utan kod.

Ladda sedan upp en JSON-matrisfil. Fälten i filen identifieras. Använd dessa referensdata för att utföra transformering med strömmande indata från Event Hubs.

Skärmbild som visar val för att ladda upp JSON för referensdata.

Azure SQL Database som referensdata

Du kan använda Azure SQL Database som referensdata för ditt Stream Analytics-jobb i redigeringsprogrammet utan kod. Mer information finns i avsnittet om SQL Database i Använda referensdata för sökningar i Stream Analytics.

Om du vill konfigurera SQL Database som referensdataindata väljer du Referens SQL Database under avsnittet Indata i menyfliksområdet. Fyll sedan i informationen för att ansluta referensdatabasen och välj tabellen med de kolumner som behövs. Du kan också hämta referensdata från tabellen genom att redigera SQL-frågan manuellt.

Skärmbild som visar konfiguration av SQL Database-referensindata.

Transformeringar

Transformering av strömmande data skiljer sig i sig från batchdatatransformeringar. Nästan alla strömmande data har en tidskomponent som påverkar alla uppgifter för förberedelse av data.

Om du vill lägga till en transformering av strömmande data i jobbet väljer du transformeringssymbolen under avsnittet Åtgärder i menyfliksområdet för omvandlingen. Respektive panel tas bort i diagramvyn. När du har valt den visas sidofönstret för omvandlingen för att konfigurera den.

Skärmbild som visar transformeringsåtgärderna.

Filtrera

Använd filtertransformeringen för att filtrera händelser baserat på värdet för ett fält i indata. Beroende på datatypen (tal eller text) behåller omvandlingen de värden som matchar det valda villkoret.

Skärmbild som visar val för att skapa ett filter.

Kommentar

I varje panel visas information om vad mer omvandlingen behöver för att vara klar. När du till exempel lägger till en ny panel visas ett meddelande om att installationen krävs . Om du saknar en nodanslutning visas antingen ett felmeddelande eller ett varningsmeddelande.

Hantera fält

Med transformering av hantera fält kan du lägga till, ta bort eller byta namn på fält som kommer in från en indata eller en annan transformering. Inställningarna i sidofönstret ger dig möjlighet att lägga till ett nytt genom att välja Lägg till fält eller lägga till alla fält samtidigt.

Skärmbild som visar val för att hantera fält.

Du kan också lägga till ett nytt fält med inbyggda funktioner för att aggregera data från uppströms. För närvarande är de inbyggda funktioner som vi stöder vissa funktioner i String Functions, Date and Time Functions, Mathematical Functions. Mer information om definitionerna av dessa funktioner finns i Inbyggda funktioner (Azure Stream Analytics).

Skärmbild som visar de inbyggda funktionerna.

Dricks

När du har konfigurerat en panel får du en glimt av inställningarna i panelen i diagramvyn. I området Hantera fält i föregående bild kan du till exempel se de tre första fälten som hanteras och de nya namnen som tilldelats dem. Varje panel har information som är relevant för den.

Aggregera

Du kan använda aggregeringstransformationen för att beräkna en aggregering (Summa, Minimum, Maximum eller Average) varje gång en ny händelse inträffar under en tidsperiod. Med den här åtgärden kan du också filtrera eller segmentera aggregeringen baserat på andra dimensioner i dina data. Du kan ha en eller flera sammansättningar i samma transformering.

Om du vill lägga till en aggregering väljer du transformeringssymbolen. Anslut sedan indata, välj aggregering, lägg till eventuella filter- eller segmentdimensioner och välj den tidsperiod under vilken aggregeringen ska beräknas. I det här exemplet beräknar vi summan av avgiftsvärdet efter det tillstånd där fordonet kommer från under de senaste 10 sekunderna.

Skärmbild som visar val för att beräkna en aggregering.

Om du vill lägga till ytterligare en aggregering i samma transformering väljer du Lägg till mängdfunktion. Tänk på att filtret eller sektorn gäller för alla aggregeringar i omvandlingen.

Anslut

Använd kopplingstransformeringen för att kombinera händelser från två indata baserat på de fältpar som du väljer. Om du inte väljer ett fältpar baseras kopplingen som standard på tid. Standardvärdet är det som gör att den här omvandlingen skiljer sig från en batch.

Precis som med vanliga kopplingar har du alternativ för din kopplingslogik:

  • Inre koppling: Inkludera endast poster från båda tabellerna där paret matchar. I det här exemplet matchar registreringsskylten båda indata.
  • Vänster yttre koppling: Inkludera alla poster från den vänstra (första) tabellen och endast posterna från den andra som matchar fältparet. Om det inte finns någon matchning blir fälten från den andra inmatningen tomma.

Välj typ av koppling genom att välja symbolen för önskad typ i sidofönstret.

Välj slutligen under vilken period du vill att kopplingen ska beräknas. I det här exemplet tittar kopplingen på de senaste 10 sekunderna. Tänk på att ju längre perioden är, desto mindre frekvent är utdata – och ju fler bearbetningsresurser du använder för omvandlingen.

Som standard inkluderas alla fält från båda tabellerna. Prefix vänster (första noden) och höger (andra noden) i utdata hjälper dig att särskilja källan.

Skärmbild som visar val för att skapa en koppling.

Gruppera efter

Använd gruppen efter transformering för att beräkna aggregeringar för alla händelser inom ett visst tidsfönster. Du kan gruppera efter värden i ett eller flera fält. Det är som aggregeringstransformeringen men innehåller fler alternativ för aggregeringar. Den innehåller också mer komplexa alternativ för tidsfönster. Precis som aggregering kan du lägga till mer än en aggregering per transformering.

De aggregeringar som är tillgängliga i omvandlingen är:

  • Medel
  • Antal
  • Maximal
  • Minimal
  • Percentil (kontinuerlig och diskret)
  • Standardavvikelsen
  • Sum
  • Varians

Så här konfigurerar du omvandlingen:

  1. Välj önskad sammansättning.
  2. Välj det fält som du vill aggregera på.
  3. Välj ett valfritt grupp-efter-fält om du vill hämta aggregeringsberäkningen över en annan dimension eller kategori. Till exempel: Tillstånd.
  4. Välj din funktion för tidsfönster.

Om du vill lägga till ytterligare en aggregering i samma transformering väljer du Lägg till mängdfunktion. Tänk på att fältet Gruppera efter och fönsterfunktionen gäller för alla sammansättningar i omvandlingen.

Skärmbild som visar val för att beräkna en aggregering med alternativet att gruppera efter värden.

En tidsstämpel för slutet av tidsfönstret visas som en del av transformeringsutdata som referens. Mer information om tidsfönster som Stream Analytics-jobb stöder finns i Fönsterfunktioner (Azure Stream Analytics).

Union

Använd Unionstransformeringen för att ansluta två eller flera indata för att lägga till händelser som har delade fält (med samma namn och datatyp) i en tabell. Fält som inte matchar tas bort och tas inte med i utdata.

Expandera matris

Använd transformeringen Expandera matris för att skapa en ny rad för varje värde i en matris.

Skärmbild som visar alternativ för att expandera en matris.

Strömmande utdata

Funktionen dra och släpp utan kod stöder för närvarande flera utdatamottagare för att lagra dina bearbetade realtidsdata.

Skärmbild som visar alternativ för strömmande utdata.

Azure Data Lake Storage Gen2

Data Lake Storage Gen2 gör Azure Storage till grunden för att skapa företagsdatasjöar i Azure. Den är utformad för att betjäna flera petabyte med information samtidigt som hundratals gigabit dataflöde bibehålls. Det gör att du enkelt kan hantera enorma mängder data. Azure Blob Storage erbjuder en kostnadseffektiv och skalbar lösning för lagring av stora mängder ostrukturerade data i molnet.

Under avsnittet Utdata i menyfliksområdet väljer du ADLS Gen2 som utdata för ditt Stream Analytics-jobb. Välj sedan den container där du vill skicka utdata för jobbet. Mer information om Azure Data Lake Gen2-utdata för ett Stream Analytics-jobb finns i Blob Storage- och Azure Data Lake Gen2-utdata från Azure Stream Analytics.

När du ansluter till Azure Data Lake Storage Gen2, om du väljer Hanterad identitet som autentiseringsläge, beviljas rollen Storage Blob Data Contributor till den hanterade identiteten för Stream Analytics-jobbet. Mer information om hanterade identiteter för Azure Data Lake Storage Gen2 finns i Använda hanterade identiteter för att autentisera ditt Azure Stream Analytics-jobb till Azure Blob Storage.

Hanterade identiteter eliminerar begränsningarna för användarbaserade autentiseringsmetoder. Dessa begränsningar omfattar behovet av att autentisera igen på grund av lösenordsändringar eller förfallodatum för användartoken som inträffar var 90:e dag.

Skärmbild som visar hur du väljer hanterad identitet som autentiseringsmetod för Azure Data Lake Storage Gen2

Exakt när leverans (förhandsversion) stöds i ADLS Gen2 eftersom ingen kodredigerare matar ut. Du kan aktivera den i avsnittet Skrivläge i ADLS Gen2-konfigurationen. Mer information om den här funktionen finns i Exakt en gång leverans (förhandsversion) i Azure Data Lake Gen2

Skärmbild som visar exakt en gång-konfigurationen i ADLS Gen2-utdata.

Skriv till Delta Lake-tabellen (förhandsversion) stöds i ADLS Gen2 eftersom det inte finns några utdata från kodredigeraren. Du kan komma åt det här alternativet i avsnittet Serialisering i ADLS Gen2-konfiguration. Mer information om den här funktionen finns i Tabellen Skriv till Delta Lake.

Skärmbild som visar delta lake-konfigurationen i ADLS Gen2-utdata.

Azure Synapse Analytics

Azure Stream Analytics-jobb kan skicka utdata till en dedikerad SQL-pooltabell i Azure Synapse Analytics och kan bearbeta dataflödeshastigheter på upp till 200 MB per sekund. Stream Analytics har stöd för de mest krävande databearbetningsbehoven i realtid och databearbetning med frekventa sökvägar för arbetsbelastningar som rapportering och instrumentpaneler.

Viktigt!

Den dedikerade SQL-pooltabellen måste finnas innan du kan lägga till den som utdata till ditt Stream Analytics-jobb. Tabellens schema måste matcha fälten och deras typer i jobbets utdata.

Under avsnittet Utdata i menyfliksområdet väljer du Synapse som utdata för ditt Stream Analytics-jobb. Välj sedan den SQL-pooltabell där du vill skicka utdata för jobbet. Mer information om Azure Synapse-utdata för ett Stream Analytics-jobb finns i Azure Synapse Analytics-utdata från Azure Stream Analytics.

Azure Cosmos DB

Azure Cosmos DB är en globalt distribuerad databastjänst som erbjuder obegränsad elastisk skalning över hela världen. Den erbjuder även omfattande frågor och automatisk indexering över schemaagnostiska datamodeller.

Under avsnittet Utdata i menyfliksområdet väljer du CosmosDB som utdata för ditt Stream Analytics-jobb. Mer information om Azure Cosmos DB-utdata för ett Stream Analytics-jobb finns i Azure Cosmos DB-utdata från Azure Stream Analytics.

När du ansluter till Azure Cosmos DB, om du väljer Hanterad identitet som autentiseringsläge, beviljas rollen Deltagare till den hanterade identiteten för Stream Analytics-jobbet. Mer information om hanterade identiteter för Azure Cosmos DB finns i Använda hanterade identiteter för att komma åt Azure Cosmos DB från ett Azure Stream Analytics-jobb (förhandsversion).

Autentiseringsmetoden för hanterade identiteter stöds också i Azure Cosmos DB-utdata i redigeringsprogrammet utan kod som har samma fördelar som i ADLS Gen2-utdata ovan.

Azure SQL Database

Azure SQL Database är en fullständigt hanterad paaS-databasmotor (plattform som en tjänst) som kan hjälpa dig att skapa ett datalagringslager med hög tillgänglighet och höga prestanda för program och lösningar i Azure. Genom att använda redigeringsprogrammet utan kod kan du konfigurera Azure Stream Analytics-jobb för att skriva bearbetade data till en befintlig tabell i SQL Database.

Om du vill konfigurera Azure SQL Database som utdata väljer du SQL Database under avsnittet Utdata i menyfliksområdet. Fyll sedan i nödvändig information för att ansluta SQL-databasen och välj den tabell som du vill skriva data till.

Viktigt!

Azure SQL Database-tabellen måste finnas innan du kan lägga till den som utdata till ditt Stream Analytics-jobb. Tabellens schema måste matcha fälten och deras typer i jobbets utdata.

Mer information om Azure SQL Database-utdata för ett Stream Analytics-jobb finns i Azure SQL Database-utdata från Azure Stream Analytics.

Event Hubs

Med realtidsdata som kommer till ASA kan redigeringsprogram utan kod transformera, berika data och sedan mata ut data till en annan händelsehubb också. Du kan välja Event Hubs-utdata när du konfigurerar ditt Azure Stream Analytics-jobb.

Om du vill konfigurera Event Hubs som utdata väljer du Händelsehubb under avsnittet Utdata i menyfliksområdet. Fyll sedan i nödvändig information för att ansluta din händelsehubb som du vill skriva data till.

Mer information om Event Hubs-utdata för ett Stream Analytics-jobb finns i Event Hubs-utdata från Azure Stream Analytics.

Öppna Azure-datautforskaren

Azure Data Explorer är en fullständigt hanterad stordataanalysplattform med höga prestanda som gör det enkelt att analysera stora mängder data. Du kan använda Azure Data Explorer som utdata för ditt Azure Stream Analytics-jobb med hjälp av redigeringsprogrammet utan kod.

Om du vill konfigurera Azure Data Explorer som utdata väljer du Azure Data Explorer under avsnittet Utdata i menyfliksområdet. Fyll sedan i nödvändig information för att ansluta din Azure Data Explorer-databas och ange den tabell som du vill skriva data till.

Viktigt!

Tabellen måste finnas i den valda databasen och tabellens schema måste exakt matcha fälten och deras typer i jobbets utdata.

Mer information om Azure Data Explorer-utdata för ett Stream Analytics-jobb finns i Azure Data Explorer-utdata från Azure Stream Analytics (förhandsversion).

Power BI

Power BI erbjuder en omfattande visualiseringsupplevelse för dataanalysresultatet. Med Power BI-utdata till Stream Analytics skrivs bearbetade strömmande data till Power BI-strömmande datauppsättning, sedan kan de användas för att skapa Power BI-instrumentpanelen i nära realtid. Mer information om hur du skapar instrumentpanelen i nära realtid finns i Skapa realtidsinstrumentpanel med Power BI-datauppsättning som skapats från Stream Analytics utan kodredigerare.

Om du vill konfigurera Power BI som utdata väljer du Power BI under avsnittet Utdata i menyfliksområdet. Fyll sedan i nödvändig information för att ansluta din Power BI-arbetsyta och ange namnen på den strömmande datauppsättningen och tabellen som du vill skriva data till. Mer information om varje fält finns i Power BI-utdata från Azure Stream Analytics.

Dataförhandsgranskning, redigeringsfel, körningsloggar och mått

Funktionen dra och släpp utan kod innehåller verktyg som hjälper dig att skapa, felsöka och utvärdera prestanda för din analyspipeline för strömmande data.

Förhandsversion av livedata för indata

När du ansluter till en indatakälla, till exempel: händelsehubb och väljer dess panel i diagramvyn ( fliken Dataförhandsgranskning ) får du en liveförhandsgranskning av data som kommer in om alla följande är sanna:

  • Data push-överförs.
  • Indata är korrekt konfigurerade.
  • Fält har lagts till.

Som du ser i följande skärmbild kan du pausa förhandsgranskningen (1) om du vill se eller öka detaljnivån i något specifikt. Eller så kan du starta den igen om du är klar.

Du kan också se information om en specifik post, en cell i tabellen, genom att välja den och sedan välja Visa/dölj information (2). Skärmbilden visar den detaljerade vyn av ett kapslat objekt i en post.

Skärmbild som visar fliken Dataförhandsgranskning, där du kan pausa förhandsversionen av strömning och visa eller dölja information.

Statisk förhandsgranskning för omvandlingar och utdata

När du har lagt till och konfigurerat några steg i diagramvyn kan du testa deras beteende genom att välja Hämta statisk förhandsversion.

Skärmbild som visar knappen för att hämta en statisk förhandsgranskning.

När du har gjort det utvärderar Stream Analytics-jobbet alla transformeringar och utdata för att se till att de är korrekt konfigurerade. Stream Analytics visar sedan resultatet i förhandsversionen av statiska data, enligt följande bild.

Skärmbild som visar fliken Dataförhandsgranskning, där du kan uppdatera den statiska förhandsversionen.

Du kan uppdatera förhandsversionen genom att välja Uppdatera statisk förhandsversion (1). När du uppdaterar förhandsversionen tar Stream Analytics-jobbet nya data från indata och utvärderar alla transformeringar. Sedan skickas utdata igen med alla uppdateringar som du kan ha utfört. Alternativet Visa/dölj information är också tillgängligt (2).

Redigeringsfel

Om du har några redigeringsfel eller varningar visas dem på fliken Redigeringsfel , enligt följande skärmbild. Listan innehåller information om felet eller varningen, typen av kort (indata, transformering eller utdata), felnivån och en beskrivning av felet eller varningen.

Skärmbild som visar en lista med exempel på redigeringsfel.

Körningsloggar

Körningsloggar visas på varnings-, fel- eller informationsnivå när ett jobb körs. Dessa loggar är användbara när du vill redigera stream analytics-jobbtopologin eller konfigurationen för felsökning. Vi rekommenderar starkt att du aktiverar diagnostikloggar och skickar dem till Log Analytics-arbetsytan i Inställningar för att få mer information om dina jobb som körs för felsökning.

Skärmbild som visar konfigurationen av diagnostikloggen i redigeringsprogrammet utan kod.

I följande skärmbildsexempel har användaren konfigurerat SQL Database-utdata med ett tabellschema som inte matchar fälten i jobbutdata.

Skärmbild som visar fliken för körningsfel.

Mått

Om jobbet körs kan du övervaka hälsotillståndet för ditt jobb på fliken Mått . De fyra mått som visas som standard är vattenstämpelfördröjning, indatahändelser, backloggade indatahändelser och utdatahändelser. Du kan använda dessa mått för att förstå om händelserna flödar in och ut ur jobbet utan några kvarvarande indata.

Skärmbild som visar måtten för ett jobb som skapats från redigeringsprogrammet utan kod.

Du kan välja fler mått i listan. Information om alla mått finns i Jobbmått för Azure Stream Analytics.

Starta ett Stream Analytics-jobb

Du kan spara jobbet när som helst när du skapar det. När du har konfigurerat strömmande indata, transformeringar och strömmande utdata för jobbet kan du starta jobbet.

Kommentar

Även om redigeringsprogrammet utan kod på Azure Stream Analtyics-portalen är i förhandsversion är Azure Stream Analytics-tjänsten allmänt tillgänglig.

Skärmbild som visar knapparna Spara och Starta.

Du kan konfigurera följande alternativ:

  • Starttid för utdata: När du startar ett jobb väljer du en tid för jobbet att börja skapa utdata.
    • Nu: Det här alternativet gör startpunkten för utdatahändelseströmmen på samma sätt som när jobbet startas.
    • Anpassad: Du kan välja startpunkten för utdata.
    • När det senast stoppades: Det här alternativet är tillgängligt när jobbet startades tidigare men stoppades manuellt eller misslyckades. När du väljer det här alternativet används den senaste utdatatiden för att starta om jobbet, så inga data går förlorade.
  • Strömningsenheter: Strömningsenheter (SUs) representerar mängden beräkning och minne som tilldelats jobbet medan det körs. Om du inte är säker på hur många SUS:er du ska välja rekommenderar vi att du börjar med tre och justerar efter behov.
  • Hantering av utdatafel: Principer för hantering av utdatafel gäller endast när utdatahändelsen som skapas av ett Stream Analytics-jobb inte överensstämmer med schemat för målmottagaren. Du kan konfigurera principen genom att välja Antingen Försök igen eller Släpp. Mer information finns i Utdatafelprincip för Azure Stream Analytics.
  • Start: Den här knappen startar Stream Analytics-jobbet.

Skärmbild som visar dialogrutan för att granska Stream Analytics-jobbkonfigurationen och starta jobbet.

Stream Analytics-jobblista i Azure Event Hubs-portalen

Om du vill se en lista över alla Stream Analytics-jobb som du skapade med hjälp av dra och släpp-funktionen utan kod i Azure Event Hubs-portalen väljer du Bearbeta data>Stream Analytics-jobb.

Skärmbild som visar Stream Analytics-jobblistan där du granskar jobbstatus.

Det här är elementen på fliken Stream Analytics-jobb :

  • Filter: Du kan filtrera listan efter jobbnamn.
  • Uppdatering: För närvarande uppdateras inte själva listan automatiskt. Använd knappen Uppdatera för att uppdatera listan och se den senaste statusen.
  • Jobbnamn: Namnet i det här området är det som du angav i det första steget för att skapa jobb. Du kan inte redigera den. Välj jobbnamnet för att öppna jobbet i dra och släpp-funktionen utan kod, där du kan stoppa jobbet, redigera det och starta det igen.
  • Status: Det här området visar jobbets status. Välj Uppdatera överst i listan för att se den senaste statusen.
  • Strömningsenheter: Det här området visar antalet enheter för direktuppspelning som du valde när du startade jobbet.
  • Utdatavattenstämpel: Det här området ger en indikator på livlighet för de data som jobbet har producerat. Alla händelser före tidsstämpeln beräknas redan.
  • Jobbövervakning: Välj Öppna mått för att se de mått som är relaterade till det här Stream Analytics-jobbet. Mer information om de mått som du kan använda för att övervaka ditt Stream Analytics-jobb finns i Azure Stream Analytics-jobbmått.
  • Åtgärder: Starta, stoppa eller ta bort jobbet.

Nästa steg

Lär dig hur du använder redigeringsprogrammet utan kod för att hantera vanliga scenarier med hjälp av fördefinierade mallar: