Kör ett jobb för att mata in data

Slutförd

När du har skapat och sparat frågan kan du köra Azure Stream Analytics-jobbet för att bearbeta händelser i indata och skriva resultatet till utdata. När den har startats körs frågan ständigt tills den har stoppats. mata ständigt in nya händelsedata till din Azure Synapse Analytics-arbetsyta (till en tabell i relationsdatalager eller filer i en datasjö, beroende på utdatatyp).

Arbeta med inmatade data

Du kan arbeta med inmatade strömmande data som andra data i Azure Synapse Analytics, kombinera dem med data som matas in med hjälp av batchbearbetningstekniker eller synkroniseras från driftdatakällor med hjälp av Azure Synapse Link.

Köra frågor mot data i ett relationsdatalager

Om du använde ett Azure Synapse Analytics-utdata för att mata in resultatet av dataströmbearbetningsjobbet i en tabell i en dedikerad SQL-pool kan du köra frågor mot tabellen med hjälp av en SQL-fråga, precis som andra tabeller. Resultatet av frågan innehåller alltid de senaste data som ska matas in när frågan körs. Ditt informationslager kan innehålla tabeller för strömmande data samt tabeller för batchmatade data, så att du kan ansluta realtids- och batchdata för historisk analys.

Följande SQL-kod kan till exempel användas för att fråga en tabell med namnet factSensorReadings som innehåller resultatet av dataströmbearbetning och kombinera den med en dimDate-tabell som innehåller detaljerade data om de datum då avläsningar hämtades.

SELECT d.Weekday, s.SensorID, AVG(s.SensorReading) AS AverageReading
FROM factSensorReadings AS s
JOIN dimDate AS d
    ON CAST(s.ReadingTime AS DATE) = d.DateKey
GROUP BY d.Weekday, s.SensorID

Dricks

Mer information om hur du använder en dedikerad SQL-pool för att analysera data i ett informationslager finns i modulen Analysera data i ett informationslager för relationer på Microsoft Learn.

Köra frågor mot data i en datasjö

När strömmande data matas in i filer i en datasjö kan du köra frågor mot dessa filer med hjälp av en serverlös SQL-pool i Azure Synapse Analytics. Följande fråga läser till exempel alla fält från alla Parquet-filer under mappen sensorer i datafilsystemcontainern .

SELECT *
FROM OPENROWSET(
    BULK 'https://mydatalake.blob.core.windows.net/data/sensors/*',
    FORMAT = 'parquet') AS rows

Dricks

Mer information om hur du använder serverlösa SQL-pooler för att fråga filer i en datasjö finns i Använda Azure Synapse serverlös SQL-pool för att fråga filer i en datasjömodul på Microsoft Learn.

Du kan också köra frågor mot datasjön med hjälp av kod som körs i en Apache Spark-pool, som du ser i det här exemplet:

%%pyspark
df = spark.read.load('abfss://data@datalake.dfs.core.windows.net/sensors/*', format='parquet'
)
display(df)

Dricks

Mer information om hur du använder Apache Spark-pooler för att köra frågor mot filer i en datasjö finns i modulen Analysera data med Apache Spark i Azure Synapse Analytics på Microsoft Learn.