Datadriven felsökning med hjälp av jobbdiagrammet

Jobb diagrammet på bladet övervakning i Azure Portal kan hjälpa dig att visualisera jobb pipelinen. Den visar steg för indata, utdata och frågor. Du kan använda jobbdiagrammet för att undersöka mätvärden för varje steg så att du snabbt kan isolera källan till ett problem när du felsöker.

Använda jobb diagrammet

I Azure Portal, i ett Stream Analytics jobb, under support + fel sökning väljer du jobb diagram:

Jobb diagram med mått – plats

Välj varje fråge steg för att se motsvarande avsnitt i ett redigerings fönster för frågor. Ett Metric-diagram för steget visas i ett nedre fönster på sidan.

Jobb diagram med mått – grundläggande jobb

Om du vill se partitioner för inmatade Azure-Event Hubs väljer du ... En snabb meny visas. Du kan också se ingångs sammanslagningen.

Jobb diagram med mått – expandera partition

Om du vill se mått diagrammet för endast en enda partition väljer du noden partition. Måtten visas längst ned på sidan.

Jobb diagram med mått – fler mått

Om du vill se mått diagrammet för en sammanslagning väljer du noden fusion. Följande diagram visar att inga händelser har släppts eller justerats.

Jobb diagram med mått – rutnät

Om du vill se information om Metric-värdet och-tiden pekar du på diagrammet.

Jobb diagram med mått – hovring

Felsöka med hjälp av mått

Måttet QueryLastProcessedTime anger när ett speciellt steg tar emot data. Genom att titta på topologin kan du arbeta baklänges från utmatnings processorn för att se vilket steg som inte tar emot data. Om ett steg inte hämtar data går du till fråge steget precis innan det. Kontrol lera om föregående processteg har ett tidsfönster och om tillräckligt med tid har gått för att mata ut data. (Observera att tidsfönstren är fästa i timmen.)

Om föregående processteg är en ingångs processor använder du måtten för ingångs mått för att besvara följande riktade frågor. De kan hjälpa dig att avgöra om ett jobb hämtar data från sina inmatnings källor. Granska varje partition om frågan är partitionerad.

Hur mycket data läses?

  • InputEventsSourcesTotal är antalet data enheter som lästs. Till exempel antalet blobbar.
  • InputEventsTotal är antalet lästa händelser. Det här måttet är tillgängligt per partition.
  • InputEventsInBytesTotal är antalet lästa byte.
  • InputEventsLastArrivalTime uppdateras med varje mottagen händelses köade tid.

Flyttas tiden framåt? Om faktiska händelser läses kanske inte skiljetecken utfärdas.

  • InputEventsLastPunctuationTime anger när ett skiljetecken utfärdades för att se till att tiden går framåt. Om interpunktion inte har utfärdats kan data flödet blockeras.

Finns det några fel i indatamängden?

  • InputEventsEventDataNullTotal är antalet händelser som innehåller null-data.
  • InputEventsSerializerErrorsTotal är ett antal händelser som inte kunde deserialiseras korrekt.
  • InputEventsDegradedTotal är ett antal händelser som hade ett annat problem än med deserialisering.

Släpps eller justeras händelser?

  • InputEventsEarlyTotal är antalet händelser som har en program tids stämpling före den övre gränsen.
  • InputEventsLateTotal är antalet händelser som har en tidsstämpel för program efter den övre gränsen.
  • InputEventsDroppedBeforeApplicationStartTimeTotal är antalet händelser som släppts före jobbets start tid.

Faller vi bakom att läsa data?

  • Inloggade inloggade händelser (totalt) visar hur många meddelanden som behöver läsas för Event Hubs och Azure IoT Hub indata. När det här värdet är större än 0 innebär det att jobbet inte kan bearbeta data så snabbt som det kommer i. I det här fallet kan du behöva öka antalet enheter för strömning och/eller se till att jobbet kan vara parallellt. Du kan se mer information på det här på sidan Query parallellisering.

Få hjälp

Om du behöver ytterligare hjälp kan du prova vår sida om Microsoft Q&en fråga för Azure Stream Analytics.

Nästa steg