Vanliga video analyser på IoT Edge vanliga frågor och svarLive Video Analytics on IoT Edge FAQ

Den här artikeln besvarar vanliga frågor om real tids analys av Azure IoT Edge.This article answers commonly asked questions about Live Video Analytics on Azure IoT Edge.

AllmäntGeneral

Vilka systemvariabler kan jag använda i definitionen för grafens topologi?What system variables can I use in the graph topology definition?

VariabelVariable BeskrivningDescription
System. DateTimeSystem.DateTime Representerar en snabb UTC-tid, vanligt vis uttryckt som datum och tid på dagen i följande format:Represents an instant in UTC time, typically expressed as a date and time of day in the following format:
yyyyMMddTHHmmssZyyyyMMddTHHmmssZ
System. PreciseDateTimeSystem.PreciseDateTime Representerar en datum/tid-instans med UTC-tid (Coordinated Universal Time) i ett ISO8601-kompatibelt format med millisekunder i följande format:Represents a Coordinated Universal Time (UTC) date-time instance in an ISO8601 file-compliant format with milliseconds, in the following format:
yyyyMMddTHHmmss. fffZyyyyMMddTHHmmss.fffZ
System. GraphTopologyNameSystem.GraphTopologyName Representerar en Media Graph-topologi och innehåller skissen på ett diagram.Represents a media graph topology, and holds the blueprint of a graph.
System. GraphInstanceNameSystem.GraphInstanceName Representerar en medie diagram instans, innehåller parameter värden och refererar till topologin.Represents a media graph instance, holds parameter values, and references the topology.

Konfiguration och distributionConfiguration and deployment

Kan jag distribuera Media Edge-modulen till en Windows 10-enhet?Can I deploy the media edge module to a Windows 10 device?

Ja.Yes. Mer information finns i Linux-behållare i Windows 10.For more information, see Linux containers on Windows 10.

Avbilda från IP-kamera och RTSP-inställningarCapture from IP camera and RTSP settings

Behöver jag använda ett särskilt SDK på enheten för att skicka in en videoström?Do I need to use a special SDK on my device to send in a video stream?

Nej, live video analys på IoT Edge stöder hämtning av media med hjälp av RTSP (real tids strömnings protokoll) för video strömning, som stöds på de flesta IP-kameror.No, Live Video Analytics on IoT Edge supports capturing media by using RTSP (Real-Time Streaming Protocol) for video streaming, which is supported on most IP cameras.

Kan jag skicka media till direktsänd video analys på IoT Edge med hjälp av RTMP (Real-Time Messaging Protocol) eller Smooth Streaming protokoll (till exempel en Media Services Live-händelse)?Can I push media to Live Video Analytics on IoT Edge by using Real-Time Messaging Protocol (RTMP) or Smooth Streaming Protocol (such as a Media Services Live Event)?

Nej, Real video analys stöder endast RTSP för att hämta video från IP-kameror.No, Live Video Analytics supports only RTSP for capturing video from IP cameras. Alla kameror som stöder RTSP-strömning via TCP/HTTP bör fungera.Any camera that supports RTSP streaming over TCP/HTTP should work.

Kan jag återställa eller uppdatera RTSP-källans URL i en diagram instans?Can I reset or update the RTSP source URL in a graph instance?

Ja, när diagram instansen är i inaktivt läge.Yes, when the graph instance is in inactive state.

Finns det en RTSP-simulator som kan användas vid testning och utveckling?Is an RTSP simulator available to use during testing and development?

Ja, en RTSP Simulator Edge-modul är tillgänglig för användning i snabb starter och självstudier för att stödja inlärnings processen.Yes, an RTSP simulator edge module is available for use in the quickstarts and tutorials to support the learning process. Den här modulen tillhandahålls som bästa ansträngning och är kanske inte alltid tillgänglig.This module is provided as best-effort and might not always be available. Vi rekommenderar starkt att du inte använder simulatorn i mer än några timmar.We recommend strongly that you not use the simulator for more than a few hours. Du bör investera i testning med din faktiska RTSP-källa innan du planerar en produktions distribution.You should invest in testing with your actual RTSP source before you plan a production deployment.

Finns det stöd för ONVIF-identifiering av IP-kameror vid nätverksgränsen?Do you support ONVIF discovery of IP cameras at the edge?

Nej, vi har inte stöd för att öppna ONVIF (Network Video Interface forum) för enheter på gränsen.No, we don't support Open Network Video Interface Forum (ONVIF) discovery of devices on the edge.

Strömning och uppspelningStreaming and playback

Kan jag spela upp till gångar som registrerats för Azure Media Services från gränsen med hjälp av strömmande tekniker som HLS eller tank streck?Can I play back assets recorded to Azure Media Services from the edge by using streaming technologies such as HLS or DASH?

Ja.Yes. Du kan strömma registrerade till gångar som vilken annan till gång som helst i Azure Media Services.You can stream recorded assets like any other asset in Azure Media Services. För att strömma innehållet måste du ha en slut punkt för direkt uppspelning skapad och i körnings läge.To stream the content, you must have a streaming endpoint created and in the running state. Genom att använda standard processen för att skapa streaming-direktuppspelning får du åtkomst till en Apple-HTTP Live Streaming (HLS) eller dynamisk anpassningsbar strömning via HTTP (bindestreck, även kallat MPEG-streck) för strömning till alla kompatibla Player-ramverk.Using the standard Streaming Locator creation process will give you access to an Apple HTTP Live Streaming (HLS) or Dynamic Adaptive Streaming over HTTP (DASH, also known as MPEG-DASH) manifest for streaming to any capable player framework. Mer information om hur du skapar och publicerar HLS-eller streck manifest finns i dynamisk paketering.For more information about creating and publishing HLS or DASH manifests, see dynamic packaging.

Kan jag använda standard innehålls skyddet och DRM-funktionerna i Media Services på en arkiverad till gång?Can I use the standard content protection and DRM features of Media Services on an archived asset?

Ja.Yes. Alla funktioner för dynamisk dynamisk kryptering och Digital Rights Management (DRM) är tillgängliga för användning på till gångar som har registrerats från ett medie diagram.All the standard dynamic encryption content protection and digital rights management (DRM) features are available for use on assets that are recorded from a media graph.

Vilka spelare kan jag använda för att visa innehåll från de inspelade resurserna?What players can I use to view content from the recorded assets?

Alla standard spelare som stöder kompatibel HLS version 3 eller version 4 stöds.All standard players that support compliant HLS version 3 or version 4 are supported. Dessutom stöds även alla spelare som stöder uppspelning av MPEG-streck.In addition, any player that's capable of compliant MPEG-DASH playback is also supported.

Rekommenderade spelare för testning är:Recommended players for testing include:

Vilka är gränserna för strömning av en Media diagram-till gång?What are the limits on streaming a media graph asset?

Direkt uppspelning av en levande eller inspelad till gång från ett medie diagram använder samma storskaliga infrastruktur-och strömnings slut punkter som Media Services stöder för strömning på begäran och live-strömning för media & underhållning, över de främsta (OTT) och sändnings kunderna.Streaming a live or recorded asset from a media graph uses the same high-scale infrastructure and streaming endpoint that Media Services supports for on-demand and live streaming for Media & Entertainment, Over the Top (OTT), and broadcast customers. Det innebär att du snabbt och enkelt kan aktivera Azure Content Delivery Network, Verizon eller Akamai för att leverera ditt innehåll till en mål grupp så litet som några visnings program eller upp till miljon tals beroende på ditt scenario.This means that you can quickly and easily enable Azure Content Delivery Network, Verizon, or Akamai to deliver your content to an audience as small as a few viewers or up to millions, depending on your scenario.

Du kan leverera innehåll genom att använda antingen Apple HLS eller MPEG-tank streck.You can deliver content by using either Apple HLS or MPEG-DASH.

Utforma din AI-modellDesign your AI model

Jag har flera AI-modeller inkapslade i en Docker-behållare. Hur ska jag använda dem med live video analys?I have multiple AI models wrapped in a Docker container. How should I use them with Live Video Analytics?

Lösningarna varierar beroende på vilket kommunikations protokoll som används av inferencing-servern för att kommunicera med live video analys.Solutions vary depending on the communication protocol that's used by the inferencing server to communicate with Live Video Analytics. I följande avsnitt beskrivs hur varje protokoll fungerar.The following sections describe how each protocol works.

Använd HTTP-protokollet:Use the HTTP protocol:

  • Enskild behållare (enskild lvaExtension):Single container (single lvaExtension):

    I din inferencing-Server kan du använda en enda port men olika slut punkter för olika AI-modeller.In your inferencing server, you can use a single port but different endpoints for different AI models. För ett python-exempel kan du till exempel använda olika route s per modell, som du ser här:For example, for a Python sample you can use different routes per model, as shown here:

    @app.route('/score/face_detection', methods=['POST']) 
    … 
    Your code specific to face detection model… 
    
    @app.route('/score/vehicle_detection', methods=['POST']) 
    … 
    Your code specific to vehicle detection model 
    … 
    

    I din live video analys-distribution, när du instansierar grafer, anger du URL: en för härlednings servern för varje instans, som du ser här:And then, in your Live Video Analytics deployment, when you instantiate graphs, set the inference server URL for each instance, as shown here:

    första instans: URL för härlednings Server =http://lvaExtension:44000/score/face_detection1st instance: inference server URL=http://lvaExtension:44000/score/face_detection
    andra instans: URL för härlednings Server =http://lvaExtension:44000/score/vehicle_detection2nd instance: inference server URL=http://lvaExtension:44000/score/vehicle_detection

    Anteckning

    Du kan också exponera dina AI-modeller på olika portar och anropa dem när du instansierar grafer.Alternatively, you can expose your AI models on different ports and call them when you instantiate graphs.

  • Flera behållare:Multiple containers:

    Varje behållare distribueras med ett annat namn.Each container is deployed with a different name. Tidigare visade vi i dokumentationen för Live Video Analytics hur du distribuerar ett tillägg som heter lvaExtension.Previously, in the Live Video Analytics documentation set, we showed you how to deploy an extension named lvaExtension. Nu kan du utveckla två olika behållare, var och en med samma HTTP-gränssnitt, vilket innebär att de har samma /score slut punkt.Now you can develop two different containers, each with the same HTTP interface, which means they have the same /score endpoint. Distribuera dessa två behållare med olika namn och se till att båda lyssnar på olika portar.Deploy these two containers with different names, and ensure that both are listening on different ports.

    Till exempel lyssnar en behållare med namnet lvaExtension1 efter porten 44000 och en andra behållare som heter lvaExtension2 lyssnar efter porten 44001 .For example, one container named lvaExtension1 is listening for the port 44000, and a second container named lvaExtension2 is listening for the port 44001.

    I din Live Video Analytics-topologi instansierar du två grafer med olika härlednings-URL: er, som du ser här:In your Live Video Analytics topology, you instantiate two graphs with different inference URLs, as shown here:

    Första instans: URL för härlednings Server = http://lvaExtension1:44001/score First instance: inference server URL = http://lvaExtension1:44001/score
    Andra instans: URL för härlednings Server = http://lvaExtension2:44001/scoreSecond instance: inference server URL = http://lvaExtension2:44001/score

Använd gRPC-protokollet:Use the gRPC protocol:

  • När du använder en gRPC-protokoll (Real-Purpose Remote Procedure Call) i live video analys-1,0 modulen är det enda sättet att göra detta är om gRPC-servern exponerar olika AI-modeller via olika portar.With Live Video Analytics module 1.0, when you use a general-purpose remote procedure call (gRPC) protocol, the only way to do so is if the gRPC server exposes different AI models via different ports. I det här kod exempletvisar en enskild port, 44000, alla Yolo-modeller.In this code example, a single port, 44000, exposes all the yolo models. I teorin kunde Yolo gRPC-servern skrivas om för att visa vissa modeller på port 44000 och andra på port 45000.In theory, the yolo gRPC server could be rewritten to expose some models at port 44000 and others at port 45000.

  • Med Live Video Analytics module 2,0 läggs en ny egenskap till i noden gRPC-tillägg.With Live Video Analytics module 2.0, a new property is added to the gRPC extension node. Den här egenskapen, extensionConfiguration, är en valfri sträng som kan användas som en del av gRPC-kontraktet.This property, extensionConfiguration, is an optional string that can be used as a part of the gRPC contract. Om du har flera AI-modeller som paketeras i en enda härlednings server behöver du inte exponera en nod för varje AI-modell.When you have multiple AI models packaged in a single inference server, you don't need to expose a node for every AI model. I stället kan du, för en diagram förekomst, som tilläggs leverantör definiera hur du vill välja de olika AI-modellerna med hjälp av egenskapen extensionConfiguration .Instead, for a graph instance, you, as the extension provider, can define how to select the different AI models by using the extensionConfiguration property. Under körningen skickar Live Video Analytics den här strängen till inferencing-servern, som kan använda den för att anropa den önskade AI-modellen.During execution, Live Video Analytics passes this string to the inferencing server, which can use it to invoke the desired AI model.

Jag skapar en gRPC-Server runt en AI-modell, och jag vill kunna stödja användningen av flera kameror eller diagram instanser. Hur ska jag bygga min server?I'm building a gRPC server around an AI model, and I want to be able to support its use by multiple cameras or graph instances. How should I build my server?

Se först till att servern kan hantera mer än en begäran i taget eller arbeta i parallella trådar.First, be sure that your server can either handle more than one request at a time or work in parallel threads.

Till exempel har ett standard antal parallella kanaler angetts i följande exempel på live video analys gRPC:For example, a default number of parallel channels has been set in the following Live Video Analytics gRPC sample:

server = grpc.server(futures.ThreadPoolExecutor(max_workers=3)) 

I föregående instans av gRPC-servern kan servern bara öppna tre kanaler åt gången per kamera, eller per diagram sto pol instans.In the preceding gRPC server instantiation, the server can open only three channels at a time per camera, or per graph topology instance. Försök inte att ansluta fler än tre instanser till servern.Don't try to connect more than three instances to the server. Om du försöker öppna fler än tre kanaler väntar förfrågningar tills en befintlig kanal sjunker.If you do try to open more than three channels, requests will be pending until an existing channel drops.

Föregående implementering av gRPC-servern används i våra python-exempel.The preceding gRPC server implementation is used in our Python samples. Som utvecklare kan du implementera en egen server eller använda den föregående standard implementeringen för att öka arbets numret, som du anger till det antal kameror som ska användas för video flöden.As a developer, you can implement your own server or use the preceding default implementation to increase the worker number, which you set to the number of cameras to use for video feeds.

Om du vill konfigurera och använda flera kameror kan du skapa en instans av flera diagram sto pol Ogin, var och en som pekar på samma eller en annan härlednings Server (till exempel den server som nämns i föregående stycke).To set up and use multiple cameras, you can instantiate multiple graph topology instances, each pointing to the same or a different inference server (for example, the server mentioned in the preceding paragraph).

Jag vill kunna ta emot flera ramar från överordnade innan jag fattar ett inferencing-beslut. Hur kan jag aktivera det?I want to be able to receive multiple frames from upstream before I make an inferencing decision. How can I enable that?

Våra aktuella standard exempel fungerar i tillstånds löst läge.Our current default samples work in a stateless mode. De behåller inte statusen för föregående anrop eller till och med vem som anropade.They don't keep the state of the previous calls or even who called. Det innebär att flera instanser av topologier kan anropa samma härlednings Server, men servern kan inte särskilja vem som anropar eller tillstånd per anropare.This means that multiple topology instances might call the same inference server, but the server can't distinguish who is calling or the state per caller.

Använd HTTP-protokollet:Use the HTTP protocol:

Om du vill behålla tillstånd, varje anropare eller graf, anropar du inferencing-servern med hjälp av HTTP-Frågeparametern som är unik för anroparen.To keep the state, each caller, or graph topology instance, calls the inferencing server by using the HTTP query parameter that's unique to caller. Till exempel visas URL-adresserna för härlednings servern för varje instans här:For example, the inference server URL addresses for each instance are shown here:

instans av första topologi = http://lvaExtension:44000/score?id=11st topology instance= http://lvaExtension:44000/score?id=1
instans av andra topologin = http://lvaExtension:44000/score?id=22nd topology instance= http://lvaExtension:44000/score?id=2

På Server sidan vet Poäng vägen vem som anropar.On the server side, the score route knows who is calling. Om ID = 1, kan den vara i enskilt tillstånd för den anroparen eller diagram sto pol instansen.If ID=1, then it can keep the state separately for that caller or graph topology instance. Du kan sedan behålla de mottagna video bild rutorna i en buffert.You can then keep the received video frames in a buffer. Du kan till exempel använda en matris eller en ord lista med en DateTime-nyckel och värdet är ramen.For example, use an array, or a dictionary with a DateTime key, and the value is the frame. Du kan sedan definiera den server som ska bearbetas (Härled) efter x -antalet ramar tas emot.You can then define the server to process (infer) after x number of frames are received.

Använd gRPC-protokollet:Use the gRPC protocol:

I ett gRPC-tillägg är varje session för en enda Camera-feed, så det finns inget behov av att ange ett ID.With a gRPC extension, each session is for a single camera feed, so there's no need to provide an ID. Med egenskapen extensionConfiguration kan du nu lagra video bild rutorna i en buffert och definiera den server som ska bearbetas (Härled) efter x -antalet ramar tas emot.Now, with the extensionConfiguration property, you can store the video frames in a buffer and define the server to process (infer) after x number of frames are received.

Kör alla ProcessMediaStreams på en viss behållare samma AI-modell?Do all ProcessMediaStreams on a particular container run the same AI model?

Nej.No. Starta eller stoppa anrop från slutanvändaren i en diagram instans, eller så kanske det finns en kamera som kopplar från eller återansluter.Start or stop calls from the end user in a graph instance constitute a session, or perhaps there's a camera disconnect or reconnect. Målet är att spara en session om kameran strömmar video.The goal is to persist one session if the camera is streaming video.

  • Två kameror som skickar video för bearbetning skapar två sessioner.Two cameras sending video for processing creates two sessions.
  • En kamera som går till en graf som har två gRPC-tillägg skapar två sessioner.One camera going to a graph that has two gRPC extension nodes creates two sessions.

Varje session är en full duplex-anslutning mellan live video analys och gRPC-servern och varje session kan ha en annan modell eller pipeline.Each session is a full duplex connection between Live Video Analytics and the gRPC server, and each session can have a different model or pipeline.

Anteckning

Om en kamera kopplar från eller återansluter, och kameran försätts i offlineläge under en period utanför tolerans gränserna, öppnas en ny session med gRPC-servern i live video analys.In case of a camera disconnect or reconnect, with the camera going offline for a period beyond tolerance limits, Live Video Analytics will open a new session with the gRPC server. Det finns inget krav på att servern ska spåra status mellan dessa sessioner.There's no requirement for the server to track the state across these sessions.

Live Video Analytics ger också stöd för flera gRPC-tillägg för en enskild kamera i en diagram instans.Live Video Analytics also adds support for multiple gRPC extensions for a single camera in a graph instance. Du kan använda dessa gRPC-tillägg för att utföra AI-bearbetningen sekventiellt, parallellt eller som en kombination av båda.You can use these gRPC extensions to carry out AI processing sequentially, in parallel, or as a combination of both.

Anteckning

Att flera tillägg körs parallellt påverkar dina maskin varu resurser.Having multiple extensions run in parallel will affect your hardware resources. Tänk på detta när du väljer maskin vara som passar dina beräknings behov.Keep this in mind as you're choosing the hardware that suits your computational needs.

Vilket är det maximala antalet samtidiga ProcessMediaStreams?What is the maximum number of simultaneous ProcessMediaStreams?

Live Video Analytics använder inga begränsningar för det här talet.Live Video Analytics applies no limits to this number.

Hur kan jag avgöra om min inferencing-Server ska använda CPU eller GPU eller någon annan maskin varu Accelerator?How can I decide whether my inferencing server should use CPU or GPU or any other hardware accelerator?

Ditt beslut är beroende av den utvecklade AI-modellens komplexitet och hur du vill använda processor-och maskin varu acceleratorer.Your decision depends on the complexity of the developed AI model and how you want to use the CPU and hardware accelerators. När du utvecklar AI-modellen kan du ange vilka resurser som modellen ska använda och vilka åtgärder som ska utföras.As you're developing the AI model, you can specify what resources the model should use and what actions it should perform.

Hur gör jag för att lagra bilder med markerings ramar efter bearbetning?How do I store images with bounding boxes post-processing?

Idag tillhandahåller vi gränser för avgränsnings rutor enbart som härlednings meddelanden.Today, we are providing bounding box coordinates as inference messages only. Du kan bygga en anpassad MJPEG-dataström som kan använda dessa meddelanden och täcka markerings rutorna i video bild rutorna.You can build a custom MJPEG streamer that can use these messages and overlay the bounding boxes on the video frames.

gRPC-kompatibilitetgRPC compatibility

Hur vet jag vilka obligatoriska fält för media Stream-beskrivningen är?How will I know what the mandatory fields for the media stream descriptor are?

Alla fält som du inte anger något värde till får ett standardvärde som anges av gRPC.Any field that you don't supply a value to is given a default value, as specified by gRPC.

I real tids analys används proto3 -versionen av protokollets buffert språk.Live Video Analytics uses the proto3 version of the protocol buffer language. Alla protokollets buffertar som används av Live Video Analytics-kontrakt är tillgängliga i protokollets buffer-filer.All the protocol buffer data that's used by Live Video Analytics contracts is available in the protocol buffer files.

Hur kan jag se till att jag använder de senaste Protocol-buffertarna?How can I ensure that I'm using the latest protocol buffer files?

Du kan hämta de senaste protokollets buffertar på webbplatsen för Contract-filer.You can obtain the latest protocol buffer files on the contract files site. När vi uppdaterar filerna finns de på den här platsen.Whenever we update the contract files, they'll be in this location. Det finns ingen omedelbar plan för att uppdatera protokoll filen, så leta efter paket namnet högst upp i filerna för att känna till versionen.There's no immediate plan to update the protocol files, so look for the package name at the top of the files to know the version. Den bör läsa:It should read:

microsoft.azure.media.live_video_analytics.extensibility.grpc.v1 

Eventuella uppdateringar av de här filerna ökar "v-värdet" i slutet av namnet.Any updates to these files will increment the "v-value" at the end of the name.

Anteckning

Eftersom Real video analys använder proto3-versionen av språket är fälten valfria och-versionen är bakåtkompatibel och vidarebefordras.Because Live Video Analytics uses the proto3 version of the language, the fields are optional, and the version is backward and forward compatible.

Vilka gRPC-funktioner är tillgängliga för mig att använda med live video analys? Vilka funktioner är obligatoriska och vilka är de valfria?What gRPC features are available for me to use with Live Video Analytics? Which features are mandatory and which are optional?

Du kan använda alla gRPC-funktioner på Server sidan, förutsatt att protobuf-kontraktet (Protocol buffer) är uppfyllt.You can use any server-side gRPC features, provided that the Protocol Buffers (Protobuf) contract is fulfilled.

Övervakning och måttMonitoring and metrics

Kan jag övervaka medie diagrammet på gränsen genom att använda Azure Event Grid?Can I monitor the media graph on the edge by using Azure Event Grid?

Ja.Yes. Du kan använda Prometheus mått och publicera dem i Event-rutnätet.You can consume Prometheus metrics and publish them to your event grid.

Kan jag använda Azure Monitor för att Visa hälso tillstånd, mått och prestanda för mina medie diagram i molnet eller på gränsen?Can I use Azure Monitor to view the health, metrics, and performance of my media graphs in the cloud or on the edge?

Ja, vi har stöd för den här metoden.Yes, we support this approach. Mer information finns i Översikt över Azure Monitor mått.To learn more, see Azure Monitor Metrics overview.

Finns det några verktyg för att göra det enklare att övervaka modulen Media Services IoT Edge?Are there any tools to make it easier to monitor the Media Services IoT Edge module?

Visual Studio Code stöder tillägget Azure IoT tools, där du enkelt kan övervaka slut punkterna i LVAEdge-modulen.Visual Studio Code supports the Azure IoT Tools extension, with which you can easily monitor the LVAEdge module endpoints. Du kan använda det här verktyget för att snabbt komma igång med att övervaka den inbyggda slut punkten för IoT Hub för "händelser" och Visa de härlednings meddelanden som dirigeras från gräns enheten till molnet.You can use this tool to quickly start monitoring your IoT hub built-in endpoint for "events" and view the inference messages that are routed from the edge device to the cloud.

Dessutom kan du använda det här tillägget för att redigera modulen för LVAEdge-modulen för att ändra inställningarna för media Graph.In addition, you can use this extension to edit the module twin for the LVAEdge module to modify the media graph settings.

Mer information finns i artikeln om övervakning och loggning .For more information, see the monitoring and logging article.

Fakturering och tillgänglighetBilling and availability

Hur fungerar Real video analys på IoT Edge faktureras?How is Live Video Analytics on IoT Edge billed?

Information om fakturering finns i Media Services prissättning.For billing details, see Media Services pricing.

Nästa stegNext steps

Snabb start: kom igång med live video analys på IoT EdgeQuickstart: Get started with Live Video Analytics on IoT Edge