Domande frequenti sull'analisi dei video in tempo reale su IoT EdgeLive Video Analytics on IoT Edge FAQ

Questo articolo risponde alle domande frequenti sull'analisi dei video in tempo reale su Azure IoT Edge.This article answers commonly asked questions about Live Video Analytics on Azure IoT Edge.

GeneraleGeneral

Quali variabili di sistema è possibile usare nella definizione della topologia Graph?What system variables can I use in the graph topology definition?

VariabileVariable DescrizioneDescription
System.DateTimeSystem.DateTime Rappresenta un istante nell'ora UTC, espresso in genere come data e ora del giorno nel formato seguente:Represents an instant in UTC time, typically expressed as a date and time of day in the following format:
yyyyMMddTHHmmssZyyyyMMddTHHmmssZ
System. PreciseDateTimeSystem.PreciseDateTime Rappresenta un'istanza di data e ora UTC (Coordinated Universal Time) in un formato conforme a file ISO8601 con millisecondi, nel formato seguente:Represents a Coordinated Universal Time (UTC) date-time instance in an ISO8601 file-compliant format with milliseconds, in the following format:
AAAAMMGGThhmmss. fffZyyyyMMddTHHmmss.fffZ
System. GraphTopologyNameSystem.GraphTopologyName Rappresenta una topologia del grafico multimediale e include il progetto di un grafico.Represents a media graph topology, and holds the blueprint of a graph.
System. GraphInstanceNameSystem.GraphInstanceName Rappresenta un'istanza del grafico multimediale, include i valori dei parametri e fa riferimento alla topologia.Represents a media graph instance, holds parameter values, and references the topology.

Configurazione e distribuzioneConfiguration and deployment

È possibile distribuire il modulo Media Edge in un dispositivo Windows 10?Can I deploy the media edge module to a Windows 10 device?

Sì.Yes. Per ulteriori informazioni, vedere la pagina relativa ai contenitori Linux in Windows 10.For more information, see Linux containers on Windows 10.

Acquisisci dalla fotocamera IP e dalle impostazioni RTSPCapture from IP camera and RTSP settings

È necessario usare un SDK speciale sul dispositivo per inviare un flusso video?Do I need to use a special SDK on my device to send in a video stream?

No, analisi video in tempo reale su IoT Edge supporta l'acquisizione di supporti usando RTSP (protocollo di streaming in tempo reale) per lo streaming video, supportato nella maggior parte delle fotocamere IP.No, Live Video Analytics on IoT Edge supports capturing media by using RTSP (Real-Time Streaming Protocol) for video streaming, which is supported on most IP cameras.

È possibile eseguire il push di contenuti multimediali in analisi video in tempo reale su IoT Edge usando il protocollo RTMP (Real-Time Messaging Protocol) o il protocollo Smooth Streaming (ad esempio un evento live di servizi multimediali)?Can I push media to Live Video Analytics on IoT Edge by using Real-Time Messaging Protocol (RTMP) or Smooth Streaming Protocol (such as a Media Services Live Event)?

No, analisi video Live supporta solo RTSP per l'acquisizione di video da fotocamere IP.No, Live Video Analytics supports only RTSP for capturing video from IP cameras. Qualsiasi fotocamera che supporta lo streaming RTSP su TCP/HTTP dovrebbe funzionare.Any camera that supports RTSP streaming over TCP/HTTP should work.

È possibile reimpostare o aggiornare l'URL di origine RTSP in un'istanza Graph?Can I reset or update the RTSP source URL in a graph instance?

Sì, quando l'istanza del grafo è in stato inattivo .Yes, when the graph instance is in inactive state.

È disponibile un simulatore RTSP da usare durante i test e lo sviluppo?Is an RTSP simulator available to use during testing and development?

Sì, un modulo RTSP Simulator Edge è disponibile per l'uso nelle guide introduttive ed esercitazioni per supportare il processo di apprendimento.Yes, an RTSP simulator edge module is available for use in the quickstarts and tutorials to support the learning process. Questo modulo viene fornito come massimo sforzo e potrebbe non essere sempre disponibile.This module is provided as best-effort and might not always be available. Si consiglia vivamente di non usare il simulatore per più di alcune ore.We recommend strongly that you not use the simulator for more than a few hours. È consigliabile investire nei test con l'origine RTSP effettiva prima di pianificare una distribuzione di produzione.You should invest in testing with your actual RTSP source before you plan a production deployment.

L'individuazione ONVIF di fotocamere IP in rete perimetrale è supportata?Do you support ONVIF discovery of IP cameras at the edge?

No, non è supportata l'individuazione di dispositivi ONVIF (Open Network Video Interface Forum) sui dispositivi perimetrali.No, we don't support Open Network Video Interface Forum (ONVIF) discovery of devices on the edge.

Streaming e riproduzioneStreaming and playback

È possibile riprodurre risorse registrate in servizi multimediali di Azure dal perimetro usando tecnologie di streaming come HLS o DASH?Can I play back assets recorded to Azure Media Services from the edge by using streaming technologies such as HLS or DASH?

Sì.Yes. È possibile trasmettere in streaming risorse registrate come qualsiasi altro asset in servizi multimediali di Azure.You can stream recorded assets like any other asset in Azure Media Services. Per eseguire lo streaming del contenuto, è necessario che sia stato creato un endpoint di streaming e che si trovi nello stato in esecuzione.To stream the content, you must have a streaming endpoint created and in the running state. L'uso del processo di creazione del localizzatore di streaming standard ti permette di accedere a un manifesto Apple HTTP Live Streaming (HLS) o Dynamic Adaptive Streaming tramite HTTP (DASH, noto anche come MPEG-DASH) per lo streaming a qualsiasi framework di lettori idoneo.Using the standard Streaming Locator creation process will give you access to an Apple HTTP Live Streaming (HLS) or Dynamic Adaptive Streaming over HTTP (DASH, also known as MPEG-DASH) manifest for streaming to any capable player framework. Per altre informazioni sulla creazione e sulla pubblicazione di manifesti HLS o DASH, vedere Creazione dinamica dei pacchetti.For more information about creating and publishing HLS or DASH manifests, see dynamic packaging.

È possibile usare le funzionalità di protezione del contenuto standard e DRM di servizi multimediali in un asset archiviato?Can I use the standard content protection and DRM features of Media Services on an archived asset?

Sì.Yes. Tutte le funzionalità di protezione del contenuto della crittografia dinamica standard e di Digital Rights Management (DRM) sono disponibili per l'uso in asset registrati da un grafico multimediale.All the standard dynamic encryption content protection and digital rights management (DRM) features are available for use on assets that are recorded from a media graph.

Quali giocatori è possibile usare per visualizzare il contenuto degli asset registrati?What players can I use to view content from the recorded assets?

Sono supportati tutti i lettori standard che supportano HLS compatibile con la versione 3 o 4.All standard players that support compliant HLS version 3 or version 4 are supported. Inoltre, è supportato anche qualsiasi lettore in grado di riprodurre MPEG-DASH compatibile.In addition, any player that's capable of compliant MPEG-DASH playback is also supported.

I giocatori consigliati per i test includono:Recommended players for testing include:

Quali sono i limiti per lo streaming di un asset del grafico multimediale?What are the limits on streaming a media graph asset?

Il flusso di un asset attivo o registrato da un grafico multimediale usa lo stesso endpoint di streaming e infrastruttura a scalabilità elevata supportato da servizi multimediali per streaming on demand e Live per media & Entertainment, oltre i clienti di broadcast.Streaming a live or recorded asset from a media graph uses the same high-scale infrastructure and streaming endpoint that Media Services supports for on-demand and live streaming for Media & Entertainment, Over the Top (OTT), and broadcast customers. Ciò significa che è possibile abilitare in modo rapido e semplice la rete per la distribuzione di contenuti di Azure, Verizon o Akamai per distribuire i contenuti a un pubblico con un numero ridotto di utenti o fino a milioni, a seconda dello scenario.This means that you can quickly and easily enable Azure Content Delivery Network, Verizon, or Akamai to deliver your content to an audience as small as a few viewers or up to millions, depending on your scenario.

È possibile distribuire contenuti usando Apple HLS o MPEG-DASH.You can deliver content by using either Apple HLS or MPEG-DASH.

Progettare il modello di intelligenza artificialeDesign your AI model

Sono disponibili più modelli di intelligenza artificiale in un contenitore docker. Come è possibile usarli con analisi video in tempo reale?I have multiple AI models wrapped in a Docker container. How should I use them with Live Video Analytics?

Le soluzioni variano a seconda del protocollo di comunicazione usato dal server di inferenza per comunicare con analisi video in tempo reale.Solutions vary depending on the communication protocol that's used by the inferencing server to communicate with Live Video Analytics. Le sezioni seguenti descrivono il funzionamento di ogni protocollo.The following sections describe how each protocol works.

Usare il protocollo http:Use the HTTP protocol:

  • Singolo contenitore (lvaExtension singolo):Single container (single lvaExtension):

    Nel server di inferenza è possibile usare una singola porta ma endpoint diversi per i diversi modelli di intelligenza artificiale.In your inferencing server, you can use a single port but different endpoints for different AI models. Per un esempio di Python, ad esempio, è possibile usare diversi per route modello, come illustrato di seguito:For example, for a Python sample you can use different routes per model, as shown here:

    @app.route('/score/face_detection', methods=['POST']) 
    … 
    Your code specific to face detection model… 
    
    @app.route('/score/vehicle_detection', methods=['POST']) 
    … 
    Your code specific to vehicle detection model 
    … 
    

    Quindi, nella distribuzione di analisi video in tempo reale, quando si creano istanze dei grafici, impostare l'URL del server di inferenza per ogni istanza, come illustrato di seguito:And then, in your Live Video Analytics deployment, when you instantiate graphs, set the inference server URL for each instance, as shown here:

    prima istanza: URL del server di inferenza =http://lvaExtension:44000/score/face_detection1st instance: inference server URL=http://lvaExtension:44000/score/face_detection
    seconda istanza: URL del server di inferenza =http://lvaExtension:44000/score/vehicle_detection2nd instance: inference server URL=http://lvaExtension:44000/score/vehicle_detection

    Nota

    In alternativa, è possibile esporre i modelli di intelligenza artificiale su porte diverse e chiamarli quando si creano istanze dei grafici.Alternatively, you can expose your AI models on different ports and call them when you instantiate graphs.

  • Più contenitori:Multiple containers:

    Ogni contenitore viene distribuito con un nome diverso.Each container is deployed with a different name. In precedenza, nel set di documentazione di Live Video Analytics è stato illustrato come distribuire un'estensione denominata lvaExtension.Previously, in the Live Video Analytics documentation set, we showed you how to deploy an extension named lvaExtension. A questo punto è possibile sviluppare due contenitori diversi, ognuno con la stessa interfaccia HTTP, che significa che hanno lo stesso /score endpoint.Now you can develop two different containers, each with the same HTTP interface, which means they have the same /score endpoint. Distribuire questi due contenitori con nomi diversi e assicurarsi che entrambi siano in ascolto su porte diverse.Deploy these two containers with different names, and ensure that both are listening on different ports.

    Ad esempio, un contenitore denominato lvaExtension1 è in ascolto della porta 44000 e un secondo contenitore denominato lvaExtension2 è in ascolto della porta 44001 .For example, one container named lvaExtension1 is listening for the port 44000, and a second container named lvaExtension2 is listening for the port 44001.

    Nella topologia di analisi video live si creano due grafici con URL di inferenza diversi, come illustrato di seguito:In your Live Video Analytics topology, you instantiate two graphs with different inference URLs, as shown here:

    Prima istanza: URL del server di inferenza = http://lvaExtension1:44001/score First instance: inference server URL = http://lvaExtension1:44001/score
    Seconda istanza: URL del server di inferenza = http://lvaExtension2:44001/scoreSecond instance: inference server URL = http://lvaExtension2:44001/score

Usare il protocollo gRPC:Use the gRPC protocol:

  • Con il modulo di analisi video Live 1,0, quando si usa un protocollo gRPC (Remote Procedure Call) generico, l'unico modo per farlo è se il server gRPC espone diversi modelli di intelligenza artificiale tramite porte diverse.With Live Video Analytics module 1.0, when you use a general-purpose remote procedure call (gRPC) protocol, the only way to do so is if the gRPC server exposes different AI models via different ports. In questo esempio di codice, una singola porta, 44000, espone tutti i modelli Yolo.In this code example, a single port, 44000, exposes all the yolo models. In teoria, il server gRPC Yolo potrebbe essere riscritto per esporre alcuni modelli sulla porta 44000 e altri sulla porta 45000.In theory, the yolo gRPC server could be rewritten to expose some models at port 44000 and others at port 45000.

  • Con il modulo di analisi video Live 2,0, viene aggiunta una nuova proprietà al nodo dell'estensione gRPC.With Live Video Analytics module 2.0, a new property is added to the gRPC extension node. Questa proprietà, extensionConfiguration, è una stringa facoltativa che può essere usata come parte del contratto gRPC.This property, extensionConfiguration, is an optional string that can be used as a part of the gRPC contract. Quando si dispone di più modelli di intelligenza artificiale inclusi in un singolo server di inferenza, non è necessario esporre un nodo per ogni modello di intelligenza artificiale.When you have multiple AI models packaged in a single inference server, you don't need to expose a node for every AI model. Per un'istanza di Graph, il provider di estensioni può invece definire come selezionare i diversi modelli di intelligenza artificiale usando la proprietà extensionConfiguration .Instead, for a graph instance, you, as the extension provider, can define how to select the different AI models by using the extensionConfiguration property. Durante l'esecuzione, analisi video live passa questa stringa al server di inferenza, che può usarla per richiamare il modello di intelligenza artificiale desiderato.During execution, Live Video Analytics passes this string to the inferencing server, which can use it to invoke the desired AI model.

Sto creando un server gRPC intorno a un modello di intelligenza artificiale e desidero essere in grado di supportarne l'uso da più fotocamere o istanze di Graph. Come si compila il server?I'm building a gRPC server around an AI model, and I want to be able to support its use by multiple cameras or graph instances. How should I build my server?

Assicurarsi prima di tutto che il server sia in grado di gestire più di una richiesta alla volta o di lavorare in thread paralleli.First, be sure that your server can either handle more than one request at a time or work in parallel threads.

Ad esempio, è stato impostato un numero predefinito di canali paralleli nell' esempio gRPC di analisi video liveseguente:For example, a default number of parallel channels has been set in the following Live Video Analytics gRPC sample:

server = grpc.server(futures.ThreadPoolExecutor(max_workers=3)) 

Nella creazione di istanza del server gRPC precedente, il server può aprire solo tre canali alla volta per ogni videocamera o istanza di topologia Graph.In the preceding gRPC server instantiation, the server can open only three channels at a time per camera, or per graph topology instance. Non provare a connettere più di tre istanze al server.Don't try to connect more than three instances to the server. Se si tenta di aprire più di tre canali, le richieste saranno in sospeso fino a quando non viene eliminato un canale esistente.If you do try to open more than three channels, requests will be pending until an existing channel drops.

L'implementazione del server gRPC precedente viene usata negli esempi di Python.The preceding gRPC server implementation is used in our Python samples. Gli sviluppatori possono implementare il proprio server o usare l'implementazione predefinita precedente per aumentare il numero di lavoro impostato sul numero di fotocamere da usare per i feed video.As a developer, you can implement your own server or use the preceding default implementation to increase the worker number, which you set to the number of cameras to use for video feeds.

Per configurare e utilizzare più fotocamere, è possibile creare istanze di più istanze di topologia Graph, ciascuna delle quali punta allo stesso o a un server di inferenza diverso (ad esempio, il server indicato nel paragrafo precedente).To set up and use multiple cameras, you can instantiate multiple graph topology instances, each pointing to the same or a different inference server (for example, the server mentioned in the preceding paragraph).

Desidero essere in grado di ricevere più frame da upstream prima di prendere una decisione di inferenza. Come è possibile abilitarla?I want to be able to receive multiple frames from upstream before I make an inferencing decision. How can I enable that?

Gli esempi predefiniti correnti funzionano in modalità senza stato.Our current default samples work in a stateless mode. Non mantengono lo stato delle chiamate precedenti o anche chi ha chiamato.They don't keep the state of the previous calls or even who called. Ciò significa che più istanze di topologia potrebbero chiamare lo stesso server di inferenza, ma il server non può distinguere chi chiama o lo stato per ogni chiamante.This means that multiple topology instances might call the same inference server, but the server can't distinguish who is calling or the state per caller.

Usare il protocollo http:Use the HTTP protocol:

Per gestire lo stato, ogni istanza del chiamante o della topologia Graph, chiama il server di inferenza usando il parametro di query HTTP univoco per il chiamante.To keep the state, each caller, or graph topology instance, calls the inferencing server by using the HTTP query parameter that's unique to caller. Ad esempio, gli indirizzi URL del server di inferenza per ogni istanza sono riportati di seguito:For example, the inference server URL addresses for each instance are shown here:

1 istanza topologia = http://lvaExtension:44000/score?id=11st topology instance= http://lvaExtension:44000/score?id=1
seconda istanza di topologia = http://lvaExtension:44000/score?id=22nd topology instance= http://lvaExtension:44000/score?id=2

Sul lato server, la route del Punteggio sa chi sta chiamando.On the server side, the score route knows who is calling. Se ID = 1, può mantenerne lo stato separatamente per l'istanza del chiamante o della topologia Graph.If ID=1, then it can keep the state separately for that caller or graph topology instance. È quindi possibile salvare i frame video ricevuti in un buffer.You can then keep the received video frames in a buffer. Usare, ad esempio, una matrice o un dizionario con una chiave DateTime e il valore è il frame.For example, use an array, or a dictionary with a DateTime key, and the value is the frame. È quindi possibile definire il server da elaborare (dedurre) dopo che è stato ricevuto il numero x di frame.You can then define the server to process (infer) after x number of frames are received.

Usare il protocollo gRPC:Use the gRPC protocol:

Con un'estensione gRPC, ogni sessione è per un singolo feed della fotocamera, pertanto non è necessario specificare un ID.With a gRPC extension, each session is for a single camera feed, so there's no need to provide an ID. Ora, con la proprietà extensionConfiguration, è possibile archiviare i fotogrammi video in un buffer e definire il server da elaborare (dedurre) dopo che è stato ricevuto il numero x di frame.Now, with the extensionConfiguration property, you can store the video frames in a buffer and define the server to process (infer) after x number of frames are received.

Tutti i ProcessMediaStreams di un determinato contenitore eseguono lo stesso modello di intelligenza artificiale?Do all ProcessMediaStreams on a particular container run the same AI model?

No.No. Le chiamate di avvio o di arresto dall'utente finale in un'istanza di Graph costituiscono una sessione o forse si è verificata una disconnessione o una riconnessione della fotocamera.Start or stop calls from the end user in a graph instance constitute a session, or perhaps there's a camera disconnect or reconnect. L'obiettivo è quello di salvare in modo permanente una sessione se la fotocamera esegue lo streaming di video.The goal is to persist one session if the camera is streaming video.

  • Due fotocamere che inviano video per l'elaborazione creano due sessioni.Two cameras sending video for processing creates two sessions.
  • Una fotocamera che passa a un grafico con due nodi di estensione gRPC crea due sessioni.One camera going to a graph that has two gRPC extension nodes creates two sessions.

Ogni sessione è una connessione duplex completa tra analisi video in tempo reale e il server gRPC e ogni sessione può avere una pipeline o un modello diverso.Each session is a full duplex connection between Live Video Analytics and the gRPC server, and each session can have a different model or pipeline.

Nota

In caso di disconnessione o riconnessione della fotocamera, con la fotocamera offline per un periodo oltre i limiti di tolleranza, analisi video in tempo reale apre una nuova sessione con il server gRPC.In case of a camera disconnect or reconnect, with the camera going offline for a period beyond tolerance limits, Live Video Analytics will open a new session with the gRPC server. Non è necessario che il server tenga traccia dello stato in queste sessioni.There's no requirement for the server to track the state across these sessions.

Analisi video in tempo reale aggiunge anche il supporto per più estensioni gRPC per una singola fotocamera in un'istanza di Graph.Live Video Analytics also adds support for multiple gRPC extensions for a single camera in a graph instance. È possibile usare queste estensioni gRPC per eseguire l'elaborazione di intelligenza artificiale in sequenza, in parallelo o come una combinazione di entrambi.You can use these gRPC extensions to carry out AI processing sequentially, in parallel, or as a combination of both.

Nota

La presenza di più estensioni eseguite in parallelo influirà sulle risorse hardware.Having multiple extensions run in parallel will affect your hardware resources. Tenere presente questo aspetto quando si sceglie l'hardware adatto alle proprie esigenze di calcolo.Keep this in mind as you're choosing the hardware that suits your computational needs.

Qual è il numero massimo di ProcessMediaStreams simultanei?What is the maximum number of simultaneous ProcessMediaStreams?

Il video live Analytics non applica limiti a questo numero.Live Video Analytics applies no limits to this number.

Come è possibile decidere se il server di inferenza deve utilizzare CPU o GPU o qualsiasi altro acceleratore hardware?How can I decide whether my inferencing server should use CPU or GPU or any other hardware accelerator?

La decisione dipende dalla complessità del modello di intelligenza artificiale sviluppato e dal modo in cui si desidera utilizzare gli acceleratori della CPU e dell'hardware.Your decision depends on the complexity of the developed AI model and how you want to use the CPU and hardware accelerators. Durante lo sviluppo del modello di intelligenza artificiale, è possibile specificare quali risorse devono essere utilizzate dal modello e quali azioni devono essere eseguite.As you're developing the AI model, you can specify what resources the model should use and what actions it should perform.

Ricerca per categorie archiviare le immagini con i campi di delimitazione dopo l'elaborazione?How do I store images with bounding boxes post-processing?

Attualmente, le coordinate del riquadro vengono fornite come solo messaggi di inferenza.Today, we are providing bounding box coordinates as inference messages only. È possibile creare un flusso di trasmissione MJPEG personalizzato che può usare questi messaggi e sovrapporre i rettangoli di delimitazione nei fotogrammi video.You can build a custom MJPEG streamer that can use these messages and overlay the bounding boxes on the video frames.

compatibilità con gRPCgRPC compatibility

Come è possibile sapere quali sono i campi obbligatori per il descrittore del flusso multimediale?How will I know what the mandatory fields for the media stream descriptor are?

A qualsiasi campo a cui non si fornisce un valore viene assegnato un valore predefinito, come specificato da gRPC.Any field that you don't supply a value to is given a default value, as specified by gRPC.

Analisi video in tempo reale usa la versione proto3 della lingua del buffer del protocollo.Live Video Analytics uses the proto3 version of the protocol buffer language. Tutti i dati del buffer del protocollo usati dai contratti di analisi video live sono disponibili nei file del buffer del protocollo.All the protocol buffer data that's used by Live Video Analytics contracts is available in the protocol buffer files.

Come è possibile assicurarsi di utilizzare i file del buffer di protocollo più recenti?How can I ensure that I'm using the latest protocol buffer files?

È possibile ottenere i file del buffer del protocollo più recenti nel sito dei file di contratto.You can obtain the latest protocol buffer files on the contract files site. Ogni volta che si aggiornano i file di contratto, saranno in questa posizione.Whenever we update the contract files, they'll be in this location. Non esiste un piano immediato per aggiornare i file di protocollo, quindi cercare il nome del pacchetto nella parte superiore dei file per conoscerne la versione.There's no immediate plan to update the protocol files, so look for the package name at the top of the files to know the version. L'indicazione corretta è la seguente:It should read:

microsoft.azure.media.live_video_analytics.extensibility.grpc.v1 

Eventuali aggiornamenti a questi file incrementeranno il valore "v-value" alla fine del nome.Any updates to these files will increment the "v-value" at the end of the name.

Nota

Poiché analisi video Live usa la versione proto3 del linguaggio, i campi sono facoltativi e la versione è compatibile con le versioni precedenti e successive.Because Live Video Analytics uses the proto3 version of the language, the fields are optional, and the version is backward and forward compatible.

Quali funzionalità di gRPC sono disponibili per l'uso con analisi video in tempo reale? Quali sono le funzionalità obbligatorie e facoltative?What gRPC features are available for me to use with Live Video Analytics? Which features are mandatory and which are optional?

È possibile utilizzare qualsiasi funzionalità gRPC sul lato server, a condizione che il contratto dei buffer di protocollo (protobuf) venga completato.You can use any server-side gRPC features, provided that the Protocol Buffers (Protobuf) contract is fulfilled.

Monitoraggio e metricheMonitoring and metrics

È possibile monitorare il grafico multimediale sul perimetro usando griglia di eventi di Azure?Can I monitor the media graph on the edge by using Azure Event Grid?

Sì.Yes. È possibile utilizzare le metriche Prometheus e pubblicarle nella griglia di eventi.You can consume Prometheus metrics and publish them to your event grid.

È possibile usare monitoraggio di Azure per visualizzare l'integrità, le metriche e le prestazioni dei grafici multimediali nel cloud o sul perimetro?Can I use Azure Monitor to view the health, metrics, and performance of my media graphs in the cloud or on the edge?

Sì, questo approccio è supportato.Yes, we support this approach. Per altre informazioni, vedere Panoramica delle metriche di monitoraggio di Azure.To learn more, see Azure Monitor Metrics overview.

Sono disponibili strumenti che consentono di monitorare più facilmente il modulo IoT Edge di servizi multimediali?Are there any tools to make it easier to monitor the Media Services IoT Edge module?

Visual Studio Code supporta l'estensione degli strumenti di Azure, con cui è possibile monitorare facilmente gli endpoint del modulo LVAEdge.Visual Studio Code supports the Azure IoT Tools extension, with which you can easily monitor the LVAEdge module endpoints. È possibile usare questo strumento per avviare rapidamente il monitoraggio dell'endpoint predefinito dell'hub Internet per gli "eventi" e visualizzare i messaggi di inferenza indirizzati dal dispositivo perimetrale al cloud.You can use this tool to quickly start monitoring your IoT hub built-in endpoint for "events" and view the inference messages that are routed from the edge device to the cloud.

Inoltre, è possibile usare questa estensione per modificare il modulo gemello per il modulo LVAEdge per modificare le impostazioni del grafico multimediale.In addition, you can use this extension to edit the module twin for the LVAEdge module to modify the media graph settings.

Per ulteriori informazioni, vedere l'articolo monitoraggio e registrazione .For more information, see the monitoring and logging article.

Fatturazione e disponibilitàBilling and availability

Come viene fatturato l'analisi video in tempo reale IoT Edge?How is Live Video Analytics on IoT Edge billed?

Per informazioni dettagliate sulla fatturazione, vedere prezzi di servizi multimediali.For billing details, see Media Services pricing.

Passaggi successiviNext steps

Guida introduttiva: Introduzione all'analisi dei video in tempo reale su IoT EdgeQuickstart: Get started with Live Video Analytics on IoT Edge