Veelgestelde vragen over live video Analytics op IoT EdgeLive Video Analytics on IoT Edge FAQ

In dit artikel vindt u antwoorden op veelgestelde vragen over live video Analytics op Azure IoT Edge.This article answers commonly asked questions about Live Video Analytics on Azure IoT Edge.

AlgemeenGeneral

Welke systeem variabelen kan ik gebruiken in de definitie van de grafiek topologie?What system variables can I use in the graph topology definition?

VariabeleVariable BeschrijvingDescription
System. DateTimeSystem.DateTime Vertegenwoordigt een directe UTC-tijd, meestal uitgedrukt als een datum en tijd van de dag in de volgende notatie:Represents an instant in UTC time, typically expressed as a date and time of day in the following format:
yyyyMMddTHHmmssZyyyyMMddTHHmmssZ
System. PreciseDateTimeSystem.PreciseDateTime Vertegenwoordigt een UTC-exemplaar (Coordinated Universal Time) in een indeling met ISO8601 bestanden met milliseconden, in de volgende indeling:Represents a Coordinated Universal Time (UTC) date-time instance in an ISO8601 file-compliant format with milliseconds, in the following format:
yyyyMMddTHHmmss. fffZyyyyMMddTHHmmss.fffZ
System. GraphTopologyNameSystem.GraphTopologyName Vertegenwoordigt een media grafiek topologie en bevat de blauw druk van een grafiek.Represents a media graph topology, and holds the blueprint of a graph.
System. GraphInstanceNameSystem.GraphInstanceName Vertegenwoordigt een exemplaar van een media grafiek, bevatten parameter waarden en verwijst naar de topologie.Represents a media graph instance, holds parameter values, and references the topology.

Configuratie en implementatieConfiguration and deployment

Kan ik de module media Edge implementeren op een Windows 10-apparaat?Can I deploy the media edge module to a Windows 10 device?

Ja.Yes. Zie Linux-containers in Windows 10voor meer informatie.For more information, see Linux containers on Windows 10.

Vastleggen van IP-camera en RTSP-instellingenCapture from IP camera and RTSP settings

Moet ik een speciale SDK op mijn apparaat gebruiken om een videostream te verzenden?Do I need to use a special SDK on my device to send in a video stream?

Nee, live video Analytics op IoT Edge biedt ondersteuning voor het vastleggen van media door gebruik te maken van RTSP (Realtime Streaming Protocol) voor video-streaming, dat wordt ondersteund op de meeste IP-camera's.No, Live Video Analytics on IoT Edge supports capturing media by using RTSP (Real-Time Streaming Protocol) for video streaming, which is supported on most IP cameras.

Kan ik media naar live video Analytics op IoT Edge pushen met behulp van het Real-Time Messa ging Protocol (RTMP) of Smooth Streaming Protocol (zoals een Media Services live-gebeurtenis)?Can I push media to Live Video Analytics on IoT Edge by using Real-Time Messaging Protocol (RTMP) or Smooth Streaming Protocol (such as a Media Services Live Event)?

Nee, live video Analytics ondersteunt alleen RTSP voor het vastleggen van video van IP-camera's.No, Live Video Analytics supports only RTSP for capturing video from IP cameras. Elke camera die RTSP-streaming via TCP/HTTP ondersteunt, zou moeten werken.Any camera that supports RTSP streaming over TCP/HTTP should work.

Kan ik de RTSP-bron-URL in een Graph-exemplaar opnieuw instellen of bijwerken?Can I reset or update the RTSP source URL in a graph instance?

Ja, wanneer het exemplaar van de grafiek de status inactief heeft.Yes, when the graph instance is in inactive state.

Is een RTSP-Simulator beschikbaar voor gebruik tijdens het testen en ontwikkelen?Is an RTSP simulator available to use during testing and development?

Ja, er is een RTSP Simulator Edge-module beschikbaar voor gebruik in de Quick starts en zelf studies ter ondersteuning van het leer proces.Yes, an RTSP simulator edge module is available for use in the quickstarts and tutorials to support the learning process. Deze module wordt geleverd als Best effort en is mogelijk niet altijd beschikbaar.This module is provided as best-effort and might not always be available. Het is raadzaam om de Simulator niet langer dan een paar uur te gebruiken.We recommend strongly that you not use the simulator for more than a few hours. Voordat u een productie-implementatie plant, moet u investeren in tests met uw werkelijke RTSP-bron.You should invest in testing with your actual RTSP source before you plan a production deployment.

Bieden jullie ondersteuning voor ONVIF-detectie van IP-camera's aan de rand?Do you support ONVIF discovery of IP cameras at the edge?

Nee, er wordt geen ondersteuning geboden voor Open Network Video Interface Forum (ONVIF) detectie van apparaten aan de rand.No, we don't support Open Network Video Interface Forum (ONVIF) discovery of devices on the edge.

Streaming en afspelenStreaming and playback

Kan ik assets die zijn geregistreerd op Azure Media Services van de Edge, afspelen met streaming-technologieën zoals HLS of DASH?Can I play back assets recorded to Azure Media Services from the edge by using streaming technologies such as HLS or DASH?

Ja.Yes. U kunt vastgelegde assets streamen zoals andere activa in Azure Media Services.You can stream recorded assets like any other asset in Azure Media Services. Als u de inhoud wilt streamen, moet u een streaming-eind punt hebben gemaakt en de status wordt uitgevoerd.To stream the content, you must have a streaming endpoint created and in the running state. Als u het standaard proces voor het maken van streaming-locators gebruikt, hebt u toegang tot een Apple HTTP Live Streaming (HLS) of dynamisch adaptief streamen via HTTP (DASH, ook wel MPEG-DASH)-manifest voor streamen naar elk mogelijk Player-Framework.Using the standard Streaming Locator creation process will give you access to an Apple HTTP Live Streaming (HLS) or Dynamic Adaptive Streaming over HTTP (DASH, also known as MPEG-DASH) manifest for streaming to any capable player framework. Zie dynamische verpakkingvoor meer informatie over het maken en publiceren van HLS-of Dash-manifesten.For more information about creating and publishing HLS or DASH manifests, see dynamic packaging.

Kan ik de standaard functies voor beveiliging van inhoud en DRM van Media Services op een gearchiveerde Asset gebruiken?Can I use the standard content protection and DRM features of Media Services on an archived asset?

Ja.Yes. Alle standaard functies voor dynamische versleuteling van inhoud en digital rights management (DRM) zijn beschikbaar voor het gebruik van assets die zijn vastgelegd in een media grafiek.All the standard dynamic encryption content protection and digital rights management (DRM) features are available for use on assets that are recorded from a media graph.

Welke spelers kan ik gebruiken om inhoud van de geregistreerde assets weer te geven?What players can I use to view content from the recorded assets?

Alle standaard spelers die ondersteuning bieden voor compatibele HLS versie 3 of versie 4, worden ondersteund.All standard players that support compliant HLS version 3 or version 4 are supported. Daarnaast wordt elke speler die compatibel is met MPEG-DASH Play, ook ondersteund.In addition, any player that's capable of compliant MPEG-DASH playback is also supported.

De aanbevolen spelers voor testen zijn onder andere:Recommended players for testing include:

Wat zijn de limieten voor het streamen van een media Graph-Asset?What are the limits on streaming a media graph asset?

Het streamen van een live of opgenomen activum vanuit een media grafiek maakt gebruik van hetzelfde hoogwaardige infra structuur en streaming-eind punt dat Media Services ondersteunt voor on-demand en live streamen voor media & entertainment, aan de bovenkant (OTT) en voor het uitzenden van klanten.Streaming a live or recorded asset from a media graph uses the same high-scale infrastructure and streaming endpoint that Media Services supports for on-demand and live streaming for Media & Entertainment, Over the Top (OTT), and broadcast customers. Dit betekent dat u Azure Content Delivery Network, Verizon of Akamai snel en eenvoudig kunt inschakelen om uw inhoud te leveren aan een publiek als een klein aantal kijkers of tot miljoenen, afhankelijk van uw scenario.This means that you can quickly and easily enable Azure Content Delivery Network, Verizon, or Akamai to deliver your content to an audience as small as a few viewers or up to millions, depending on your scenario.

U kunt inhoud afleveren met Apple HLS of MPEG-DASH.You can deliver content by using either Apple HLS or MPEG-DASH.

Uw AI-model ontwerpenDesign your AI model

Ik heb meerdere AI-modellen ingepakt in een docker-container. Hoe moet ik deze gebruiken met live video Analytics?I have multiple AI models wrapped in a Docker container. How should I use them with Live Video Analytics?

Oplossingen variëren, afhankelijk van het communicatie protocol dat wordt gebruikt door de server voor afleiding om te communiceren met live video-analyses.Solutions vary depending on the communication protocol that's used by the inferencing server to communicate with Live Video Analytics. In de volgende secties wordt beschreven hoe elk protocol werkt.The following sections describe how each protocol works.

Het HTTP-protocol gebruiken:Use the HTTP protocol:

  • Eén container (enkelvoudige lvaExtension):Single container (single lvaExtension):

    In uw server voor afleiding kunt u één poort gebruiken, maar ook verschillende eind punten voor verschillende AI-modellen.In your inferencing server, you can use a single port but different endpoints for different AI models. Voor een python-voor beeld kunt u bijvoorbeeld verschillende route s per model gebruiken, zoals hier wordt weer gegeven:For example, for a Python sample you can use different routes per model, as shown here:

    @app.route('/score/face_detection', methods=['POST']) 
    … 
    Your code specific to face detection model… 
    
    @app.route('/score/vehicle_detection', methods=['POST']) 
    … 
    Your code specific to vehicle detection model 
    … 
    

    En vervolgens, in uw live video Analytics-implementatie, bij het instantiëren van grafieken, de URL voor de server voor het afschermen van gegevens voor elk exemplaar instellen, zoals hier wordt weer gegeven:And then, in your Live Video Analytics deployment, when you instantiate graphs, set the inference server URL for each instance, as shown here:

    1e instantie: Server-URL voor uitgevallen =http://lvaExtension:44000/score/face_detection1st instance: inference server URL=http://lvaExtension:44000/score/face_detection
    2e instantie: Server-URL voor uitgevallen =http://lvaExtension:44000/score/vehicle_detection2nd instance: inference server URL=http://lvaExtension:44000/score/vehicle_detection

    Notitie

    U kunt ook uw AI-modellen zichtbaar maken op verschillende poorten en deze aanroepen wanneer u een exemplaar maakt van grafieken.Alternatively, you can expose your AI models on different ports and call them when you instantiate graphs.

  • Meerdere containers:Multiple containers:

    Elke container wordt geïmplementeerd met een andere naam.Each container is deployed with a different name. In de documentatieset live video Analytics hebt u eerder geleerd hoe u een uitbrei ding met de naam lvaExtension implementeert.Previously, in the Live Video Analytics documentation set, we showed you how to deploy an extension named lvaExtension. U kunt nu twee verschillende containers ontwikkelen, elk met dezelfde HTTP-interface, wat betekent dat ze hetzelfde /score eind punt hebben.Now you can develop two different containers, each with the same HTTP interface, which means they have the same /score endpoint. Implementeer deze twee containers met verschillende namen en zorg ervoor dat beide worden geluisterd op verschillende poorten.Deploy these two containers with different names, and ensure that both are listening on different ports.

    Bijvoorbeeld: een container met lvaExtension1 de naam luistert naar de poort 44000 en een tweede container met lvaExtension2 de naam luistert naar de poort 44001 .For example, one container named lvaExtension1 is listening for the port 44000, and a second container named lvaExtension2 is listening for the port 44001.

    In uw live video Analytics-topologie maakt u twee grafieken met verschillende Afleidings-Url's, zoals hier wordt weer gegeven:In your Live Video Analytics topology, you instantiate two graphs with different inference URLs, as shown here:

    Eerste instantie: Server-URL voor uitgevallen = http://lvaExtension1:44001/score First instance: inference server URL = http://lvaExtension1:44001/score
    Tweede exemplaar: Server-URL voor uitgevallen = http://lvaExtension2:44001/scoreSecond instance: inference server URL = http://lvaExtension2:44001/score

Het gRPC-protocol gebruiken:Use the gRPC protocol:

  • Met de live video Analytics-module 1,0, wanneer u een gRPC-Protocol (Remote Procedure Call) gebruikt, is de enige manier om dit te doen als de gRPC-server verschillende AI-modellen via verschillende poorten beschikbaar stelt.With Live Video Analytics module 1.0, when you use a general-purpose remote procedure call (gRPC) protocol, the only way to do so is if the gRPC server exposes different AI models via different ports. In Dit code voorbeeldwordt met één poort, 44000, alle Yolo modellen weer gegeven.In this code example, a single port, 44000, exposes all the yolo models. In theorie kan de Yolo gRPC-server worden herschreven om sommige modellen op poort 44000 en anderen beschikbaar te maken op poort 45000.In theory, the yolo gRPC server could be rewritten to expose some models at port 44000 and others at port 45000.

  • Met de live video Analytics-module 2,0 wordt een nieuwe eigenschap toegevoegd aan het gRPC extension-knoop punt.With Live Video Analytics module 2.0, a new property is added to the gRPC extension node. Deze eigenschap, extensionConfiguration, is een optionele teken reeks die kan worden gebruikt als onderdeel van het gRPC-contract.This property, extensionConfiguration, is an optional string that can be used as a part of the gRPC contract. Wanneer u meerdere AI-modellen hebt ingepakt in één server voor het afleiden van een storing, hoeft u geen knoop punt voor elk AI-model beschikbaar te maken.When you have multiple AI models packaged in a single inference server, you don't need to expose a node for every AI model. In plaats daarvan kunt u, als uitbreidings provider, voor een instantie van een grafiek definiëren hoe de verschillende AI-modellen moeten worden geselecteerd met behulp van de eigenschap extensionConfiguration .Instead, for a graph instance, you, as the extension provider, can define how to select the different AI models by using the extensionConfiguration property. Tijdens de uitvoering wordt deze teken reeks door live video Analytics door gegeven aan de server voor het afleiden van de gegevens, zodat deze kan worden gebruikt om het gewenste AI-model aan te roepen.During execution, Live Video Analytics passes this string to the inferencing server, which can use it to invoke the desired AI model.

Ik bouw een gRPC-server rond een AI-model en ik wil het gebruik door meerdere camera's of grafische instanties kunnen ondersteunen. Hoe kan ik mijn server bouwen?I'm building a gRPC server around an AI model, and I want to be able to support its use by multiple cameras or graph instances. How should I build my server?

Zorg er eerst voor dat uw server meer dan één aanvraag tegelijk kan verwerken of dat u in parallelle threads werkt.First, be sure that your server can either handle more than one request at a time or work in parallel threads.

Zo is bijvoorbeeld een standaard aantal parallelle kanalen ingesteld in het volgende Live video Analytics gRPC-voor beeld:For example, a default number of parallel channels has been set in the following Live Video Analytics gRPC sample:

server = grpc.server(futures.ThreadPoolExecutor(max_workers=3)) 

In de voor gaande instantie van de gRPC-server kan de server slechts drie kanalen tegelijk openen per camera of per grafiek topologie-exemplaar.In the preceding gRPC server instantiation, the server can open only three channels at a time per camera, or per graph topology instance. Probeer niet meer dan drie instanties te verbinden met de server.Don't try to connect more than three instances to the server. Als u probeert meer dan drie kanalen te openen, zijn aanvragen in behandeling totdat een bestaand kanaal wordt neergezet.If you do try to open more than three channels, requests will be pending until an existing channel drops.

De voor gaande gRPC-Server implementatie wordt gebruikt in onze python-voor beelden.The preceding gRPC server implementation is used in our Python samples. Als ontwikkelaar kunt u uw eigen server implementeren of de voor gaande standaard implementatie gebruiken om het werknemernummer te verhogen dat u instelt op het aantal camera's dat u wilt gebruiken voor video-feeds.As a developer, you can implement your own server or use the preceding default implementation to increase the worker number, which you set to the number of cameras to use for video feeds.

Als u meerdere camera's wilt instellen en gebruiken, kunt u meerdere exemplaren van de grafiek topologie instantiëren die verwijzen naar dezelfde of een andere Afleidings server (bijvoorbeeld de server die wordt vermeld in de vorige alinea).To set up and use multiple cameras, you can instantiate multiple graph topology instances, each pointing to the same or a different inference server (for example, the server mentioned in the preceding paragraph).

Ik wil meerdere frames van de upstream ontvangen voordat ik een afnemende beslissing neemt. Hoe kan ik dit inschakelen?I want to be able to receive multiple frames from upstream before I make an inferencing decision. How can I enable that?

Onze huidige standaard voorbeelden werken in een stateless modus.Our current default samples work in a stateless mode. De status van de vorige aanroepen wordt niet gewijzigd of zelfs niet aangeroepen.They don't keep the state of the previous calls or even who called. Dit betekent dat meerdere topologie-exemplaren dezelfde Afleidings server kunnen aanroepen, maar de server kan niet onderscheiden wie de oproept of de status per oproeper.This means that multiple topology instances might call the same inference server, but the server can't distinguish who is calling or the state per caller.

Het HTTP-protocol gebruiken:Use the HTTP protocol:

Om de status, elk aanroepende of graph-topologie-exemplaar, wordt de server voor het afwijzen van een oproep aangeroepen met behulp van de HTTP-query parameter die uniek is voor de aanroeper.To keep the state, each caller, or graph topology instance, calls the inferencing server by using the HTTP query parameter that's unique to caller. Zo worden de url's van de server-URL voor elke instantie hier weer gegeven:For example, the inference server URL addresses for each instance are shown here:

1e topologie-exemplaar = http://lvaExtension:44000/score?id=11st topology instance= http://lvaExtension:44000/score?id=1
2e topologie-exemplaar = http://lvaExtension:44000/score?id=22nd topology instance= http://lvaExtension:44000/score?id=2

Aan de kant van de server weet de Score route naar wie wordt gebeld.On the server side, the score route knows who is calling. Als ID = 1, dan kan deze de status afzonderlijk voor die aanroeper-of graph-topologie-instantie laten staan.If ID=1, then it can keep the state separately for that caller or graph topology instance. U kunt de ontvangen video frames vervolgens in een buffer laten staan.You can then keep the received video frames in a buffer. Gebruik bijvoorbeeld een matrix of een woorden lijst met een datum/tijd-sleutel en de waarde is het kader.For example, use an array, or a dictionary with a DateTime key, and the value is the frame. U kunt vervolgens de server die moet worden verwerkt (afleiden) definiëren nadat x aantal frames is ontvangen.You can then define the server to process (infer) after x number of frames are received.

Het gRPC-protocol gebruiken:Use the gRPC protocol:

Met een gRPC-extensie is elke sessie voor één camera voeding, dus u hoeft geen ID op te geven.With a gRPC extension, each session is for a single camera feed, so there's no need to provide an ID. Met de eigenschap extensionConfiguration kunt u nu de video frames in een buffer opslaan en de server die moet worden verwerkt (afleiden) definiëren nadat x aantal frames is ontvangen.Now, with the extensionConfiguration property, you can store the video frames in a buffer and define the server to process (infer) after x number of frames are received.

Worden alle ProcessMediaStreams op een bepaalde container hetzelfde AI-model uitgevoerd?Do all ProcessMediaStreams on a particular container run the same AI model?

Nee.No. Het starten of stoppen van aanroepen van de eind gebruiker in een Graph-exemplaar vormt een sessie, of er is mogelijk een camera verbinding verbreken of opnieuw verbinding maken.Start or stop calls from the end user in a graph instance constitute a session, or perhaps there's a camera disconnect or reconnect. Het doel is één sessie persistent te maken als de camera video gaat streamen.The goal is to persist one session if the camera is streaming video.

  • Twee camera's die video verzenden voor verwerking, maken twee sessies.Two cameras sending video for processing creates two sessions.
  • Een camera die naar een grafiek gaat met twee gRPC-extensie knooppunten, maakt twee sessies.One camera going to a graph that has two gRPC extension nodes creates two sessions.

Elke sessie is een volledige duplex verbinding tussen live video Analytics en de gRPC-server en elke sessie kan een ander model of een andere pijp lijn hebben.Each session is a full duplex connection between Live Video Analytics and the gRPC server, and each session can have a different model or pipeline.

Notitie

Als een camera de verbinding verbreekt of opnieuw verbinding maakt, wordt er met live video Analytics een nieuwe sessie met de gRPC-server geopend.In case of a camera disconnect or reconnect, with the camera going offline for a period beyond tolerance limits, Live Video Analytics will open a new session with the gRPC server. Er is geen vereiste voor de server om de status van deze sessies bij te houden.There's no requirement for the server to track the state across these sessions.

Live video Analytics voegt ook ondersteuning toe voor meerdere gRPC-uitbrei dingen voor één camera in een Graph-exemplaar.Live Video Analytics also adds support for multiple gRPC extensions for a single camera in a graph instance. U kunt deze gRPC-extensies gebruiken om de AI-verwerking opeenvolgend, parallel of als combi natie van beide uit te voeren.You can use these gRPC extensions to carry out AI processing sequentially, in parallel, or as a combination of both.

Notitie

Wanneer meerdere extensies parallel worden uitgevoerd, heeft dit invloed op uw hardwarebronnen.Having multiple extensions run in parallel will affect your hardware resources. Houd er rekening mee dat u de hardware kiest die aansluit bij uw reken behoeften.Keep this in mind as you're choosing the hardware that suits your computational needs.

Wat is het maximum aantal gelijktijdige ProcessMediaStreams?What is the maximum number of simultaneous ProcessMediaStreams?

Live video Analytics heeft geen limieten voor dit aantal.Live Video Analytics applies no limits to this number.

Hoe kan ik bepalen of mijn server voor ingaand gebruik CPU of GPU of een andere hardware Accelerator moet gebruiken?How can I decide whether my inferencing server should use CPU or GPU or any other hardware accelerator?

Uw beslissing is afhankelijk van de complexiteit van het ontwikkelde AI-model en hoe u de CPU-en hardware-accelerators wilt gebruiken.Your decision depends on the complexity of the developed AI model and how you want to use the CPU and hardware accelerators. Tijdens het ontwikkelen van het AI-model kunt u opgeven welke resources door het model moeten worden gebruikt en welke acties moeten worden uitgevoerd.As you're developing the AI model, you can specify what resources the model should use and what actions it should perform.

Hoe kan ik afbeeldingen opslaan met behulp van selectie vakjes na verwerking?How do I store images with bounding boxes post-processing?

Momenteel bieden we coördinaten voor selectie kaders als alleen berichten afnemen.Today, we are providing bounding box coordinates as inference messages only. U kunt een aangepaste MJPEG-streamer bouwen die deze berichten kan gebruiken en de selectie vakjes in de video frames bedekken.You can build a custom MJPEG streamer that can use these messages and overlay the bounding boxes on the video frames.

gRPC-compatibiliteitgRPC compatibility

Hoe weet ik wat de verplichte velden voor de media stream-descriptor zijn?How will I know what the mandatory fields for the media stream descriptor are?

Elk veld dat u geen waarde opgeeft, krijgt een standaard waarde, zoals is opgegeven door gRPC.Any field that you don't supply a value to is given a default value, as specified by gRPC.

Live video Analytics maakt gebruik van de proto3 -versie van de taal protocol buffer.Live Video Analytics uses the proto3 version of the protocol buffer language. Alle protocol buffer gegevens die door live video Analytics-contracten worden gebruikt, zijn beschikbaar in de buffer bestandenvan het protocol.All the protocol buffer data that's used by Live Video Analytics contracts is available in the protocol buffer files.

Hoe kan ik ervoor zorgen dat ik de meest recente protocol buffer bestanden gebruik?How can I ensure that I'm using the latest protocol buffer files?

U kunt de meest recente protocol buffer bestanden verkrijgen op de site contract bestanden.You can obtain the latest protocol buffer files on the contract files site. Wanneer de contract bestanden worden bijgewerkt, bevinden deze zich op deze locatie.Whenever we update the contract files, they'll be in this location. Er is geen onmiddellijke planning voor het bijwerken van de protocol bestanden, dus zoek naar de naam van het pakket boven aan de bestanden om de versie te kennen.There's no immediate plan to update the protocol files, so look for the package name at the top of the files to know the version. Dit moet als volgt worden gelezen:It should read:

microsoft.azure.media.live_video_analytics.extensibility.grpc.v1 

Bij updates van deze bestanden wordt de ' v-waarde ' aan het einde van de naam verhoogd.Any updates to these files will increment the "v-value" at the end of the name.

Notitie

Omdat live video Analytics gebruikmaakt van de proto3-versie van de taal, zijn de velden optioneel en is de versie achterwaarts en voorwaarts compatibel.Because Live Video Analytics uses the proto3 version of the language, the fields are optional, and the version is backward and forward compatible.

Welke gRPC-functies zijn beschikbaar voor gebruik met live video Analytics? Welke functies zijn verplicht en zijn optioneel?What gRPC features are available for me to use with Live Video Analytics? Which features are mandatory and which are optional?

U kunt alle gRPC-functies aan de server zijde gebruiken, mits aan het protobuf-contract (protocol buffers) wordt voldaan.You can use any server-side gRPC features, provided that the Protocol Buffers (Protobuf) contract is fulfilled.

Bewaking en metrische gegevensMonitoring and metrics

Kan ik de media grafiek op de rand bewaken met behulp van Azure Event Grid?Can I monitor the media graph on the edge by using Azure Event Grid?

Ja.Yes. U kunt metrische gegevens over Prometheus gebruiken en deze publiceren naar uw event grid.You can consume Prometheus metrics and publish them to your event grid.

Kan ik Azure Monitor gebruiken om de status, metrische gegevens en prestaties van mijn media grafieken in de Cloud of aan de rand weer te geven?Can I use Azure Monitor to view the health, metrics, and performance of my media graphs in the cloud or on the edge?

Ja, we ondersteunen deze methode.Yes, we support this approach. Zie Azure monitor metrische gegevens overzichtvoor meer informatie.To learn more, see Azure Monitor Metrics overview.

Zijn er hulpprogram ma's waarmee u de Media Services IoT Edge module gemakkelijker kunt bewaken?Are there any tools to make it easier to monitor the Media Services IoT Edge module?

Visual Studio code ondersteunt de Azure IoT tools-extensie, waarmee u de LVAEdge-module-eind punten eenvoudig kunt bewaken.Visual Studio Code supports the Azure IoT Tools extension, with which you can easily monitor the LVAEdge module endpoints. U kunt dit hulp programma gebruiken om snel aan de slag te gaan met het bewaken van het ingebouwde eind punt van de IoT hub voor "events" en het afleiden van berichten die vanuit het apparaat aan de rand worden doorgestuurd naar de Cloud.You can use this tool to quickly start monitoring your IoT hub built-in endpoint for "events" and view the inference messages that are routed from the edge device to the cloud.

Daarnaast kunt u deze extensie gebruiken om de module te bewerken voor de module LVAEdge om de instellingen voor de media grafiek te wijzigen.In addition, you can use this extension to edit the module twin for the LVAEdge module to modify the media graph settings.

Zie het artikel over bewaking en logboek registratie voor meer informatie.For more information, see the monitoring and logging article.

Facturering en beschik baarheidBilling and availability

Hoe wordt live video Analytics op IoT Edge gefactureerd?How is Live Video Analytics on IoT Edge billed?

Zie Media Services prijzenvoor facturerings details.For billing details, see Media Services pricing.

Volgende stappenNext steps

Snelstartgids: aan de slag met live video Analytics op IoT EdgeQuickstart: Get started with Live Video Analytics on IoT Edge