Live Video Analytics on IoT Edge の FAQLive Video Analytics on IoT Edge FAQ

この記事では、Live Video Analytics on Azure IoT Edge に関してよく寄せられる質問に回答します。This article answers commonly asked questions about Live Video Analytics on Azure IoT Edge.

全般General

グラフ トポロジ定義で使用できるシステム変数は何ですか。What system variables can I use in the graph topology definition?

変数Variable 説明Description
System.DateTimeSystem.DateTime UTC 時間でインスタンスを表します。通常は、次の形式の日付と時刻として表現されます:Represents an instant in UTC time, typically expressed as a date and time of day in the following format:
yyyyMMddTHHmmssZyyyyMMddTHHmmssZ
System.PreciseDateTimeSystem.PreciseDateTime ミリ秒を含む ISO8601 ファイル準拠の形式で協定世界時 (UTC) の日時インスタンスを表します。形式は次のとおりです:Represents a Coordinated Universal Time (UTC) date-time instance in an ISO8601 file-compliant format with milliseconds, in the following format:
yyyyMMddTHHmmss.fffZyyyyMMddTHHmmss.fffZ
System.GraphTopologyNameSystem.GraphTopologyName メディア グラフ トポロジを表し、グラフのブループリントを保持します。Represents a media graph topology, and holds the blueprint of a graph.
System.GraphInstanceNameSystem.GraphInstanceName メディア グラフ インスタンスを表します。パラメーター値を保持し、トポロジを参照します。Represents a media graph instance, holds parameter values, and references the topology.

構成とデプロイConfiguration and deployment

メディア Edge モジュールを Windows 10 デバイスに展開することはできますか。Can I deploy the media edge module to a Windows 10 device?

はい。Yes. 詳細については、「Windows 10 上の Linux コンテナー」を参照してください。For more information, see Linux containers on Windows 10.

IP カメラと RTSP 設定からのキャプチャCapture from IP camera and RTSP settings

ビデオ ストリームで送信するには、デバイスで特別な SDK を使用する必要がありますか。Do I need to use a special SDK on my device to send in a video stream?

いいえ。Live Video Analytics on IoT Edge を使用すると、ほとんどの IP カメラでサポートされている RTSP (リアルタイム ストリーミング プロトコル) を使用したメディアのキャプチャがサポートされます。No, Live Video Analytics on IoT Edge supports capturing media by using RTSP (Real-Time Streaming Protocol) for video streaming, which is supported on most IP cameras.

リアルタイム メッセージング プロトコル (RTMP) またはスムーズ ストリーミング プロトコル (Media Services ライブ イベントなど) を使用して Live Video Analytics on IoT Edge にメディアをプッシュできますか。Can I push media to Live Video Analytics on IoT Edge by using Real-Time Messaging Protocol (RTMP) or Smooth Streaming Protocol (such as a Media Services Live Event)?

いいえ。Live Video Analytics を使用すると、IP カメラからのビデオのキャプチャにのみ RTSP がサポートされます。No, Live Video Analytics supports only RTSP for capturing video from IP cameras. TCP/HTTP 経由の RTSP ストリーミングをサポートするすべてのカメラが動作します。Any camera that supports RTSP streaming over TCP/HTTP should work.

グラフ インスタンスで RTSP ソース URL をリセットまたは更新できますか。Can I reset or update the RTSP source URL in a graph instance?

はい (グラフ インスタンスが "非アクティブ" 状態の場合)。Yes, when the graph instance is in inactive state.

テストおよび開発中に使用できる RTSP シミュレーターはありますか。Is an RTSP simulator available to use during testing and development?

はい。学習プロセスをサポートするためのクイック スタートとチュートリアルで使用できる RTSP シミュレーター Edge モジュールがあります。Yes, an RTSP simulator edge module is available for use in the quickstarts and tutorials to support the learning process. このモジュールは、ベストエフォートとして提供されており、常に使用できるとは限りません。This module is provided as best-effort and might not always be available. シミュレーターを数時間以上使用 "しない" ことを強くお勧めします。We recommend strongly that you not use the simulator for more than a few hours. 運用環境のデプロイを計画する前に、実際の RTSP ソースを使用したテストに投資する必要があります。You should invest in testing with your actual RTSP source before you plan a production deployment.

Edge での IP カメラの ONVIF 検出をサポートしていますか。Do you support ONVIF discovery of IP cameras at the edge?

いいえ。Edge 上のデバイスの ONVIF (Open Network Video Interface Forum) 検出はサポートされていません。No, we don't support Open Network Video Interface Forum (ONVIF) discovery of devices on the edge.

ストリーミングと再生Streaming and playback

Edge から Azure Media Services に記録されたアセットは、HLS や DASH などのストリーミング テクノロジを使用して再生できますか。Can I play back assets recorded to Azure Media Services from the edge by using streaming technologies such as HLS or DASH?

はい。Yes. 記録されたアセットは、Azure Media Services の他のアセットと同様にストリーミングできます。You can stream recorded assets like any other asset in Azure Media Services. コンテンツをストリーミングするには、ストリーミング エンドポイントを作成し、実行状態にする必要があります。To stream the content, you must have a streaming endpoint created and in the running state. 標準ストリーミング ロケーターの作成プロセスを使用すると、対応する任意のプレーヤー フレームワークにストリーミングするための Apple HTTP ライブ ストリーミング (HLS) または Dynamic Adaptive Streaming over HTTP (DASH。MPEG-DASH とも呼ばれる) のマニフェストにアクセスできます。Using the standard Streaming Locator creation process will give you access to an Apple HTTP Live Streaming (HLS) or Dynamic Adaptive Streaming over HTTP (DASH, also known as MPEG-DASH) manifest for streaming to any capable player framework. HLS または DASH マニフェストの発行と作成の詳細については、ダイナミック パッケージに関するページを参照してください。For more information about creating and publishing HLS or DASH manifests, see dynamic packaging.

アーカイブされたアセットで Media Services の標準的なコンテンツ保護と DRM 機能を使用できますか。Can I use the standard content protection and DRM features of Media Services on an archived asset?

はい。Yes. 動的暗号化コンテンツ保護および DRM (デジタル著作権管理) のすべての標準機能を、メディア グラフから記録されたアセットに対して使用できます。All the standard dynamic encryption content protection and digital rights management (DRM) features are available for use on assets that are recorded from a media graph.

記録されたアセットのコンテンツを表示するには、どのプレーヤーを使用できますか。What players can I use to view content from the recorded assets?

準拠している HLS バージョン 3 またはバージョン 4 をサポートするすべての標準プレーヤーがサポートされています。All standard players that support compliant HLS version 3 or version 4 are supported. また、準拠している MPEG-DASH の再生が可能なプレーヤーもサポートされています。In addition, any player that's capable of compliant MPEG-DASH playback is also supported.

テストに推奨されるプレーヤーは次のとおりです。Recommended players for testing include:

メディア グラフ アセットのストリーミングにはどのような制限がありますか。What are the limits on streaming a media graph asset?

メディア グラフからライブまたは記録されたアセットをストリーミングするには、大規模なインフラストラクチャとストリーミング エンドポイント (メディアと娯楽、Over the Top (OTT)、およびブロードキャストの各顧客向けのオンデマンドおよびライブ ストリーミング用に Media Services でサポートされているのと同じもの) を使用します。Streaming a live or recorded asset from a media graph uses the same high-scale infrastructure and streaming endpoint that Media Services supports for on-demand and live streaming for Media & Entertainment, Over the Top (OTT), and broadcast customers. つまり、Azure Content Delivery Network、Verizon、または Akamai をすばやく簡単に有効にして、シナリオに応じて数人の視聴者から最大で数百万の視聴者にコンテンツを配信することができます。This means that you can quickly and easily enable Azure Content Delivery Network, Verizon, or Akamai to deliver your content to an audience as small as a few viewers or up to millions, depending on your scenario.

コンテンツの配信には Apple HLS または MPEG DASH のどちらでも使用できます。You can deliver content by using either Apple HLS or MPEG-DASH.

AI モデルを設計するDesign your AI model

Docker コンテナーに複数の AI モデルがラップされています。Live Video Analytics でそれらをどのように使用すればよいですか。I have multiple AI models wrapped in a Docker container. How should I use them with Live Video Analytics?

ソリューションは、推論サーバーで Live Video Analytics との通信に使用される通信プロトコルによって異なります。Solutions vary depending on the communication protocol that's used by the inferencing server to communicate with Live Video Analytics. 以下のセクションで各プロトコルのしくみについて説明します。The following sections describe how each protocol works.

HTTP プロトコルを使用する:Use the HTTP protocol:

  • 1 つのコンテナー (単一の lvaExtension):Single container (single lvaExtension):

    推論サーバーでは、1 つのポートを使用できますが、さまざまな AI モデルに対して異なるエンドポイントを使用できます。In your inferencing server, you can use a single port but different endpoints for different AI models. たとえば Python サンプルの場合、モデルごとに異なる route を次のように使用できます。For example, for a Python sample you can use different routes per model, as shown here:

    @app.route('/score/face_detection', methods=['POST']) 
    … 
    Your code specific to face detection model… 
    
    @app.route('/score/vehicle_detection', methods=['POST']) 
    … 
    Your code specific to vehicle detection model 
    … 
    

    次に、Live Video Analytics のデプロイで、グラフをインスタンス化するときに各インスタンスの推論サーバー URL を次のように設定します。And then, in your Live Video Analytics deployment, when you instantiate graphs, set the inference server URL for each instance, as shown here:

    1 番目のインスタンス: 推論サーバー URL = http://lvaExtension:44000/score/face_detection1st instance: inference server URL=http://lvaExtension:44000/score/face_detection
    2 番目のインスタンス: 推論サーバー URL = http://lvaExtension:44000/score/vehicle_detection2nd instance: inference server URL=http://lvaExtension:44000/score/vehicle_detection

    注意

    または、さまざまなポートで AI モデルを公開し、グラフをインスタンス化するときにそれらを呼び出すことができます。Alternatively, you can expose your AI models on different ports and call them when you instantiate graphs.

  • 複数のコンテナー:Multiple containers:

    各コンテナーは、異なる名前でデプロイされます。Each container is deployed with a different name. 以前は、Live Video Analytics のドキュメント セットに、lvaExtension という名前の拡張機能をデプロイする方法を示していました。Previously, in the Live Video Analytics documentation set, we showed you how to deploy an extension named lvaExtension. 現在は、同じ HTTP インターフェイス (つまり、同じ /score エンドポイント) を持つ 2 つの異なるコンテナーを開発できるようになりました。Now you can develop two different containers, each with the same HTTP interface, which means they have the same /score endpoint. これらの 2 つのコンテナーを別々の名前でデプロイし、確実に両方が "異なるポート" でリッスンするようにします。Deploy these two containers with different names, and ensure that both are listening on different ports.

    たとえば、lvaExtension1 という名前の 1 つのコンテナーでポート 44000 をリッスンし、lvaExtension2 という名前の 2 つ目のコンテナーでポート 44001 をリッスンしているとします。For example, one container named lvaExtension1 is listening for the port 44000, and a second container named lvaExtension2 is listening for the port 44001.

    Live Video Analytics トポロジで、次のような異なる推論 URL を持つ 2 つのグラフをインスタンス化します。In your Live Video Analytics topology, you instantiate two graphs with different inference URLs, as shown here:

    1 番目のインスタンス: 推論サーバー URL = http://lvaExtension1:44001/score First instance: inference server URL = http://lvaExtension1:44001/score
    2 番目のインスタンス: 推論サーバー URL = http://lvaExtension2:44001/scoreSecond instance: inference server URL = http://lvaExtension2:44001/score

gRPC プロトコルを使用する:Use the gRPC protocol:

  • 汎用リモート プロシージャ コール (gRPC) プロトコルの使用時に、gRPC サーバーで異なるポートを介して異なる AI モデルが公開されている場合、Live Video Analytics モジュール 1.0 が唯一の方法となります。With Live Video Analytics module 1.0, when you use a general-purpose remote procedure call (gRPC) protocol, the only way to do so is if the gRPC server exposes different AI models via different ports. このコード例で、単一のポート (44000) ですべての yolo モデルを公開しています。In this code example, a single port, 44000, exposes all the yolo models. 理論的には、yolo gRPC サーバーは、一部のモデルをポート 44000 で、他のモデルをポート 45000 で公開するように書き換えることができます。In theory, the yolo gRPC server could be rewritten to expose some models at port 44000 and others at port 45000.

  • Live Video Analytics モジュール 2.0 では、新しいプロパティが gRPC 拡張ノードに追加されます。With Live Video Analytics module 2.0, a new property is added to the gRPC extension node. このプロパティ (extensionConfiguration) は、gRPC コントラクトの一部として使用できる省略可能な文字列です。This property, extensionConfiguration, is an optional string that can be used as a part of the gRPC contract. 1 つの推論サーバーに複数の AI モデルがパッケージ化されている場合、AI モデルごとにノードを公開する必要はありません。When you have multiple AI models packaged in a single inference server, you don't need to expose a node for every AI model. 代わりに、グラフ インスタンスの場合は、拡張機能プロバイダーとして、extensionConfiguration プロパティを使用して、さまざまな AI モデルを選択する方法を定義できます。Instead, for a graph instance, you, as the extension provider, can define how to select the different AI models by using the extensionConfiguration property. 実行中、この文字列が Live Video Analytics から推論サーバーに渡され、推論サーバーは、その文字列を使用して目的の AI モデルを呼び出すことができます。During execution, Live Video Analytics passes this string to the inferencing server, which can use it to invoke the desired AI model.

AI モデルに関連する gRPC サーバーを構築しているところです。複数のカメラまたはグラフ インスタンスでの使用をサポートできるようにしたいと考えています。サーバーをどのように構築すればよいですか。I'm building a gRPC server around an AI model, and I want to be able to support its use by multiple cameras or graph instances. How should I build my server?

まず、サーバーが一度に複数の要求を処理できるように、または並列スレッドで動作できるようにします。First, be sure that your server can either handle more than one request at a time or work in parallel threads.

たとえば、次の Live Video Analytics gRPC サンプルには、既定の数の並列チャネルが設定されています。For example, a default number of parallel channels has been set in the following Live Video Analytics gRPC sample:

server = grpc.server(futures.ThreadPoolExecutor(max_workers=3)) 

上記の gRPC サーバーのインスタンス化においては、カメラあたり (つまり、グラフ トポロジ インスタンスあたり) 3 つのチャネルのみをサーバーで一度に開くことができます。In the preceding gRPC server instantiation, the server can open only three channels at a time per camera, or per graph topology instance. 4 つ以上のインスタンスをサーバーに接続しないようにしてください。Don't try to connect more than three instances to the server. 4 つ以上のチャネルを開こうとすると、既存のチャネルがドロップされるまで、要求は保留されます。If you do try to open more than three channels, requests will be pending until an existing channel drops.

上記の gRPC サーバー実装は、Python サンプルで使用されています。The preceding gRPC server implementation is used in our Python samples. 開発者は、独自のサーバーを実装することも、前の既定の実装を使用してワーカーの数を増やすこともできます。これは、ビデオ フィードに使用するカメラの数に設定します。As a developer, you can implement your own server or use the preceding default implementation to increase the worker number, which you set to the number of cameras to use for video feeds.

複数のカメラを設定して使用するには、それぞれが同じまたは異なる推論サーバー (前の段落に記載されているサーバーなど) を指している複数のグラフ トポロジ インスタンスをインスタンス化できます。To set up and use multiple cameras, you can instantiate multiple graph topology instances, each pointing to the same or a different inference server (for example, the server mentioned in the preceding paragraph).

推論意思決定を行う前に、上流から複数のフレームを受信できるようにしたいと考えています。これを有効にするにはどうすればよいですか。I want to be able to receive multiple frames from upstream before I make an inferencing decision. How can I enable that?

現在の 既定のサンプルは "ステートレス" モードで動作します。Our current default samples work in a stateless mode. 前の呼び出しの状態または呼び出し元でさえ保持されません。They don't keep the state of the previous calls or even who called. つまり、複数のトポロジ インスタンスが同じ推論サーバーを呼び出す可能性がありますが、呼び出し元がだれなのか、または各呼び出し元の状態をサーバーで区別することはできません。This means that multiple topology instances might call the same inference server, but the server can't distinguish who is calling or the state per caller.

HTTP プロトコルを使用する:Use the HTTP protocol:

状態を保持するために、各呼び出し元 (またはグラフ トポロジ インスタンス) は、呼び出し元に固有の HTTP クエリ パラメーターを使用して推論サーバーを呼び出します。To keep the state, each caller, or graph topology instance, calls the inferencing server by using the HTTP query parameter that's unique to caller. たとえば、各インスタンスの推論サーバー URL アドレスは、次のようになります。For example, the inference server URL addresses for each instance are shown here:

1 番目のトポロジインスタンス = http://lvaExtension:44000/score?id=11st topology instance= http://lvaExtension:44000/score?id=1
2 番目のトポロジインスタンス = http://lvaExtension:44000/score?id=22nd topology instance= http://lvaExtension:44000/score?id=2

サーバー側のスコア ルートにより、呼び出しているユーザーが認識されます。On the server side, the score route knows who is calling. ID=1 の場合、その呼び出し元またはグラフ トポロジ インスタンスの状態を個別に保持できます。If ID=1, then it can keep the state separately for that caller or graph topology instance. そのうえで、受信したビデオ フレームをバッファーに保持できます。You can then keep the received video frames in a buffer. たとえば、配列、または DateTime キーを含むディクショナリを使用します。値はフレームです。For example, use an array, or a dictionary with a DateTime key, and the value is the frame. 次に、x 個のフレームを受信した後に処理 (推論) するようにサーバーを定義できます。You can then define the server to process (infer) after x number of frames are received.

gRPC プロトコルを使用する:Use the gRPC protocol:

gRPC 拡張機能の場合、各セッションは単一のカメラ フィード用であるため、ID を指定する必要はありません。With a gRPC extension, each session is for a single camera feed, so there's no need to provide an ID. 現在は、extensionConfiguration プロパティを使用して、ビデオ フレームをバッファーに格納でき、x 個のフレームを受信した後に処理 (推論) するようにサーバーを定義できます。Now, with the extensionConfiguration property, you can store the video frames in a buffer and define the server to process (infer) after x number of frames are received.

特定のコンテナーのすべての ProcessMediaStreams で同じ AI モデルが実行されますか。Do all ProcessMediaStreams on a particular container run the same AI model?

いいえ。No. グラフ インスタンスでのエンド ユーザーからの開始または停止呼び出しによって、セッションが構成されるか、カメラの切断または再接続が行われる可能性があります。Start or stop calls from the end user in a graph instance constitute a session, or perhaps there's a camera disconnect or reconnect. カメラでビデオがストリーミングされている場合は、1 つのセッションを保持することを目標としています。The goal is to persist one session if the camera is streaming video.

  • 2 つのカメラで処理対象のビデオを送信すると、2 つのセッションが作成されます。Two cameras sending video for processing creates two sessions.
  • 2 つの gRPC 拡張ノードを持つグラフに 1 つのカメラを移動させると、2 つのセッションが作成されます。One camera going to a graph that has two gRPC extension nodes creates two sessions.

各セッションは、Live Video Analytics と gRPC サーバー間の全二重接続であり、各セッションは異なるモデルまたはパイプラインを持つことができます。Each session is a full duplex connection between Live Video Analytics and the gRPC server, and each session can have a different model or pipeline.

注意

カメラが切断または再接続された場合、カメラが許容範囲の上限を超えて一定期間オフラインになると、Live Video Analytics によって gRPC サーバーとの新しいセッションが開かれます。In case of a camera disconnect or reconnect, with the camera going offline for a period beyond tolerance limits, Live Video Analytics will open a new session with the gRPC server. サーバーでこれらのセッションにまたがって状態を追跡する必要はありません。There's no requirement for the server to track the state across these sessions.

Live Video Analytics には、グラフ インスタンス内の単一のカメラに対する複数の gRPC 拡張機能のサポートも追加されています。Live Video Analytics also adds support for multiple gRPC extensions for a single camera in a graph instance. これらの gRPC 拡張機能を使用して、AI 処理を順次または並列で実行したり、両方の組み合わせで実行したりすることができます。You can use these gRPC extensions to carry out AI processing sequentially, in parallel, or as a combination of both.

注意

複数の拡張機能を並行して実行すると、ハードウェア リソースに影響します。Having multiple extensions run in parallel will affect your hardware resources. コンピューティングのニーズに合ったハードウェアを選択する際には、この点に留意してください。Keep this in mind as you're choosing the hardware that suits your computational needs.

同時 ProcessMediaStreams の最大数はいくつですか。What is the maximum number of simultaneous ProcessMediaStreams?

Live Video Analytics でこの数に適用される上限はありません。Live Video Analytics applies no limits to this number.

推論サーバーで CPU または GPU あるいはその他のハードウェア アクセラレータを使用する必要があるかどうかを判断するには、どうすればよいですか。How can I decide whether my inferencing server should use CPU or GPU or any other hardware accelerator?

この決定は、開発した AI モデルの複雑さ、および CPU とハードウェア アクセラレータをどのように使用したいかによって異なります。Your decision depends on the complexity of the developed AI model and how you want to use the CPU and hardware accelerators. AI モデルを開発する際、モデルでどのリソースを使用し、どのようなアクションを実行する必要があるかを指定できます。As you're developing the AI model, you can specify what resources the model should use and what actions it should perform.

境界ボックスの後処理を伴う画像を格納するには、どのようにすればよいですか。How do I store images with bounding boxes post-processing?

現在、境界ボックスの座標は、推論メッセージとしてのみ提供しています。Today, we are providing bounding box coordinates as inference messages only. これらのメッセージを使用して境界ボックスをビデオ フレームに重ね合わせることができる、カスタム MJPEG ストリーマーを構築できます。You can build a custom MJPEG streamer that can use these messages and overlay the bounding boxes on the video frames.

gRPC の互換性gRPC compatibility

メディア ストリーム記述子の必須フィールドを確認するにはどうすればよいですか。How will I know what the mandatory fields for the media stream descriptor are?

値を指定しないフィールドには、gRPC によって指定された既定値が与えられます。Any field that you don't supply a value to is given a default value, as specified by gRPC.

Live Video Analytics には、proto3 バージョンのプロトコル バッファー言語を使用します。Live Video Analytics uses the proto3 version of the protocol buffer language. Live Video Analytics コントラクトによって使用されるすべてのプロトコル バッファー データは、プロトコル バッファー ファイルで使用できます。All the protocol buffer data that's used by Live Video Analytics contracts is available in the protocol buffer files.

最新のプロトコル バッファー ファイルを使用していることを確認するには、どうすればよいですか。How can I ensure that I'm using the latest protocol buffer files?

最新のプロトコル バッファーファイルは、コントラクト ファイルのサイトで入手できます。You can obtain the latest protocol buffer files on the contract files site. コントラクト ファイルは更新されるたびに、この場所に置かれます。Whenever we update the contract files, they'll be in this location. プロトコル ファイルを更新する直近の予定はないため、バージョンを知るには、ファイル先頭のパッケージ名を確認してください。There's no immediate plan to update the protocol files, so look for the package name at the top of the files to know the version. これを次の手順に置き換えます。It should read:

microsoft.azure.media.live_video_analytics.extensibility.grpc.v1 

これらのファイルが更新されると、名前の末尾にある "v-value" が増分されます。Any updates to these files will increment the "v-value" at the end of the name.

注意

Live Video Analytics には proto3 バージョンの言語が使用されているため、フィールドは省略可能であり、バージョンには下位および上位互換性があります。Because Live Video Analytics uses the proto3 version of the language, the fields are optional, and the version is backward and forward compatible.

Live Video Analytics で使用できる gRPC の機能について教えてください。どの機能が必須で、どの機能が省略可能ですか。What gRPC features are available for me to use with Live Video Analytics? Which features are mandatory and which are optional?

プロトコル バッファー (Protobuf) コントラクトが満たされている場合は、任意のサーバー側の gRPC 機能を使用できます。You can use any server-side gRPC features, provided that the Protocol Buffers (Protobuf) contract is fulfilled.

監視とメトリックMonitoring and metrics

Azure Event Grid を使用して Edge のメディア グラフを監視できますか。Can I monitor the media graph on the edge by using Azure Event Grid?

はい。Yes. Prometheus メトリックを使用して、それらをイベント グリッドに公開できます。You can consume Prometheus metrics and publish them to your event grid.

Azure Monitor を使用して、クラウドまたは Edge のメディア グラフの正常性、メトリック、およびパフォーマンスを表示できますか。Can I use Azure Monitor to view the health, metrics, and performance of my media graphs in the cloud or on the edge?

はい、この方法はサポートされています。Yes, we support this approach. 詳細については、「Azure Monitor メトリックの概要」を参照してください。To learn more, see Azure Monitor Metrics overview.

Media Services IoT Edge モジュールを簡単に監視できるツールはありますか。Are there any tools to make it easier to monitor the Media Services IoT Edge module?

LVAEdge モジュール エンドポイントを簡単に監視できる Azure IoT Tools 拡張機能が、Visual Studio Code でサポートされています。Visual Studio Code supports the Azure IoT Tools extension, with which you can easily monitor the LVAEdge module endpoints. このツールを使用すると、"イベント" の IoT Hub 組み込みエンドポイントの監視をすばやく開始し、Edge デバイスからクラウドにルート指定される推論メッセージを確認できます。You can use this tool to quickly start monitoring your IoT hub built-in endpoint for "events" and view the inference messages that are routed from the edge device to the cloud.

また、この拡張機能を使用して、LVAEdge モジュールのモジュール ツインを編集し、メディア グラフの設定を変更することもできます。In addition, you can use this extension to edit the module twin for the LVAEdge module to modify the media graph settings.

詳細については、監視とログ記録に関する記事をご覧ください。For more information, see the monitoring and logging article.

課金と可用性Billing and availability

Live Video Analytics on IoT Edge はどのように課金されますか。How is Live Video Analytics on IoT Edge billed?

課金の詳細については、「Media Services の価格」を参照してください。For billing details, see Media Services pricing.

次のステップNext steps

クイック スタート: Live Video Analytics on IoT Edge の概要Quickstart: Get started with Live Video Analytics on IoT Edge