Stream Analytics に入力としてデータをストリーム配信するStream data as input into Stream Analytics

Stream Analytics は、Azure データ ストリームとの統合にきわめて優れており、次の 3 種類のリソースを入力とすることができます。Stream Analytics has first-class integration with Azure data streams as inputs from three kinds of resources:

これらの入力ソースは、Stream Analytics ジョブと同じ Azure サブスクリプションに存在していても、異なるサブスクリプションに存在していてもかまいません。These input resources can live in the same Azure subscription as your Stream Analytics job or a different subscription.

圧縮Compression

Stream Analytics では、すべてのデータ ストリーム入力ソースにわたる圧縮がサポートされています。Stream Analytics supports compression across all data stream input sources. サポートされている圧縮の種類は [なし]、[GZip]、[Deflate] 圧縮です。Supported compression types are: None, GZip, and Deflate compression. 参照データの圧縮はサポートされていません。Support for compression is not available for reference data. 入力形式が、圧縮された Avro データである場合、透過的に処理されます。If the input format is Avro data that is compressed, it's handled transparently. Avro のシリアル化に圧縮の種類を指定する必要はありません。You don't need to specify compression type with Avro serialization.

入力の作成、編集、またはテストCreate, edit, or test inputs

Azure portalVisual Studio、および Visual Studio Code を使用して、ストリーミング ジョブに既存の入力を追加、表示、または編集できます。You can use the Azure portal, Visual Studio, and Visual Studio Code to add and view or edit existing inputs on your streaming job. また、Azure portal、Visual Studio、および Visual Studio Code のサンプル データから、入力接続をテストして、クエリをテストすることができます。You can also test input connections and test queries from sample data from the Azure portal, Visual Studio, and Visual Studio Code. クエリを記述する場合は、FROM 句に入力の一覧を指定します。When you write a query, you list the input in the FROM clause. ポータルの [クエリ] ページで、使用できる入力の一覧を取得できます。You can get the list of available inputs from the Query page in the portal. 複数の入力を使用する場合は、それらを JOIN するか、複数の SELECT クエリを記述します。If you wish to use multiple inputs, you can JOIN them or write multiple SELECT queries.

Event Hubs からのデータのストリーム配信Stream data from Event Hubs

Azure Event Hubs は、高度にスケーラブルな発行-サブスクライブ イベント インベスターを提供します。Azure Event Hubs provides highly scalable publish-subscribe event investors. 接続されたデバイスとアプリケーションによって生成される大量のデータを処理および分析できるように、イベント ハブでは 1 秒間に数百万件のイベントを収集できます。An event hub can collect millions of events per second so that you can process and analyze the massive amounts of data produced by your connected devices and applications. Event Hubs と Stream Analytics を一緒に使用することで、リアルタイム分析用のエンド ツー エンドのソリューションが提供されます。Together, Event Hubs and Stream Analytics provide an end-to-end solution for real-time analytics. Event Hubs で Azure にイベントをリアルタイムでフィードし、Stream Analytics ジョブでこれらのイベントをリアルタイムで処理できます。Event Hubs lets you feed events into Azure in real-time, and Stream Analytics jobs can process those events in real-time. たとえば、Web クリック、センサーの読み取り、オンライン ログ イベントを Event Hubs に送信できます。For example, you can send web clicks, sensor readings, or online log events to Event Hubs. 続いて、リアルタイムのフィルター処理、集計、相関関係に入力データ ストリームとして Event Hubs を使用する Stream Analytics ジョブを作成できます。You can then create Stream Analytics jobs to use Event Hubs as the input data streams for real-time filtering, aggregating, and correlation.

EventEnqueuedUtcTime は、イベントが Event Hubs に到着したときのタイムスタンプであり、Event Hubs から Stream Analytics に送信されるイベントの既定のタイムスタンプです。EventEnqueuedUtcTime is the timestamp of an event's arrival in an event hub and is the default timestamp of events coming from Event Hubs to Stream Analytics. イベント ペイロードのタイムスタンプを利用してデータをストリームとして処理するには、TIMESTAMP BY キーワードを使用する必要があります。To process the data as a stream using a timestamp in the event payload, you must use the TIMESTAMP BY keyword.

Event Hubs コンシューマー グループEvent Hubs Consumer groups

Stream Analytics イベント ハブの各入力は、独自のコンシューマー グループを持つように構成する必要があります。You should configure each Stream Analytics event hub input to have its own consumer group. ジョブに自己結合または複数の入力が含まれる場合、一部の入力は複数の閲覧者ダウンストリームによって読み取られる可能性があります。When a job contains a self-join or has multiple inputs, some inputs might be read by more than one reader downstream. この状況は 1 つのコンシューマー グループの閲覧者数に影響を与えます。This situation impacts the number of readers in a single consumer group. 閲覧者の数を各パーティションのコンシューマー グループ別に 5 人とする Event Hubs の上限を回避するには、Stream Analytics ジョブごとにコンシューマー グループを指定するのが最良事例となります。To avoid exceeding the Event Hubs limit of five readers per consumer group per partition, it's a best practice to designate a consumer group for each Stream Analytics job. 1 つの Standard レベルのイベント ハブに対して 20 個のコンシューマー グループという制限もあります。There is also a limit of 20 consumer groups for a Standard tier event hub. 詳細については、Azure Stream Analytics の入力のトラブルシューティングに関するページを参照してください。For more information, see Troubleshoot Azure Stream Analytics inputs.

Event Hubs から入力を作成するCreate an input from Event Hubs

次の表に示したのは、Azure Portal の [新しい入力] ページで Event Hubs からのデータ入力をストリーム配信するときに使用される各プロパティの説明です。The following table explains each property in the New input page in the Azure portal to stream data input from an event hub:

プロパティProperty 説明Description
入力のエイリアスInput alias この入力を参照するジョブのクエリで使用するわかりやすい名前。A friendly name that you use in the job's query to reference this input.
サブスクリプションSubscription イベント ハブ リソースが存在するサブスクリプションを選択します。Choose the subscription in which the Event hub resource exists.
イベント ハブの名前空間Event Hub namespace [イベント ハブの名前空間] は、一連のメッセージング エンティティのコンテナーです。The Event Hub namespace is a container for a set of messaging entities. 新しいイベント ハブを作成するときは、名前空間も作成します。When you create a new event hub, you also create the namespace.
イベント ハブ名Event Hub name 入力として使用するイベント ハブの名前。The name of the event hub to use as input.
イベント ハブ ポリシー名Event Hub policy name イベント ハブへのアクセスを提供する共有アクセス ポリシー。The shared access policy that provides access to the Event Hub. 各共有アクセス ポリシーには、名前、設定したアクセス許可、アクセス キーが含まれています。Each shared access policy has a name, permissions that you set, and access keys. Event Hub の設定を手動で入力するオプションを選択しない限り、このオプションは自動的に設定されます。This option is automatically populated, unless you select the option to provide the Event Hub settings manually.
イベント ハブ コンシューマー グループ (推奨)Event Hub consumer group (recommended) Stream Analytics ジョブごとに個別のコンシューマー グループを使用することを強くお勧めします。It is highly recommended to use a distinct consumer group for each Stream Analytics job. イベント ハブからデータを取り込むために使用するコンシューマー グループが、この文字列によって識別されます。This string identifies the consumer group to use to ingest data from the event hub. コンシューマー グループが指定されていない場合、Stream Analytics ジョブは $Default コンシューマー グループを使用します。If no consumer group is specified, the Stream Analytics job uses the $Default consumer group.
パーティション キーPartition key これは、ジョブが 1.2 以上の互換性レベルを使用するように構成されている場合にのみ使用できるオプションのフィールドです。This is an optional field that is available only if your job is configured to use compatibility level 1.2 or higher. 入力がプロパティでパーティション分割される場合、ここでこのプロパティの名前を追加できます。If your input is partitioned by a property, you can add the name of this property here. これは、このプロパティに PARTITION BY 句または GROUP BY 句が含まれている場合に、クエリのパフォーマンスを向上させるために使用されます。This is used for improving the performance of your query if it includes a PARTITION BY or GROUP BY clause on this property. このジョブで互換性レベル 1.2 以上が使用されている場合、このフィールドの既定値は "PartitionId" です。If this job uses compatibility level 1.2 or higher, this field defaults to "PartitionId".
イベントのシリアル化の形式Event serialization format 受信データ ストリームのシリアル化形式 (JSON、CSV、Avro、またはその他 (Protobuf、XML、プロプライエタリ...))。The serialization format (JSON, CSV, Avro, or Other (Protobuf, XML, proprietary...)) of the incoming data stream. JSON 形式が仕様に準拠しており、10 進数の先頭に 0 が含まれていないことを確認します。Ensure the JSON format aligns with the specification and doesn’t include leading 0 for decimal numbers.
[エンコード]Encoding 現在のところ、UTF-8 が、唯一サポートされているエンコード形式です。UTF-8 is currently the only supported encoding format.
イベントの圧縮タイプEvent compression type 受信データ ストリームを読み取る際に使用される圧縮タイプ。[なし] (既定値)、[GZip]、[Deflate] などがあります。The compression type used to read the incoming data stream, such as None (default), GZip, or Deflate.

イベント ハブ ストリーム入力からデータが送信される場合、Stream Analytics クエリでは次のメタデータ フィールドにアクセスできます。When your data comes from an Event Hub stream input, you have access to the following metadata fields in your Stream Analytics query:

プロパティProperty 説明Description
EventProcessedUtcTimeEventProcessedUtcTime Stream Analytics によってイベントが処理された日時。The date and time that the event was processed by Stream Analytics.
EventEnqueuedUtcTimeEventEnqueuedUtcTime Event Hubs でイベントを受信した日時。The date and time that the event was received by Event Hubs.
PartitionIdPartitionId 入力アダプターの 0 から始まるパーティション ID。The zero-based partition ID for the input adapter.

たとえば、これらのフィールドを使用して、次の例のようにクエリを記述できます。For example, using these fields, you can write a query like the following example:

SELECT
    EventProcessedUtcTime,
    EventEnqueuedUtcTime,
    PartitionId
FROM Input

注意

IoT Hub ルートのエンドポイントとして Event Hub を使用する場合は、GetMetadataPropertyValue 関数を使用して IoT Hub メタデータにアクセスすることができます。When using Event Hub as an endpoint for IoT Hub Routes, you can access to the IoT Hub metadata using the GetMetadataPropertyValue function.

IoT Hub からのデータのストリーム配信Stream data from IoT Hub

Azure IoT Hub は、IoT シナリオ向けに最適化された高度にスケーラブルな発行/サブスクライブ イベント インジェスターです。Azure IoT Hub is a highly scalable publish-subscribe event ingestor optimized for IoT scenarios.

IoT Hub から Stream Analytics に着信するイベントの既定のタイムスタンプは、このイベントが IoT Hub に到達したときのタイムスタンプです。このタイムスタンプが EventEnqueuedUtcTime です。The default timestamp of events coming from an IoT Hub in Stream Analytics is the timestamp that the event arrived in the IoT Hub, which is EventEnqueuedUtcTime. イベント ペイロードのタイムスタンプを利用してデータをストリームとして処理するには、TIMESTAMP BY キーワードを使用する必要があります。To process the data as a stream using a timestamp in the event payload, you must use the TIMESTAMP BY keyword.

IoT Hub コンシューマー グループIot Hub Consumer groups

Stream Analytics IoT Hub の各入力は、独自のコンシューマー グループを持つように構成する必要があります。You should configure each Stream Analytics IoT Hub input to have its own consumer group. ジョブに自己結合または複数の入力が含まれる場合、一部の入力は複数の閲覧者ダウンストリームによって読み取られる可能性があります。When a job contains a self-join or when it has multiple inputs, some input might be read by more than one reader downstream. この状況は 1 つのコンシューマー グループの閲覧者数に影響を与えます。This situation impacts the number of readers in a single consumer group. 閲覧者の数を各パーティションのコンシューマー グループ別に 5 人とする Azure IoT Hub の上限を回避するには、Stream Analytics ジョブごとにコンシューマー グループを指定するのが最良事例となります。To avoid exceeding the Azure IoT Hub limit of five readers per consumer group per partition, it's a best practice to designate a consumer group for each Stream Analytics job.

データ ストリーム入力として IoT Hub を構成するConfigure an IoT Hub as a data stream input

次の表に、IoT Hub をストリーム入力として構成する場合に使用する、Azure Portal の [新しい入力] ページにある各プロパティの説明を示しています。The following table explains each property in the New input page in the Azure portal when you configure an IoT Hub as a stream input.

プロパティProperty 説明Description
入力のエイリアスInput alias この入力を参照するジョブのクエリで使用するわかりやすい名前。A friendly name that you use in the job's query to reference this input.
サブスクリプションSubscription IoT Hub リソースが存在するサブスクリプションを選択します。Choose the subscription in which the IoT Hub resource exists.
IoT HubIoT Hub 入力として使用する IoT Hub の名前。The name of the IoT Hub to use as input.
エンドポイントEndpoint IoT Hub のエンドポイント。The endpoint for the IoT Hub.
共有アクセス ポリシー名Shared access policy name IoT Hub へのアクセスを提供する共有アクセス ポリシー。The shared access policy that provides access to the IoT Hub. 各共有アクセス ポリシーには、名前、設定したアクセス許可、アクセス キーが含まれています。Each shared access policy has a name, permissions that you set, and access keys.
共有アクセス ポリシー キーShared access policy key IoT Hub へのアクセスを承認するために使用する共有アクセス キー。The shared access key used to authorize access to the IoT Hub. IoT Hub の設定を手動で入力するオプションを選択しない限り、このオプションは自動的に事前設定されます。This option is automatically populated in unless you select the option to provide the Iot Hub settings manually.
コンシューマー グループConsumer group Stream Analytics ジョブごとに異なるコンシューマー グループを使用することを強くお勧めします。It is highly recommended that you use a different consumer group for each Stream Analytics job. IoT Hub からのデータを取り込むために使用するコンシューマー グループです。The consumer group is used to ingest data from the IoT Hub. 明示的に指定されない限り、Stream Analytics は $Default コンシューマー グループを使用します。Stream Analytics uses the $Default consumer group unless you specify otherwise.
パーティション キーPartition key これは、ジョブが 1.2 以上の互換性レベルを使用するように構成されている場合にのみ使用できるオプションのフィールドです。This is an optional field that is available only if your job is configured to use compatibility level 1.2 or higher. 入力がプロパティでパーティション分割される場合、ここでこのプロパティの名前を追加できます。If your input is partitioned by a property, you can add the name of this property here. これは、このプロパティに PARTITION BY 句または GROUP BY 句が含まれている場合に、クエリのパフォーマンスを向上させるために使用されます。This is used for improving the performance of your query if it includes a PARTITION BY or GROUP BY clause on this property. このジョブで互換性レベル 1.2 以上が使用されている場合、このフィールドの既定値は "PartitionId" です。If this job uses compatibility level 1.2 or higher, this field defaults to "PartitionId".
イベントのシリアル化の形式Event serialization format 受信データ ストリームのシリアル化形式 (JSON、CSV、Avro、またはその他 (Protobuf、XML、プロプライエタリ...))。The serialization format (JSON, CSV, Avro, or Other (Protobuf, XML, proprietary...)) of the incoming data stream. JSON 形式が仕様に準拠しており、10 進数の先頭に 0 が含まれていないことを確認します。Ensure the JSON format aligns with the specification and doesn’t include leading 0 for decimal numbers.
[エンコード]Encoding 現在のところ、UTF-8 が、唯一サポートされているエンコード形式です。UTF-8 is currently the only supported encoding format.
イベントの圧縮タイプEvent compression type 受信データ ストリームを読み取る際に使用される圧縮タイプ。[なし] (既定値)、[GZip]、[Deflate] などがあります。The compression type used to read the incoming data stream, such as None (default), GZip, or Deflate.

IoT Hub からのストリーム データを使用する場合、Stream Analytics クエリで次のメタデータ フィールドにアクセスできます。When you use stream data from an IoT Hub, you have access to the following metadata fields in your Stream Analytics query:

プロパティProperty 説明Description
EventProcessedUtcTimeEventProcessedUtcTime イベントが処理された日時。The date and time that the event was processed.
EventEnqueuedUtcTimeEventEnqueuedUtcTime IoT Hub でイベントを受信した日時。The date and time that the event was received by the IoT Hub.
PartitionIdPartitionId 入力アダプターの 0 から始まるパーティション ID。The zero-based partition ID for the input adapter.
IoTHub.MessageIdIoTHub.MessageId IoT Hub での双方向通信の関連付けに使用する ID。An ID that's used to correlate two-way communication in IoT Hub.
IoTHub.CorrelationIdIoTHub.CorrelationId IoT Hub でのメッセージ応答とフィードバックに使用する ID。An ID that's used in message responses and feedback in IoT Hub.
IoTHub.ConnectionDeviceIdIoTHub.ConnectionDeviceId このメッセージの送信に使用される認証 ID。The authentication ID used to send this message. この値は、IoT Hub により servicebound メッセージにスタンプされます。This value is stamped on servicebound messages by the IoT Hub.
IoTHub.ConnectionDeviceGenerationIdIoTHub.ConnectionDeviceGenerationId このメッセージの送信に使用された認証済みデバイスの世代 ID。The generation ID of the authenticated device that was used to send this message. この値は、IoT Hub により servicebound メッセージにスタンプされます。This value is stamped on servicebound messages by the IoT Hub.
IoTHub.EnqueuedTimeIoTHub.EnqueuedTime IoT Hub でメッセージを受信した時刻。The time when the message was received by the IoT Hub.

Azure Blob Storage または Data Lake Storage Gen2 からデータをストリーム配信するStream data from Blob storage or Data Lake Storage Gen2

大量の非構造化データをクラウドに保存するシナリオでは、Azure Blob Storage または Azure Data Lake Storage Gen2 (ADLS Gen2) を導入することで、コスト効率の高いスケーラブルなソリューションが実現します。For scenarios with large quantities of unstructured data to store in the cloud, Azure Blob storage or Azure Data Lake Storage Gen2 (ADLS Gen2) offers a cost-effective and scalable solution. Azure Blob Storage または ADLS Gen2 のデータは、通常は保存データとみなされますが、Stream Analytics でデータ ストリームとして処理できます。Data in Blob storage or ADLS Gen2 is usually considered data at rest; however, this data can be processed as a data stream by Stream Analytics.

ログの処理は、Stream Analytics の入力などを使用する場合によく使用されるシナリオです。Log processing is a commonly used scenario for using such inputs with Stream Analytics. このシナリオでは、利用統計情報ファイルがシステムから取得されます。この情報を解析および処理して意味のあるデータを抽出する必要があります。In this scenario, telemetry data files have been captured from a system and need to be parsed and processed to extract meaningful data.

Blob Storage の既定のタイムスタンプまたは Stream Analytics の ADLS Gen2 イベントは、最後に変更されたタイムスタンプであり、BlobLastModifiedUtcTime です。The default timestamp of a Blob storage or ADLS Gen2 event in Stream Analytics is the timestamp that it was last modified, which is BlobLastModifiedUtcTime. 13:00 に BLOB がストレージ アカウントにアップロードされ、13:01 にオプション [Now](今すぐ) を使用して Azure Stream Analytics ジョブが開始された場合、変更された時間がジョブの実行期間外であるため、BLOB は選択されません。If a blob is uploaded to a storage account at 13:00, and the Azure Stream Analytics job is started using the option Now at 13:01, it will not be picked up as its modified time falls outside the job run period.

13:00 に BLOB がストレージ アカウント コンテナーにアップロードされ、13:00 またはそれ以前に [Custom Time](ユーザー設定時刻) を使用して Azure Stream Analytics ジョブが開始された場合、変更された時間がジョブの実行期間内であるため、BLOB は選択されます。If a blob is uploaded to a storage account container at 13:00, and the Azure Stream Analytics job is started using Custom Time at 13:00 or earlier, the blob will be picked up as its modified time falls inside the job run period.

13:00 に [Now](今すぐ) を使用して Azure Stream Analytics ジョブが開始され、13:01 に BLOB がストレージ アカウント コンテナーにアップロードされた場合、Azure Stream Analytics は BLOB を選択します。If an Azure Stream Analytics job is started using Now at 13:00, and a blob is uploaded to the storage account container at 13:01, Azure Stream Analytics will pick up the blob. 各 BLOB に割り当てられたタイムスタンプは BlobLastModifiedTime のみに基づいています。The timestamp assigned to each blob is based only on BlobLastModifiedTime. BLOB が含まれているフォルダーは、割り当てられたタイムスタンプとは関係がありません。The folder the blob is in has no relation to the the timestamp assigned. たとえば、2019/10-01/00/b1.txt という BLOB の BlobLastModifiedTime が 2019-11-11 である場合、この BLOB に割り当てられるタイムスタンプは 2019-11-11 です。For example, if there is a blob 2019/10-01/00/b1.txt with a BlobLastModifiedTime of 2019-11-11, then the timestamp assigned to this blob is 2019-11-11.

イベント ペイロードのタイムスタンプを利用してデータをストリームとして処理するには、TIMESTAMP BY キーワードを使用する必要があります。To process the data as a stream using a timestamp in the event payload, you must use the TIMESTAMP BY keyword. Stream Analytics ジョブは、BLOB ファイルが使用可能な場合に、毎秒 Azure Blob Storage または ADLS Gen2 入力からデータをプルします。A Stream Analytics job pulls data from Azure Blob storage or ADLS Gen2 input every second if the blob file is available. BLOB ファイルが使用不可能な場合は、最大で 90 秒の時間遅延がある指数関数的バックオフがあります。If the blob file is unavailable, there is an exponential backoff with a maximum time delay of 90 seconds.

CSV 形式の入力では、データ セットに対してフィールドを定義するためのヘッダー行が必須です。また、ヘッダー行のフィールドはすべて、一意になっている必要があります。CSV-formatted inputs require a header row to define fields for the data set, and all header row fields must be unique.

注意

Stream Analytics では、既存の BLOB ファイルにコンテンツを追加できません。Stream Analytics does not support adding content to an existing blob file. Stream Analytics は各ファイルを 1 回だけ表示します。ジョブがデータを読み取った後にファイルで発生した変更は処理されません。Stream Analytics will view each file only once, and any changes that occur in the file after the job has read the data are not processed. ベスト プラクティスとして、すべての BLOB ファイルのデータを一度にアップロードし、追加の新しいイベントを、別の新しい BLOB ファイルに追加することをお勧めします。Best practice is to upload all the data for a blob file at once and then add additional newer events to a different, new blob file.

多くの BLOB が継続的に追加され、追加されるにつれて BLOB が Stream Analytics で処理されるシナリオでは、BlobLastModifiedTime の細分性のため、まれに一部の BLOB がスキップされる可能性があります。In scenarios where many blobs are continuously added and Stream Analytics is processing the blobs as they are added, it's possible for some blobs to be skipped in rare cases due to the granularity of the BlobLastModifiedTime. これは、2 秒以上の間隔で BLOB をアップロードすることで軽減できます。You can mitigate this by uploading blobs at least two seconds apart. このオプションが実行可能でない場合は、Event Hubs を使用して大量のイベントをストリーミングできます。If this option is not feasible, you can use Event Hubs to stream large volumes of events.

ストリーム入力として Blob Storage を構成するConfigure Blob storage as a stream input

次の表に、Blob Storage をストリーム入力として構成する場合に使用する、Azure Portal の [新しい入力] ページにある各プロパティの説明を示しています。The following table explains each property in the New input page in the Azure portal when you configure Blob storage as a stream input.

プロパティProperty 説明Description
入力のエイリアスInput alias この入力を参照するジョブのクエリで使用するわかりやすい名前。A friendly name that you use in the job's query to reference this input.
サブスクリプションSubscription ストレージ リソースが存在するサブスクリプションを選択します。Choose the subscription in which the storage resource exists.
ストレージ アカウントStorage account BLOB ファイルが配置されるストレージ アカウントの名前。The name of the storage account where the blob files are located.
ストレージ アカウント キーStorage account key ストレージ アカウントに関連付けられている秘密キー。The secret key associated with the storage account. この設定を手動で入力するオプションを選択しない限り、このオプションは自動的に事前設定されます。This option is automatically populated in unless you select the option to provide the settings manually.
コンテナーContainer コンテナーは、BLOB の論理的なグループ化を提供します。Containers provide a logical grouping for blobs. コンテナーには、 [既存のものを使用] を選択できるほか、 [新規作成] を選択して新しいコンテナーを作成することもできます。You can choose either Use existing container or Create new to have a new container created.
パス パターン (省略可能)Path pattern (optional) 指定されたコンテナー内に BLOB を配置するために使用されるファイル パス。The file path used to locate the blobs within the specified container. コンテナーのルートから BLOB を読み取る場合は、パス パターンを設定しないでください。If you want to read blobs from the root of the container, do not set a path pattern. このパス内に、3 つの変数 ({date}{time}{partition}) の 1 つ以上のインスタンスを指定できます。Within the path, you can specify one or more instances of the following three variables: {date}, {time}, or {partition}

例 1: cluster1/logs/{date}/{time}/{partition}Example 1: cluster1/logs/{date}/{time}/{partition}

例 2: cluster1/logs/{date}Example 2: cluster1/logs/{date}

* 文字はパス プレフィックスの許容値ではありません。The * character is not an allowed value for the path prefix. 許容値は、有効な Azure BLOB 文字のみです。Only valid Azure blob characters are allowed. コンテナー名またはファイル名を含めないでください。Do not include container names or file names.
日付形式 (省略可能)Date format (optional) パスで日付変数を使用する場合は、ファイルを編成する日付形式です。If you use the date variable in the path, the date format in which the files are organized. 例: YYYY/MM/DDExample: YYYY/MM/DD

BLOB 入力のパスに {date} または {time} が含まれている場合、フォルダーは時間の昇順に検索されます。When blob input has {date} or {time} in its path, the folders are looked at in ascending time order.
時刻形式 (省略可能)Time format (optional) パスで時刻変数を使用する場合は、ファイルを編成する時刻形式です。If you use the time variable in the path, the time format in which the files are organized. 現在唯一サポートされている値は HH (時) です。Currently the only supported value is HH for hours.
パーティション キーPartition key これは、ジョブが 1.2 以上の互換性レベルを使用するように構成されている場合にのみ使用できるオプションのフィールドです。This is an optional field that is available only if your job is configured to use compatibility level 1.2 or higher. 入力がプロパティでパーティション分割される場合、ここでこのプロパティの名前を追加できます。If your input is partitioned by a property, you can add the name of this property here. これは、このプロパティに PARTITION BY 句または GROUP BY 句が含まれている場合に、クエリのパフォーマンスを向上させるために使用されます。This is used for improving the performance of your query if it includes a PARTITION BY or GROUP BY clause on this property. このジョブで互換性レベル 1.2 以上が使用されている場合、このフィールドの既定値は "PartitionId" です。If this job uses compatibility level 1.2 or higher, this field defaults to "PartitionId".
入力パーティション数Count of input partitions このフィールドは、{partition} がパス パターンに存在する場合にのみ存在します。This field is present only when {partition} is present in path pattern. このプロパティの値は、1 以上の整数です。The value of this property is an integer >=1. pathPattern に {partition} が表示されている場合は、0 からこのフィールド -1 の値までの範囲の数値が使用されます。Wherever {partition} appears in pathPattern, a number between 0 and the value of this field -1 will be used.
イベントのシリアル化の形式Event serialization format 受信データ ストリームのシリアル化形式 (JSON、CSV、Avro、またはその他 (Protobuf、XML、プロプライエタリ...))。The serialization format (JSON, CSV, Avro, or Other (Protobuf, XML, proprietary...)) of the incoming data stream. JSON 形式が仕様に準拠しており、10 進数の先頭に 0 が含まれていないことを確認します。Ensure the JSON format aligns with the specification and doesn’t include leading 0 for decimal numbers.
[エンコード]Encoding CSV と JSON では、現在のところ、UTF-8 が唯一サポートされているエンコード形式です。For CSV and JSON, UTF-8 is currently the only supported encoding format.
圧縮Compression 受信データ ストリームを読み取る際に使用される圧縮タイプ。[なし] (既定値)、[GZip]、[Deflate] などがあります。The compression type used to read the incoming data stream, such as None (default), GZip, or Deflate.

データが Blob Storage のソースから送信される場合、Stream Analytics クエリでは次のメタデータ フィールドにアクセスできます。When your data comes from a Blob storage source, you have access to the following metadata fields in your Stream Analytics query:

プロパティProperty 説明Description
BlobNameBlobName イベントに起因する入力 BLOB の名前。The name of the input blob that the event came from.
EventProcessedUtcTimeEventProcessedUtcTime Stream Analytics によってイベントが処理された日時。The date and time that the event was processed by Stream Analytics.
BlobLastModifiedUtcTimeBlobLastModifiedUtcTime BLOB が最後に変更された日時。The date and time that the blob was last modified.
PartitionIdPartitionId 入力アダプターの 0 から始まるパーティション ID。The zero-based partition ID for the input adapter.

たとえば、これらのフィールドを使用して、次の例のようにクエリを記述できます。For example, using these fields, you can write a query like the following example:

SELECT
    BlobName,
    EventProcessedUtcTime,
    BlobLastModifiedUtcTime
FROM Input

次のステップNext steps