Speech サービス API 向けの Docker コンテナーをインストールし、実行する

コンテナーを使用すると、独自の環境で "一部の" Speech サービス API を実行できます。 コンテナーは、特定のセキュリティ要件とデータ ガバナンス要件に適しています。 この記事では、Speech コンテナーをダウンロード、インストール、実行する方法について説明します。

Speech コンテナーでは、堅牢なクラウド機能とエッジの局所性の両方のために最適化された音声アプリケーション アーキテクチャを構築できます。 利用できるコンテナーはいくつかあり、クラウド ベースの Azure Speech Services と同じ価格が使用されます。

重要

2021 年 8 月 31 日に、標準の音声合成の音声とテキスト読み上げコンテナーを廃止しました。 代わりに、ニューラル テキスト読み上げコンテナーを使用するようにアプリケーションを移行することを検討してください。 アプリケーションの更新の詳細については、次の手順に従ってください。

コンテナー 特徴 最新 リリースの状態
音声テキスト変換 中間結果を使用して、センチメントを分析し、リアルタイムの音声録音またはバッチ音声録音を文字起こしします。 2.13.0 一般公開
カスタム音声変換 Custom Speech ポータルのカスタム モデルを利用し、連続するリアルタイムの音声またはバッチ音声録音を、中間結果を含むテキストに文字起こしします。 2.13.0 一般公開
テキスト読み上げ テキストを、プレーンテキストの入力または音声合成マークアップ言語 (SSML) を含む自然な音声に変換します。 1.14.1 一般公開
音声言語識別 オーディオ ファイルで話されている言語を検出します。 1.3.0 preview
Neural Text-to-speech ディープ ニューラル ネットワーク テクノロジを使用してテキストを自然な響きの音声に変換することで、合成音声がより自然なものになります。 1.8.0 一般公開

前提条件

重要

  • 音声コンテナーを使用するには、オンライン要求を送信し、承認を受けている必要があります。 詳細については、以下の「コンテナーを実行するための承認を要求する」セクションを参照してください。
  • 一般提供 されているコンテナーは、Microsoft の安定性とサポート要件を満たしています。 プレビュー 段階のコンテナーは、まだ開発中です。

音声サービス コンテナーを使用するには、次の前提条件を満たしている必要があります。 Azure サブスクリプションをお持ちでない場合は、開始する前に 無料アカウント を作成してください。

  • ホスト コンピューターに Docker がインストールされていること。 コンテナーが Azure に接続して課金データを送信できるように、Docker を構成する必要があります。
    • Windows では、Linux コンテナーをサポートするように Docker を構成することも必要です。
    • Docker の概念に関する基本的な知識が必要です。
  • 価格レベルが Free (F0) または Standard (S) の音声サービス リソース

必須パラメーターの収集

すべての Cognitive Services のコンテナーに対して必須である、3 つの主要なパラメーターがあります。 エンドユーザー使用許諾契約書 (EULA) は、accept の値と共に提示される必要があります。 さらに、エンドポイント URL と API キーの両方が必要です。

エンドポイント URL {ENDPOINT_URI}

エンドポイント URI の値は、Azure portal で、対応する Cognitive Service リソースの [概要] ページで入手できます。 [概要] ページに移動して、エンドポイントの上にマウス ポインターを移動すると、Copy to clipboard アイコンが表示されます。 必要に応じてコピーして使用します。

後で使用するためにエンドポイント URI を収集する

キー {API_KEY}

このキーはコンテナーを起動するために使用され、Azure portal で、対応する Cognitive Service リソースの [キー] ページで入手できます。 [キー] ページに移動し、Copy to clipboard アイコンをクリックします。

後で使用するために 2 つのキーのどちらかを入手する

重要

これらのサブスクリプション キーは、Cognitive Service API にアクセスするために使用されます。 キーを共有しないでください。 Azure Key Vault を使用するなどして、安全に保管してください。 これらのキーを定期的に再生成することもお勧めします。 API 呼び出しを行うために必要なキーは 1 つだけです。 最初のキーを再生成するときに、2 番目のキーを使用してサービスに継続的にアクセスすることができます。

ホスト コンピューターの要件と推奨事項

ホストとは、Docker コンテナーを実行する x64 ベースのコンピューターのことです。 お客様のオンプレミス上のコンピューターを使用できるほか、次のような Azure 内の Docker ホスティング サービスを使用することもできます。

コンテナーの要件と推奨事項

次の表に、各 Speech コンテナーに割り当てるリソースの最小値と推奨値を示します。

コンテナー 最小値 推奨
音声テキスト変換 2 コア、2 GB のメモリ 4 コア、4 GB メモリ
カスタム音声変換 2 コア、2 GB のメモリ 4 コア、4 GB メモリ
テキスト読み上げ 1 コア、2 GB メモリ 2 コア、3 GB のメモリ
音声言語識別 1 コア、1 GB のメモリ 1 コア、1 GB のメモリ
Neural Text-to-speech 6 コア、12 GB のメモリ 8 コア、16 GB のメモリ
  • 各コアは少なくとも 2.6 ギガヘルツ (GHz) 以上にする必要があります。

コアとメモリは、docker run コマンドの一部として使用される --cpus--memory の設定に対応します。

注意

最小および推奨値は、Docker の制限に基づくもので、ホスト マシンのリソースに基づくものでは ありません。 たとえば、音声テキスト変換コンテナーは、大規模な言語モデルの一部をメモリ マップするため、ファイル全体がメモリに収まるようにすることを "お勧めします"。これには、追加で 4 から 6 GB が必要です。 また、モデルがメモリにページングされているため、どちらかのコンテナーの最初の実行に時間がかかる場合があります。

Advanced Vector Extension のサポート

ホスト とは、Docker コンテナーを実行するコンピューターのことです。 ホストは、高度なベクター拡張機能 (AVX2) を サポートしている必要があります。 次のコマンドを使用して、Linux ホストでの AVX2 サポートを確認できます。

grep -q avx2 /proc/cpuinfo && echo AVX2 supported || echo No AVX2 support detected

警告

AVX2 をサポートするにはホスト コンピューターが 必須 です。 AVX2 サポートがないと、コンテナーは正しく機能 しません

コンテナーを実行するための承認を要求する

コンテナーへのアクセスを要求するには、要求フォームに記入して送信します。

このフォームでは、ユーザー、会社、コンテナーを使用するユーザー シナリオに関する情報が要求されます。 フォームを送信すると、そのフォームは Azure Cognitive Services チームによって確認されます。その後、チームから決定事項がメールで届きます。

重要

  • このフォームでは、Azure サブスクリプション ID に関連付けられているメール アドレスを使用する必要があります。
  • コンテナーの実行に使用する Azure リソースは、承認された Azure サブスクリプション ID で作成されている必要があります。
  • Microsoft からのアプリケーションの状態に関する更新については、電子メール (受信トレイと迷惑フォルダーの両方) を確認してください。

承認されると、Microsoft Container Registry (MCR) からコンテナーをダウンロードした後、そのコンテナーを実行できるようになります。これについては、記事の後半で説明します。

Azure サブスクリプションが承認されていない場合、コンテナーを実行することはできません。

docker pull によるコンテナー イメージの取得

Speech のコンテナー イメージは、次のコンテナー レジストリで入手できます。

コンテナー リポジトリ
音声テキスト変換 mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

ヒント

docker images コマンドを使用して、ダウンロードしたコンテナー イメージを一覧表示できます。 たとえば、次のコマンドは、ダウンロードした各コンテナー イメージの ID、リポジトリ、およびタグが表として書式設定されて表示されます。

docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"

IMAGE ID         REPOSITORY                TAG
<image-id>       <repository-path/name>    <tag-name>

Speech コンテナー用の docker pull

Speech-to-text コンテナー用の docker pull

Microsoft Container Registry からコンテナー イメージをダウンロードするには、docker pull コマンドを使用します。

docker pull mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

重要

latest タグにより、en-US ロケールがプルされます。 追加のロケールについては、「音声テキスト変換ロケール」を参照してください。

音声テキスト変換ロケール

latest を除くすべてのタグは、次の形式であり、大文字と小文字が区別されます。

<major>.<minor>.<patch>-<platform>-<locale>-<prerelease>

次のタグは、この形式の例です。

2.6.0-amd64-en-us

音声テキスト変換 コンテナーのサポートされている全ロケールについては、「音声テキスト変換イメージ タグ」を参照してください。

コンテナーを使用する方法

コンテナーをホスト コンピューター上に用意できたら、次の手順を使用してコンテナーを操作します。

  1. 必要な課金設定を使用してコンテナーを実行します。 docker run コマンドの他のもご覧いただけます。
  2. コンテナーの予測エンドポイントに対するクエリを実行します

docker run によるコンテナーの実行

コンテナーを実行するには、docker run コマンドを使用します。 {Endpoint_URI}{API_Key} の値を取得する方法の詳細については、「必須パラメーターの収集」を参照してください。 docker run コマンドの追加も利用できます。

標準 "音声テキスト変換" コンテナーを実行するには、次の docker run コマンドを実行します。

docker run --rm -it -p 5000:5000 --memory 4g --cpus 4 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY}

このコマンドは、次の操作を行います。

  • コンテナー イメージから Speech-to-text コンテナーを実行します
  • 4 つの CPU コアと 4 ギガバイト (GB) のメモリを割り当てます。
  • TCP ポート 5000 を公開し、コンテナーに pseudo-TTY を割り当てます。
  • コンテナーの終了後にそれを自動的に削除します。 ホスト コンピューター上のコンテナー イメージは引き続き利用できます。

注意

コンテナーによる Speech SDK への圧縮オーディオ入力のサポートには、GStreamer が使用されます。 コンテナーに GStreamer をインストールするには、「Speech SDK でコーデック圧縮オーディオを使用する」での GStreamer に関する Linux の手順に従ってください。

音声テキスト変換出力でのダイアライゼーション

ダイアライゼーションは、既定で有効です。 応答でダイアライゼーションを取得するには、diarize_speech_config.set_service_property を使用します。

  1. 語句の出力形式を Detailed に設定します。
  2. ダイアライゼーションのモードを設定します。 サポートされているモードは IdentityAnonymous です。
diarize_speech_config.set_service_property(
    name='speechcontext-PhraseOutput.Format',
    value='Detailed',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

diarize_speech_config.set_service_property(
    name='speechcontext-phraseDetection.speakerDiarization.mode',
    value='Identity',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

注意

"Identity" モードでは "SpeakerId": "Customer" または "SpeakerId": "Agent" が返されます。 "Anonymous" モードでは "SpeakerId": "Speaker 1" または "SpeakerId": "Speaker 2" が返されます

音声テキスト変換の出力のセンチメントを分析する

v2.6.0 以降の音声テキスト変換コンテナーでは、プレビュー版ではなく TextAnalytics 3.0 API エンドポイントを使用する必要があります。 次に例を示します。

  • https://westus2.api.cognitive.microsoft.com/text/analytics/v3.0/sentiment
  • https://localhost:5000/text/analytics/v3.0/sentiment

注意

Text Analytics v3.0 API は、Text Analytics v3.0-preview.1 と下位互換性がありません。 サポートされている最新のセンチメント機能を使用するには、v2.6.0 の音声テキスト変換コンテナー イメージと Text Analytics v3.0 を使用します。

音声テキスト変換コンテナーの v2.2.0 から、出力に対してセンチメント分析 v3 API を呼び出すことができるようになりました。 センチメント分析を呼び出すには、Text Analytics API リソース エンドポイントが必要です。 次に例を示します。

  • https://westus2.api.cognitive.microsoft.com/text/analytics/v3.0-preview.1/sentiment
  • https://localhost:5000/text/analytics/v3.0-preview.1/sentiment

クラウドでテキスト分析エンドポイントにアクセスしている場合は、キーが必要になります。 Text Analytics をローカルで実行している場合は、これを指定する必要はありません。

キーとエンドポイントは、次の例のように、引数として Speech コンテナーに渡されます。

docker run -it --rm -p 5000:5000 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY} \
CloudAI:SentimentAnalysisSettings:TextAnalyticsHost={TEXT_ANALYTICS_HOST} \
CloudAI:SentimentAnalysisSettings:SentimentAnalysisApiKey={SENTIMENT_APIKEY}

このコマンドは、次の操作を行います。

  • 上のコマンドと同じ手順を実行します。
  • センチメント分析の要求を送信するための Text Analytics API エンドポイントとキーが格納されています。

音声テキスト変換の出力における Phraselist v2

v2.6.0 以降の音声テキスト変換コンテナーでは、自分独自のフレーズ (文全体または中間の語句) を使用して出力することができます。 たとえば、次の文の the tall man です。

  • "This is a sentence the tall man this is another sentence."

語句の一覧は、呼び出しを行うときに自分独自のフレーズを追加して構成できます。 次に例を示します。

    phrase="the tall man"
    recognizer = speechsdk.SpeechRecognizer(
        speech_config=dict_speech_config,
        audio_config=audio_config)
    phrase_list_grammer = speechsdk.PhraseListGrammar.from_recognizer(recognizer)
    phrase_list_grammer.addPhrase(phrase)
    
    dict_speech_config.set_service_property(
        name='setflight',
        value='xonlineinterp',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )

追加する語句が複数ある場合は、句ごとに .addPhrase() を呼び出して、語句の一覧に追加します。

重要

コンテナーを実行するには、EulaBillingApiKey の各オプションを指定する必要があります。そうしないと、コンテナーが起動しません。 詳細については、「課金」を参照してください。

コンテナーの予測エンドポイントに対するクエリの実行

注意

複数のコンテナーを実行している場合は、一意のポート番号を使用します。

Containers SDK ホスト URL Protocol
標準音声テキスト変換とカスタム音声テキスト変換 ws://localhost:5000 WS
テキスト読み上げ (標準、ニューラルを含む)、音声言語識別 http://localhost:5000 HTTP

WSS プロトコルと HTTPS プロトコルを使用する方法については、コンテナー セキュリティに関するセクションを参照してください。

音声テキスト変換 (標準およびカスタム)

コンテナーは、websocket ベースのクエリ エンドポイント API シリーズを提供します。これには、Speech SDK を介してアクセスします。 既定では、Speech SDK は、オンラインの音声サービスを使用します。 コンテナーを使用するには、初期化方法を変更する必要があります。

ヒント

Speech SDK とコンテナーを使用する場合、Azure Speech リソースのサブスクリプション キーまたは認証ベアラー トークンを提供する必要はありません。

次の例を参照してください。

この Azure クラウド初期化呼び出しを使用する方法を

var config = SpeechConfig.FromSubscription("YourSubscriptionKey", "YourServiceRegion");

コンテナー ホストでこの呼び出しを使用する方法に変更します。

var config = SpeechConfig.FromHost(
    new Uri("ws://localhost:5000"));

感情を分析する

Text Analytics API 資格情報をコンテナーに指定した場合は、Speech SDK を使用して、センチメント分析で音声認識要求を送信できます。 シンプル な形式または 詳細 な形式のいずれかを使用するよう、API 応答を構成できます。

注意

Speech サービス Python SDK の v1.13 では、感情分析の問題が特定されています。 Speech サービス Python SDK で感情分析を使用している場合は、v1.12 以前のバージョンを使用してください。

音声クライアントでシンプルな形式を使用するように構成するには、Simple.Extensions の値として "Sentiment" を追加します。 特定の Text Analytics モデルのバージョンを選択する場合は、speechcontext-phraseDetection.sentimentAnalysis.modelversion プロパティの構成で 'latest' を置き換えます。

speech_config.set_service_property(
    name='speechcontext-PhraseOutput.Simple.Extensions',
    value='["Sentiment"]',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)
speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentAnalysis.modelversion',
    value='latest',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Simple.Extensions は、応答のルート レイヤーでセンチメントの結果を返します。

{
   "DisplayText":"What's the weather like?",
   "Duration":13000000,
   "Id":"6098574b79434bd4849fee7e0a50f22e",
   "Offset":4700000,
   "RecognitionStatus":"Success",
   "Sentiment":{
      "Negative":0.03,
      "Neutral":0.79,
      "Positive":0.18
   }
}

センチメント分析を完全に無効にする場合は、sentimentanalysis.enabledfalse 値を追加します。

speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentanalysis.enabled',
    value='false',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

テキスト読み上げ (標準およびニューラル)

コンテナーには、REST ベースのエンドポイント API が用意されています。 各種のプラットフォーム、フレームワーク、言語向けに、多数のサンプル ソース コード プロジェクトが提供されています。

標準またはニューラルのテキスト読み上げコンテナーでは、ダウンロードしたイメージ タグのロケールと音声を使用することになります。 たとえば、latest タグをダウンロードした場合、既定のロケールは en-US で、音声は AriaNeural になります。 そのうえで、{VOICE_NAME} 引数は en-US-AriaNeural となります。 次のサンプル SSML をご覧ください。

<speak version="1.0" xml:lang="en-US">
    <voice name="en-US-AriaNeural">
        This text will get converted into synthesized speech.
    </voice>
</speak>

同じホスト上で複数のコンテナーを実行する

公開されているポートを使って複数のコンテナーを実行する予定の場合、必ず各コンテナーを別の公開されているポートで実行してください。 たとえば、最初のコンテナーをポート 5000 上で、2 番目のコンテナーを 5001 上で実行します。

このコンテナーと、別の Azure Cognitive Services コンテナーを HOST 上で同時に実行することができます。 同じ Cognitive Services コンテナーの複数のコンテナーを実行することもできます。

コンテナーが実行されていることを検証する

コンテナーが実行されていることを検証する方法は複数あります。 問題になっているコンテナーの "外部 IP" アドレスと公開ポートを特定し、任意の Web ブラウザーを開きます。 以下に示した各種の要求 URL を使用して、コンテナーが実行中であることを確認します。 以下に示した例の要求 URL は http://localhost:5000 ですが、実際のコンテナーは異なる可能性があります。 ベースとなるのは実際のコンテナーの "外部 IP" アドレスと公開ポートであることに注意してください。

要求 URL 目的
http://localhost:5000/ コンテナーには、ホーム ページが用意されています。
http://localhost:5000/ready GET で要求することで、コンテナーがモデルに対するクエリを受け取る準備ができていることを確認できます。 この要求は Kubernetes の liveness probe と readiness probe に対して使用できます。
http://localhost:5000/status これも GET で要求することで、コンテナーを起動するために使用された API キーが有効であるかどうかを、エンドポイント クエリを発生させずに確認できます。 この要求は Kubernetes の liveness probe と readiness probe に対して使用できます。
http://localhost:5000/swagger コンテナーには、エンドポイントの完全なドキュメント一式と、 [Try it out](試してみる) の機能が用意されています。 この機能を使用すると、コードを一切記述することなく、お客様の設定を Web ベースの HTML フォームに入力したりクエリを実行したりできます。 クエリから戻った後、HTTP ヘッダーと HTTP 本文の必要な形式を示すサンプル CURL コマンドが得られます。

コンテナーのホーム ページ

コンテナーの停止

コンテナーをシャットダウンするには、コンテナーが実行されているコマンドライン環境で、Ctrl + C キーを押します。

トラブルシューティング

コンテナーを起動または実行するとき、問題が発生することがあります。 出力マウントを使用し、ログ記録を有効にします。 これにより、問題の解決時に役立つログ ファイルをコンテナーで生成できます。

ヒント

トラブルシューティング情報とガイダンスの詳細については、「Cognitive Services コンテナーについてよくあるご質問 (FAQ)」を参照してください。

課金

Speech コンテナーは、Azure アカウントの Speech リソースを使用して、Azure に課金情報を送信します。

コンテナーへのクエリは、ApiKey に使用される Azure リソースの価格レベルで課金されます。

Azure Cognitive Services コンテナーは、計測または課金エンドポイントに接続していないと、実行のライセンスが許可されません。 お客様は、コンテナーが常に課金エンドポイントに課金情報を伝えられるようにする必要があります。 Cognitive Services コンテナーによって、お客様のデータ (解析対象の画像やテキストなど) が Microsoft に送信されることはありません。

Azure に接続する

コンテナーには、実行する課金引数の値が必要です。 これらの値により、コンテナーは課金エンドポイントに接続することができます。 コンテナーから、約 10 ~ 15 分ごとに使用状況が報告されます。 許可された時間枠内でコンテナーが Azure に接続しなかった場合、コンテナーは引き続き実行されますが、課金エンドポイントが復元されるまでクエリには対応しません。 接続は、10 ~15 分の同じ時間間隔で、10 回試行されます。 10 回以内に課金エンドポイントに接続できなかった場合、コンテナーによる要求の処理は停止されます。 課金のために Microsoft に送信される情報の例については、Cognitive Services コンテナーについてよく寄せられる質問を参照してください。

課金引数

docker run コマンドは、次の 3 つのオプションのすべてに有効な値が指定された場合にコンテナーを起動します。

オプション 説明
ApiKey 課金情報を追跡するために使用される Cognitive Services リソースの API キー。
このオプションの値には、Billing に指定されたプロビジョニング済みのリソースの API キーが設定されている必要があります。
Billing 課金情報を追跡するために使用される Cognitive Services リソースのエンドポイント。
このオプションの値には、プロビジョニング済みの Azure リソースのエンドポイント URI が設定されている必要があります。
Eula お客様がコンテナーのライセンスに同意したことを示します。
このオプションの値は accept に設定する必要があります。

これらのオプションの詳細については、「コンテナーの構成」を参照してください。

まとめ

この記事では、Speech コンテナーの概念とそのダウンロード、インストール、および実行のワークフローについて学習しました。 要約すると:

  • Speech は、Docker 用に 4 つの Linux コンテナーを提供し、さまざまな機能をカプセル化します。
    • 音声テキスト変換
    • カスタム音声変換
    • テキスト読み上げ
    • カスタム テキスト読み上げ
    • Neural Text-to-speech
    • 音声言語識別
  • コンテナー イメージは、Azure のコンテナー レジストリからダウンロードされます。
  • コンテナー イメージを Docker で実行します。
  • REST API (テキスト読み上げのみ) を使用するか、SDK (音声変換またはテキスト読み上げ) を使用するかにかかわらず、コンテナーのホスト URI を指定します。
  • コンテナーをインスタンス化するときは、課金情報を指定するように要求されます。

重要

Cognitive Services コンテナーは、計測のために Azure に接続していないと、実行のライセンスが許可されません。 お客様は、コンテナーが常に計測サービスに課金情報を伝えられるようにする必要があります。 Cognitive Services コンテナーが、顧客データ (解析対象の画像やテキストなど) を Microsoft に送信することはありません。

次のステップ