クイック スタート:マイクから音声を認識するQuickstart: Recognize speech from a microphone

このクイックスタートでは、Speech SDK を使用して、音声をマイク入力から対話形式で認識し、キャプチャしたオーディオからテキスト文字起こしを取得します。In this quickstart, you'll use the Speech SDK to interactively recognize speech from a microphone input, and get the text transcription from captured audio. 会話の文字起こしなどの一般的な認識タスクのために、この機能をアプリやデバイスに簡単に統合できます。It's easy to integrate this feature into your apps or devices for common recognition tasks, such as transcribing conversations. また、Bot Framework を Speech SDK と共に使用して音声アシスタントを構築するなど、より複雑な統合にも使用できます。It can also be used for more complex integrations, like using the Bot Framework with the Speech SDK to build voice assistants.

いくつかの前提条件を満たすと、4 つのステップを実行するだけでマイクから音声を認識します。After satisfying a few prerequisites, recognizing speech from a microphone only takes four steps:

  • サブスクリプション キーとリージョンから SpeechConfig オブジェクトを作成します。Create a SpeechConfig object from your subscription key and region.
  • 上記の SpeechConfig オブジェクトを使用して SpeechRecognizer オブジェクトを作成します。Create a SpeechRecognizer object using the SpeechConfig object from above.
  • SpeechRecognizer オブジェクトを使用して、1 つの発話の認識プロセスを開始します。Using the SpeechRecognizer object, start the recognition process for a single utterance.
  • 返された SpeechRecognitionResult を検査します。Inspect the SpeechRecognitionResult returned.

すぐに使用できるようにするには、GitHub ですべての Speech SDK C# サンプルを表示またはダウンロードします。If you prefer to jump right in, view or download all Speech SDK C# Samples on GitHub. それ以外の場合は、始めましょう。Otherwise, let's get started.

ターゲット環境を選択してくださいChoose your target environment

前提条件Prerequisites

開始する前に、以下の操作を行います。Before you get started:

Visual Studio でプロジェクトを開きます。Open your project in Visual Studio

最初の手順として、ご利用のプロジェクトを Visual Studio で開いていることを確認します。The first step is to make sure that you have your project open in Visual Studio.

  1. Visual Studio 2019 を起動します。Launch Visual Studio 2019.
  2. プロジェクトを読み込んで Program.cs を開きます。Load your project and open Program.cs.

定型コードを使用して開始するStart with some boilerplate code

このプロジェクトのスケルトンとして機能するコードを追加しましょう。Let's add some code that works as a skeleton for our project. RecognizeSpeechAsync() という非同期メソッドを作成済みであることを確認します。Make note that you've created an async method called RecognizeSpeechAsync().


using System;
using System.Threading.Tasks;
using Microsoft.CognitiveServices.Speech;

namespace helloworld
{
    class Program
    {
        public static async Task RecognizeSpeechAsync()
        {
        }

        static void Main()
        {
            RecognizeSpeechAsync().Wait();
            Console.WriteLine("Please press <Return> to continue.");
            Console.ReadLine();
        }
    }
}

Speech 構成を作成するCreate a Speech configuration

SpeechRecognizer オブジェクトを初期化するには、サブスクリプション キーとサブスクリプション リージョンを使用する構成を作成する必要があります。Before you can initialize a SpeechRecognizer object, you need to create a configuration that uses your subscription key and subscription region. このコードを RecognizeSpeechAsync() メソッドに挿入します。Insert this code in the RecognizeSpeechAsync() method.

注意

このサンプルでは、FromSubscription() メソッドを使用して SpeechConfig をビルドします。This sample uses the FromSubscription() method to build the SpeechConfig. 使用可能なメソッドの完全な一覧については、SpeechConfig クラスに関する記事を参照してください。For a full list of available methods, see SpeechConfig Class.

var config = SpeechConfig.FromSubscription("YourSubscriptionKey", "YourServiceRegion");

Speech SDK では、既定で認識される言語が en-us です。ソース言語の選択については、「音声テキスト変換のソース言語を指定する」を参照してください。The Speech SDK will default to recognizing using en-us for the language, see Specify source language for speech to text for information on choosing the source language.

SpeechRecognizer を初期化するInitialize a SpeechRecognizer

次に、SpeechRecognizer を作成してみましょう。Now, let's create a SpeechRecognizer. アンマネージド リソースが確実に正しく解放されるように、このオブジェクトは using ステートメント内に作成されます。This object is created inside of a using statement to ensure the proper release of unmanaged resources. このコードを Speech 構成のすぐ下にある RecognizeSpeechAsync() メソッドに挿入します。Insert this code in the RecognizeSpeechAsync() method, right below your Speech configuration.


using (var recognizer = new SpeechRecognizer(config))
{
}

語句を認識するRecognize a phrase

SpeechRecognizer オブジェクトから、RecognizeOnceAsync() メソッドを呼び出します。From the SpeechRecognizer object, you're going to call the RecognizeOnceAsync() method. 認識の対象として 1 つの語句を送信しようとしていること、また、その語句が識別された後で、音声認識を停止しようとしていることが、このメソッドを通じて Speech サービスに伝えられます。This method lets the Speech service know that you're sending a single phrase for recognition, and that once the phrase is identified to stop recognizing speech.

using ステートメント内に、このコードを追加します。[!code-csharp]Inside the using statement, add this code: [!code-csharp]

認識結果 (またはエラー) を表示するDisplay the recognition results (or errors)

音声サービスによって認識結果が返されたら、それを使用して何らかの操作を行います。When the recognition result is returned by the Speech service, you'll want to do something with it. シンプルに保ち、結果をコンソールに出力します。We're going to keep it simple and print the result to console.

using ステートメント内の RecognizeOnceAsync() の下に、次のコードを追加します。[!code-csharp]Inside the using statement, below RecognizeOnceAsync(), add this code: [!code-csharp]

コードを確認するCheck your code

この時点で、コードは次のようになります。[!code-csharp]At this point, your code should look like this: [!code-csharp]

アプリをビルドして実行するBuild and run your app

これで、アプリをビルドし、Speech サービスを使用して音声認識をテストする準備ができました。Now you're ready to build your app and test our speech recognition using the Speech service.

  1. コードをコンパイルする - Visual Studio のメニュー バーで、 [ビルド] > [ソリューションのビルド] の順に選択します。Compile the code - From the menu bar of Visual Studio, choose Build > Build Solution.
  2. アプリを起動する - メニュー バーから [デバッグ] > [デバッグの開始] の順に選択するか、F5 キーを押します。Start your app - From the menu bar, choose Debug > Start Debugging or press F5.
  3. 認識を開始する - 英語で語句を読み上げるように求められます。Start recognition - It'll prompt you to speak a phrase in English. 音声が Speech Service に送信され、テキストとして文字起こしされて、コンソールに表示されます。Your speech is sent to the Speech service, transcribed as text, and rendered in the console.

次のステップNext steps

このクイックスタートでは、Speech SDK を使用して、音声をマイク入力から対話形式で認識し、キャプチャしたオーディオからテキスト文字起こしを取得します。In this quickstart, you'll use the Speech SDK to interactively recognize speech from a microphone input, and get the text transcription from captured audio. 会話の文字起こしなどの一般的な認識タスクのために、この機能をアプリやデバイスに簡単に統合できます。It's easy to integrate this feature into your apps or devices for common recognition tasks, such as transcribing conversations. また、Bot Framework を Speech SDK と共に使用して音声アシスタントを構築するなど、より複雑な統合にも使用できます。It can also be used for more complex integrations, like using the Bot Framework with the Speech SDK to build voice assistants.

いくつかの前提条件を満たすと、4 つのステップを実行するだけでマイクから音声を認識します。After satisfying a few prerequisites, recognizing speech from a microphone only takes four steps:

  • サブスクリプション キーとリージョンから SpeechConfig オブジェクトを作成します。Create a SpeechConfig object from your subscription key and region.
  • 上記の SpeechConfig オブジェクトを使用して SpeechRecognizer オブジェクトを作成します。Create a SpeechRecognizer object using the SpeechConfig object from above.
  • SpeechRecognizer オブジェクトを使用して、1 つの発話の認識プロセスを開始します。Using the SpeechRecognizer object, start the recognition process for a single utterance.
  • 返された SpeechRecognitionResult を検査します。Inspect the SpeechRecognitionResult returned.

すぐに使用できるようにするには、GitHub ですべての Speech SDK C++ サンプルを表示またはダウンロードします。If you prefer to jump right in, view or download all Speech SDK C++ Samples on GitHub. それ以外の場合は、始めましょう。Otherwise, let's get started.

ターゲット環境を選択してくださいChoose your target environment

前提条件Prerequisites

開始する前に、以下の操作を行います。Before you get started:

サンプル コードを追加するAdd sample code

  1. helloworld.cpp という名前で C++ ソース ファイルを作成し、その中に次のコードを貼り付けます。Create a C++ source file named helloworld.cpp, and paste the following code into it.

    #include <iostream> // cin, cout
    #include <speechapi_cxx.h>
    
    using namespace std;
    using namespace Microsoft::CognitiveServices::Speech;
    
    void recognizeSpeech() {
        // Creates an instance of a speech config with specified subscription key and service region.
        // Replace with your own subscription key and service region (e.g., "westus").
        auto config = SpeechConfig::FromSubscription("YourSubscriptionKey", "YourServiceRegion");
    
        // Creates a speech recognizer
        auto recognizer = SpeechRecognizer::FromConfig(config);
        cout << "Say something...\n";
    
        // Starts speech recognition, and returns after a single utterance is recognized. The end of a
        // single utterance is determined by listening for silence at the end or until a maximum of 15
        // seconds of audio is processed.  The task returns the recognition text as result. 
        // Note: Since RecognizeOnceAsync() returns only a single utterance, it is suitable only for single
        // shot recognition like command or query. 
        // For long-running multi-utterance recognition, use StartContinuousRecognitionAsync() instead.
        auto result = recognizer->RecognizeOnceAsync().get();
    
        // Checks result.
        if (result->Reason == ResultReason::RecognizedSpeech) {
            cout << "We recognized: " << result->Text << std::endl;
        }
        else if (result->Reason == ResultReason::NoMatch) {
            cout << "NOMATCH: Speech could not be recognized." << std::endl;
        }
        else if (result->Reason == ResultReason::Canceled) {
            auto cancellation = CancellationDetails::FromResult(result);
            cout << "CANCELED: Reason=" << (int)cancellation->Reason << std::endl;
    
            if (cancellation->Reason == CancellationReason::Error) {
                cout << "CANCELED: ErrorCode= " << (int)cancellation->ErrorCode << std::endl;
                cout << "CANCELED: ErrorDetails=" << cancellation->ErrorDetails << std::endl;
                cout << "CANCELED: Did you update the subscription info?" << std::endl;
            }
        }
    }
    
    int main(int argc, char **argv) {
        setlocale(LC_ALL, "");
        recognizeSpeech();
        return 0;
    }
    
  2. この新しいファイルで、文字列 YourSubscriptionKey を、音声サービスのサブスクリプション キーで置き換えます。In this new file, replace the string YourSubscriptionKey with your Speech service subscription key.

  3. 文字列 YourServiceRegion を、サブスクリプションに関連付けられたリージョン (たとえば、無料試用版サブスクリプションでは westus) に置き換えます。Replace the string YourServiceRegion with the region associated with your subscription (for example, westus for the free trial subscription).

注意

Speech SDK では、既定で認識される言語が en-us です。ソース言語の選択については、「音声テキスト変換のソース言語を指定する」を参照してください。The Speech SDK will default to recognizing using en-us for the language, see Specify source language for speech to text for information on choosing the source language.

アプリのビルドBuild the app

注意

次のコマンドを必ず 1 つのコマンド ライン として入力してください。Make sure to enter the commands below as a single command line. 各コマンドの横にある [Copy](コピー) ボタンを使用してコマンドをコピーし、シェル プロンプトでそれを貼り付けるのが、それを行う最も簡単な方法です。The easiest way to do that is to copy the command by using the Copy button next to each command, and then paste it at your shell prompt.

  • x64 (64 ビット) システムでは、次のコマンドを実行してアプリケーションをビルドします。On an x64 (64-bit) system, run the following command to build the application.

    g++ helloworld.cpp -o helloworld -I "$SPEECHSDK_ROOT/include/cxx_api" -I "$SPEECHSDK_ROOT/include/c_api" --std=c++14 -lpthread -lMicrosoft.CognitiveServices.Speech.core -L "$SPEECHSDK_ROOT/lib/x64" -l:libasound.so.2
    
  • x86 (32 ビット) システムでは、次のコマンドを実行してアプリケーションをビルドします。On an x86 (32-bit) system, run the following command to build the application.

    g++ helloworld.cpp -o helloworld -I "$SPEECHSDK_ROOT/include/cxx_api" -I "$SPEECHSDK_ROOT/include/c_api" --std=c++14 -lpthread -lMicrosoft.CognitiveServices.Speech.core -L "$SPEECHSDK_ROOT/lib/x86" -l:libasound.so.2
    
  • ARM64 (64 ビット) システムでは、次のコマンドを実行してアプリケーションをビルドします。On an ARM64 (64-bit) system, run the following command to build the application.

    g++ helloworld.cpp -o helloworld -I "$SPEECHSDK_ROOT/include/cxx_api" -I "$SPEECHSDK_ROOT/include/c_api" --std=c++14 -lpthread -lMicrosoft.CognitiveServices.Speech.core -L "$SPEECHSDK_ROOT/lib/arm64" -l:libasound.so.2
    

アプリを実行するRun the app

  1. Speech SDK ライブラリを指すようにローダーのライブラリ パスを構成します。Configure the loader's library path to point to the Speech SDK library.

    • x64 (64 ビット) システムでは、次のコマンドを入力します。On an x64 (64-bit) system, enter the following command.

      export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:$SPEECHSDK_ROOT/lib/x64"
      
    • x86 (32 ビット) システムでは、このコマンドを入力します。On an x86 (32-bit) system, enter this command.

      export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:$SPEECHSDK_ROOT/lib/x86"
      
    • ARM64 (64 ビット) システムでは、次のコマンドを入力します。On an ARM64 (64-bit) system, enter the following command.

      export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:$SPEECHSDK_ROOT/lib/arm64"
      
  2. アプリケーションを実行します。Run the application.

    ./helloworld
    
  3. コンソール ウィンドウに、何か発言するよう求めるプロンプトが表示されます。In the console window, a prompt appears, requesting that you say something. 英語の語句または文を読み上げます。Speak an English phrase or sentence. 音声が Speech サービスに送信されてテキストに変換され、同じウィンドウに表示されます。Your speech is transmitted to the Speech service and transcribed to text, which appears in the same window.

    Say something...
    We recognized: What's the weather like?
    

次のステップNext steps

このクイックスタートでは、Speech SDK を使用して、音声をマイク入力から対話形式で認識し、キャプチャしたオーディオからテキスト文字起こしを取得します。In this quickstart, you'll use the Speech SDK to interactively recognize speech from a microphone input, and get the text transcription from captured audio. 会話の文字起こしなどの一般的な認識タスクのために、この機能をアプリやデバイスに簡単に統合できます。It's easy to integrate this feature into your apps or devices for common recognition tasks, such as transcribing conversations. また、Bot Framework を Speech SDK と共に使用して音声アシスタントを構築するなど、より複雑な統合にも使用できます。It can also be used for more complex integrations, like using the Bot Framework with the Speech SDK to build voice assistants.

いくつかの前提条件を満たすと、4 つのステップを実行するだけでマイクから音声を認識します。After satisfying a few prerequisites, recognizing speech from a microphone only takes four steps:

  • サブスクリプション キーとリージョンから SpeechConfig オブジェクトを作成します。Create a SpeechConfig object from your subscription key and region.
  • 上記の SpeechConfig オブジェクトを使用して SpeechRecognizer オブジェクトを作成します。Create a SpeechRecognizer object using the SpeechConfig object from above.
  • SpeechRecognizer オブジェクトを使用して、1 つの発話の認識プロセスを開始します。Using the SpeechRecognizer object, start the recognition process for a single utterance.
  • 返された SpeechRecognitionResult を検査します。Inspect the SpeechRecognitionResult returned.

すぐに使用できるようにするには、GitHub ですべての Speech SDK Java サンプルを表示またはダウンロードします。If you prefer to jump right in, view or download all Speech SDK Java Samples on GitHub. それ以外の場合は、始めましょう。Otherwise, let's get started.

ターゲット環境を選択するChoose your target environment

前提条件Prerequisites

開始する前に、以下の操作を行います。Before you get started:

サンプル コードを追加するAdd sample code

  1. 新しい空のクラスを Java プロジェクトに追加するために、 [File] > [New] > [Class] の順に選択します。To add a new empty class to your Java project, select File > New > Class.

  2. [New Java Class] ウィンドウで、 [Package] フィールドに speechsdk.quickstart と入力し、 [Name] フィールドに Main と入力します。In the New Java Class window, enter speechsdk.quickstart into the Package field, and Main into the Name field.

    [New Java Class] ウィンドウのスクリーンショット

  3. Main.java のすべてのコードを次のスニペットに置き換えます。Replace all code in Main.java with the following snippet:

    package speechsdk.quickstart;
    
    import java.util.concurrent.Future;
    import com.microsoft.cognitiveservices.speech.*;
    
    /**
     * Quickstart: recognize speech using the Speech SDK for Java.
     */
    public class Main {
    
        /**
         * @param args Arguments are ignored in this sample.
         */
        public static void main(String[] args) {
            try {
                // Replace below with your own subscription key
                String speechSubscriptionKey = "YourSubscriptionKey";
                // Replace below with your own service region (e.g., "westus").
                String serviceRegion = "YourServiceRegion";
    
                int exitCode = 1;
                SpeechConfig config = SpeechConfig.fromSubscription(speechSubscriptionKey, serviceRegion);
                assert(config != null);
    
                SpeechRecognizer reco = new SpeechRecognizer(config);
                assert(reco != null);
    
                System.out.println("Say something...");
    
                Future<SpeechRecognitionResult> task = reco.recognizeOnceAsync();
                assert(task != null);
    
                SpeechRecognitionResult result = task.get();
                assert(result != null);
    
                if (result.getReason() == ResultReason.RecognizedSpeech) {
                    System.out.println("We recognized: " + result.getText());
                    exitCode = 0;
                }
                else if (result.getReason() == ResultReason.NoMatch) {
                    System.out.println("NOMATCH: Speech could not be recognized.");
                }
                else if (result.getReason() == ResultReason.Canceled) {
                    CancellationDetails cancellation = CancellationDetails.fromResult(result);
                    System.out.println("CANCELED: Reason=" + cancellation.getReason());
    
                    if (cancellation.getReason() == CancellationReason.Error) {
                        System.out.println("CANCELED: ErrorCode=" + cancellation.getErrorCode());
                        System.out.println("CANCELED: ErrorDetails=" + cancellation.getErrorDetails());
                        System.out.println("CANCELED: Did you update the subscription info?");
                    }
                }
    
                reco.close();
    
                System.exit(exitCode);
            } catch (Exception ex) {
                System.out.println("Unexpected exception: " + ex.getMessage());
    
                assert(false);
                System.exit(1);
            }
        }
    }
    
  4. 文字列 YourSubscriptionKey をサブスクリプション キーに置き換えます。Replace the string YourSubscriptionKey with your subscription key.

  5. 文字列 YourServiceRegion を、サブスクリプションに関連付けられたリージョン (たとえば、無料試用版サブスクリプションでは westus) に置き換えます。Replace the string YourServiceRegion with the region associated with your subscription (for example, westus for the free trial subscription).

  6. プロジェクトへの変更内容を保存します。Save changes to the project.

注意

Speech SDK では、既定で認識される言語が en-us です。ソース言語の選択については、「音声テキスト変換のソース言語を指定する」を参照してください。The Speech SDK will default to recognizing using en-us for the language, see Specify source language for speech to text for information on choosing the source language.

アプリのビルドと実行Build and run the app

F11 キーを押すか、 [Run] > [Debug] の順に選択します。Press F11, or select Run > Debug. その後 15 秒間、マイクからの音声入力が認識され、コンソール ウィンドウにログが記録されます。The next 15 seconds of speech input from your microphone will be recognized and logged in the console window.

認識が成功した後のコンソール出力のスクリーンショット

次の手順Next steps

このクイックスタートでは、Speech SDK を使用して、音声をマイク入力から対話形式で認識し、キャプチャしたオーディオからテキスト文字起こしを取得します。In this quickstart, you'll use the Speech SDK to interactively recognize speech from a microphone input, and get the text transcription from captured audio. 会話の文字起こしなどの一般的な認識タスクのために、この機能をアプリやデバイスに簡単に統合できます。It's easy to integrate this feature into your apps or devices for common recognition tasks, such as transcribing conversations. また、Bot Framework を Speech SDK と共に使用して音声アシスタントを構築するなど、より複雑な統合にも使用できます。It can also be used for more complex integrations, like using the Bot Framework with the Speech SDK to build voice assistants.

いくつかの前提条件を満たすと、4 つのステップを実行するだけでマイクから音声を認識します。After satisfying a few prerequisites, recognizing speech from a microphone only takes four steps:

  • サブスクリプション キーとリージョンから SpeechConfig オブジェクトを作成します。Create a SpeechConfig object from your subscription key and region.
  • 上記の SpeechConfig オブジェクトを使用して SpeechRecognizer オブジェクトを作成します。Create a SpeechRecognizer object using the SpeechConfig object from above.
  • SpeechRecognizer オブジェクトを使用して、1 つの発話の認識プロセスを開始します。Using the SpeechRecognizer object, start the recognition process for a single utterance.
  • 返された SpeechRecognitionResult を検査します。Inspect the SpeechRecognitionResult returned.

すぐに使用できるようにするには、GitHub ですべての Speech SDK Python サンプルを表示またはダウンロードします。If you prefer to jump right in, view or download all Speech SDK Python Samples on GitHub. それ以外の場合は、始めましょう。Otherwise, let's get started.

前提条件Prerequisites

開始する前に、以下の操作を行います。Before you get started:

サポートと更新プログラムSupport and updates

Speech SDK Python パッケージの更新プログラムは、PyPI を通じて配布され、リリース ノートで発表されます。Updates to the Speech SDK Python package are distributed via PyPI and announced in the Release notes. 新しいバージョンが利用可能な場合は、コマンド pip install --upgrade azure-cognitiveservices-speech を使用してそれに更新できます。If a new version is available, you can update to it with the command pip install --upgrade azure-cognitiveservices-speech. azure.cognitiveservices.speech.__version__ 変数を調べて、現在インストールされているバージョンを確認します。Check which version is currently installed by inspecting the azure.cognitiveservices.speech.__version__ variable.

問題があるか、機能が欠落している場合は、「サポート オプションとヘルプ オプション」を参照してください。If you have a problem, or you're missing a feature, see Support and help options.

Speech SDK を使用する Python アプリケーションの作成Create a Python application that uses the Speech SDK

サンプルを実行するRun the sample

このクイック スタートからソース ファイル quickstart.pyサンプル コードをコピーして、お使いの IDE またはコンソールで実行することができます。You can copy the sample code from this quickstart to a source file quickstart.py and run it in your IDE or in the console:

python quickstart.py

また、このクイック スタート チュートリアルを Speech SDK のサンプル リポジトリから Jupyter ノートブックとしてダウンロードして、ノートブックとして実行することもできます。Or you can download this quickstart tutorial as a Jupyter notebook from the Speech SDK sample repository and run it as a notebook.

サンプル コードSample code

注意

Speech SDK では、既定で認識される言語が en-us です。ソース言語の選択については、「音声テキスト変換のソース言語を指定する」を参照してください。The Speech SDK will default to recognizing using en-us for the language, see Specify source language for speech to text for information on choosing the source language.

import azure.cognitiveservices.speech as speechsdk

# Creates an instance of a speech config with specified subscription key and service region.
# Replace with your own subscription key and service region (e.g., "westus").
speech_key, service_region = "YourSubscriptionKey", "YourServiceRegion"
speech_config = speechsdk.SpeechConfig(subscription=speech_key, region=service_region)

# Creates a recognizer with the given settings
speech_recognizer = speechsdk.SpeechRecognizer(speech_config=speech_config)

print("Say something...")


# Starts speech recognition, and returns after a single utterance is recognized. The end of a
# single utterance is determined by listening for silence at the end or until a maximum of 15
# seconds of audio is processed.  The task returns the recognition text as result. 
# Note: Since recognize_once() returns only a single utterance, it is suitable only for single
# shot recognition like command or query. 
# For long-running multi-utterance recognition, use start_continuous_recognition() instead.
result = speech_recognizer.recognize_once()

# Checks result.
if result.reason == speechsdk.ResultReason.RecognizedSpeech:
    print("Recognized: {}".format(result.text))
elif result.reason == speechsdk.ResultReason.NoMatch:
    print("No speech could be recognized: {}".format(result.no_match_details))
elif result.reason == speechsdk.ResultReason.Canceled:
    cancellation_details = result.cancellation_details
    print("Speech Recognition canceled: {}".format(cancellation_details.reason))
    if cancellation_details.reason == speechsdk.CancellationReason.Error:
        print("Error details: {}".format(cancellation_details.error_details))

Speech SDK と Visual Studio Code をインストールして使用するInstall and use the Speech SDK with Visual Studio Code

  1. Python の 64 ビット バージョン (3.5 以降) をお使いのコンピューターにダウンロードして、インストールします。Download and install a 64-bit version of Python, 3.5 or later, on your computer.

  2. Visual Studio Code をダウンロードして、インストールします。Download and install Visual Studio Code.

  3. Visual Studio Code を開いて、Python 拡張機能をインストールします。Open Visual Studio Code and install the Python extension. メニューで [ファイル] > [基本設定] > [拡張機能] の順に選択します。Select File > Preferences > Extensions from the menu. Python を検索します。Search for Python.

    Python 拡張機能のインストール

  4. プロジェクトの保存先となるフォルダーを作成します。Create a folder to store the project in. たとえば、エクスプローラーを使用して行います。An example is by using Windows Explorer.

  5. Visual Studio Code の [ファイル] アイコンを選択します。In Visual Studio Code, select the File icon. 次に、作成したフォルダーを開きます。Then open the folder you created.

    フォルダーを開く

  6. 新しいファイル アイコンを選択して、新しい Python ソース ファイル speechsdk.py を作成します。Create a new Python source file, speechsdk.py, by selecting the new file icon.

    ファイルを作成する

  7. 新しく作成されたファイルに Python コードをコピーして貼り付け、保存します。Copy, paste, and save the Python code to the newly created file.

  8. お使いの Speech サービスのサブスクリプション情報を挿入します。Insert your Speech service subscription information.

  9. Python インタープリターが選択されている場合は、ウィンドウの下部にあるステータス バーの左側にそれが表示されます。If selected, a Python interpreter displays on the left side of the status bar at the bottom of the window. そうでない場合は、使用可能な Python インタープリターの一覧が表示されます。Otherwise, bring up a list of available Python interpreters. コマンド パレットを開いて (Ctrl + Shift + P)、「Python: Select Interpreter」と入力します。Open the command palette (Ctrl+Shift+P) and enter Python: Select Interpreter. 適切なものを選択します。Choose an appropriate one.

  10. Visual Studio Code 内から Speech SDK Python パッケージをインストールできます。You can install the Speech SDK Python package from within Visual Studio Code. 選択した Python インタープリター用にまだインストールされていない場合は、インストールします。Do that if it's not installed yet for the Python interpreter you selected. Speech SDK パッケージをインストールするには、ターミナルを開きます。To install the Speech SDK package, open a terminal. コマンド パレットをもう一度開いて (Ctrl + Shift + P)、「Terminal: Create New Integrated Terminal」と入力してターミナルを開きます。Bring up the command palette again (Ctrl+Shift+P) and enter Terminal: Create New Integrated Terminal. 開いたターミナルに、コマンド python -m pip install azure-cognitiveservices-speech か、システムに応じた適切なコマンドを入力します。In the terminal that opens, enter the command python -m pip install azure-cognitiveservices-speech or the appropriate command for your system.

  11. サンプル コードを実行するには、エディター内のどこかを右クリックします。To run the sample code, right-click somewhere inside the editor. [Run Python File in Terminal](ターミナル内の Python ファイルを実行する) を選択します。Select Run Python File in Terminal. メッセージが表示されたら、数単語を発声します。Speak a few words when you're prompted. 少し後に、変換されたテキストが表示されます。The transcribed text displays shortly afterward.

    サンプルを実行する

これらの手順で問題が発生した場合は、より詳しい Visual Studio Code Python チュートリアルを参照してください。If you have issues following these instructions, refer to the more extensive Visual Studio Code Python tutorial.

次のステップNext steps

GitHub ですべての Speech SDK サンプルを表示またはダウンロードします。View or download all Speech SDK Samples on GitHub.

言語とプラットフォームのその他のサポートAdditional language and platform support

このタブをクリックした場合、お気に入りのプログラミング言語でクイックスタートが表示されないことがあります。If you've clicked this tab, you probably didn't see a quickstart in your favorite programming language. ご安心ください。GitHub で入手できる追加のクイックスタートの素材とコード サンプルを用意しています。Don't worry, we have additional quickstart materials and code samples available on GitHub. この表を使用して、お使いのプログラミング言語とプラットフォーム/OS の組み合わせに適したサンプルを見つけます。Use the table to find the right sample for your programming language and platform/OS combination.

言語Language その他のクイックスタートAdditional Quickstarts コード サンプルCode samples
C++C++ WindowsLinuxmacOSWindows, Linux, macOS
C#C# .NET Framework.NET CoreUWPUnityXamarin.NET Framework, .NET Core, UWP, Unity, Xamarin
JavaJava AndroidJREAndroid, JRE
JavascriptJavascript ブラウザーBrowser
Node.jsNode.js Windows、Linux、macOSWindows, Linux, macOS
Objective-CObjective-C macOSiOSmacOs, iOS iOSmacOSiOS, macOS
PythonPython Windows、Linux、macOSWindows, Linux, macOS
SwiftSwift macOSiOSmacOs, iOS iOSmacOSiOS, macOS