Mulai cepat: Mengenali dan mengonversi ucapan menjadi teks
Dokumentasi referensi | Paket (NuGet) | Sampel Tambahan pada GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Speech SDK tersedia sebagai paket NuGet dan menerapkan .NET Standar 2.0. Anda menginstal Speech SDK di bagian berikutnya dari artikel ini, tetapi pertama-tama periksa panduan penginstalan SDK untuk persyaratan lain
Mengenali ucapan dari mikrofon
Ikuti langkah-langkah ini untuk membuat aplikasi konsol baru dan memasang Speech SDK.
Buka perintah di mana Anda menginginkan proyek baru, dan buat aplikasi konsol dengan .NET CLI.
dotnet new consolePasang Speech SDK di proyek baru Anda dengan .NET CLI.
dotnet add package Microsoft.CognitiveServices.SpeechGanti isi
Program.csdengan kode berikut.using System; using System.IO; using System.Threading.Tasks; using Microsoft.CognitiveServices.Speech; using Microsoft.CognitiveServices.Speech.Audio; class Program { static string YourSubscriptionKey = "YourSubscriptionKey"; static string YourServiceRegion = "YourServiceRegion"; static void OutputSpeechRecognitionResult(SpeechRecognitionResult speechRecognitionResult) { switch (speechRecognitionResult.Reason) { case ResultReason.RecognizedSpeech: Console.WriteLine($"RECOGNIZED: Text={speechRecognitionResult.Text}"); break; case ResultReason.NoMatch: Console.WriteLine($"NOMATCH: Speech could not be recognized."); break; case ResultReason.Canceled: var cancellation = CancellationDetails.FromResult(speechRecognitionResult); Console.WriteLine($"CANCELED: Reason={cancellation.Reason}"); if (cancellation.Reason == CancellationReason.Error) { Console.WriteLine($"CANCELED: ErrorCode={cancellation.ErrorCode}"); Console.WriteLine($"CANCELED: ErrorDetails={cancellation.ErrorDetails}"); Console.WriteLine($"CANCELED: Did you set the speech resource key and region values?"); } break; } } async static Task Main(string[] args) { var speechConfig = SpeechConfig.FromSubscription(YourSubscriptionKey, YourServiceRegion); speechConfig.SpeechRecognitionLanguage = "en-US"; using var audioConfig = AudioConfig.FromDefaultMicrophoneInput(); using var speechRecognizer = new SpeechRecognizer(speechConfig, audioConfig); Console.WriteLine("Speak into your microphone."); var speechRecognitionResult = await speechRecognizer.RecognizeOnceAsync(); OutputSpeechRecognitionResult(speechRecognitionResult); } }Di
Program.cs, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa. Untuk detail tentang cara mengidentifikasi salah satu dari beberapa bahasa yang mungkin diucapkan, lihat identifikasi bahasa.
Jalankan aplikasi konsol baru Anda untuk memulai pengenalan ucapan dari mikrofon:
dotnet run
Bicaralah ke mikrofon Saat diminta. Apa yang Anda bicarakan harus dikeluarkan sebagai teks:
Speak into your microphone.
RECOGNIZED: Text=I'm excited to try speech to text.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut adalah beberapa pertimbangan tambahan:
- Contoh ini menggunakan operasi
RecognizeOnceAsyncuntuk mentranskripsikan ucapan hingga 30 detik, atau sampai keheningan terdeteksi. Untuk informasi tentang pengenalan berkelanjutan untuk audio yang lebih lama, termasuk percakapan multibahasa, lihat Cara mengenali ucapan. - Untuk mengenali ucapan dari file audio, gunakan
FromWavFileInputsebagai penggantiFromDefaultMicrophoneInput:using var audioConfig = AudioConfig.FromWavFileInput("YourAudioFile.wav"); - Untuk file audio terkompresi seperti MP4, instal GStreamer dan gunakan
PullAudioInputStreamatauPushAudioInputStream. Untuk informasi selengkapnya, lihat Cara menggunakan audio input terkompresi.
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dokumentasi referensi | Paket (NuGet) | Sampel Tambahan pada GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Speech SDK tersedia sebagai paket NuGet dan menerapkan .NET Standar 2.0. Anda menginstal Speech SDK di bagian berikutnya dari artikel ini, tetapi pertama-tama periksa panduan penginstalan SDK untuk persyaratan lain
Mengenali ucapan dari mikrofon
Ikuti langkah-langkah ini untuk membuat aplikasi konsol baru dan memasang Speech SDK.
Buat proyek konsol C++ baru di Visual Studio.
Pasang Speech SDK di proyek baru Anda dengan manajer paket NuGet.
Install-Package Microsoft.CognitiveServices.SpeechGanti isi
main.cppdengan kode berikut:#include <iostream> #include <speechapi_cxx.h> using namespace Microsoft::CognitiveServices::Speech; using namespace Microsoft::CognitiveServices::Speech::Audio; auto YourSubscriptionKey = "YourSubscriptionKey"; auto YourServiceRegion = "YourServiceRegion"; int main() { auto speechConfig = SpeechConfig::FromSubscription(YourSubscriptionKey, YourServiceRegion); speechConfig->SetSpeechRecognitionLanguage("en-US"); auto audioConfig = AudioConfig::FromDefaultMicrophoneInput(); auto recognizer = SpeechRecognizer::FromConfig(speechConfig, audioConfig); std::cout << "Speak into your microphone.\n"; auto result = recognizer->RecognizeOnceAsync().get(); if (result->Reason == ResultReason::RecognizedSpeech) { std::cout << "RECOGNIZED: Text=" << result->Text << std::endl; } else if (result->Reason == ResultReason::NoMatch) { std::cout << "NOMATCH: Speech could not be recognized." << std::endl; } else if (result->Reason == ResultReason::Canceled) { auto cancellation = CancellationDetails::FromResult(result); std::cout << "CANCELED: Reason=" << (int)cancellation->Reason << std::endl; if (cancellation->Reason == CancellationReason::Error) { std::cout << "CANCELED: ErrorCode=" << (int)cancellation->ErrorCode << std::endl; std::cout << "CANCELED: ErrorDetails=" << cancellation->ErrorDetails << std::endl; std::cout << "CANCELED: Did you set the speech resource key and region values?" << std::endl; } } }Di
main.cpp, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa. Untuk detail tentang cara mengidentifikasi salah satu dari beberapa bahasa yang mungkin diucapkan, lihat identifikasi bahasa.
Bangun dan jalankan aplikasi konsol baru Anda untuk memulai pengenalan ucapan dari mikrofon.
Bicaralah ke mikrofon Saat diminta. Apa yang Anda bicarakan harus dikeluarkan sebagai teks:
Speak into your microphone.
RECOGNIZED: Text=I'm excited to try speech to text.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut adalah beberapa pertimbangan tambahan:
- Contoh ini menggunakan operasi
RecognizeOnceAsyncuntuk mentranskripsikan ucapan hingga 30 detik, atau sampai keheningan terdeteksi. Untuk informasi tentang pengenalan berkelanjutan untuk audio yang lebih lama, termasuk percakapan multibahasa, lihat Cara mengenali ucapan. - Untuk mengenali ucapan dari file audio, gunakan
FromWavFileInputsebagai penggantiFromDefaultMicrophoneInput:auto audioInput = AudioConfig::FromWavFileInput("YourAudioFile.wav"); - Untuk file audio terkompresi seperti MP4, instal GStreamer dan gunakan
PullAudioInputStreamatauPushAudioInputStream. Untuk informasi selengkapnya, lihat Cara menggunakan audio input terkompresi.
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dokumentasi referensi | Paket (Go) | Sampel Tambahan pada GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Pasang Speech SDK untuk Go. Periksa panduan penginstalan SDK untuk persyaratan lain
Mengenali ucapan dari mikrofon
Ikuti langkah-langkah ini untuk membuat modul GO baru.
Buka perintah di mana Anda menginginkan modul baru, dan buat file baru bernama
speech-recognition.go.Salin kode berikut ke dalam
speech-recognition.go:package main import ( "bufio" "fmt" "os" "github.com/Microsoft/cognitive-services-speech-sdk-go/audio" "github.com/Microsoft/cognitive-services-speech-sdk-go/speech" ) func sessionStartedHandler(event speech.SessionEventArgs) { defer event.Close() fmt.Println("Session Started (ID=", event.SessionID, ")") } func sessionStoppedHandler(event speech.SessionEventArgs) { defer event.Close() fmt.Println("Session Stopped (ID=", event.SessionID, ")") } func recognizingHandler(event speech.SpeechRecognitionEventArgs) { defer event.Close() fmt.Println("Recognizing:", event.Result.Text) } func recognizedHandler(event speech.SpeechRecognitionEventArgs) { defer event.Close() fmt.Println("Recognized:", event.Result.Text) } func cancelledHandler(event speech.SpeechRecognitionCanceledEventArgs) { defer event.Close() fmt.Println("Received a cancellation: ", event.ErrorDetails) fmt.Println("Did you set the speech resource key and region values?") } func main() { key := "YourSubscriptionKey" region := "YourServiceRegion" audioConfig, err := audio.NewAudioConfigFromDefaultMicrophoneInput() if err != nil { fmt.Println("Got an error: ", err) return } defer audioConfig.Close() speechConfig, err := speech.NewSpeechConfigFromSubscription(key, region) if err != nil { fmt.Println("Got an error: ", err) return } defer speechConfig.Close() speechRecognizer, err := speech.NewSpeechRecognizerFromConfig(speechConfig, audioConfig) if err != nil { fmt.Println("Got an error: ", err) return } defer speechRecognizer.Close() speechRecognizer.SessionStarted(sessionStartedHandler) speechRecognizer.SessionStopped(sessionStoppedHandler) speechRecognizer.Recognizing(recognizingHandler) speechRecognizer.Recognized(recognizedHandler) speechRecognizer.Canceled(cancelledHandler) speechRecognizer.StartContinuousRecognitionAsync() defer speechRecognizer.StopContinuousRecognitionAsync() bufio.NewReader(os.Stdin).ReadBytes('\n') }Di
speech-recognition.go, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.
Jalankan perintah berikut untuk membuat file go.mod yang ditautkan ke komponen yang dihosting di GitHub:
go mod init speech-recognition
go get github.com/Microsoft/cognitive-services-speech-sdk-go
Sekarang, bangun dan jalankan kode:
go build
go run speech-recognition
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dokumentasi referensi | Sampel Tambahan pada GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Sebelum Anda dapat melakukan tindakan apa pun, Anda harus menginstal Speech SDK. Contoh dalam mulai cepat ini berfungsi dengan Runtime Java.
Mengenali ucapan dari mikrofon
Ikuti langkah-langkah ini untuk membuat aplikasi konsol baru untuk pengenalan ucapan.
Buka perintah di mana Anda menginginkan proyek baru, dan buat file baru bernama
SpeechRecognition.java.Salin kode berikut ke dalam
SpeechRecognition.java:import com.microsoft.cognitiveservices.speech.*; import com.microsoft.cognitiveservices.speech.audio.AudioConfig; import java.util.concurrent.ExecutionException; import java.util.concurrent.Future; public class SpeechRecognition { private static String YourSubscriptionKey = "YourSubscriptionKey"; private static String YourServiceRegion = "YourServiceRegion"; public static void main(String[] args) throws InterruptedException, ExecutionException { SpeechConfig speechConfig = SpeechConfig.fromSubscription(YourSubscriptionKey, YourServiceRegion); speechConfig.setSpeechRecognitionLanguage("en-US"); recognizeFromMicrophone(speechConfig); } public static void recognizeFromMicrophone(SpeechConfig speechConfig) throws InterruptedException, ExecutionException { AudioConfig audioConfig = AudioConfig.fromDefaultMicrophoneInput(); SpeechRecognizer speechRecognizer = new SpeechRecognizer(speechConfig, audioConfig); System.out.println("Speak into your microphone."); Future<SpeechRecognitionResult> task = speechRecognizer.recognizeOnceAsync(); SpeechRecognitionResult speechRecognitionResult = task.get(); if (speechRecognitionResult.getReason() == ResultReason.RecognizedSpeech) { System.out.println("RECOGNIZED: Text=" + speechRecognitionResult.getText()); } else if (speechRecognitionResult.getReason() == ResultReason.NoMatch) { System.out.println("NOMATCH: Speech could not be recognized."); } else if (speechRecognitionResult.getReason() == ResultReason.Canceled) { CancellationDetails cancellation = CancellationDetails.fromResult(speechRecognitionResult); System.out.println("CANCELED: Reason=" + cancellation.getReason()); if (cancellation.getReason() == CancellationReason.Error) { System.out.println("CANCELED: ErrorCode=" + cancellation.getErrorCode()); System.out.println("CANCELED: ErrorDetails=" + cancellation.getErrorDetails()); System.out.println("CANCELED: Did you set the speech resource key and region values?"); } } System.exit(0); } }Di
SpeechRecognition.java, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa. Untuk detail tentang cara mengidentifikasi salah satu dari beberapa bahasa yang mungkin diucapkan, lihat identifikasi bahasa.
Jalankan aplikasi konsol baru Anda untuk memulai pengenalan ucapan dari mikrofon:
java SpeechRecognition
Bicaralah ke mikrofon Saat diminta. Apa yang Anda bicarakan harus dikeluarkan sebagai teks:
Speak into your microphone.
RECOGNIZED: Text=I'm excited to try speech to text.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut adalah beberapa pertimbangan tambahan:
- Contoh ini menggunakan operasi
RecognizeOnceAsyncuntuk mentranskripsikan ucapan hingga 30 detik, atau sampai keheningan terdeteksi. Untuk informasi tentang pengenalan berkelanjutan untuk audio yang lebih lama, termasuk percakapan multibahasa, lihat Cara mengenali ucapan. - Untuk mengenali ucapan dari file audio, gunakan
fromWavFileInputsebagai penggantifromDefaultMicrophoneInput:AudioConfig audioConfig = AudioConfig.fromWavFileInput("YourAudioFile.wav"); - Untuk file audio terkompresi seperti MP4, instal GStreamer dan gunakan
PullAudioInputStreamatauPushAudioInputStream. Untuk informasi selengkapnya, lihat Cara menggunakan audio input terkompresi.
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dokumentasi referensi | Paket (npm) | Sampel Tambahan pada kode sumber GitHub | Library
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Sebelum Anda dapat melakukan tindakan apa pun, Anda harus memasang Speech SDK untuk JavaScript. Jika Anda hanya ingin menginstal nama paket, jalankan npm install microsoft-cognitiveservices-speech-sdk. Untuk petunjuk penginstalan terpandu, lihat panduan penginstalan SDK.
Mengenali ucapan dari file
Ikuti langkah-langkah ini untuk membuat aplikasi konsol Node.js untuk pengenalan ucapan.
Buka perintah di mana Anda menginginkan proyek baru, dan buat file baru bernama
SpeechRecognition.js.Instal SDK Ucapan untuk JavaScript:
npm install microsoft-cognitiveservices-speech-sdkSalin kode berikut ke dalam
SpeechRecognition.js:const fs = require("fs"); const sdk = require("microsoft-cognitiveservices-speech-sdk"); const speechConfig = sdk.SpeechConfig.fromSubscription("YourSubscriptionKey", "YourServiceRegion"); speechConfig.speechRecognitionLanguage = "en-US"; function fromFile() { let audioConfig = sdk.AudioConfig.fromWavFileInput(fs.readFileSync("YourAudioFile.wav")); let speechRecognizer = new sdk.SpeechRecognizer(speechConfig, audioConfig); speechRecognizer.recognizeOnceAsync(result => { switch (result.reason) { case sdk.ResultReason.RecognizedSpeech: console.log(`RECOGNIZED: Text=${result.text}`); break; case sdk.ResultReason.NoMatch: console.log("NOMATCH: Speech could not be recognized."); break; case sdk.ResultReason.Canceled: const cancellation = sdk.CancellationDetails.fromResult(result); console.log(`CANCELED: Reason=${cancellation.reason}`); if (cancellation.reason == sdk.CancellationReason.Error) { console.log(`CANCELED: ErrorCode=${cancellation.ErrorCode}`); console.log(`CANCELED: ErrorDetails=${cancellation.errorDetails}`); console.log("CANCELED: Did you set the speech resource key and region values?"); } break; } speechRecognizer.close(); }); } fromFile();Di
SpeechRecognition.js, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.Di
SpeechRecognition.js, gantiYourAudioFile.wavdengan file WAV Anda sendiri. Contoh ini hanya mengenali ucapan dari file WAV. Untuk informasi tentang format audio lainnya, lihat Cara menggunakan audio input terkompresi. Contoh ini mendukung audio hingga 30 detik.Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa. Untuk detail tentang cara mengidentifikasi salah satu dari beberapa bahasa yang mungkin diucapkan, lihat identifikasi bahasa.
Jalankan aplikasi konsol baru Anda untuk memulai pengenalan ucapan dari file:
node.exe SpeechRecognition.js
Ucapan dari file audio harus dikeluarkan sebagai teks:
RECOGNIZED: Text=I'm excited to try speech to text.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut adalah beberapa pertimbangan tambahan:
Contoh ini menggunakan operasi recognizeOnceAsync untuk mentranskripsikan ucapan hingga 30 detik, atau sampai keheningan terdeteksi. Untuk informasi tentang pengenalan berkelanjutan untuk audio yang lebih lama, termasuk percakapan multibahasa, lihat Cara mengenali ucapan.
Catatan
Mengenali ucapan dari mikrofon tidak didukung di Node.js. Ini hanya didukung di lingkungan JavaScript berbasis browser. Untuk informasi selengkapnya, lihat sampel React dan penerapan ucapan ke teks dari mikrofon di GitHub. Sampel React menunjukkan pola desain untuk pertukaran dan pengelolaan token autentikasi. Ini juga menunjukkan pengambilan audio dari mikrofon atau file untuk konversi ucapan ke teks.
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dokumentasi referensi | Paket (Unduh) | Sampel Tambahan pada GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Speech SDK untuk Objective-C didistribusikan sebagai bundel kerangka kerja. Kerangka kerja ini mendukung Objective-C dan Swift di iOS dan macOS.
Speech SDK dapat digunakan dalam proyek Xcode sebagai CocoaPod, atau diunduh langsung di sini dan ditautkan secara manual. Panduan ini menggunakan CocoaPod. Pasang manajer dependensi CocoaPod seperti yang dijelaskan dalam instruksi penginstalannya.
Mengenali ucapan dari mikrofon
Ikuti langkah-langkah ini untuk mengenali ucapan di aplikasi macOS.
Kloning repositori Azure-Samples/cognitive-services-speech-sdk untuk mendapatkan ucapan Kenali dari mikrofon di Objective-C pada proyek sampel macOS. Repositori juga memiliki sampel iOS.
Navigasikan ke direktori aplikasi sampel yang diunduh (
helloworld) di terminal.Jalankan perintah
pod install. Ini akan menghasilkan ruang kerja Xcodehelloworld.xcworkspaceyang berisi aplikasi sampel dan Speech SDK sebagai dependensi.Buka contoh ruang kerja
helloworld.xcworkspacedi Xcode.Buka file bernama
AppDelegate.mdan temukan metode seperti yangbuttonPressedditunjukkan di sini.- (void)buttonPressed:(NSButton *)button { // Creates an instance of a speech config with specified subscription key and service region. // Replace with your own subscription key // and service region (e.g., "westus"). NSString *speechKey = @"YourSubscriptionKey"; NSString *serviceRegion = @"YourServiceRegion"; SPXAudioConfiguration *audioConfig = [[SPXAudioConfiguration alloc] initWithMicrophone:nil]; SPXSpeechConfiguration *speechConfig = [[SPXSpeechConfiguration alloc] initWithSubscription:speechKey region:serviceRegion]; SPXSpeechRecognizer *speechRecognizer = [[SPXSpeechRecognizer alloc] initWithSpeechConfiguration:speechConfig language:@"en-US" audioConfiguration:audioConfig]; NSLog(@"Speak into your microphone."); SPXSpeechRecognitionResult *speechResult = [speechRecognizer recognizeOnce]; // Checks result. if (SPXResultReason_Canceled == speechResult.reason) { SPXCancellationDetails *details = [[SPXCancellationDetails alloc] initFromCanceledRecognitionResult:speechResult]; NSLog(@"Speech recognition was canceled: %@. Did you set the speech resource key and region values?", details.errorDetails); [self.label setStringValue:([NSString stringWithFormat:@"Canceled: %@", details.errorDetails])]; } else if (SPXResultReason_RecognizedSpeech == speechResult.reason) { NSLog(@"Speech recognition result received: %@", speechResult.text); [self.label setStringValue:(speechResult.text)]; } else { NSLog(@"There was an error."); [self.label setStringValue:(@"Speech Recognition Error")]; } }Di
AppDelegate.m, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa. Untuk detail tentang cara mengidentifikasi salah satu dari beberapa bahasa yang mungkin diucapkan, lihat identifikasi bahasa.Buat output debug terlihat (Tampilan>Area Debug>Aktifkan Konsol).
Buat dan jalankan kode contoh dengan memilih Product ->Run dari menu atau memilih tombol Play.
Setelah Anda memilih tombol di aplikasi dan mengucapkan beberapa kata, Anda akan melihat teks yang telah Anda ucapkan di bagian bawah layar. Saat menjalankan aplikasi untuk pertama kalinya, Anda harus diminta untuk memberikan akses aplikasi ke mikrofon komputer Anda.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut adalah beberapa pertimbangan tambahan:
- Contoh ini menggunakan operasi
recognizeOnceuntuk mentranskripsikan ucapan hingga 30 detik, atau sampai keheningan terdeteksi. Untuk informasi tentang pengenalan berkelanjutan untuk audio yang lebih lama, termasuk percakapan multibahasa, lihat Cara mengenali ucapan. - Untuk mengenali ucapan dari file audio, gunakan
initWithWavFileInputsebagai penggantiinitWithMicrophone:SPXAudioConfiguration *audioConfig = [[SPXAudioConfiguration alloc] initWithWavFileInput:YourAudioFile];
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dokumentasi referensi | Paket (Unduh) | Sampel Tambahan pada GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Speech SDK untuk Swift didistribusikan sebagai bundel kerangka kerja. Kerangka kerja ini mendukung Objective-C dan Swift di iOS dan macOS.
Speech SDK dapat digunakan dalam proyek Xcode sebagai CocoaPod, atau diunduh langsung di sini dan ditautkan secara manual. Panduan ini menggunakan CocoaPod. Pasang manajer dependensi CocoaPod seperti yang dijelaskan dalam instruksi penginstalannya.
Mengenali ucapan dari mikrofon
Ikuti langkah-langkah ini untuk mengenali ucapan di aplikasi macOS.
Kloning repositori Azure-Samples/cognitive-services-speech-sdk untuk mendapatkan ucapan Kenali dari mikrofon di Swift pada proyek sampel macOS. Repositori juga memiliki sampel iOS.
Navigasikan ke direktori aplikasi sampel yang diunduh (
helloworld) di terminal.Jalankan perintah
pod install. Ini akan menghasilkan ruang kerja Xcodehelloworld.xcworkspaceyang berisi aplikasi sampel dan Speech SDK sebagai dependensi.Buka contoh ruang kerja
helloworld.xcworkspacedi Xcode.Buka file bernama
AppDelegate.swiftdan temukanapplicationDidFinishLaunchingdan metoderecognizeFromMicseperti yang ditunjukkan di sini.import Cocoa @NSApplicationMain class AppDelegate: NSObject, NSApplicationDelegate { var label: NSTextField! var fromMicButton: NSButton! var sub: String! var region: String! @IBOutlet weak var window: NSWindow! func applicationDidFinishLaunching(_ aNotification: Notification) { print("loading") // load subscription information sub = "YourSubscriptionKey" region = "YourServiceRegion" label = NSTextField(frame: NSRect(x: 100, y: 50, width: 200, height: 200)) label.textColor = NSColor.black label.lineBreakMode = .byWordWrapping label.stringValue = "Recognition Result" label.isEditable = false self.window.contentView?.addSubview(label) fromMicButton = NSButton(frame: NSRect(x: 100, y: 300, width: 200, height: 30)) fromMicButton.title = "Recognize" fromMicButton.target = self fromMicButton.action = #selector(fromMicButtonClicked) self.window.contentView?.addSubview(fromMicButton) } @objc func fromMicButtonClicked() { DispatchQueue.global(qos: .userInitiated).async { self.recognizeFromMic() } } func recognizeFromMic() { var speechConfig: SPXSpeechConfiguration? do { try speechConfig = SPXSpeechConfiguration(subscription: sub, region: region) } catch { print("error \(error) happened") speechConfig = nil } speechConfig?.speechRecognitionLanguage = "en-US" let audioConfig = SPXAudioConfiguration() let reco = try! SPXSpeechRecognizer(speechConfiguration: speechConfig!, audioConfiguration: audioConfig) reco.addRecognizingEventHandler() {reco, evt in print("intermediate recognition result: \(evt.result.text ?? "(no result)")") self.updateLabel(text: evt.result.text, color: .gray) } updateLabel(text: "Listening ...", color: .gray) print("Listening...") let result = try! reco.recognizeOnce() print("recognition result: \(result.text ?? "(no result)"), reason: \(result.reason.rawValue)") updateLabel(text: result.text, color: .black) if result.reason != SPXResultReason.recognizedSpeech { let cancellationDetails = try! SPXCancellationDetails(fromCanceledRecognitionResult: result) print("cancelled: \(result.reason), \(cancellationDetails.errorDetails)") print("Did you set the speech resource key and region values?") updateLabel(text: "Error: \(cancellationDetails.errorDetails)", color: .red) } } func updateLabel(text: String?, color: NSColor) { DispatchQueue.main.async { self.label.stringValue = text! self.label.textColor = color } } }Di
AppDelegate.m, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa. Untuk detail tentang cara mengidentifikasi salah satu dari beberapa bahasa yang mungkin diucapkan, lihat identifikasi bahasa.Buat output debug terlihat dengan memilih Tampilan>Area Debug>Aktifkan Konsol.
Buat dan jalankan kode contoh dengan memilih Product ->Run dari menu atau memilih tombol Play.
Setelah Anda memilih tombol di aplikasi dan mengucapkan beberapa kata, Anda akan melihat teks yang telah Anda ucapkan di bagian bawah layar. Saat menjalankan aplikasi untuk pertama kalinya, Anda harus diminta untuk memberikan akses aplikasi ke mikrofon komputer Anda.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut adalah beberapa pertimbangan tambahan:
Contoh ini menggunakan operasi recognizeOnce untuk mentranskripsikan ucapan hingga 30 detik, atau sampai keheningan terdeteksi. Untuk informasi tentang pengenalan berkelanjutan untuk audio yang lebih lama, termasuk percakapan multibahasa, lihat Cara mengenali ucapan.
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dokumentasi referensi | Paket (PyPi) | Sampel Tambahan pada GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Speech SDK untuk Python tersedia sebagai modul Indeks Paket Python (PyPI). Speech SDK untuk Python kompatibel dengan Windows, Linux, dan macOS.
- Anda harus menginstal Microsoft Visual C++ Redistributable untuk Visual Studio 2015, 2017, 2019, atau 2022 untuk platform Anda. Memasang paket ini untuk pertama kalinya mungkin memerlukan menghidupkan ulang.
- Di Linux, Anda harus menggunakan arsitektur target x64.
Pasang versi Python dari 3.7 hingga 3.10. Pertama-tama periksa panduan penginstalan SDK untuk persyaratan lain.
Mengenali ucapan dari mikrofon
Ikuti langkah-langkah ini untuk membuat aplikasi konsol baru.
Buka perintah di mana Anda menginginkan proyek baru, dan buat file baru bernama
speech-recognition.py.Jalankan perintah ini untuk menginstal SDK Ucapan:
pip install azure-cognitiveservices-speechSalin kode berikut ke dalam
speech_recognition.py:import azure.cognitiveservices.speech as speechsdk def recognize_from_microphone(): speech_config = speechsdk.SpeechConfig(subscription="YourSubscriptionKey", region="YourServiceRegion") speech_config.speech_recognition_language="en-US" audio_config = speechsdk.audio.AudioConfig(use_default_microphone=True) speech_recognizer = speechsdk.SpeechRecognizer(speech_config=speech_config, audio_config=audio_config) print("Speak into your microphone.") speech_recognition_result = speech_recognizer.recognize_once_async().get() if speech_recognition_result.reason == speechsdk.ResultReason.RecognizedSpeech: print("Recognized: {}".format(speech_recognition_result.text)) elif speech_recognition_result.reason == speechsdk.ResultReason.NoMatch: print("No speech could be recognized: {}".format(speech_recognition_result.no_match_details)) elif speech_recognition_result.reason == speechsdk.ResultReason.Canceled: cancellation_details = speech_recognition_result.cancellation_details print("Speech Recognition canceled: {}".format(cancellation_details.reason)) if cancellation_details.reason == speechsdk.CancellationReason.Error: print("Error details: {}".format(cancellation_details.error_details)) print("Did you set the speech resource key and region values?") recognize_from_microphone()Di
speech_recognition.py, gantiYourSubscriptionKeydengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, dan gantiYourServiceRegiondengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda.Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa. Untuk detail tentang cara mengidentifikasi salah satu dari beberapa bahasa yang mungkin diucapkan, lihat identifikasi bahasa.
Jalankan aplikasi konsol baru Anda untuk memulai pengenalan ucapan dari mikrofon:
python speech_recognition.py
Bicaralah ke mikrofon Saat diminta. Apa yang Anda bicarakan harus dikeluarkan sebagai teks:
Speak into your microphone.
RECOGNIZED: Text=I'm excited to try speech to text.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut adalah beberapa pertimbangan tambahan:
- Contoh ini menggunakan operasi
recognize_once_asyncuntuk mentranskripsikan ucapan hingga 30 detik, atau sampai keheningan terdeteksi. Untuk informasi tentang pengenalan berkelanjutan untuk audio yang lebih lama, termasuk percakapan multibahasa, lihat Cara mengenali ucapan. - Untuk mengenali ucapan dari file audio, gunakan
filenamesebagai penggantiuse_default_microphone:audio_config = speechsdk.audio.AudioConfig(filename="YourAudioFile.wav") - Untuk file audio terkompresi seperti MP4, instal GStreamer dan gunakan
PullAudioInputStreamatauPushAudioInputStream. Untuk informasi selengkapnya, lihat Cara menggunakan audio input terkompresi.
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Referensi REST API ucapan ke teks v3.0 | REST API ucapan ke teks untuk referensi audio singkat | Contoh Tambahan di GitHub
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang kunci langganan dan sumber daya Cognitive Services lainnya, lihat Mendapatkan kunci untuk sumber daya Anda.
Mengenali ucapan dari file
Pada perintah, jalankan perintah cURL berikut ini. Anda harus menyisipkan nilai berikut ke dalam perintah. Ganti YourSubscriptionKey dengan kunci sumber daya Azure Cognitive Service untuk Ucapan Anda, ganti YourServiceRegion dengan wilayah sumber daya Azure Cognitive Service untuk Ucapan Anda, dan ganti YourAudioFile.wav dengan jalur dan nama file audio Anda.
key="YourSubscriptionKey"
region="YourServiceRegion"
audio_file=@'YourAudioFile.wav'
curl --location --request POST \
"https://$region.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?language=en-US" \
--header "Ocp-Apim-Subscription-Key: $key" \
--header "Content-Type: audio/wav" \
--data-binary $audio_file
Anda harus menerima tanggapan yang serupa dengan apa yang ditunjukkan di sini. DisplayText haruslah teks yang dikenali dari file audio Anda. Audio hingga 30 detik akan dikenali dan dikonversi menjadi teks.
{
"RecognitionStatus": "Success",
"DisplayText": "My voice is my passport, verify me.",
"Offset": 6600000,
"Duration": 32100000
}
Untuk informasi selengkapnya, lihat API REST ucapan ke teks untuk audio pendek.
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.
Dalam mulai cepat ini, Anda menjalankan aplikasi untuk mengenali dan mentranskripsikan ucapan manusia (sering disebut ucapan ke teks).
Tip
Untuk mencoba layanan Azure Cognitive Service untuk Ucapan tanpa menulis kode apa pun, buat proyek di Speech Studio.
Prasyarat
- Langganan Azure - Membuat langganan gratis
- Buat sumber daya Azure di portal Azure.
- Dapatkan kunci sumber daya dan wilayah. Setelah sumber daya Azure Cognitive Service untuk Ucapan Anda disebarkan, pilih Buka sumber daya untuk melihat dan mengelola kunci. Untuk informasi selengkapnya tentang sumber daya Cognitive Services, lihat Mendapatkan kunci untuk sumber daya Anda.
Menyiapkan lingkungan
Ikuti langkah-langkah ini dan lihat mulai cepat CLI Ucapan untuk persyaratan tambahan untuk platform Anda.
Instal CLI Ucapan melalui CLI .NET dengan memasukkan perintah ini:
dotnet tool install --global Microsoft.CognitiveServices.Speech.CLIKonfigurasikan kunci dan wilayah sumber daya Ucapan Anda, dengan menjalankan perintah berikut. Ganti
SUBSCRIPTION-KEYdengan kunci sumber daya Ucapan Anda, dan gantiREGIONdengan wilayah sumber daya Ucapan Anda:spx config @key --set SUBSCRIPTION-KEY spx config @region --set REGION
Mengenali ucapan dari mikrofon
Jalankan perintah berikut untuk memulai pengenalan ucapan dari mikrofon:
spx recognize --microphone --source en-US
Bicaralah ke mikrofon, dan Anda melihat transkripsi kata-kata Anda ke dalam teks secara real time. CLI Ucapan akan berhenti setelah periode keheningan, setelah 30 detik, atau saat Anda menekan Ctrl+C.
Connection CONNECTED...
RECOGNIZED: I'm excited to try speech to text.
Keterangan
Sekarang setelah Anda menyelesaikan mulai cepat, berikut beberapa pertimbangan tambahan:
- Untuk mengenali ucapan dari file audio, gunakan
--filesebagai pengganti--microphone. Untuk file audio terkompresi seperti MP4, instal GStreamer dan gunakan--format. Untuk informasi selengkapnya, lihat Cara menggunakan audio input terkompresi.spx recognize --file YourAudioFile.wav spx recognize --file YourAudioFile.mp4 --format any - Untuk meningkatkan akurasi pengenalan kata atau ucapan tertentu, gunakan daftar frase. Anda menyertakan daftar frase secara in-line atau dengan file teks bersama dengan perintah kenali:
spx recognize --microphone --phrases "Contoso;Jessie;Rehaan;" spx recognize --microphone --phrases @phrases.txt - Untuk mengubah bahasa pengenalan ucapan, ganti
en-USdengan bahasa lain yang didukung. Misalnya,es-ESuntuk Spanyol (Spanyol). Bahasa default adalahen-USjika Anda tidak menentukan bahasa.spx recognize --microphone --source es-ES - Untuk terus melakukan pengenalan audio yang lebih dari 30 detik, tambahkan
--continuous:spx recognize --microphone --source es-ES --continuous
Jalankan perintah ini untuk informasi tentang opsi pengenalan ucapan tambahan seperti input dan output file:
spx help recognize
Membersihkan sumber daya
Anda dapat menggunakan portal Azure atau Azure Command Line Interface (CLI) untuk menghapus sumber daya Ucapan yang Anda buat.