PropertyId enum

Definiuje identyfikatory właściwości mowy.

Pola

SpeechServiceConnection_Key = 0

Klucz subskrypcji usługi Mowa w usługach Cognitive Services. Jeśli używasz rozpoznawania intencji, musisz określić klucz punktu końcowego usługi LUIS dla określonej aplikacji usługi LUIS. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromSubscription.

SpeechServiceConnection_Endpoint = 1

Punkt końcowy usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromEndpoint. UWAGA: Ten punkt końcowy nie jest taki sam jak punkt końcowy używany do uzyskania tokenu dostępu.

SpeechServiceConnection_Region = 2

Region usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken.

SpeechServiceAuthorization_Token = 3

Token autoryzacji usługi Speech Service usług Cognitive Services (czyli token dostępu). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken.

SpeechServiceAuthorization_Type = 4

Typ autoryzacji usługi Mowa w usługach Cognitive Services. Obecnie nieużywane.

SpeechServiceConnection_EndpointId = 5

Identyfikator punktu końcowego usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj identyfikatora SpeechConfig.endpointId. UWAGA: identyfikator punktu końcowego jest dostępny w portalu mowy, na liście w obszarze Szczegóły punktu końcowego.

SpeechServiceConnection_TranslationToLanguages = 6

Lista języków rozdzielonych przecinkami (format BCP-47) używanych jako języki tłumaczenia docelowego. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages.

SpeechServiceConnection_TranslationVoice = 7

Nazwa tekstu usługi Cognitive Service na głos usługi Mowa. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechTranslationConfig.voiceName. UWAGA: Prawidłowe nazwy głosu można znaleźć tutaj.

SpeechServiceConnection_TranslationFeatures = 8

Funkcje tłumaczenia.

SpeechServiceConnection_IntentRegion = 9

Region usługi Language Understanding. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj elementu LanguageUnderstandingModel.

SpeechServiceConnection_ProxyHostName = 10

Nazwa hosta serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0.

SpeechServiceConnection_ProxyPort = 11

Port serwera proxy używany do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0.

SpeechServiceConnection_ProxyUserName = 12

Nazwa użytkownika serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0.

SpeechServiceConnection_ProxyPassword = 13

Hasło serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. Dotyczy tylko środowisk Node.js. Nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia . Dodano w wersji 1.4.0.

SpeechServiceConnection_RecoMode = 14

Tryb rozpoznawania usługi Rozpoznawanie mowy w usługach Cognitive Services. Może to być "INTERACTIVE", "CONVERSATION", "DICTATION". Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie.

SpeechServiceConnection_RecoLanguage = 15

Język mówiony rozpoznawany (w formacie BCP-47). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.speechRecognitionLanguage.

Speech_SessionId = 16

Identyfikator sesji. Ten identyfikator jest powszechnie unikatowym identyfikatorem (aka UUID) reprezentującym określone powiązanie strumienia wejściowego audio i bazowego wystąpienia rozpoznawania mowy, do którego jest powiązana. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj parametru SessionEventArgs.sessionId.

SpeechServiceConnection_SynthLanguage = 17

Język mówiony, który ma być syntetyzowany (np. en-US)

SpeechServiceConnection_SynthVoice = 18

Nazwa głosu TTS, który ma być używany do syntezy mowy

SpeechServiceConnection_SynthOutputFormat = 19

Ciąg określający format dźwięku wyjściowego TTS

SpeechServiceConnection_AutoDetectSourceLanguages = 20

Lista języków rozdzielanych przecinkami używanych jako możliwe języki źródłowe Dodane w wersji 1.13.0

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

Żądany format danych wyjściowych odpowiedzi usługi Mowa w usługach Cognitive Services (prosty lub szczegółowy). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj elementu SpeechConfig.outputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

Żądany poziom wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Obecnie nieużywane.

SpeechServiceResponse_JsonResult = 23

Dane wyjściowe odpowiedzi usługi Mowa w usługach Cognitive Services (w formacie JSON). Ta właściwość jest dostępna tylko w obiektach wyników rozpoznawania.

SpeechServiceResponse_JsonErrorDetails = 24

Szczegóły błędu usługi Mowa w usługach Cognitive Services (w formacie JSON). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia CancellationDetails.errorDetails.

CancellationDetails_Reason = 25

Przyczyna anulowania. Obecnie nieużywane.

CancellationDetails_ReasonText = 26

Tekst anulowania. Obecnie nieużywane.

CancellationDetails_ReasonDetailedText = 27

Szczegółowy tekst anulowania. Obecnie nieużywane.

LanguageUnderstandingServiceResponse_JsonResult = 28

Dane wyjściowe odpowiedzi usługi Language Understanding (w formacie JSON). Dostępne za pośrednictwem intencjiRecognitionResult

SpeechServiceConnection_Url = 29

Ciąg adresu URL utworzony na podstawie konfiguracji mowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. UWAGA: Dodano w wersji 1.7.0.

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

Początkowa wartość limitu czasu ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.7.0

SpeechServiceConnection_EndSilenceTimeoutMs = 31

Wartość limitu czasu zakończenia ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.7.0

Speech_SegmentationSilenceTimeoutMs = 32

Czas trwania wykrytej ciszy, mierzony w milisekundach, po którym zamiana mowy na tekst określi, że fraza mówiona zakończyła się i wygeneruje końcowy wynik Rozpoznany. Skonfigurowanie tego limitu czasu może być przydatne w sytuacjach, gdy mówione dane wejściowe są znacznie szybsze lub wolniejsze niż zwykle, a domyślne zachowanie segmentacji stale daje wyniki zbyt długie lub zbyt krótkie. Wartości limitu czasu segmentacji, które są niewłaściwie wysokie lub niskie, mogą negatywnie wpływać na dokładność zamiany mowy na tekst; ta właściwość powinna być starannie skonfigurowana, a wynikowe zachowanie powinno być dokładnie zweryfikowane zgodnie z oczekiwaniami.

Aby uzyskać więcej informacji na temat konfiguracji limitu czasu, która obejmuje omówienie domyślnych zachowań, odwiedź stronę https://aka.ms/csspeech/timeouts.

Dodano w wersji 1.21.0.

SpeechServiceConnection_EnableAudioLogging = 33

Wartość logiczna określająca, czy rejestrowanie audio jest włączone w usłudze, czy nie. Dzienniki audio i zawartości są przechowywane w magazynie należącym do firmy Microsoft lub na własnym koncie magazynu połączonym z subskrypcją usług Cognitive Services (Bring Your Own Storage (BYOS) z włączoną usługą Mowa. Dzienniki zostaną usunięte po upływie 30 dni. Dodano w wersji 1.7.0

SpeechServiceConnection_LanguageIdMode = 34

Tryb identyfikatora języka połączenia usługi mowa. Może to być "AtStart" (wartość domyślna) lub "Continuous". Aby uzyskać więcej informacji, zobacz Dokument https://aka.ms/speech/lid?pivots=programming-language-javascript identyfikacji języka. Dodano w wersji 1.25.0

SpeechServiceConnection_RecognitionEndpointVersion = 35

Wartość ciągu reprezentująca żądaną wersję punktu końcowego docelową dla rozpoznawania mowy. Dodano w wersji 1.21.0

SpeechServiceConnection_SpeakerIdMode = 36

/**

  • Wartość ciągu bieżącego scenariusza/trybu rozpoznawania osoby mówiącej (TextIndependentIdent itp.).
  • Dodano w wersji 1.23.0
SpeechServiceResponse_ProfanityOption = 37

Żądane ustawienie wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Dozwolone wartości to "maskowane", "usunięte" i "nieprzetworzone". Dodano w wersji 1.7.0.

SpeechServiceResponse_PostProcessingOption = 38

Wartość ciągu określająca, która opcja przetwarzania końcowego powinna być używana przez usługę. Dozwolone wartości to "TrueText". Dodano w wersji 1.7.0

SpeechServiceResponse_RequestWordLevelTimestamps = 39

Wartość logiczna określająca, czy należy uwzględnić znaczniki czasu na poziomie wyrazu w wyniku odpowiedzi. Dodano w wersji 1.7.0

SpeechServiceResponse_StablePartialResultThreshold = 40

Liczba przypadków zwracania wyrazu w częściowych wynikach. Dodano w wersji 1.7.0

SpeechServiceResponse_OutputFormatOption = 41

Wartość ciągu określająca opcję formatu wyjściowego w wyniku odpowiedzi. Tylko do użytku wewnętrznego. Dodano w wersji 1.7.0.

SpeechServiceResponse_TranslationRequestStablePartialResult = 42

Wartość logiczna do żądania stabilizacji wyników częściowych tłumaczenia przez pominięcie wyrazów w końcu. Dodano w wersji 1.7.0.

SpeechServiceResponse_RequestWordBoundary = 43

Wartość logiczna określająca, czy żądać zdarzeń programu WordBoundary.

SpeechServiceResponse_RequestPunctuationBoundary = 44

Wartość logiczna określająca, czy żądać granicy interpunkcyjnej w zdarzeniach WordBoundary. Wartość domyślna to „true”.

SpeechServiceResponse_RequestSentenceBoundary = 45

Wartość logiczna określająca, czy żądać granicy zdań w zdarzeniach WordBoundary. Wartość domyślna to false.

Conversation_ApplicationId = 46

Identyfikator używany do nawiązywania połączenia z usługą zaplecza.

Conversation_DialogType = 47

Typ zaplecza okna dialogowego do nawiązania połączenia.

Conversation_Initial_Silence_Timeout = 48

Limit czasu ciszy na potrzeby nasłuchiwania

Conversation_From_Id = 49

Z identyfikatora, aby dodać do działań rozpoznawania mowy.

Conversation_Conversation_Id = 50

Identyfikator konwersacji dla sesji.

Conversation_Custom_Voice_Deployment_Ids = 51

Rozdzielona przecinkami lista niestandardowych identyfikatorów wdrożeń głosowych.

Conversation_Speech_Activity_Template = 52

Szablon działania mowy, właściwości sygnatury z szablonu dla działania wygenerowanego przez usługę na potrzeby mowy.

Conversation_Request_Bot_Status_Messages = 53

Włącza lub wyłącza odbieranie komunikatów o stanie włączenia, jak uzyskano w zdarzeniu turnStatusReceived.

Conversation_Agent_Connection_Id = 54

Określa identyfikator połączenia, który ma zostać podany w komunikacie konfiguracji agenta, np. token Direct Line na potrzeby uwierzytelniania kanału. Dodano w wersji 1.15.1.

SpeechServiceConnection_Host = 55

Host usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig.fromHost.

ConversationTranslator_Host = 56

Ustaw hosta dla wywołań usługi do zarządzania REST usługi Conversation Translator i wywołań protokołu Websocket.

ConversationTranslator_Name = 57

Opcjonalnie ustaw nazwę wyświetlaną hosta. Używany podczas dołączania do konwersacji.

ConversationTranslator_CorrelationId = 58

Opcjonalnie ustaw wartość nagłówka żądania X-CorrelationId. Służy do rozwiązywania problemów z błędami w dziennikach serwera. Powinien być prawidłowym identyfikatorem GUID.

ConversationTranslator_Token = 59

Ustaw token konwersacji, który ma zostać wysłany do usługi mowy. Dzięki temu usługa może obsługiwać wywołanie z usługi rozpoznawania mowy do usługi Conversation Translator na potrzeby przekazywania rozpoznawania. Do użytku wewnętrznego.

PronunciationAssessment_ReferenceText = 60

Tekst referencyjny dźwięku do oceny wymowy. Aby uzyskać szczegółowe informacje, zobacz https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters następujące parametry oceny wymowy. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0

PronunciationAssessment_GradingSystem = 61

System punktów dla kalibracji wyniku wymowy (FivePoint lub HundredMark). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0

PronunciationAssessment_Granularity = 62

Stopień szczegółowości oceny wymowy (Phoneme, Word lub FullText). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0

PronunciationAssessment_EnableMiscue = 63

Określa, czy włączyć błędne obliczenie. Po włączeniu tej opcji wyrazy wymawiane będą porównywane z tekstem referencyjnym i będą oznaczone pominięciem/wstawieniem na podstawie porównania. Ustawieniem domyślnym jest wartość False. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Dodano w wersji 1.15.0

PronunciationAssessment_Json = 64

Ciąg json parametrów oceny wymowy W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Dodano w wersji 1.15.0

PronunciationAssessment_Params = 65

Parametry oceny wymowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano w wersji 1.15.0

SpeakerRecognition_Api_Version = 66

Wersja interfejsu API rozpoznawania osoby mówiącej do użycia. Dodano w wersji 1.18.0

WebWorkerLoadType = 67

Określa, czy zezwalać na ładowanie adresu URL danych dla dozwolonych wartości procesu roboczego sieci Web są "wyłączone" i "włączone". Wartość domyślna to "włączone". Dodano w wersji 1.32.0

TalkingAvatarService_WebRTC_SDP = 68

Omówienie protokołu opisu sesji WebRTC usługi awatara. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano w wersji 1.33.0