Espace de noms Microsoft ::CognitiveServices ::Speech

Résumé

Membres Descriptions
enum PropertyId Définit les ID de propriété vocale. Modification dans la version 1.4.0.
enum OutputFormat Format de sortie.
enum ProfanityOption Supprime les grossièretés (jurons) ou remplace les lettres de mots profanes par des étoiles. Ajout dans la version 1.5.0.
enum ResultReason Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.
enum CancellationReason Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.
enum CancellationErrorCode Définit le code d’erreur dans le cas où CancellationReason est Error. Ajout dans la version 1.1.0.
énumération NoMatchReason Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.
enum ActivityJSONType Définit les types possibles pour une valeur json d’activité. Ajout dans la version 1.5.0.
enum SpeechSynthesisOutputFormat Définit les formats audio de sortie de synthèse vocale possibles. Mise à jour dans la version 1.19.0.
enum StreamStatus Définit les status possibles du flux de données audio. Ajouté dans la version 1.4.0.
enum ServicePropertyChannel Définit les canaux utilisés pour transmettre les paramètres de propriété au service. Ajout dans la version 1.5.0.
enum VoiceProfileType Définit les types de profils vocaux.
enum RecognitionFactorScope Définit l’étendue à laquelle un facteur de reconnaissance est appliqué.
enum PrononciationAssessmentGradingSystem Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajout dans la version 1.14.0.
enum PrononciationAssessmentGranularity Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème. Ajout dans la version 1.14.0.
enum SynthesisVoiceType Définit le type de voix de synthèse ajoutées dans la version 1.16.0.
enum SynthesisVoiceGender Définit le sexe des voix de synthèse ajoutées dans la version 1.17.0.
enum SpeechSynthesisBoundaryType Définit le type de limite de l’événement de limite de synthèse vocale Ajouté dans la version 1.21.0.
classe AsyncRecognizer Classe de base abstraite AsyncRecognizer.
classe AudioDataStream Représente le flux de données audio utilisé pour l’exploitation des données audio en tant que flux. Ajouté dans la version 1.4.0.
classe AutoDetectSourceLanguageConfig Classe qui définit la configuration de la source de détection automatique Mise à jour dans la version 1.13.0.
classe AutoDetectSourceLanguageResult Contient le résultat de la langue source détectée automatiqueMent ajouté dans la version 1.8.0.
classe BaseAsyncRecognizer Classe BaseAsyncRecognizer.
classe CancellationDetails Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.
classe ClassLanguageModel Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajout dans la version 1.7.0.
connexion de classe La connexion est une classe proxy permettant de gérer la connexion au service speech du recognizer spécifié. Par défaut, un recognizer gère de manière autonome la connexion au service en cas de besoin. La classe Connection fournit des méthodes supplémentaires permettant aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner à la connexion status modifications. L’utilisation de Connexion est facultative. Il est destiné aux scénarios dans lesquels un réglage précis du comportement de l’application en fonction de la status de connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler Open() pour lancer manuellement une connexion de service avant de démarrer la reconnaissance sur le recognizer associé à cette connexion. Après avoir démarré une reconnaissance, l’appel de Open() ou Close() peut échouer. Cela n’aura pas d’impact sur le recognizer ou la reconnaissance en cours. La connexion peut tomber pour différentes raisons. Le recognizer essaiera toujours de rétablir la connexion en fonction des besoins pour garantir les opérations en cours. Dans tous ces cas, les événements connectés/déconnectés indiquent la modification de la status de connexion. Mise à jour dans la version 1.17.0.
classe ConnectionEventArgs Fournit des données pour l’événement ConnectionEvent. Ajout dans la version 1.2.0.
classe ConnectionMessage ConnectionMessage représente les messages spécifiques à l’implémentation envoyés au service speech et reçus à partir du service speech. Ces messages sont fournis à des fins de débogage et ne doivent pas être utilisés pour des cas d’usage de production avec azure Cognitive Services Speech Service. Les messages envoyés au service Speech et reçus à partir de celui-ci peuvent être modifiés sans préavis. Cela inclut le contenu des messages, les en-têtes, les charges utiles, le classement, etc. Ajout dans la version 1.10.0.
classe ConnectionMessageEventArgs Fournit des données pour l’événement ConnectionMessageEvent.
classe EmbeddedSpeechConfig Classe qui définit la configuration vocale incorporée (hors connexion).
classe EventArgs Classe de base pour les arguments d’événement.
classe EventSignal Les clients peuvent se connecter au signal d’événement pour recevoir des événements ou se déconnecter du signal d’événement pour arrêter la réception des événements.
classe EventSignalBase Les clients peuvent se connecter au signal d’événement pour recevoir des événements ou se déconnecter du signal d’événement pour arrêter la réception des événements.
grammaire de classe Représente la grammaire de la classe de base pour la personnalisation de la reconnaissance vocale. Ajout dans la version 1.5.0.
classe GrammarList Représente une liste de grammaires pour les scénarios de grammaire dynamique. Ajout dans la version 1.7.0.
classe GrammarPhrase Représente une expression qui peut être prononcée par l’utilisateur. Ajout dans la version 1.5.0.
classe HybridSpeechConfig Classe qui définit des configurations hybrides (cloud et incorporées) pour la reconnaissance vocale ou la synthèse vocale.
classe KeywordRecognitionEventArgs Classe pour les événements émis par keywordRecognizer.
classe KeywordRecognitionModel Représente mot clé modèle de reconnaissance utilisé avec les méthodes StartKeywordRecognitionAsync.
classe KeywordRecognitionResult Classe qui définit les résultats émis par le KeywordRecognizer.
classe KeywordRecognizer Type de module de reconnaissance spécialisé pour gérer uniquement l’activation mot clé.
classe NoMatchDetails Contient des informations détaillées sur les résultats de la reconnaissance NoMatch.
classe PhraseListGrammar Représente une grammaire de liste d’expressions pour les scénarios de grammaire dynamique. Ajout dans la version 1.5.0.
classe PrononciationAssessmentConfig Classe qui définit la configuration d’évaluation de la prononciation Ajoutée dans 1.14.0.
classe PrononciationAssessmentResult Classe pour les résultats de l’évaluation de la prononciation.
classe PrononciationContentAssessmentResult Classe pour les résultats de l’évaluation du contenu.
classe PropertyCollection Classe pour récupérer ou définir une valeur de propriété à partir d’une collection de propriétés.
classe RecognitionEventArgs Fournit des données pour l’événement RecognitionEvent.
classe RecognitionResult Contient des informations détaillées sur le résultat d’une opération de reconnaissance.
class Recognizer Classe de base recognizer.
classe SessionEventArgs Classe de base pour les arguments d’événement de session.
classe SmartHandle Classe de handle intelligent.
classe SourceLanguageConfig Classe qui définit la configuration de la langue source, ajoutée dans 1.8.0.
classe SourceLanguageRecognizer Classe pour les modules de reconnaissance de langue source. Vous pouvez utiliser cette classe pour la détection de langue autonome. Ajout dans la version 1.17.0.
classe SpeechConfig Classe qui définit des configurations pour la reconnaissance vocale/intention ou la synthèse vocale.
classe SpeechRecognitionCanceledEventArgs Classe pour les arguments d’événement annulés par reconnaissance vocale.
classe SpeechRecognitionEventArgs Classe pour les arguments d’événement de reconnaissance vocale.
classe SpeechRecognitionModel Informations sur le modèle de reconnaissance vocale.
classe SpeechRecognitionResult Classe de base pour les résultats de la reconnaissance vocale.
classe SpeechRecognizer Classe pour les reconnaissances vocales.
classe SpeechSynthesisBookmarkEventArgs Classe pour les arguments d’événement de signet de synthèse vocale. Ajout dans la version 1.16.0.
classe SpeechSynthesisCancellationDetails Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé. Ajouté dans la version 1.4.0.
classe SpeechSynthesisEventArgs Classe pour les arguments d’événement de synthèse vocale. Ajouté dans la version 1.4.0.
classe SpeechSynthesisResult Contient des informations sur le résultat de la synthèse vocale. Ajouté dans la version 1.4.0.
classe SpeechSynthesisVisemeEventArgs Classe pour les arguments d’événement de visème de synthèse vocale. Ajout dans la version 1.16.0.
classe SpeechSynthesisWordBoundaryEventArgs Classe pour les arguments d’événement de limite de mot de synthèse vocale. Ajout dans la version 1.7.0.
classe SpeechSynthesizer Classe pour synthétiseur vocal. Mise à jour dans la version 1.14.0.
classe SpeechTranslationModel Informations sur le modèle de traduction vocale.
classe SynthesisVoicesResult Contient des informations sur les résultats de la liste des voix des synthétiseurs vocaux. Ajout dans la version 1.16.0.
classe VoiceInfo Contient des informations sur les informations vocales de synthèse mises à jour dans la version 1.17.0.

Membres

enum PropertyId

Valeurs Descriptions
SpeechServiceConnection_Key Clé d’abonnement au service Speech Cognitive Services. Si vous utilisez un outil de reconnaissance d’intention, vous devez spécifier la clé de point de terminaison LUIS pour votre application LUIS particulière. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription.
SpeechServiceConnection_Endpoint Point de terminaison (URL) du service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromEndpoint. REMARQUE : ce point de terminaison n’est pas le même que le point de terminaison utilisé pour obtenir un jeton d’accès.
SpeechServiceConnection_Region Région du service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromSubscription, SpeechConfig ::FromEndpoint, SpeechConfig ::FromHost, SpeechConfig ::FromAuthorizationToken.
SpeechServiceAuthorization_Token Jeton d’autorisation du service Speech Cognitive Services (également appelé jeton d’accès). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. À la place, utilisez SpeechConfig ::FromAuthorizationToken, SpeechRecognizer ::SetAuthorizationToken, IntentRecognizer ::SetAuthorizationToken, TranslationRecognizer ::SetAuthorizationToken.
SpeechServiceAuthorization_Type Type d’autorisation du service Speech Cognitive Services. Actuellement inutilisé.
SpeechServiceConnection_EndpointId ID de point de terminaison De reconnaissance vocale personnalisée ou de service vocal personnalisé Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetEndpointId. REMARQUE : l’ID de point de terminaison est disponible dans le portail Speech personnalisé, répertorié sous Détails du point de terminaison.
SpeechServiceConnection_Host L’hôte du service Speech Cognitive Services (URL). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::FromHost.
SpeechServiceConnection_ProxyHostName Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyPort Port du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyUserName Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_ProxyPassword Mot de passe du serveur proxy utilisé pour se connecter au service Speech Cognitive Services. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetProxy. REMARQUE : cet ID de propriété a été ajouté dans la version 1.1.0.
SpeechServiceConnection_Url Chaîne d’URL générée à partir de la configuration vocale. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. REMARQUE : Ajouté dans la version 1.5.0.
SpeechServiceConnection_TranslationToLanguages Liste des langues séparées par des virgules utilisées comme langues de traduction cibles. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig ::AddTargetLanguage et SpeechTranslationConfig ::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice Nom de la voix du service de synthèse vocale cognitive. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechTranslationConfig ::SetVoiceName. REMARQUE : Les noms de voix valides sont disponibles ici.
SpeechServiceConnection_TranslationFeatures Fonctionnalités de traduction. À usage interne uniquement.
SpeechServiceConnection_IntentRegion Région de service Language Understanding. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode Mode de reconnaissance du service Speech De Cognitive Services. Peut être « INTERACTIVE », « CONVERSATION », « DICTÉE ». Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne.
SpeechServiceConnection_RecoLanguage Langue parlée à reconnaître (au format BCP-47). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetSpeechRecognitionLanguage.
Speech_SessionId ID de session. Cet ID est un identificateur universel unique (alias UUID) représentant une liaison spécifique d’un flux d’entrée audio et la instance de reconnaissance vocale sous-jacente à laquelle il est lié. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SessionEventArgs ::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Paramètres de requête fournis par les utilisateurs. Ils seront passés au service en tant que paramètres de requête d’URL. Ajout dans la version 1.5.0.
SpeechServiceConnection_RecoBackend Chaîne pour spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, l’option hors connexion n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_RecoModelName Nom du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_RecoModelKey Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_RecoModelIniFile Chemin d’accès au fichier ini du modèle à utiliser pour la reconnaissance vocale. En temps normal, vous ne devez pas utiliser cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé. Ajout dans la version 1.19.0.
SpeechServiceConnection_SynthLanguage Langue parlée à synthétiser (par exemple, en-US) Ajoutée dans la version 1.4.0.
SpeechServiceConnection_SynthVoice Nom de la voix TTS à utiliser pour la synthèse vocale Ajoutée dans la version 1.4.0.
SpeechServiceConnection_SynthOutputFormat Chaîne permettant de spécifier le format audio de sortie TTS Ajouté dans la version 1.4.0.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Indique si le format audio compressé est utilisé pour la transmission audio de synthèse vocale. Cette propriété affecte uniquement quand SpeechServiceConnection_SynthOutputFormat est défini sur un format pcm. Si cette propriété n’est pas définie et que GStreamer est disponible, le SDK utilise le format compressé pour la transmission audio synthétisée et le décode. Vous pouvez définir cette propriété sur « false » pour utiliser le format pcm brut pour la transmission sur le réseau. Ajouté dans la version 1.16.0.
SpeechServiceConnection_SynthBackend Chaîne pour spécifier le serveur principal TTS ; les options valides sont en ligne et hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths pour définir le serveur principal de synthèse sur hors connexion. Ajouté dans la version 1.19.0.
SpeechServiceConnection_SynthOfflineDataPath Chemin d’accès au fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le serveur principal de synthèse est hors connexion. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::FromPath ou EmbeddedSpeechConfig ::FromPaths. Ajouté dans la version 1.19.0.
SpeechServiceConnection_SynthOfflineVoice Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::SetSpeechSynthesisVoice et EmbeddedSpeechConfig ::GetSpeechSynthesisVoiceName. Ajouté dans la version 1.19.0.
SpeechServiceConnection_SynthModelKey Clé de déchiffrement de la voix à utiliser pour la synthèse vocale. Dans des circonstances normales, vous ne devez pas utiliser cette propriété directement. Utilisez plutôt EmbeddedSpeechConfig ::SetSpeechSynthesisVoice. Ajouté dans la version 1.19.0.
SpeechServiceConnection_VoicesListEndpoint Point de terminaison (URL) de l’API de liste de voix du service Speech Cognitive Services. Dans des circonstances normales, vous n’avez pas besoin de spécifier cette propriété, car le SDK la construit en fonction de la région/de l’hôte/du point de terminaison de SpeechConfig. Ajouté dans la version 1.16.0.
SpeechServiceConnection_InitialSilenceTimeoutMs Valeur de délai d’expiration du silence initial (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0.
SpeechServiceConnection_EndSilenceTimeoutMs Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service. Ajouté dans la version 1.5.0.
SpeechServiceConnection_EnableAudioLogging Valeur booléenne spécifiant si la journalisation audio est activée ou non dans le service. Les journaux d’activité audio et de contenu sont stockés soit dans un stockage appartenant à Microsoft, soit dans votre propre compte de stockage lié à votre abonnement Cognitive Services (ressource Speech byOS (Bring Your Own Storage) activée). Ajouté dans la version 1.5.0.
SpeechServiceConnection_LanguageIdMode Mode d’identificateur de langue de connexion du service speech. Peut être « AtStart » (valeur par défaut) ou « Continu ». Consultez le document d’identification de la langue . Ajouté dans la version 1.25.0.
SpeechServiceConnection_AutoDetectSourceLanguages Détection automatique des langues sources ajoutées dans la version 1.8.0.
SpeechServiceConnection_AutoDetectSourceLanguageResult Le résultat de la détection automatique de la langue source a été ajouté dans la version 1.8.0.
SpeechServiceResponse_RequestDetailedResultTrueFalse Format de sortie de réponse du service Speech Cognitive Services demandé (simple ou détaillé). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt SpeechConfig ::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse Niveau de grossièreté de la réponse du service Speech de Cognitive Services demandé. Actuellement inutilisé.
SpeechServiceResponse_ProfanityOption Paramètre de sortie de réponse du service Speech de Cognitive Services demandé. Les valeurs autorisées sont « masked », « removed » et « raw ». Ajouté dans la version 1.5.0.
SpeechServiceResponse_PostProcessingOption Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service. Les valeurs autorisées sont « TrueText ». Ajouté dans la version 1.5.0.
SpeechServiceResponse_RequestWordLevelTimestamps Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse. Ajouté dans la version 1.5.0.
SpeechServiceResponse_StablePartialResultThreshold Nombre de fois où un mot doit être dans des résultats partiels à retourner. Ajouté dans la version 1.5.0.
SpeechServiceResponse_OutputFormatOption Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse. À usage interne uniquement Ajouté dans la version 1.5.0.
SpeechServiceResponse_RequestSnr Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse. Ajout dans la version 1.18.0.
SpeechServiceResponse_TranslationRequestStablePartialResult Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin. Ajouté dans la version 1.5.0.
SpeechServiceResponse_RequestWordBoundary Valeur booléenne spécifiant s’il faut demander des événements WordBoundary. Ajouté dans la version 1.21.0.
SpeechServiceResponse_RequestPunctuationBoundary Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans les événements WordBoundary. La valeur par défaut est true. Ajouté dans la version 1.21.0.
SpeechServiceResponse_RequestSentenceBoundary Valeur booléenne spécifiant s’il faut demander la limite de phrase dans les événements WordBoundary. La valeur par défaut est false. Ajouté dans la version 1.21.0.
SpeechServiceResponse_SynthesisEventsSyncToAudio Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple, limite de mot, visème, etc.) avec la lecture audio. Cela ne prend effet que lorsque l’audio est lu via le KIT de développement logiciel (SDK). La valeur par défaut est true. Si la valeur est false, le Kit de développement logiciel (SDK) déclenche les événements car ils proviennent du service, qui peut ne pas être synchronisé avec la lecture audio. Ajout dans la version 1.31.0.
SpeechServiceResponse_JsonResult Sortie de réponse du service Speech Cognitive Services (au format JSON). Cette propriété est disponible uniquement sur les objets de résultat de reconnaissance.
SpeechServiceResponse_JsonErrorDetails Détails de l’erreur du service Speech Cognitive Services (au format JSON). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt CancellationDetails ::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs Latence de reconnaissance en millisecondes. En lecture seule, disponible sur les résultats finaux de la parole,de la traduction/de l’intention. Cela mesure la latence entre le moment où une entrée audio est reçue par le SDK et le moment où le résultat final est reçu du service. Le Kit de développement logiciel (SDK) calcule la différence de temps entre le dernier fragment audio de l’entrée audio qui contribue au résultat final et l’heure à laquelle le résultat final est reçu du service speech. Ajouté dans la version 1.3.0.
SpeechServiceResponse_RecognitionBackend Back-end de reconnaissance. En lecture seule, disponible sur les résultats de la reconnaissance vocale. Cela indique si la reconnaissance cloud (en ligne) ou incorporée (hors connexion) a été utilisée pour produire le résultat.
SpeechServiceResponse_SynthesisFirstByteLatencyMs Latence du premier octet de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où le premier audio octet est disponible. Ajouté dans la version 1.17.0.
SpeechServiceResponse_SynthesisFinishLatencyMs La synthèse vocale est la latence de tous les octets en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où l’ensemble de l’audio est synthétisé. Ajouté dans la version 1.17.0.
SpeechServiceResponse_SynthesisUnderrunTimeMs Durée de sous-exécution de la synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats dans les événements SynthesisCompleted. Cela mesure le temps total de sous-exécution entre PropertyId ::AudioConfig_PlaybackBufferLengthInMs est rempli jusqu’à la fin de la synthèse. Ajouté dans la version 1.17.0.
SpeechServiceResponse_SynthesisConnectionLatencyMs Latence de connexion de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure la latence entre le moment où la synthèse a commencé à être traitée et le moment où la connexion HTTP/WebSocket est établie. Ajouté dans la version 1.26.0.
SpeechServiceResponse_SynthesisNetworkLatencyMs Latence du réseau de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps d’aller-retour réseau. Ajouté dans la version 1.26.0.
SpeechServiceResponse_SynthesisServiceLatencyMs Latence du service de synthèse vocale en millisecondes. En lecture seule, disponible sur les résultats finaux de la synthèse vocale. Cela mesure le temps de traitement du service pour synthétiser le premier octet de l’audio. Ajouté dans la version 1.26.0.
SpeechServiceResponse_SynthesisBackend Indique le back-end par lequel la synthèse est terminée. En lecture seule, disponible sur les résultats de synthèse vocale, à l’exception du résultat dans l’événement SynthesisStarted Ajouté dans la version 1.17.0.
CancellationDetails_Reason Motif de l’annulation. Actuellement inutilisé.
CancellationDetails_ReasonText Texte d’annulation. Actuellement inutilisé.
CancellationDetails_ReasonDetailedText Texte détaillé de l’annulation. Actuellement inutilisé.
LanguageUnderstandingServiceResponse_JsonResult Sortie de réponse du service Language Understanding (au format JSON). Disponible via IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture Nom de l’appareil pour la capture audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromMicrophoneInput. REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_NumberOfChannelsForCapture Nombre de canaux pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_SampleRateForCapture Taux d’échantillonnage (en Hz) pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_BitsPerSampleForCapture Nombre de bits de chaque échantillon pour la capture audio. À usage interne uniquement REMARQUE : cet ID de propriété a été ajouté dans la version 1.3.0.
AudioConfig_AudioSource Source audio. Les valeurs autorisées sont « Microphones », « File » et « Stream ». Ajouté dans la version 1.3.0.
AudioConfig_DeviceNameForRender Nom de l’appareil pour le rendu audio. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt AudioConfig ::FromSpeakerOutput. Ajouté dans la version 1.14.0.
AudioConfig_PlaybackBufferLengthInMs Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes.
AudioConfig_AudioProcessingOptions Options de traitement audio au format JSON.
Speech_LogFilename Nom de fichier pour écrire les journaux. Ajouté dans la version 1.4.0.
Speech_SegmentationSilenceTimeoutMs Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final Reconnu. La configuration de ce délai d’expiration peut être utile dans les situations où l’entrée orale est beaucoup plus rapide ou plus lente que d’habitude et où le comportement de segmentation par défaut génère systématiquement des résultats trop longs ou trop courts. Les valeurs de délai d’expiration de segmentation qui sont incorrectement élevées ou faibles peuvent affecter négativement la précision de la reconnaissance vocale ; cette propriété doit être configurée avec soin et le comportement qui en résulte doit être entièrement validé comme prévu.
Conversation_ApplicationId Identificateur utilisé pour se connecter au service principal. Ajouté dans la version 1.5.0.
Conversation_DialogType Type de back-end de dialogue auquel se connecter. Ajouté dans la version 1.7.0.
Conversation_Initial_Silence_Timeout Délai d’expiration du silence pour l’écoute Ajouté dans la version 1.5.0.
Conversation_From_Id À partir de l’ID à utiliser sur les activités de reconnaissance vocale Ajouté dans la version 1.5.0.
Conversation_Conversation_Id ConversationId pour la session. Ajouté dans la version 1.8.0.
Conversation_Custom_Voice_Deployment_Ids Liste séparée par des virgules des ID de déploiement de la voix personnalisée. Ajouté dans la version 1.8.0.
Conversation_Speech_Activity_Template Modèle d’activité Speech, propriétés d’empreinte dans le modèle sur l’activité générée par le service de reconnaissance vocale. Ajouté dans la version 1.10.0.
Conversation_ParticipantId Votre identificateur de participant dans la conversation actuelle. Ajouté dans la version 1.13.0.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. L’horodatage est une valeur 64 bits avec une résolution de 90 kHz. Il est identique à l’horodatage de présentation dans un flux de transport MPEG. Voir https://en.wikipedia.org/wiki/Presentation_timestamp Ajout dans la version 1.5.0.
DataBuffer_UserId ID utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux d’entrée audio Pull/Push. Ajouté dans la version 1.5.0.
PronunciationAssessment_ReferenceText Texte de référence de l’audio pour l’évaluation de la prononciation. Pour cela et les paramètres d’évaluation de prononciation suivants, consultez le tableau Paramètres d’évaluation de la prononciation. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create ou PrononciationAssessmentConfig ::SetReferenceText. Ajouté dans la version 1.14.0.
PronunciationAssessment_GradingSystem Système de points pour l’étalonnage du score de prononciation (FivePoint ou HundredMark). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_Granularity Granularité de l’évaluation de la prononciation (Phonème, Word ou FullText). Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_EnableMiscue Définit si activer le calcul incorrect. Quand cette option est activée, les mots prononcés sont comparés au texte de référence et sont marqués comme omission/insertion en fonction de la comparaison. La valeur par défaut est False. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_PhonemeAlphabet Alphabet du phonème d’évaluation de la prononciation. Les valeurs valides sont « SAPI » (par défaut) et « IPA » Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetPhonemeAlphabet. Ajouté dans la version 1.20.0.
PronunciationAssessment_NBestPhonemeCount Évaluation de la prononciation nbest phonème count. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::SetNBestPhonemeCount. Ajouté dans la version 1.20.0.
PronunciationAssessment_EnableProsodyAssessment Indique s’il faut activer l’évaluation de la prosodie. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableProsodyAssessment. Ajouté dans la version 1.33.0.
PronunciationAssessment_Json Chaîne json des paramètres d’évaluation de prononciation Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::Create. Ajouté dans la version 1.14.0.
PronunciationAssessment_Params Paramètres d’évaluation de la prononciation. Cette propriété est destinée à être en lecture seule. Le Kit de développement logiciel (SDK) l’utilise en interne. Ajouté dans la version 1.14.0.
PronunciationAssessment_ContentTopic Rubrique de contenu de l’évaluation de la prononciation. Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement. Utilisez plutôt PrononciationAssessmentConfig ::EnableContentAssessmentWithTopic. Ajouté dans la version 1.33.0.
SpeakerRecognition_Api_Version Version de l’API back-end reconnaissance de l’orateur. Cette propriété est ajoutée pour permettre le test et l’utilisation des versions précédentes des API reconnaissance de l’orateur, le cas échéant. Ajout dans la version 1.18.0.
SpeechTranslation_ModelName Nom d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.
SpeechTranslation_ModelKey Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.
KeywordRecognition_ModelName Nom d’un modèle à utiliser pour la reconnaissance mot clé. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.
KeywordRecognition_ModelKey Clé de déchiffrement d’un modèle à utiliser pour la reconnaissance mot clé. N’utilisez pas cette propriété directement. Actuellement, cela n’est valide que lorsque EmbeddedSpeechConfig est utilisé.
EmbeddedSpeech_EnablePerformanceMetrics Activez la collecte de métriques de performances vocales incorporées qui peuvent être utilisées pour évaluer la capacité d’un appareil à utiliser la voix incorporée. Les données collectées sont incluses dans les résultats de scénarios spécifiques tels que la reconnaissance vocale. Le paramètre par défaut est « false ». Notez que les métriques peuvent ne pas être disponibles dans tous les scénarios de reconnaissance vocale incorporée.

Définit les ID de propriété vocale. Modification dans la version 1.4.0.

enum OutputFormat

Valeurs Descriptions
Simple
Detailed

Format de sortie.

enum ProfanityOption

Valeurs Descriptions
Masqué Remplace les lettres en mots profanes par des caractères star.
Supprimé Supprime les mots profanes.
Brut Ne fait rien pour profanes mots.

Supprime les grossièretés (jurons) ou remplace les lettres de mots profanes par des étoiles. Ajout dans la version 1.5.0.

enum ResultReason

Valeurs Descriptions
NoMatch Indique que la parole n’a pas pu être reconnue. Vous trouverez plus d’informations dans l’objet NoMatchDetails.
Opération annulée Indique que la reconnaissance a été annulée. Pour plus d’informations, utilisez l’objet CancellationDetails.
ReconnaîtreSpeech Indique que le résultat de la parole contient du texte d’hypothèse.
RecognizedSpeech Indique que le résultat vocal contient le texte final qui a été reconnu. La reconnaissance vocale est maintenant terminée pour cette expression.
Reconnaissance de l’intégration Indique que le résultat de l’intention contient le texte d’hypothèse et l’intention.
RecognizedIntent Indique que le résultat de l’intention contient le texte final et l’intention. La reconnaissance vocale et la détermination de l’intention sont maintenant terminées pour cette expression.
TraduireSpeech Indique que le résultat de la traduction contient le texte d’hypothèse et sa ou ses traductions.
TranslatedSpeech Indique que le résultat de la traduction contient le texte final et la ou les traductions correspondantes. La reconnaissance vocale et la traduction sont maintenant terminées pour cette expression.
SynthesizingAudio Indique que le résultat audio synthétisé contient une quantité non nulle de données audio.
SynthesizingAudioCompleted Indique que l’audio synthétisé est maintenant terminé pour cette expression.
ReconnaîtreKeyword Indique que le résultat vocal contient (non vérifié) mot clé texte. Ajout dans la version 1.3.0.
RecognizedKeyword Indique que mot clé reconnaissance a terminé la reconnaissance du mot clé donné. Ajout dans la version 1.3.0.
SynthesizingAudioStarted Indique que la synthèse vocale est maintenant démarrée Ajout dans la version 1.4.0.
TraduireParticipantSpeech Indique que le résultat de la transcription contient du texte d’hypothèse et ses traductions pour les autres participants à la conversation. Ajout dans la version 1.8.0.
TranslatedParticipantSpeech Indique que le résultat de la transcription contient le texte final et la ou les traductions correspondantes pour les autres participants à la conversation. La reconnaissance vocale et la traduction sont maintenant terminées pour cette expression. Ajout dans la version 1.8.0.
TranslatedInstantMessage Indique que le résultat de la transcription contient le message instantané et la ou les traductions correspondantes. Ajout dans la version 1.8.0.
TranslatedParticipantInstantMessage Indique que le résultat de la transcription contient le message instantané pour les autres participants à la conversation et la ou les traductions correspondantes. Ajout dans la version 1.8.0.
InscrireVoiceProfile Indique que le profil vocal est en cours d’inscription et que les clients doivent envoyer davantage d’audio pour créer un profil vocal. Ajout dans la version 1.12.0.
EnrolledVoiceProfile Le profil vocal a été inscrit. Ajout dans la version 1.12.0.
RecognizedSpeakers Indique une identification réussie de certains orateurs. Ajout dans la version 1.12.0.
RecognizedSpeaker Indique qu’un orateur a été correctement vérifié. Ajout dans la version 1.12.0.
ResetVoiceProfile Indique qu’un profil vocal a été réinitialisé avec succès. Ajout dans la version 1.12.0.
DeletedVoiceProfile Indique qu’un profil vocal a été supprimé avec succès. Ajout dans la version 1.12.0.
VoicesListRetrieved Indique que la liste des voix a été récupérée avec succès. Ajout dans la version 1.16.0.

Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.

enum CancellationReason

Valeurs Descriptions
Erreur Indique qu’une erreur s’est produite pendant la reconnaissance vocale.
EndOfStream Indique que la fin du flux audio a été atteinte.
CancelledByUser Indique que la demande a été annulée par l’utilisateur. Ajout dans la version 1.14.0.

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.

enum CancellationErrorCode

Valeurs Descriptions
NoError Pas d'erreur. Si CancellationReason est EndOfStream, CancellationErrorCode est défini sur NoError.
AuthenticationFailure Indique une erreur d’authentification. Une erreur d’authentification se produit si la clé d’abonnement ou le jeton d’autorisation n’est pas valide, a expiré ou ne correspond pas à la région utilisée.
BadRequest Indique qu’un ou plusieurs paramètres de reconnaissance ne sont pas valides ou que le format audio n’est pas pris en charge.
TooManyRequests Indique que le nombre de requêtes parallèles a dépassé le nombre de transcriptions simultanées autorisées pour l’abonnement.
Interdit Indique que l’abonnement gratuit utilisé par la demande n’a plus de quota.
ConnectionFailure Indique une erreur de connexion.
ServiceTimeout Indique une erreur de délai d’attente lors de l’attente de la réponse du service.
ServiceError Indique qu’une erreur est retournée par le service.
ServiceUnavailable Indique que le service est actuellement indisponible.
RuntimeError Indique une erreur d’exécution inattendue.
ServiceRedirectTemporary Indique que le service Speech demande temporairement une reconnexion à un autre point de terminaison.
ServiceRedirectPermanent Indique que le service Speech demande une connexion permanente à un autre point de terminaison.
EmbeddedModelError Indique que le modèle de reconnaissance vocale incorporée (SR ou TTS) n’est pas disponible ou endommagé.

Définit le code d’erreur dans le cas où CancellationReason est Error. Ajout dans la version 1.1.0.

énumération NoMatchReason

Valeurs Descriptions
NotRecognized Indique que la parole a été détectée, mais pas reconnue.
InitialSilenceTimeout Indique que le début du flux audio contenait uniquement le silence et que le service a expiré en attendant la parole.
InitialBabbleTimeout Indique que le début du flux audio ne contenait que du bruit et que le service a expiré en attendant la reconnaissance vocale.
KeywordNotRecognized Indique que le mot clé repéré a été rejeté par le service de vérification mot clé. Ajout dans la version 1.5.0.
EndSilenceTimeout Indique que le flux audio contenait uniquement le silence après la dernière expression reconnue.

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.

enum ActivityJSONType

Valeurs Descriptions
Null
Object
Array
String
Double
UInt
Int
Boolean

Définit les types possibles pour une valeur json d’activité. Ajout dans la version 1.5.0.

enum SpeechSynthesisOutputFormat

Valeurs Descriptions
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren Non pris en charge par le service. N’utilisez pas cette valeur.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Non pris en charge par le service. N’utilisez pas cette valeur.
Audio16Khz32KBitRateMonoMp3 audio-16 khz-32 kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16 khz-128 kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16 khz-64 kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24 khz-48 kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24 khz-96 kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24 khz-160 kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16 khz-16 bits-mono-pcm
Riff8Khz16BitMonoPcm riff-8 khz-16 bits-mono-pcm
Riff24Khz16BitMonoPcm riff-24 khz-16 bits-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48 khz-16 bits-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus Ajouté dans la version 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus Ajouté dans la version 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus Ajouté dans la version 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk Ajouté dans la version 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Ajouté dans la version 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Ajouté dans la version 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Audio compressé par le codec OPUS dans un conteneur WebM, avec une vitesse de transmission de 24 Kbits/s, optimisé pour le scénario IoT. (Ajouté dans la version 1.19.0)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Audio compressé par codec OPUS sans conteneur, avec un débit de 32 Kbits/s. (Ajouté dans la version 1.20.0)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Audio compressé par codec OPUS sans conteneur, avec un débit de 48 Kbits/s. (Ajouté dans la version 1.20.0)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24Kbps-mono-opus Audio compressé par le codec OPUS sans conteneur, avec un débit de 24 Kbits/s. (Ajouté dans la version 1.20.0)
Raw22050Hz16BitMonoPcm raw-22050hz-16 bits-mono-pcm Audio PCM brut à un taux d’échantillonnage de 22 050 Hz et une profondeur de 16 bits. (Ajouté dans 1.22.0)
Riff22050Hz16BitMonoPcm riff-22050hz-16 bits-mono-pcm PCM audio à un taux d’échantillonnage de 22 050 Hz et une profondeur de 16 bits, avec l’en-tête RIFF. (Ajouté dans 1.22.0)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Audio RAW PCM à un taux d’échantillonnage de 44100Hz et une profondeur de 16 bits. (Ajouté dans 1.22.0)
Riff44100Hz16BitMonoPcm riff-44100hz-16 bits-mono-pcm PCM audio à un taux d’échantillonnage de 44100 Hz et une profondeur de 16 bits, avec en-tête RIFF. (Ajouté dans 1.22.0)
AmrWb16000Hz amr-wb-16000hz AMR-WB audio à un taux d’échantillonnage de 16 kHz. (Ajouté dans la version 1.24.0)

Définit les formats audio possibles de sortie de synthèse vocale. Mise à jour dans la version 1.19.0.

enum StreamStatus

Valeurs Descriptions
Unknown Le flux de données audio status est inconnu.
Nodata Le flux de données audio ne contient aucune donnée.
PartialData Le flux de données audio contient des données partielles d’une requête speak.
AllData Le flux de données audio contient toutes les données d’une requête speak.
Opération annulée Le flux de données audio a été annulé.

Définit la status possible du flux de données audio. Ajouté dans la version 1.4.0.

enum ServicePropertyChannel

Valeurs Descriptions
UriQueryParameter Utilise le paramètre de requête URI pour passer les paramètres de propriété au service.
HttpHeader Utilise HttpHeader pour définir une clé/valeur dans un en-tête HTTP.

Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.5.0.

enum VoiceProfileType

Valeurs Descriptions
TextIndependentIdentification Identification de l’orateur indépendant du texte.
TextDependentVerification Vérification de l’orateur dépendant du texte.
TextIndependentVerification Vérification indépendante du texte.

Définit les types de profils vocaux.

enum RecognitionFactorScope

Valeurs Descriptions
PartialPhrase Un facteur de reconnaissance s’applique aux grammaires qui peuvent être référencées en tant qu’expressions partielles individuelles.

Définit l’étendue à laquelle un facteur de reconnaissance est appliqué.

enum PrononciationAssessmentGradingSystem

Valeurs Descriptions
FivePoint Étalonnage à cinq points.
CentMark Cent marques.

Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajout dans la version 1.14.0.

enum PrononciationAssessmentGranularity

Valeurs Descriptions
Phonème Affiche le score au niveau du texte intégral, du mot et du phonème.
Word Affiche le score au niveau du texte intégral et du mot.
FullText Affiche le score au niveau du texte intégral uniquement.

Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème. Ajout dans la version 1.14.0.

enum SynthesisVoiceType

Valeurs Descriptions
OnlineNeural Voix neuronale en ligne.
OnlineStandard Voix standard en ligne.
OfflineNeural Voix neuronale hors connexion.
OfflineStandard Voix standard hors connexion.

Définit le type de voix de synthèse ajoutées dans la version 1.16.0.

enum SynthesisVoiceGender

Valeurs Descriptions
Unknown Sexe inconnu.
Female Voix féminine.
Male Voix masculine.

Définit le sexe des voix de synthèse ajoutées dans la version 1.17.0.

enum SpeechSynthesisBoundaryType

Valeurs Descriptions
Word Word limite.
Ponctuation Limite de ponctuation.
majuscule en début de phrase Limite de phrase.

Définit le type de limite de l’événement de limite de synthèse vocale Ajouté dans la version 1.21.0.