Partager via


PropertyId Énumération

  • java.lang.Object
    • java.lang.Enum
      • com.microsoft.cognitiveservices.speech.PropertyId

public enum PropertyId
extends java.lang.Enum<PropertyId>

Définit les ID de propriété. Modification dans la version 1.8.0.

Champs

AudioConfig_AudioProcessingOptions

Options de traitement audio au format JSON.

AudioConfig_DeviceNameForRender

Nom de l’appareil pour le rendu audio.

AudioConfig_PlaybackBufferLengthInMs

Longueur de la mémoire tampon de lecture en millisecondes, la valeur par défaut est de 50 millisecondes.

CancellationDetails_Reason

Motif de l’annulation.

CancellationDetails_ReasonDetailedText

Texte détaillé de l’annulation.

CancellationDetails_ReasonText

Texte d’annulation.

Conversation_ApplicationId

Identificateur utilisé pour se connecter au service principal.

Conversation_Connection_Id

Informations d’identification supplémentaires, telles qu’un jeton Direct Line, utilisées pour l’authentification auprès du service principal.

Conversation_Conversation_Id

ID de conversationpour la session.

Conversation_Custom_Voice_Deployment_Ids

Liste séparée par des virgules des ID de déploiement de la voix personnalisée.

Conversation_DialogType

Type de back-end de dialogue auquel se connecter.

Conversation_From_Id

À partir de l’ID à utiliser sur les activités de reconnaissance vocale Ajouté dans la version 1.5.0.

Conversation_Initial_Silence_Timeout

Délai d’expiration du silence pour l’écoute Ajouté dans la version 1.5.0.

Conversation_Request_Bot_Status_Messages

Valeur booléenne qui spécifie si le client doit recevoir des messages status et générer les événements d’étatreçus de tourcorrespondants.

Conversation_Speech_Activity_Template

Modèle d’activité Speech, propriétés d’empreinte dans le modèle sur l’activité générée par le service de reconnaissance vocale.

DataBuffer_TimeStamp

Horodatage associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push.

DataBuffer_UserId

ID d’utilisateur associé à la mémoire tampon de données écrite par le client lors de l’utilisation de flux en mode audio Pull/Push.

LanguageUnderstandingServiceResponse_JsonResult

Sortie de réponse du service Language Understanding (au format JSON).

PronunciationAssessment_EnableMiscue

Définit si activer le calcul incorrect.

PronunciationAssessment_GradingSystem

Système de points pour l’étalonnage du score de prononciation (FivePoint ou CentMark).

PronunciationAssessment_Granularity

Granularité de l’évaluation de la prononciation (Phonème, Word ou Texte intégral).

PronunciationAssessment_Json

Chaîne json des paramètres d’évaluation de prononciation Dans des circonstances normales, vous ne devriez pas avoir à utiliser cette propriété directement.

PronunciationAssessment_NBestPhonemeCount

Évaluation de la prononciation nbest phonème count.

PronunciationAssessment_Params

Paramètres d’évaluation de la prononciation.

PronunciationAssessment_PhonemeAlphabet

Alphabet du phonème d’évaluation de la prononciation.

PronunciationAssessment_ReferenceText

Texte de référence de l’audio pour l’évaluation de la prononciation.

SpeakerRecognition_Api_Version

Version de reconnaissance de l’orateur à utiliser.

SpeechServiceAuthorization_Token

Jeton d’autorisation du service Speech Cognitive Services (également appelé jeton d’accès).

SpeechServiceAuthorization_Type

Type d’autorisation Du service Speech Cognitive Services.

SpeechServiceConnection_AutoDetectSourceLanguageResult

Le résultat de la détection automatique de la langue source a été ajouté dans la version 1.8.0.

SpeechServiceConnection_AutoDetectSourceLanguages

Détection automatique des langues sources ajoutées dans la version 1.8.0.

SpeechServiceConnection_EnableAudioLogging

Valeur booléenne spécifiant si la journalisation audio est activée ou non dans le service.

SpeechServiceConnection_EndSilenceTimeoutMs

Valeur de délai d’expiration du silence de fin (en millisecondes) utilisée par le service.

SpeechServiceConnection_Endpoint

Le point de terminaison du service Speech Cognitive Services (URL).

SpeechServiceConnection_EndpointId

L’ID de point de terminaison Custom Speech ou Custom Voice Service de Cognitive Services.

SpeechServiceConnection_Host

Hôte du service Speech Cognitive Services (URL).

SpeechServiceConnection_InitialSilenceTimeoutMs

Valeur de délai d’expiration du silence initial (en millisecondes) utilisée par le service.

SpeechServiceConnection_IntentRegion

Région de service Language Understanding.

SpeechServiceConnection_Key

Clé d’abonnement au service Speech Cognitive Services.

SpeechServiceConnection_LanguageIdMode

Mode d’identificateur de langue de connexion du service speech.

SpeechServiceConnection_ProxyHostName

Nom d’hôte du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services.

SpeechServiceConnection_ProxyPassword

Mot de passe du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services.

SpeechServiceConnection_ProxyPort

Port du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services.

SpeechServiceConnection_ProxyUserName

Nom d’utilisateur du serveur proxy utilisé pour se connecter au service Speech de Cognitive Services.

SpeechServiceConnection_RecoBackend

Chaîne à spécifier le back-end à utiliser pour la reconnaissance vocale ; les options autorisées sont en ligne et hors connexion.

SpeechServiceConnection_RecoLanguage

Langue parlée à reconnaître (au format BCP-47).

SpeechServiceConnection_RecoMode

Mode de reconnaissance du service Speech Cognitive Services.

SpeechServiceConnection_RecoModelKey

Clé de déchiffrement du modèle à utiliser pour la reconnaissance vocale.

SpeechServiceConnection_RecoModelName

Nom du modèle à utiliser pour la reconnaissance vocale.

SpeechServiceConnection_Region

Région du service Speech Cognitive Services.

SpeechServiceConnection_SynthBackend

Chaîne pour spécifier le serveur principal TTS ; les options valides sont en ligne et hors connexion.

SpeechServiceConnection_SynthEnableCompressedAudioTransmission

Indique si le format audio compressé est utilisé pour la transmission audio de synthèse vocale.

SpeechServiceConnection_SynthLanguage

Langue parlée à synthétiser (par exemple,

SpeechServiceConnection_SynthModelKey

Clé de déchiffrement du modèle à utiliser pour la synthèse vocale.

SpeechServiceConnection_SynthOfflineDataPath

Chemin d’accès au fichier de données pour le moteur de synthèse hors connexion ; Valide uniquement lorsque le serveur principal de synthèse est hors connexion.

SpeechServiceConnection_SynthOfflineVoice

Nom de la voix TTS hors connexion à utiliser pour la synthèse vocale.

SpeechServiceConnection_SynthOutputFormat

Chaîne pour spécifier le format audio de sortie TTS (par exemple,

SpeechServiceConnection_SynthVoice

Nom de la voix TTS à utiliser pour la synthèse vocale Ajouté dans la version 1.7.0

SpeechServiceConnection_TranslationFeatures

Fonctionnalités de traduction.

SpeechServiceConnection_TranslationToLanguages

Liste des langues séparées par des virgules (format BCP-47) utilisées comme langues de traduction cibles.

SpeechServiceConnection_TranslationVoice

Nom de la voix du service de synthèse vocale Cognitive Service.

SpeechServiceConnection_Url

Chaîne d’URL générée à partir de la configuration vocale.

SpeechServiceConnection_VoicesListEndpoint

Point de terminaison (URL) de l’API de liste de voix du service Speech Cognitive Services.

SpeechServiceResponse_JsonErrorDetails

Détails de l’erreur du service Speech Cognitive Services (au format JSON).

SpeechServiceResponse_JsonResult

Sortie de réponse du service Speech Cognitive Services (au format JSON).

SpeechServiceResponse_OutputFormatOption

Valeur de chaîne spécifiant l’option de format de sortie dans le résultat de la réponse.

SpeechServiceResponse_PostProcessingOption

Valeur de chaîne spécifiant l’option de post-traitement qui doit être utilisée par le service.

SpeechServiceResponse_ProfanityOption

Paramètre de sortie de réponse du service Speech de Cognitive Services demandé.

SpeechServiceResponse_RecognitionBackend

Back-end de reconnaissance.

SpeechServiceResponse_RecognitionLatencyMs

Latence de reconnaissance en millisecondes.

SpeechServiceResponse_RequestDetailedResultTrueFalse

Format de sortie de réponse du service Speech Cognitive Services demandé (simple ou détaillé).

SpeechServiceResponse_RequestProfanityFilterTrueFalse

Niveau de grossièreté de la réponse du service Speech de Cognitive Services demandé.

SpeechServiceResponse_RequestPunctuationBoundary

Valeur booléenne spécifiant s’il faut demander une limite de ponctuation dans Word événements de limite.

SpeechServiceResponse_RequestSentenceBoundary

Valeur booléenne spécifiant s’il faut demander une limite de phrase dans Word événements de limite.

SpeechServiceResponse_RequestSnr

Valeur booléenne spécifiant s’il faut inclure SNR (rapport signal/bruit) dans le résultat de la réponse.

SpeechServiceResponse_RequestWordBoundary

Valeur booléenne spécifiant s’il faut demander des événements Word Boundary.

SpeechServiceResponse_RequestWordLevelTimestamps

Valeur booléenne spécifiant s’il faut inclure des horodatages au niveau du mot dans le résultat de la réponse.

SpeechServiceResponse_StablePartialResultThreshold

Nombre de fois où un mot doit être dans des résultats partiels à retourner.

SpeechServiceResponse_SynthesisBackend

Indique le back-end par lequel la synthèse est terminée.

SpeechServiceResponse_SynthesisConnectionLatencyMs

Latence de connexion de synthèse vocale en millisecondes.

SpeechServiceResponse_SynthesisEventsSyncToAudio

Valeur booléenne spécifiant si le Kit de développement logiciel (SDK) doit synchroniser les événements de métadonnées de synthèse (par exemple,

SpeechServiceResponse_SynthesisFinishLatencyMs

La synthèse vocale est la latence de tous les octets en millisecondes.

SpeechServiceResponse_SynthesisFirstByteLatencyMs

Latence du premier octet de synthèse vocale en millisecondes.

SpeechServiceResponse_SynthesisNetworkLatencyMs

Latence du réseau de synthèse vocale en millisecondes.

SpeechServiceResponse_SynthesisServiceLatencyMs

Latence du service de synthèse vocale en millisecondes.

SpeechServiceResponse_SynthesisUnderrunTimeMs

Durée de sous-exécution de la synthèse vocale en millisecondes.

SpeechServiceResponse_TranslationRequestStablePartialResult

Valeur booléenne à demander pour stabiliser les résultats partiels de traduction en omettant les mots à la fin.

SpeechTranslation_ModelKey

Clé de déchiffrement d’un modèle à utiliser pour la traduction vocale.

SpeechTranslation_ModelName

Nom d’un modèle à utiliser pour la traduction vocale.

Speech_LogFilename

Nom de fichier pour écrire les journaux.

Speech_SegmentationSilenceTimeoutMs

Durée de silence détectée, mesurée en millisecondes, après laquelle la reconnaissance vocale détermine qu’une expression parlée est terminée et génère un résultat final Reconnu.

Speech_SessionId

ID de session.

Méthodes héritées de java.lang.Enum

java.lang.Enum.<T>valueOf java.lang.Enum.clone java.lang.Enum.compareTo java.lang.Enum.equals java.lang.Enum.finalize java.lang.Enum.getDeclaringClass java.lang.Enum.hashCode java.lang.Enum.name java.lang.Enum.ordinal java.lang.Enum.toString

Méthodes héritées de java.lang.Object

java.lang.Object.getClass java.lang.Object.notify java.lang.Object.notifyAll java.lang.Object.wait java.lang.Object.wait java.lang.Object.wait

Méthodes

getValue()

public int getValue()

Retourne l’ID de propriété de valeur interne

Retours

int
ID de la propriété speech

valueOf(String name)

public static PropertyId valueOf(String name)

Paramètres

name
java.lang.String

Retours

values()

public static PropertyId[] values()

Retours

S’applique à