microsoft-cognitiveservices-speech-sdk package

Classes

ActivityReceivedEventArgs

Définit le contenu des messages/événements reçus.

AudioConfig

Représente la configuration d’entrée audio utilisée pour spécifier le type d’entrée à utiliser (microphone, fichier, flux).

AudioInputStream

Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées.

AudioOutputStream

Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées.

AudioStreamFormat

Représente le format de flux audio utilisé pour les configurations d’entrée audio personnalisées.

AutoDetectSourceLanguageConfig

Configuration de la détection automatique de la langue.

AutoDetectSourceLanguageResult

Format de sortie

AvatarConfig

Définit la configuration de l’avatar parlant.

AvatarEventArgs

Définit le contenu pour parler des événements d’avatar.

AvatarSynthesizer

Définit le synthétiseur d’avatar.

AvatarVideoFormat

Définit le format vidéo de sortie de l’avatar.

AvatarWebRTCConnectionResult

Définit le résultat de la connexion WebRTC de l’avatar.

BaseAudioPlayer

TODO de la classe de lecteur audio de base : lit uniquement PCM pour l’instant.

BotFrameworkConfig

Classe qui définit les configurations de l’objet connecteur du service de dialogue pour l’utilisation d’un serveur principal Bot Framework.

CancellationDetails

Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.

CancellationDetailsBase

Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.

Connection

Connection est une classe proxy permettant de gérer la connexion au service speech du module Recognizer spécifié. Par défaut, un module Recognizer gère de manière autonome la connexion au service si nécessaire. La classe Connection fournit des méthodes supplémentaires permettant aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications de status de connexion. L’utilisation de La connexion est facultative, et principalement pour les scénarios où un réglage précis du comportement de l’application en fonction des status de connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler Open() pour configurer manuellement une connexion à l’avance avant de commencer la reconnaissance sur le module de reconnaissance associé à cette connexion. Si le module Recognizer doit se connecter ou se déconnecter du service, il configure ou arrête la connexion indépendamment. Dans ce cas, la connexion sera avertie par un changement de status de connexion via des événements connectés/déconnectés. Ajouté dans la version 1.2.1.

ConnectionEventArgs

Définit la charge utile pour les événements de connexion tels que Connected/Disconnected. Ajouté dans la version 1.2.0

ConnectionMessage

ConnectionMessage représente les messages spécifiques à l’implémentation envoyés et reçus du service speech. Ces messages sont fournis à des fins de débogage et ne doivent pas être utilisés pour des cas d’usage de production avec le service Speech d’Azure Cognitive Services. Les messages envoyés et reçus par le service Speech sont susceptibles d’être modifiés sans préavis. Cela inclut le contenu des messages, les en-têtes, les charges utiles, le classement, etc. Ajouté dans la version 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped.

ConversationTranscriber

Effectue la reconnaissance vocale avec séparation du haut-parleur du microphone, du fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit.

ConversationTranscriptionCanceledEventArgs

Définit le contenu d’un objet RecognitionErrorEvent.

ConversationTranscriptionEventArgs

Définit le contenu de l’événement de transcription/transcription de conversation.

ConversationTranscriptionResult

Définit le résultat de la transcription de conversation.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Définit la charge utile pour les événements de session tels que Speech Start/End Detected

ConversationTranslationResult

Résultat de la traduction de texte.

ConversationTranslator

Rejoignez, quittez ou connectez-vous à une conversation.

Coordinate

Définit une coordonnée dans l’espace 2D.

CustomCommandsConfig

Classe qui définit les configurations de l’objet connecteur de service de dialogue pour l’utilisation d’un serveur principal CustomCommands.

Diagnostics

Définit diagnostics API pour la gestion de la sortie de console Ajoutée dans la version 1.21.0

DialogServiceConfig

Classe qui définit les configurations de base pour le connecteur de service de dialogue

DialogServiceConnector

Connecteur de service de boîte de dialogue

IntentRecognitionCanceledEventArgs

Définissez la charge utile des événements de résultat annulés de reconnaissance d’intention.

IntentRecognitionEventArgs

Arguments d’événement de résultat de la reconnaissance d’intention.

IntentRecognitionResult

Résultat de la reconnaissance d’intention.

IntentRecognizer

Module de reconnaissance d’intention.

KeywordRecognitionModel

Représente un modèle de reconnaissance mot clé permettant de reconnaître quand l’utilisateur indique qu’un mot clé pour lancer une reconnaissance vocale supplémentaire.

LanguageUnderstandingModel

Modèle de compréhension du langage

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

Définit le contenu d’un Objet MeetingTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

Définit le contenu de l’événement transcrit/transcription de réunion.

NoMatchDetails

Contient des informations détaillées sur les résultats de la reconnaissance NoMatch.

Participant

Représente un participant à une conversation. Ajouté dans la version 1.4.0

PhraseListGrammar

Permet d’ajouter de nouvelles expressions pour améliorer la reconnaissance vocale.

Les expressions ajoutées au module de reconnaissance sont effectives au début de la reconnaissance suivante, ou à la prochaine fois que le SpeechSDK doit se reconnecter au service speech.

PronunciationAssessmentConfig

Configuration de l’évaluation de la prononciation.

PronunciationAssessmentResult

Résultats de l’évaluation de prononciation.

PropertyCollection

Représente la collection de propriétés et leurs valeurs.

PullAudioInputStream

Représente le flux d’entrée audio utilisé pour les configurations d’entrée audio personnalisées.

PullAudioInputStreamCallback

Classe de base abstraite qui définit les méthodes de rappel (read() et close()) pour les flux d’entrée audio personnalisés.

PullAudioOutputStream

Représente le flux de sortie audio Push soutenu par la mémoire utilisé pour les configurations de sortie audio personnalisées.

PushAudioInputStream

Représente le flux d’entrée audio Push sauvegardé en mémoire utilisé pour les configurations d’entrée audio personnalisées.

PushAudioOutputStream

Représente le flux de sortie audio utilisé pour les configurations de sortie audio personnalisées.

PushAudioOutputStreamCallback

Classe de base abstraite qui définit les méthodes de rappel (write() et close()) pour les flux de sortie audio personnalisés.

RecognitionEventArgs

Définit la charge utile pour les événements de session tels que Speech Start/End Detected

RecognitionResult

Définit le résultat de la reconnaissance vocale.

Recognizer

Définit la classe de base Recognizer qui contient principalement des gestionnaires d’événements courants.

ServiceEventArgs

Définit la charge utile pour tout événement de message de service ajouté dans la version 1.9.0

SessionEventArgs

Définit le contenu des événements de session tels que SessionStarted/Stopped, SoundStarted/Stopped.

SourceLanguageConfig

Configuration de la langue source.

SpeakerAudioDestination

Représente la destination audio de lecture de l’orateur, qui fonctionne uniquement dans le navigateur. Remarque : le Kit de développement logiciel (SDK) essaiera d’utiliser des extensions de source multimédia pour lire l’audio. Le format Mp3 offre une meilleure prise en charge sur Microsoft Edge, Chrome et Safari (bureau). Il est donc préférable de spécifier le format mp3 pour la lecture.

SpeakerIdentificationModel

Définit la classe SpeakerIdentificationModel pour le modèle de reconnaissance de l’orateur contient un ensemble de profils sur lesquels identifier le ou les haut-parleurs

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

Format de sortie

SpeakerRecognizer

Définit la classe SpeakerRecognizer pour les opérations de handles de reconnaissance de l’orateur de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile)

SpeakerVerificationModel

Définit la classe SpeakerVerificationModel pour le modèle de reconnaissance de l’orateur contient un profil sur lequel vérifier un orateur

SpeechConfig

Configuration vocale.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

Définit le contenu de l’événement reconnaissance vocale/reconnu.

SpeechRecognitionResult

Définit le résultat de la reconnaissance vocale.

SpeechRecognizer

Effectue la reconnaissance vocale à partir d’un microphone, d’un fichier ou d’autres flux d’entrée audio, et obtient ainsi du texte transcrit.

SpeechSynthesisBookmarkEventArgs

Définit le contenu de l’événement de signet de synthèse vocale.

SpeechSynthesisEventArgs

Définit le contenu des événements de synthèse vocale.

SpeechSynthesisResult

Définit le résultat de la synthèse vocale.

SpeechSynthesisVisemeEventArgs

Définit le contenu de l’événement de visème de synthèse vocale.

SpeechSynthesisWordBoundaryEventArgs

Définit le contenu de l’événement de limite de mot de synthèse vocale.

SpeechSynthesizer

Définit la classe SpeechSynthesizer pour la synthèse vocale. Mise à jour dans la version 1.16.0

SpeechTranslationConfig

Configuration de la traduction vocale.

SynthesisResult

Classe de base pour les résultats de la synthèse

SynthesisVoicesResult

Définit le résultat de la synthèse vocale.

Synthesizer
TranslationRecognitionCanceledEventArgs

Définissez la charge utile des événements de résultat annulés de reconnaissance vocale.

TranslationRecognitionEventArgs

Arguments d’événement de résultat de texte de traduction.

TranslationRecognitionResult

Résultat de la traduction de texte.

TranslationRecognizer

Module de reconnaissance de traduction

TranslationSynthesisEventArgs

Arguments d’événement de synthèse de traduction

TranslationSynthesisResult

Définit le résultat de la synthèse de traduction, c’est-à-dire la sortie vocale du texte traduit dans la langue cible.

Translations

Représente la collection de paramètres et leurs valeurs.

TurnStatusReceivedEventArgs

Définit le contenu des messages/événements reçus.

User
VoiceInfo

Informations sur la voix de synthèse vocale Ajoutées dans la version 1.20.0.

VoiceProfile

Définit la classe Voice Profile pour la reconnaissance de l’orateur

VoiceProfileCancellationDetails
VoiceProfileClient

Définit la classe VoiceProfileClient pour les opérations de handles de reconnaissance de l’orateur de l’utilisateur pour les opérations de profil vocal (par exemple, createProfile, deleteProfile)

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

Format de sortie

VoiceProfilePhraseResult

Format de sortie

VoiceProfileResult

Format de sortie

Interfaces

CancellationEventArgs
ConversationInfo
IParticipant

Représente un participant à une conversation. Ajouté dans la version 1.4.0

IPlayer

Représente l’interface du lecteur audio pour contrôler la lecture audio, comme la pause, la reprise, etc.

MeetingInfo
VoiceSignature

Énumérations

AudioFormatTag
CancellationErrorCode

Définit le code d’erreur au cas où CancellationReason est Error. Ajout dans la version 1.1.0.

CancellationReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.

LanguageIdMode

Mode d’identification de la langue

LogLevel
NoMatchReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.

OutputFormat

Définissez les formats de sortie speech Recognizer.

ParticipantChangedReason
ProfanityOption

Option blasphème. Ajouté dans la version 1.7.0.

PronunciationAssessmentGradingSystem

Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint. Ajouté dans la version 1.15.0

PronunciationAssessmentGranularity

Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème. Ajouté dans la version 1.15.0

PropertyId

Définit les ID de propriété vocale.

ResultReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.

ServicePropertyChannel

Définit les canaux utilisés pour passer les paramètres de propriété au service. Ajouté dans la version 1.7.0.

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

Définit le type de limite de l’événement de limite de synthèse vocale.

SpeechSynthesisOutputFormat

Définissez les formats de sortie audio de synthèse vocale. SpeechSynthesisOutputFormat Mis à jour dans la version 1.17.0

VoiceProfileType

Format de sortie