speech Paquet

Kit de développement logiciel (SDK) Microsoft Speech pour Python

Modules

audio

Classes qui s’occupent de la gestion de l’entrée audio dans les différents modules de reconnaissance et de la sortie audio du synthétiseur vocal.

dialog

Classes liées au connecteur de service de dialogue.

enums

Kit de développement logiciel (SDK) Microsoft Speech pour Python

intent

Classes liées à la reconnaissance d’intention à partir de la parole.

interop

Kit de développement logiciel (SDK) Microsoft Speech pour Python

languageconfig

Classes qui sont concernées par la gestion des configurations de langage

properties

Kit de développement logiciel (SDK) Microsoft Speech pour Python

speech

Classes liées à la reconnaissance vocale, à la synthèse vocale et aux classes générales utilisées dans les différents modules de reconnaissance.

transcription

Classes liées à la transcription de conversation.

translation

Classes liées à la traduction de la parole vers d’autres langues.

version

Kit de développement logiciel (SDK) Microsoft Speech pour Python

Classes

AudioDataStream

Représente le flux de données audio utilisé pour le fonctionnement des données audio en tant que flux.

Génère un flux de données audio à partir d’un résultat de synthèse vocale (de type SpeechSynthesisResult) ou d’un résultat de reconnaissance mot clé (type KeywordRecognitionResult).

AutoDetectSourceLanguageResult

Représente le résultat de la langue source de détection automatique.

Le résultat peut être initialisé à partir d’un résultat de reconnaissance vocale.

CancellationDetails

Kit de développement logiciel (SDK) Microsoft Speech pour Python

Connection

Classe proxy pour la gestion de la connexion au service speech du spécifié Recognizer.

Par défaut, un gestionnaire Recognizer autonome de la connexion au service en cas de besoin. La Connection classe fournit des méthodes supplémentaires permettant aux utilisateurs d’ouvrir ou de fermer explicitement une connexion et de s’abonner aux modifications de status de connexion. L’utilisation de Connection est facultative. Il est destiné aux scénarios dans lesquels un réglage précis du comportement de l’application en fonction des status de connexion est nécessaire. Les utilisateurs peuvent éventuellement appeler open pour lancer manuellement une connexion de service avant de commencer la reconnaissance sur le Recognizer associé à ce Connection. Après avoir démarré une reconnaissance, l’appel open ou close peut échouer. Cela n’aura pas d’impact sur le module de reconnaissance ou la reconnaissance en cours. La connexion peut tomber pour diverses raisons. Le module de reconnaissance tente toujours de rétablir la connexion en fonction des besoins pour garantir les opérations en cours. Dans tous ces casconnected/disconnected, les événements indiquent la modification du status de connexion.

Notes

Mise à jour dans la version 1.17.0.

Constructeur à usage interne.

ConnectionEventArgs

Fournit des données pour l’événement ConnectionEvent.

Notes

Ajouté dans la version 1.2.0

Constructeur à usage interne.

EventSignal

Les clients peuvent se connecter au signal d’événement pour recevoir des événements, ou se déconnecter du signal d’événement pour arrêter de recevoir des événements.

Constructeur à usage interne.

KeywordRecognitionEventArgs

Classe pour mot clé arguments d’événement de reconnaissance.

Constructeur à usage interne.

KeywordRecognitionModel

Représente un modèle de reconnaissance mot clé.

KeywordRecognitionResult

Résultat d’une opération de reconnaissance mot clé.

Constructeur à usage interne.

KeywordRecognizer

Un module de reconnaissance mot clé.

NoMatchDetails

Kit de développement logiciel (SDK) Microsoft Speech pour Python

PhraseListGrammar

Classe qui permet au runtime d’ajouter des indicateurs d’expression pour faciliter la reconnaissance vocale.

Les expressions ajoutées au module de reconnaissance sont effectives au début de la reconnaissance suivante ou à la prochaine fois que le module de reconnaissance vocale doit se reconnecter au service speech.

Notes

Ajouté dans la version 1.5.0.

Constructeur à usage interne.

PronunciationAssessmentConfig

Représente la configuration de l’évaluation de la prononciation

Notes

Ajouté dans la version 1.14.0.

La configuration peut être initialisée de deux manières :

  • à partir des paramètres : passez le texte de référence, le système de notation, la granularité, l’activation d’erreur et l’ID de scénario.

  • à partir de json : passer une chaîne json

Pour plus d’informations sur les paramètres, consultez https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters

PronunciationAssessmentPhonemeResult

Contient le résultat de l’évaluation de la prononciation au niveau du phonème

Notes

Ajouté dans la version 1.14.0.

PronunciationAssessmentResult

Représente le résultat de l’évaluation de la prononciation.

Notes

Ajouté dans la version 1.14.0.

Le résultat peut être initialisé à partir d’un résultat de reconnaissance vocale.

PronunciationAssessmentWordResult

Contient le résultat de l’évaluation de la prononciation au niveau du mot

Notes

Ajouté dans la version 1.14.0.

PropertyCollection

Classe pour récupérer ou définir une valeur de propriété à partir d’une collection de propriétés.

RecognitionEventArgs

Fournit des données pour l’événement RecognitionEvent.

Constructeur à usage interne.

RecognitionResult

Informations détaillées sur le résultat d’une opération de reconnaissance.

Constructeur à usage interne.

Recognizer

Classe de base pour différents modules de reconnaissance

ResultFuture

Résultat d'une opération asynchrone.

constructeur privé

SessionEventArgs

Classe de base pour les arguments d’événement de session.

Constructeur à usage interne.

SourceLanguageRecognizer

Un module de reconnaissance de langue source ( module de reconnaissance de langue autonome) peut être utilisé pour la détection de langue unique ou continue.

Notes

Ajouté dans la version 1.18.0.

SpeechConfig

Classe qui définit les configurations pour la reconnaissance vocale/intention et la synthèse vocale.

La configuration peut être initialisée de différentes manières :

  • à partir de l’abonnement : passer une clé d’abonnement et une région

  • à partir du point de terminaison : passez un point de terminaison. La clé d’abonnement ou le jeton d’autorisation sont facultatifs.

  • de l’hôte : transmettez une adresse d’hôte. La clé d’abonnement ou le jeton d’autorisation sont facultatifs.

  • à partir du jeton d’autorisation : passez un jeton d’autorisation et une région

SpeechRecognitionCanceledEventArgs

Classe pour les arguments d’événement annulés de reconnaissance vocale.

Constructeur à usage interne.

SpeechRecognitionEventArgs

Classe pour les arguments d’événement de reconnaissance vocale.

Constructeur à usage interne.

SpeechRecognitionResult

Classe de base pour les résultats de la reconnaissance vocale.

Constructeur à usage interne.

SpeechRecognizer

Un module de reconnaissance vocale. Si vous devez spécifier des informations sur la langue source, spécifiez uniquement l’un de ces trois paramètres, language, source_language_config ou auto_detect_source_language_config.

SpeechSynthesisBookmarkEventArgs

Classe pour les arguments d’événement de signet de synthèse vocale.

Notes

Ajout dans la version 1.16.0.

Constructeur pour une utilisation interne.

SpeechSynthesisCancellationDetails

Contient des informations détaillées sur la raison pour laquelle un résultat a été annulé.

SpeechSynthesisEventArgs

Classe pour les arguments d’événement de synthèse vocale.

Constructeur pour une utilisation interne.

SpeechSynthesisResult

Résultat d’une opération de synthèse vocale.

Constructeur pour une utilisation interne.

SpeechSynthesisVisemeEventArgs

Classe pour les arguments d’événement de visème de synthèse vocale.

Notes

Ajout dans la version 1.16.0.

Constructeur pour une utilisation interne.

SpeechSynthesisWordBoundaryEventArgs

Classe pour les arguments d’événement de limite de mot de synthèse vocale.

Notes

Mise à jour dans la version 1.21.0.

Constructeur pour une utilisation interne.

SpeechSynthesizer

Synthétiseur vocal.

SyllableLevelTimingResult

Contient le résultat du minutage de niveau syllabe

Notes

Ajout dans la version 1.20.0.

SynthesisVoicesResult

Contient des informations détaillées sur la liste des voix de synthèse récupérées.

Notes

Ajout dans la version 1.16.0.

Constructeur pour une utilisation interne.

VoiceInfo

Contient des informations détaillées sur les informations vocales de synthèse.

Notes

Mise à jour dans la version 1.17.0.

Constructeur pour une utilisation interne.

Énumérations

AudioStreamContainerFormat

Définit le format de conteneur de flux audio pris en charge.

AudioStreamWaveFormat

Représente le format spécifié dans le conteneur WAV.

CancellationErrorCode

Définit le code d’erreur au cas où CancellationReason est Error.

CancellationReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut être annulé.

NoMatchReason

Définit les raisons possibles pour lesquelles un résultat de reconnaissance peut ne pas être reconnu.

OutputFormat

Format de sortie.

ProfanityOption

Supprime les blasphèmes (jurons) ou remplace les lettres de mots profanes par des étoiles.

PronunciationAssessmentGradingSystem

Définit le système de points pour l’étalonnage du score de prononciation ; la valeur par défaut est FivePoint.

PronunciationAssessmentGranularity

Définit la granularité de l’évaluation de la prononciation ; la valeur par défaut est Phonème.

PropertyId

Définit les ID de propriété vocale.

ResultReason

Spécifie les raisons possibles pour lesquelles un résultat de reconnaissance peut être généré.

ServicePropertyChannel

Définit les canaux utilisés pour passer les paramètres de propriété au service.

SpeechSynthesisOutputFormat

Définit les formats audio de sortie de synthèse vocale possibles.

StreamStatus

Définit les status possibles du flux de données audio.

SynthesisVoiceGender

Définit le sexe des voix de synthèse

SynthesisVoiceType

Définit le type de voix de synthèse