microsoft-cognitiveservices-speech-sdk package

Classi

ActivityReceivedEventArgs

Definisce il contenuto dei messaggi/eventi ricevuti.

AudioConfig

Rappresenta la configurazione di input audio usata per specificare il tipo di input da usare (microfono, file, flusso).

AudioInputStream

Rappresenta il flusso di input audio usato per configurazioni di input audio personalizzate.

AudioOutputStream

Rappresenta il flusso di output audio usato per configurazioni di output audio personalizzate.

AudioStreamFormat

Rappresenta il formato di flusso audio usato per configurazioni di input audio personalizzate.

AutoDetectSourceLanguageConfig

Configurazione del rilevamento automatico della lingua.

AutoDetectSourceLanguageResult

Formato di output

AvatarConfig

Definisce la configurazione dell'avatar parlanti.

AvatarEventArgs

Definisce il contenuto per parlare degli eventi avatar.

AvatarSynthesizer

Definisce il sintetizzatore avatar.

AvatarVideoFormat

Definisce il formato video di output dell'avatar.

AvatarWebRTCConnectionResult

Definisce il risultato della connessione WebRTC avatar.

BaseAudioPlayer

Classe di lettore audio di base TODO: riproduce solo PCM per ora.

BotFrameworkConfig

Classe che definisce le configurazioni per l'oggetto del connettore del servizio di dialogo per l'uso di un back-end di Bot Framework.

CancellationDetails

Contiene informazioni dettagliate sul motivo per cui è stato annullato un risultato.

CancellationDetailsBase

Contiene informazioni dettagliate sul motivo per cui è stato annullato un risultato.

Connection

La connessione è una classe proxy per la gestione della connessione al servizio voce del riconoscimento vocale specificato. Per impostazione predefinita, un riconoscimento gestisce autonomamente la connessione al servizio quando necessario. La classe Connection fornisce metodi aggiuntivi per gli utenti per aprire o chiudere in modo esplicito una connessione e sottoscrivere le modifiche dello stato della connessione. L'uso della connessione è facoltativo e principalmente per gli scenari in cui è necessario ottimizzare il comportamento dell'applicazione in base allo stato di connessione. Gli utenti possono chiamare facoltativamente Open() per configurare manualmente una connessione in anticipo prima di avviare il riconoscimento nel riconoscimento associato a questa connessione. Se il riconoscimento deve connettersi o disconnettersi al servizio, verrà configurato o arrestato la connessione in modo indipendente. In questo caso, la connessione verrà notificata modificando lo stato della connessione tramite eventi Connessi/Disconnessi. Aggiunta nella versione 1.2.1.

ConnectionEventArgs

Definisce il payload per gli eventi di connessione come Connesso/Disconnesso. Aggiunta nella versione 1.2.0

ConnectionMessage

ConnectionMessage rappresenta i messaggi specifici dell'implementazione inviati a e ricevuti dal servizio voce. Questi messaggi vengono forniti per scopi di debug e non devono essere usati per i casi d'uso di produzione con il servizio riconoscimento vocale di Servizi cognitivi di Azure. I messaggi inviati e ricevuti dal servizio voce sono soggetti a modifiche senza preavviso. Ciò include contenuto del messaggio, intestazioni, payload, ordinamento e così via. Aggiunta nella versione 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

Definisce il contenuto per gli eventi di sessione, ad esempio SessionStarted/Stopped, SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

Definisce il contenuto per gli eventi di sessione, ad esempio SessionStarted/Stopped, SoundStarted/Stopped.

ConversationTranscriber

Esegue il riconoscimento vocale con la separazione dell'altoparlante dal microfono, dal file o da altri flussi di input audio e ottiene il testo trascritto come risultato.

ConversationTranscriptionCanceledEventArgs

Definisce il contenuto di un recognitionErrorEvent.

ConversationTranscriptionEventArgs

Definisce il contenuto dell'evento trascritto/trascritto della conversazione.

ConversationTranscriptionResult

Definisce il risultato della trascrizione della conversazione.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Definisce il payload per gli eventi di sessione come Speech Start/End Rilevati

ConversationTranslationResult

Risultato del testo di traduzione.

ConversationTranslator

Aggiungere, lasciare o connettersi a una conversazione.

Coordinate

Definisce una coordinata nello spazio 2D.

CustomCommandsConfig

Classe che definisce le configurazioni per l'oggetto del connettore del servizio di dialogo per l'uso di un back-end CustomCommands.

Diagnostics

Definisce l'API diagnostica per la gestione dell'output della console Aggiunta nella versione 1.21.0

DialogServiceConfig

Classe che definisce le configurazioni di base per il connettore del servizio di dialogo

DialogServiceConnector

Finestra di dialogo Connettore del servizio

IntentRecognitionCanceledEventArgs

Definire il payload degli eventi dei risultati annullati per il riconoscimento delle finalità.

IntentRecognitionEventArgs

Argomenti dell'evento di riconoscimento finalità.

IntentRecognitionResult

Risultato del riconoscimento delle finalità.

IntentRecognizer

Riconoscimento finalità.

KeywordRecognitionModel

Rappresenta un modello di riconoscimento delle parole chiave per riconoscere quando l'utente dice una parola chiave per avviare ulteriormente il riconoscimento vocale.

LanguageUnderstandingModel

Modello di comprensione del linguaggio

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

Definisce il contenuto di una riunioneTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

Definisce il contenuto dell'evento trascritto/trascritto della riunione.

NoMatchDetails

Contiene informazioni dettagliate per i risultati del riconoscimento NoMatch.

Participant

Rappresenta un partecipante in una conversazione. Aggiunta nella versione 1.4.0

PhraseListGrammar

Consente di aggiungere nuove frasi per migliorare il riconoscimento vocale.

Le frasi aggiunte al riconoscimento sono effettive all'inizio del riconoscimento successivo oppure alla successiva connessione al servizio voce.

PronunciationAssessmentConfig

Configurazione della valutazione della pronuncia.

PronunciationAssessmentResult

Risultati della valutazione della pronuncia.

PropertyCollection

Rappresenta la raccolta di proprietà e i relativi valori.

PullAudioInputStream

Rappresenta il flusso di input audio usato per configurazioni di input audio personalizzate.

PullAudioInputStreamCallback

Classe base astratta che definisce i metodi di callback (read() e close() per flussi di input audio personalizzati.

PullAudioOutputStream

Rappresenta il flusso di output audio push supportato dalla memoria usato per configurazioni di output audio personalizzate.

PushAudioInputStream

Rappresenta il flusso di input audio push supportato dalla memoria usato per configurazioni di input audio personalizzate.

PushAudioOutputStream

Rappresenta il flusso di output audio usato per configurazioni di output audio personalizzate.

PushAudioOutputStreamCallback

Classe base astratta che definisce i metodi di callback (write() e close() per i flussi di output audio personalizzati.

RecognitionEventArgs

Definisce il payload per gli eventi di sessione come Speech Start/End Rilevati

RecognitionResult

Definisce il risultato del riconoscimento vocale.

Recognizer

Definisce il riconoscimento della classe di base che contiene principalmente gestori eventi comuni.

ServiceEventArgs

Definisce il payload per qualsiasi evento del messaggio di servizio aggiunto nella versione 1.9.0

SessionEventArgs

Definisce il contenuto per gli eventi di sessione, ad esempio SessionStarted/Stopped, SoundStarted/Stopped.

SourceLanguageConfig

Configurazione del linguaggio di origine.

SpeakerAudioDestination

Rappresenta la destinazione audio di riproduzione dell'altoparlante, che funziona solo nel browser. Nota: l'SDK tenterà di usare estensioni di origine multimediale per riprodurre audio. Il formato Mp3 offre supporto migliore in Microsoft Edge, Chrome e Safari (desktop), quindi è meglio specificare il formato mp3 per la riproduzione.

SpeakerIdentificationModel

Definisce la classe SpeakerIdentificationModel per Il modello di riconoscimento altoparlanti contiene un set di profili su cui identificare gli altoparlanti

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

Formato di output

SpeakerRecognizer

Definisce la classe SpeakerRecognizer per le operazioni di Riconoscimento altoparlante gestite dall'utente per le operazioni del profilo vocale (ad esempio createProfile, deleteProfile)

SpeakerVerificationModel

Definisce la classe SpeakerVerificationModel per Il modello di riconoscimento altoparlante contiene un profilo in base al quale verificare un altoparlante

SpeechConfig

Configurazione voce.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

Definisce il contenuto dell'evento riconoscimento vocale/riconosciuto.

SpeechRecognitionResult

Definisce il risultato del riconoscimento vocale.

SpeechRecognizer

Esegue il riconoscimento vocale da microfono, file o altri flussi di input audio e ottiene il testo trascritto come risultato.

SpeechSynthesisBookmarkEventArgs

Definisce il contenuto dell'evento segnalibro di sintesi vocale.

SpeechSynthesisEventArgs

Definisce il contenuto degli eventi di sintesi vocale.

SpeechSynthesisResult

Definisce il risultato della sintesi vocale.

SpeechSynthesisVisemeEventArgs

Definisce il contenuto dell'evento viseme di sintesi vocale.

SpeechSynthesisWordBoundaryEventArgs

Definisce il contenuto dell'evento limite della parola di sintesi vocale.

SpeechSynthesizer

Definisce la classe SpeechSynthesizer per la sintesi vocale. Aggiornamento nella versione 1.16.0

SpeechTranslationConfig

Configurazione della traduzione vocale.

SynthesisResult

Classe di base per i risultati di sintesi

SynthesisVoicesResult

Definisce il risultato della sintesi vocale.

Synthesizer
TranslationRecognitionCanceledEventArgs

Definire il payload degli eventi dei risultati annullati del riconoscimento vocale.

TranslationRecognitionEventArgs

Argomenti dell'evento del risultato del testo della traduzione.

TranslationRecognitionResult

Risultato del testo della traduzione.

TranslationRecognizer

Sistema di riconoscimento di traduzione

TranslationSynthesisEventArgs

Argomenti dell'evento Translation Synthesis

TranslationSynthesisResult

Definisce il risultato della sintesi della traduzione, ovvero l'output vocale del testo tradotto nella lingua di destinazione.

Translations

Rappresenta la raccolta di parametri e i relativi valori.

TurnStatusReceivedEventArgs

Definisce il contenuto dei messaggi/eventi ricevuti.

User
VoiceInfo

Informazioni sulla voce Sintesi vocale aggiunta nella versione 1.20.0.

VoiceProfile

Definisce la classe Profilo vocale per riconoscimento del parlante

VoiceProfileCancellationDetails
VoiceProfileClient

Definisce la classe VoiceProfileClient per le operazioni Di riconoscimento del parlante dall'utente per le operazioni del profilo vocale ( ad esempio createProfile, deleteProfile)

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

Formato di output

VoiceProfilePhraseResult

Formato di output

VoiceProfileResult

Formato di output

Interfacce

CancellationEventArgs
ConversationInfo
IParticipant

Rappresenta un partecipante in una conversazione. Aggiunta nella versione 1.4.0

IPlayer

Rappresenta l'interfaccia del lettore audio per controllare la riproduzione audio, ad esempio pausa, ripresa e così via.

MeetingInfo
VoiceSignature

Enumerazioni

AudioFormatTag
CancellationErrorCode

Definisce il codice di errore nel caso in cui CancellationReason sia Error. Aggiunta nella versione 1.1.0.

CancellationReason

Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe essere annullato.

LanguageIdMode

Modalità di identificazione del linguaggio

LogLevel
NoMatchReason

Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe non essere riconosciuto.

OutputFormat

Definire i formati di output di Riconoscimento vocale.

ParticipantChangedReason
ProfanityOption

Opzione Volgarity. Aggiunta nella versione 1.7.0.

PronunciationAssessmentGradingSystem

Definisce il sistema di punti per la calibrazione del punteggio di pronuncia; il valore predefinito è FivePoint. Aggiunta nella versione 1.15.0

PronunciationAssessmentGranularity

Definisce la granularità della valutazione della pronuncia; il valore predefinito è Phoneme. Aggiunta nella versione 1.15.0

PropertyId

Definisce gli ID della proprietà vocale.

ResultReason

Definisce i possibili motivi per cui è possibile generare un risultato di riconoscimento.

ServicePropertyChannel

Definisce i canali usati per passare le impostazioni delle proprietà al servizio. Aggiunta nella versione 1.7.0.

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

Definisce il tipo di limite dell'evento limite di sintesi vocale.

SpeechSynthesisOutputFormat

Definire i formati di output audio di sintesi vocale. SpeechSynthesisOutputFormat aggiornato nella versione 1.17.0

VoiceProfileType

Formato di output