Namespace Microsoft::CognitiveServices::Speech

Resumo

Membros Descrições
enum PropertyId Define ids de propriedade de fala. Alterado na versão 1.4.0.
enum OutputFormat Formato de saída.
enum ProfanityOption Remove palavrões (palavrões) ou substitui letras de palavras profanas por estrelas. Adicionado na versão 1.5.0.
enum ResultReason Especifica os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado.
enum CancellationReason Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.
enum CancellationErrorCode Define o código de erro caso CancellationReason seja Error. Adicionado na versão 1.1.0.
enum NoMatchReason Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.
enum ActivityJSONType Define os tipos possíveis para um valor json de atividade. Adicionado na versão 1.5.0.
enum SpeechSynthesisOutputFormat Define os possíveis formatos de áudio de saída de síntese de fala. Atualizado na versão 1.19.0.
enum StreamStatus Define a possível status do fluxo de dados de áudio. Adicionado na versão 1.4.0.
enum ServicePropertyChannel Define canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.5.0.
enum VoiceProfileType Define tipos de perfil de voz.
enum RecognitionFactorScope Define o escopo ao qual um Fator de Reconhecimento é aplicado.
enumationAssessmentGradingSystem Define o sistema de pontos para calibragem de pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.14.0.
enumationAssessmentGranularity Define a granularidade da avaliação de pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.14.0.
enum SynthesisVoiceType Define o tipo de vozes de síntese adicionadas na versão 1.16.0.
enumEração SynthesisVoiceGender Define o gênero das vozes de síntese adicionadas na versão 1.17.0.
enum SpeechSynthesisBoundaryType Define o tipo de limite do evento de limite de síntese de fala Adicionado na versão 1.21.0.
classe AsyncRecognizer Classe base abstrata AsyncRecognizer.
classe AudioDataStream Representa o fluxo de dados de áudio usado para operar dados de áudio como um fluxo. Adicionado na versão 1.4.0.
classe AutoDetectSourceLanguageConfig Classe que define a configuração de origem de detecção automática Atualizada em 1.13.0.
classe AutoDetectSourceLanguageResult Contém o resultado da linguagem de origem detectado automaticamente adicionado em 1.8.0.
classe BaseAsyncRecognizer Classe BaseAsyncRecognizer.
classe CancellationDetails Contém informações detalhadas sobre por que um resultado foi cancelado.
classe ClassLanguageModel Representa uma lista de gramáticas para cenários de gramática dinâmica. Adicionado na versão 1.7.0.
conexão de classe Connection é uma classe proxy para gerenciar a conexão com o serviço de fala do Reconhecedor especificado. Por padrão, um Reconhecedor gerencia de forma autônoma a conexão com o serviço quando necessário. A classe Connection fornece métodos adicionais para que os usuários abram ou fechem explicitamente uma conexão e assinem a conexão status alterações. O uso de Conexão é opcional. Destina-se a cenários em que é necessário ajustar o comportamento do aplicativo com base em status de conexão. Opcionalmente, os usuários podem chamar Open() para iniciar manualmente uma conexão de serviço antes de iniciar o reconhecimento no Reconhecedor associado a essa Conexão. Depois de iniciar um reconhecimento, a chamada de Open() ou Close() pode falhar. Isso não afetará o Reconhecedor nem o reconhecimento contínuo. A conexão pode cair por vários motivos, o Reconhecedor sempre tentará reinstituir a conexão conforme necessário para garantir operações em andamento. Em todos esses casos, eventos conectados/desconectados indicarão a alteração do status de conexão. Atualizado na versão 1.17.0.
classe ConnectionEventArgs Fornece dados para o ConnectionEvent. Adicionado na versão 1.2.0.
classe ConnectionMessage ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de fala. Essas mensagens são fornecidas para fins de depuração e não devem ser usadas para casos de uso de produção com o Serviço de Fala dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Fala estão sujeitas a alterações sem aviso prévio. Isso inclui conteúdo da mensagem, cabeçalhos, conteúdos, ordenação etc. Adicionado na versão 1.10.0.
classe ConnectionMessageEventArgs Fornece dados para o ConnectionMessageEvent.
classe EmbeddedSpeechConfig Classe que define a configuração de fala inserida (offline).
classe EventArgs Classe base para argumentos de evento.
classe EventSignal Os clientes podem se conectar ao sinal de evento para receber eventos ou desconectar-se do sinal de evento para interromper o recebimento de eventos.
classe EventSignalBase Os clientes podem se conectar ao sinal de evento para receber eventos ou desconectar-se do sinal de evento para interromper o recebimento de eventos.
gramática de classe Representa a gramática de classe base para personalizar o reconhecimento de fala. Adicionado na versão 1.5.0.
classe GrammarList Representa uma lista de gramáticas para cenários de gramática dinâmica. Adicionado na versão 1.7.0.
classe GrammarPhrase Representa uma frase que pode ser falada pelo usuário. Adicionado na versão 1.5.0.
classe HybridSpeechConfig Classe que define configurações híbridas (em nuvem e inseridas) para reconhecimento de fala ou síntese de fala.
classe KeywordRecognitionEventArgs Classe para os eventos emmitidos pelo KeywordRecognizer.
classe KeywordRecognitionModel Representa palavra-chave modelo de reconhecimento usado com métodos StartKeywordRecognitionAsync.
classe KeywordRecognitionResult Classe que define os resultados emitidos pelo KeywordRecognizer.
classe KeywordRecognizer Tipo de reconhecedor especializado para lidar apenas com palavra-chave ativação.
classe NoMatchDetails Contém informações detalhadas para resultados de reconhecimento no NoMatch.
classe PhraseListGrammar Representa uma gramática de lista de frases para cenários de gramática dinâmica. Adicionado na versão 1.5.0.
classe PronunciationAssessmentConfig Classe que define a configuração de avaliação de pronúncia Adicionada em 1.14.0.
classe PronunciationAssessmentResult Classe para resultados da avaliação de pronúncia.
classe PronunciationContentAssessmentResult Classe para resultados de avaliação de conteúdo.
classe PropertyCollection Classe para recuperar ou definir um valor de propriedade de uma coleção de propriedades.
classe RecognitionEventArgs Fornece dados para o RecognitionEvent.
classe RecognitionResult Contém informações detalhadas sobre o resultado de uma operação de reconhecimento.
Reconhecedor de classes Classe base do reconhecedor.
classe SessionEventArgs Classe base para argumentos de evento de sessão.
classe SmartHandle Classe de identificador inteligente.
classe SourceLanguageConfig Classe que define a configuração do idioma de origem, adicionada em 1.8.0.
classe SourceLanguageRecognizer Classe para reconhecedores de idioma de origem. Você pode usar essa classe para detecção de idioma autônomo. Adicionado na versão 1.17.0.
classe SpeechConfig Classe que define configurações para reconhecimento de fala/intenção ou síntese de fala.
classe SpeechRecognitionCanceledEventArgs Classe para argumentos de evento cancelados de reconhecimento de fala.
classe SpeechRecognitionEventArgs Classe para argumentos de evento de reconhecimento de fala.
classe SpeechRecognitionModel Informações do modelo de reconhecimento de fala.
classe SpeechRecognitionResult Classe base para resultados de reconhecimento de fala.
classe SpeechRecognizer Classe para reconhecedores de fala.
classe SpeechSynthesisBookmarkEventArgs Classe para argumentos de evento de indicador de síntese de fala. Adicionado na versão 1.16.0.
classe SpeechSynthesisCancellationDetails Contém informações detalhadas sobre por que um resultado foi cancelado. Adicionado na versão 1.4.0.
classe SpeechSynthesisEventArgs Classe para argumentos de evento de síntese de fala. Adicionado na versão 1.4.0.
classe SpeechSynthesisResult Contém informações sobre o resultado da síntese de conversão de texto em fala. Adicionado na versão 1.4.0.
classe SpeechSynthesisVisemeEventArgs Classe para argumentos de evento do viseme de síntese de fala. Adicionado na versão 1.16.0.
classe SpeechSynthesisWordBoundaryEventArgs Classe para argumentos de evento de limite de palavra de síntese de fala. Adicionado na versão 1.7.0.
classe SpeechSynthesizer Classe para sintetizador de fala. Atualizado na versão 1.14.0.
classe SpeechTranslationModel Informações do modelo de tradução de fala.
classe SynthesisVoicesResult Contém informações sobre o resultado da lista de vozes de sintetizadores de fala. Adicionado na versão 1.16.0.
classe VoiceInfo Contém informações sobre informações de voz de síntese Atualizadas na versão 1.17.0.

Membros

enum PropertyId

Valores Descrições
SpeechServiceConnection_Key A chave de assinatura do Serviço de Fala dos Serviços Cognitivos. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade luis para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription.
SpeechServiceConnection_Endpoint O ponto de extremidade do Serviço de Fala dos Serviços Cognitivos de Fala (URL). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromEndpoint. OBSERVAÇÃO: esse ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso.
SpeechServiceConnection_Region A região do Serviço de Fala dos Serviços Cognitivos de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken.
SpeechServiceAuthorization_Token O token de autorização do Serviço de Fala dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken.
SpeechServiceAuthorization_Type O tipo de autorização do Serviço de Fala dos Serviços Cognitivos de Fala. Atualmente não utilizado.
SpeechServiceConnection_EndpointId A ID do ponto de extremidade do Serviço de Voz Personalizada ou de Fala Personalizada dos Serviços Cognitivos. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetEndpointId. OBSERVAÇÃO: a ID do ponto de extremidade está disponível no Portal de Fala Personalizada, listado em Detalhes do Ponto de Extremidade.
SpeechServiceConnection_Host O host (URL) do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::FromHost.
SpeechServiceConnection_ProxyHostName O nome do host do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0.
SpeechServiceConnection_ProxyPort A porta do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0.
SpeechServiceConnection_ProxyUserName O nome de usuário do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0.
SpeechServiceConnection_ProxyPassword A senha do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetProxy. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.1.0.
SpeechServiceConnection_Url A cadeia de caracteres de URL criada com base na configuração de fala. Essa propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. OBSERVAÇÃO: adicionado na versão 1.5.0.
SpeechServiceConnection_TranslationToLanguages A lista de idiomas separados por vírgulas usados como idiomas de tradução de destino. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::AddTargetLanguage e SpeechTranslationConfig::GetTargetLanguages.
SpeechServiceConnection_TranslationVoice O nome da voz do Serviço Cognitivo de Texto em Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig::SetVoiceName. OBSERVAÇÃO: nomes de voz válidos podem ser encontrados aqui.
SpeechServiceConnection_TranslationFeatures Recursos de tradução. Para uso interno.
SpeechServiceConnection_IntentRegion A região do Serviço Reconhecimento vocal. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use LanguageUnderstandingModel.
SpeechServiceConnection_RecoMode O modo de reconhecimento do Serviço de Fala dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSA", "DITADO". Essa propriedade destina-se a ser somente leitura. O SDK está usando-o internamente.
SpeechServiceConnection_RecoLanguage O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetSpeechRecognitionLanguage.
Speech_SessionId A ID da sessão. Essa id é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma associação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ela está associada. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SessionEventArgs::SessionId.
SpeechServiceConnection_UserDefinedQueryParameters Os parâmetros de consulta fornecidos pelos usuários. Eles serão passados para o serviço como parâmetros de consulta de URL. Adicionado na versão 1.5.0.
SpeechServiceConnection_RecoBackend A cadeia de caracteres para especificar o back-end a ser usado para reconhecimento de fala; as opções permitidas estão online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, a opção offline só é válida quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelName O nome do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelKey A chave de descriptografia do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0.
SpeechServiceConnection_RecoModelIniFile O caminho para o arquivo ini do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthLanguage O idioma falado a ser sintetizado (por exemplo, en-US) adicionado na versão 1.4.0.
SpeechServiceConnection_SynthVoice O nome da voz TTS a ser usada para a síntese de fala Adicionada na versão 1.4.0.
SpeechServiceConnection_SynthOutputFormat A cadeia de caracteres para especificar o formato de áudio de saída TTS adicionado na versão 1.4.0.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission Indica se usar o formato de áudio compactado para transmissão de áudio de síntese de fala. Essa propriedade só afeta quando SpeechServiceConnection_SynthOutputFormat é definido como um formato pcm. Se essa propriedade não estiver definida e o GStreamer estiver disponível, o SDK usará o formato compactado para transmissão de áudio sintetizada e a decodificará. Você pode definir essa propriedade como "false" para usar o formato pcm bruto para transmissão por fio. Adicionado na versão 1.16.0.
SpeechServiceConnection_SynthBackend A cadeia de caracteres para especificar o back-end do TTS; as opções válidas estão online e offline. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths para definir o back-end de síntese como offline. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthOfflineDataPath Os caminhos do arquivo de dados para o mecanismo de síntese offline; válido somente quando o back-end de síntese está offline. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::FromPath ou EmbeddedSpeechConfig::FromPaths. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthOfflineVoice O nome da voz TTS offline a ser usada para síntese de fala Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::SetSpeechSynthesisVoice e EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Adicionado na versão 1.19.0.
SpeechServiceConnection_SynthModelKey A chave de descriptografia da voz a ser usada para síntese de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use EmbeddedSpeechConfig::SetSpeechSynthesisVoice. Adicionado na versão 1.19.0.
SpeechServiceConnection_VoicesListEndpoint O ponto de extremidade da API (URL) da lista de vozes do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não precisa especificar essa propriedade, o SDK a construirá com base na região/host/ponto de extremidade de SpeechConfig. Adicionado na versão 1.16.0.
SpeechServiceConnection_InitialSilenceTimeoutMs O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0.
SpeechServiceConnection_EndSilenceTimeoutMs O valor de tempo limite do silêncio final (em milissegundos) usado pelo serviço. Adicionado na versão 1.5.0.
SpeechServiceConnection_EnableAudioLogging Um valor booliano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada à sua assinatura dos Serviços Cognitivos (recurso de Fala habilitado para BYOS (Bring Your Own Storage). Adicionado na versão 1.5.0.
SpeechServiceConnection_LanguageIdMode O modo de identificador de linguagem de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Confira o documento De identificação de idioma . Adicionado em 1.25.0.
SpeechServiceConnection_AutoDetectSourceLanguages Os idiomas de origem de detecção automática adicionados na versão 1.8.0.
SpeechServiceConnection_AutoDetectSourceLanguageResult O resultado da detecção automática do idioma de origem Adicionado na versão 1.8.0.
SpeechServiceResponse_RequestDetailedResultTrueFalse O formato de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado (simples ou detalhado). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig::SetOutputFormat.
SpeechServiceResponse_RequestProfanityFilterTrueFalse O nível de profanidade de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado. Atualmente não utilizado.
SpeechServiceResponse_ProfanityOption A configuração de profanidade de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitada. Os valores permitidos são "mascarados", "removidos" e "brutos". Adicionado na versão 1.5.0.
SpeechServiceResponse_PostProcessingOption Um valor de cadeia de caracteres que especifica qual opção de pós-processamento deve ser usada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestWordLevelTimestamps Um valor booliano que especifica se os carimbos de data/hora no nível da palavra devem ser incluídos no resultado da resposta. Adicionado na versão 1.5.0.
SpeechServiceResponse_StablePartialResultThreshold O número de vezes que uma palavra precisa estar em resultados parciais a serem retornados. Adicionado na versão 1.5.0.
SpeechServiceResponse_OutputFormatOption Um valor de cadeia de caracteres que especifica a opção de formato de saída no resultado da resposta. Somente para uso interno. Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestSnr Um valor booliano que especifica se o SNR deve ser incluído (taxa de sinal para ruído) no resultado da resposta. Adicionado na versão 1.18.0.
SpeechServiceResponse_TranslationRequestStablePartialResult Um valor booliano a ser solicitado para estabilizar os resultados parciais da tradução omitindo palavras no final. Adicionado na versão 1.5.0.
SpeechServiceResponse_RequestWordBoundary Um valor booliano que especifica se os eventos WordBoundary devem ser solicitados. Adicionado na versão 1.21.0.
SpeechServiceResponse_RequestPunctuationBoundary Um valor booliano que especifica se o limite de pontuação deve ser solicitado em Eventos WordBoundary. O padrão é true. Adicionado na versão 1.21.0.
SpeechServiceResponse_RequestSentenceBoundary Um valor booliano que especifica se o limite de frase deve ser solicitado em Eventos WordBoundary. O padrão é false. Adicionado na versão 1.21.0.
SpeechServiceResponse_SynthesisEventsSyncToAudio Um valor booliano que especifica se o SDK deve sincronizar eventos de metadados de síntese(por exemplo, limite de palavras, visema etc.) com a reprodução de áudio. Isso só entra em vigor quando o áudio é reproduzido por meio do SDK. O padrão é true. Se definido como false, o SDK disparará os eventos conforme eles forem provenientes do serviço, o que pode estar fora de sincronia com a reprodução de áudio. Adicionado na versão 1.31.0.
SpeechServiceResponse_JsonResult A saída de resposta do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Essa propriedade está disponível somente em objetos de resultado de reconhecimento.
SpeechServiceResponse_JsonErrorDetails Os detalhes de erro do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use CancellationDetails::ErrorDetails.
SpeechServiceResponse_RecognitionLatencyMs A latência de reconhecimento em milissegundos. Somente leitura, disponível nos resultados finais de fala/tradução/intenção. Isso mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está contribuindo para o resultado final e a hora em que o resultado final é recebido do serviço de fala. Adicionado na versão 1.3.0.
SpeechServiceResponse_RecognitionBackend O back-end de reconhecimento. Somente leitura, disponível nos resultados do reconhecimento de fala. Isso indica se o reconhecimento de nuvem (online) ou incorporado (offline) foi usado para produzir o resultado.
SpeechServiceResponse_SynthesisFirstByteLatencyMs A sintetização de fala primeiro latência de bytes em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que o primeiro áudio de byte está disponível. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisFinishLatencyMs A sintetização de fala sintetiza a latência de todos os bytes em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisUnderrunTimeMs O tempo de execução inferior para a síntese de fala em milissegundos. Somente leitura, disponível nos resultados em eventos SynthesisCompleted. Isso mede o tempo total de subexecutar de PropertyId::AudioConfig_PlaybackBufferLengthInMs é preenchido para a síntese concluída. Adicionado na versão 1.17.0.
SpeechServiceResponse_SynthesisConnectionLatencyMs A latência de conexão de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que a conexão HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisNetworkLatencyMs A latência de rede de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisServiceLatencyMs A latência do serviço de sintetização de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0.
SpeechServiceResponse_SynthesisBackend Indica por qual back-end a síntese foi concluída. Somente leitura, disponível nos resultados da síntese de fala, exceto pelo resultado no evento SynthesisStarted Adicionado na versão 1.17.0.
CancellationDetails_Reason O motivo do cancelamento. Atualmente não utilizado.
CancellationDetails_ReasonText O texto de cancelamento. Atualmente não utilizado.
CancellationDetails_ReasonDetailedText O texto detalhado do cancelamento. Atualmente não utilizado.
LanguageUnderstandingServiceResponse_JsonResult A saída de resposta do Serviço de Reconhecimento vocal (no formato JSON). Disponível por meio de IntentRecognitionResult.Properties.
AudioConfig_DeviceNameForCapture O nome do dispositivo para captura de áudio. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromMicrophoneInput. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0.
AudioConfig_NumberOfChannelsForCapture O número de canais para captura de áudio. Somente para uso interno. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0.
AudioConfig_SampleRateForCapture A taxa de amostragem (em Hz) para captura de áudio. Somente para uso interno. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0.
AudioConfig_BitsPerSampleForCapture O número de bits de cada amostra para captura de áudio. Somente para uso interno. OBSERVAÇÃO: essa ID de propriedade foi adicionada na versão 1.3.0.
AudioConfig_AudioSource A fonte de áudio. Os valores permitidos são "Microfones", "Arquivo" e "Stream". Adicionado na versão 1.3.0.
AudioConfig_DeviceNameForRender O nome do dispositivo para renderização de áudio. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use AudioConfig::FromSpeakerOutput. Adicionado na versão 1.14.0.
AudioConfig_PlaybackBufferLengthInMs Comprimento do buffer de reprodução em milissegundos, o padrão é 50 milissegundos.
AudioConfig_AudioProcessingOptions Opções de processamento de áudio no formato JSON.
Speech_LogFilename O nome do arquivo para gravar logs. Adicionado na versão 1.4.0.
Speech_SegmentationSilenceTimeoutMs Uma duração do silêncio detectado, medida em milissegundos, após a qual a conversão de fala em texto determinará que uma frase falada terminou e gerará um resultado reconhecido final. Configurar esse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o normal e o comportamento de segmentação padrão produz consistentemente resultados muito longos ou muito curtos. Os valores de tempo limite de segmentação inadequadamente altos ou baixos podem afetar negativamente a precisão da conversão de fala em texto; essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser validado minuciosamente conforme o esperado.
Conversation_ApplicationId Identificador usado para se conectar ao serviço de back-end. Adicionado na versão 1.5.0.
Conversation_DialogType Tipo de back-end de caixa de diálogo ao qual se conectar. Adicionado na versão 1.7.0.
Conversation_Initial_Silence_Timeout Tempo limite de silêncio para ouvir Adicionado na versão 1.5.0.
Conversation_From_Id Da ID a ser usada em atividades de reconhecimento de fala adicionadas na versão 1.5.0.
Conversation_Conversation_Id ConversationId para a sessão. Adicionado na versão 1.8.0.
Conversation_Custom_Voice_Deployment_Ids Lista separada por vírgulas de IDs de implantação de voz personalizada. Adicionado na versão 1.8.0.
Conversation_Speech_Activity_Template Modelo de atividade de fala, propriedades de carimbo no modelo na atividade gerada pelo serviço de fala. Adicionado na versão 1.10.0.
Conversation_ParticipantId O identificador do participante na conversa atual. Adicionado na versão 1.13.0.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp O carimbo de data/hora associado ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio pull/push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. É o mesmo que o carimbo de data/hora da apresentação em um fluxo de transporte MPEG. Confira https://en.wikipedia.org/wiki/Presentation_timestamp Adicionado na versão 1.5.0.
DataBuffer_UserId A ID de usuário associada ao buffer de dados gravado pelo cliente ao usar fluxos de entrada de áudio pull/push. Adicionado na versão 1.5.0.
PronunciationAssessment_ReferenceText O texto de referência do áudio para avaliação de pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte os parâmetros de avaliação de pronúncia da tabela. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create ou PronunciationAssessmentConfig::SetReferenceText. Adicionado na versão 1.14.0.
PronunciationAssessment_GradingSystem O sistema de pontos para calibragem de pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_Granularity A granularidade de avaliação de pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_EnableMiscue Define se habilitar o cálculo de erro. Com ele habilitado, as palavras pronunciadas serão comparadas ao texto de referência e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é Falso. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_PhonemeAlphabet O alfabeto phoneme de avaliação de pronúncia. Os valores válidos são "SAPI" (padrão) e "IPA" Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::SetPhonemeAlphabet. Adicionado na versão 1.20.0.
PronunciationAssessment_NBestPhonemeCount A avaliação de pronúncia nbest phoneme count. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::SetNBestPhonemeCount. Adicionado na versão 1.20.0.
PronunciationAssessment_EnableProsodyAssessment Se deseja habilitar a avaliação prosódia. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::EnableProsodyAssessment. Adicionado na versão 1.33.0.
PronunciationAssessment_Json A cadeia de caracteres json dos parâmetros de avaliação de pronúncia Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::Create. Adicionado na versão 1.14.0.
PronunciationAssessment_Params Parâmetros de avaliação de pronúncia. Essa propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.14.0.
PronunciationAssessment_ContentTopic O tópico de conteúdo da avaliação de pronúncia. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use PronunciationAssessmentConfig::EnableContentAssessmentWithTopic. Adicionado na versão 1.33.0.
SpeakerRecognition_Api_Version Versão da API de back-end do Reconhecimento do Locutor. Essa propriedade é adicionada para permitir o teste e o uso de versões anteriores das APIs de Reconhecimento do Locutor, quando aplicável. Adicionado na versão 1.18.0.
SpeechTranslation_ModelName O nome de um modelo a ser usado para tradução de fala. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.
SpeechTranslation_ModelKey A chave de descriptografia de um modelo a ser usado para tradução de fala. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.
KeywordRecognition_ModelName O nome de um modelo a ser usado para reconhecimento de palavra-chave. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.
KeywordRecognition_ModelKey A chave de descriptografia de um modelo a ser usado para reconhecimento de palavra-chave. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.
EmbeddedSpeech_EnablePerformanceMetrics Habilite a coleção de métricas de desempenho de fala inseridas que podem ser usadas para avaliar a capacidade de um dispositivo usar a fala inserida. Os dados coletados são incluídos nos resultados de cenários específicos, como o reconhecimento de fala. A configuração padrão é "false". Observe que as métricas podem não estar disponíveis em todos os cenários de fala inseridos.

Define ids de propriedade de fala. Alterado na versão 1.4.0.

enum OutputFormat

Valores Descrições
Simples
Detalhado

Formato de saída.

enum ProfanityOption

Valores Descrições
Mascarado Substitui letras em palavras profanas por caracteres star.
Removido Remove palavras profanas.
Raw Não faz nada para palavras profanas.

Remove palavrões (palavrões) ou substitui letras de palavras profanas por estrelas. Adicionado na versão 1.5.0.

enum ResultReason

Valores Descrições
NoMatch Indica que a fala não pôde ser reconhecida. Mais detalhes podem ser encontrados no objeto NoMatchDetails.
Canceled Indica que o reconhecimento foi cancelado. Mais detalhes podem ser encontrados usando o objeto CancellationDetails.
ReconhecendoSpeech Indica que o resultado da fala contém texto de hipótese.
RecognizedSpeech Indica que o resultado da fala contém o texto final que foi reconhecido. O Reconhecimento de Fala agora está completo para esta frase.
ReconhecendoIntent Indica que o resultado da intenção contém texto de hipótese e intenção.
RecognizedIntent Indica que o resultado da intenção contém texto final e intenção. Agora, o Reconhecimento de Fala e a Determinação de Intenção estão completos para esta frase.
TranslatingSpeech Indica que o resultado da tradução contém texto de hipótese e suas traduções.
TranslatedSpeech Indica que o resultado da tradução contém texto final e conversões correspondentes. O Reconhecimento de Fala e a Tradução já foram concluídos para esta frase.
SintetizandoAudio Indica que o resultado do áudio sintetizado contém uma quantidade diferente de zero de dados de áudio.
SynthesizingAudioCompleted Indica que o áudio sintetizado está concluído para esta frase.
RecognizingKeyword Indica que o resultado da fala contém texto palavra-chave (não verificado). Adicionado na versão 1.3.0.
RecognizedKeyword Indica que palavra-chave reconhecimento concluído reconhecendo o palavra-chave especificado. Adicionado na versão 1.3.0.
SynthesizingAudioStarted Indica que a síntese de fala agora foi iniciada Adicionada na versão 1.4.0.
TranslatingParticipantSpeech Indica que o resultado da transcrição contém texto de hipótese e suas traduções para outros participantes na conversa. Adicionado na versão 1.8.0.
TranslatedParticipantSpeech Indica que o resultado da transcrição contém texto final e conversões correspondentes para outros participantes na conversa. O Reconhecimento de Fala e a Tradução já foram concluídos para esta frase. Adicionado na versão 1.8.0.
TranslatedInstantMessage Indica que o resultado da transcrição contém a mensagem instantânea e as traduções correspondentes. Adicionado na versão 1.8.0.
TranslatedParticipantInstantMessage Indica que o resultado da transcrição contém a mensagem instantânea para outros participantes na conversa e nas traduções correspondentes. Adicionado na versão 1.8.0.
EnrollingVoiceProfile Indica que o perfil de voz está sendo registrado e os clientes precisam enviar mais áudio para criar um perfil de voz. Adicionado na versão 1.12.0.
EnrolledVoiceProfile O perfil de voz foi registrado. Adicionado na versão 1.12.0.
RecognizedSpeakers Indica a identificação bem-sucedida de alguns alto-falantes. Adicionado na versão 1.12.0.
RecognizedSpeaker Indica um alto-falante verificado com êxito. Adicionado na versão 1.12.0.
ResetVoiceProfile Indica que um perfil de voz foi redefinido com êxito. Adicionado na versão 1.12.0.
DeletedVoiceProfile Indica que um perfil de voz foi excluído com êxito. Adicionado na versão 1.12.0.
VoicesListRetrieved Indica que a lista de vozes foi recuperada com êxito. Adicionado na versão 1.16.0.

Especifica os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado.

enum CancellationReason

Valores Descrições
Erro Indica que ocorreu um erro durante o reconhecimento de fala.
EndOfStream Indica que o final do fluxo de áudio foi atingido.
CancelledByUser Indica que a solicitação foi cancelada pelo usuário. Adicionado na versão 1.14.0.

Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.

enum CancellationErrorCode

Valores Descrições
Noerror Nenhum erro. Se CancellationReason for EndOfStream, CancellationErrorCode será definido como NoError.
AuthenticationFailure Indica um erro de autenticação. Um erro de autenticação ocorrerá se a chave de assinatura ou o token de autorização for inválido, expirado ou não corresponder à região que está sendo usada.
BadRequest Indica que um ou mais parâmetros de reconhecimento são inválidos ou não há suporte para o formato de áudio.
TooManyRequests Indica que o número de solicitações paralelas excedeu o número de transcrições simultâneas permitidas para a assinatura.
Proibido Indica que a assinatura gratuita usada pela solicitação ficou sem cota.
ConnectionFailure Indica um erro de conexão.
ServiceTimeout Indica um erro de tempo limite ao aguardar a resposta do serviço.
ServiceError Indica que um erro é retornado pelo serviço.
ServiceUnavailable Indica que o serviço está indisponível no momento.
RuntimeError Indica um erro de runtime inesperado.
ServiceRedirectTemporary Indica que o Serviço de Fala está solicitando temporariamente uma reconexão a um ponto de extremidade diferente.
ServiceRedirectPermanent Indica que o Serviço de Fala está solicitando permanentemente uma reconexão a um ponto de extremidade diferente.
EmbeddedModelError Indica que o modelo de fala inserida (SR ou TTS) não está disponível ou corrompido.

Define o código de erro caso CancellationReason seja Error. Adicionado na versão 1.1.0.

enum NoMatchReason

Valores Descrições
Não Reconhecido Indica que a fala foi detectada, mas não reconhecida.
InitialSilenceTimeout Indica que o início do fluxo de áudio continha apenas silêncio e o serviço atingiu o tempo limite aguardando a fala.
InitialBabbleTimeout Indica que o início do fluxo de áudio continha apenas ruído e o serviço atingiu o tempo limite aguardando a fala.
KeywordNotRecognized Indica que a palavra-chave detectada foi rejeitada pelo serviço de verificação palavra-chave. Adicionado na versão 1.5.0.
EndSilenceTimeout Indica que o fluxo de áudio continha apenas silêncio após a última frase reconhecida.

Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.

enum ActivityJSONType

Valores Descrições
Null
Objeto
Array
String
Double
UInt
int
Booliano

Define os tipos possíveis para um valor json de atividade. Adicionado na versão 1.5.0.

enum SpeechSynthesisOutputFormat

Valores Descrições
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren Sem suporte pelo serviço. Não use esse valor.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren Sem suporte pelo serviço. Não use esse valor.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus adicionado na versão 1.16.0
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus Adicionado na versão 1.16.0
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus Adicionado na versão 1.16.0
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk Adicionado na versão 1.17.0
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw Adicionado na versão 1.17.0
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw Adicionado na versão 1.17.0
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus Áudio compactado pelo codec OPUS em um contêiner webm, com taxa de bits de 24 kbps, otimizado para cenário de IoT. (Adicionado em 1.19.0)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus Audio compactado pelo codec OPUS sem contêiner, com taxa de bits de 32kbps. (Adicionado em 1.20.0)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus Áudio compactado pelo codec OPUS sem contêiner, com taxa de bits de 48 kbps. (Adicionado em 1.20.0)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus Áudio compactado pelo codec OPUS sem contêiner, com taxa de bits de 24 kbps. (Adicionado em 1.20.0)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm Áudio PCM bruto a 22050Hz taxa de amostragem e profundidade de 16 bits. (Adicionado em 1.22.0)
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-pcm Áudio PCM a 22050Hz taxa de amostragem e profundidade de 16 bits, com cabeçalho RIFF. (Adicionado em 1.22.0)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm Áudio PCM bruto a 44100Hz taxa de amostragem e profundidade de 16 bits. (Adicionado em 1.22.0)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-pcm Áudio PCM a 44100Hz taxa de amostragem e profundidade de 16 bits, com cabeçalho RIFF. (Adicionado em 1.22.0)
AmrWb16000Hz amr-wb-16000hz Áudio AMR-WB a uma taxa de amostragem de 16kHz. (Adicionado em 1.24.0)

Define os possíveis formatos de áudio de saída de síntese de fala. Atualizado na versão 1.19.0.

enum StreamStatus

Valores Descrições
Unknown O fluxo de dados de áudio status é desconhecido.
NoData O fluxo de dados de áudio não contém dados.
PartialData O fluxo de dados de áudio contém dados parciais de uma solicitação de fala.
Alldata O fluxo de dados de áudio contém todos os dados de uma solicitação de fala.
Canceled O fluxo de dados de áudio foi cancelado.

Define a possível status do fluxo de dados de áudio. Adicionado na versão 1.4.0.

enumEração ServicePropertyChannel

Valores Descrições
UriQueryParameter Usa o parâmetro de consulta URI para passar as configurações de propriedade para o serviço.
HttpHeader Usa HttpHeader para definir uma chave/valor em um cabeçalho HTTP.

Define os canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.5.0.

enumEração VoiceProfileType

Valores Descrições
TextIndependentIdentification Identificação do locutor independente de texto.
TextDependentVerification Verificação do locutor dependente de texto.
TextIndependentVerification Verificação independente de texto.

Define tipos de perfil de voz.

enum RecognitionFactorScope

Valores Descrições
PartialPhrase Um Fator de Reconhecimento será aplicado a gramáticas que podem ser referenciadas como frases parciais individuais.

Define o escopo ao qual um Fator de Reconhecimento é aplicado.

enumationAssessmentGradingSystem

Valores Descrições
FivePoint Calibragem de cinco pontos.
HundredMark Cem marcas.

Define o sistema de pontos para calibragem de pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.14.0.

enumationAssessmentGranularity

Valores Descrições
Fonema Mostra a pontuação no nível completo de texto, palavra e foneme.
Word Mostra a pontuação no nível de texto e palavra completos.
FullText Mostra a pontuação somente no nível de texto completo.

Define a granularidade da avaliação de pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.14.0.

enum SynthesisVoiceType

Valores Descrições
OnlineNeural Voz neural online.
OnlineStandard Voz padrão online.
OfflineNeural Voz neural offline.
OfflineStandard Voz padrão offline.

Define o tipo de vozes de síntese adicionadas na versão 1.16.0.

enumEração SynthesisVoiceGender

Valores Descrições
Unknown Gênero desconhecido.
Feminino Voz feminina.
Masculino Voz masculina.

Define o gênero das vozes de síntese adicionadas na versão 1.17.0.

enum SpeechSynthesisBoundaryType

Valores Descrições
Word Word limite.
Pontuação Limite de pontuação.
Frase Limite de frase.

Define o tipo de limite do evento de limite de síntese de fala Adicionado na versão 1.21.0.