Installer et exécuter des conteneurs Docker pour les API du service Speech

Les conteneurs vous permettent d’exécuter certaines des API du service Speech dans votre propre environnement. Les conteneurs conviennent particulièrement bien à certaines exigences de sécurité et de gouvernance des données. Dans cet article, vous allez apprendre à télécharger, installer et exécuter un conteneur Speech.

Les conteneurs Speech permettent aux clients de créer une architecture d’application Speech optimisée pour tirer parti des fonctionnalités robustes du cloud et de la localité en périphérie. Plusieurs conteneurs sont disponibles ; leurs tarifs sont identiques à ceux des services Azure Speech basés sur le cloud.

Important

Nous avons mis hors service les voix de synthèse vocale standard et le conteneur de conversion de texte par synthèse vocale le 31 août 2021. Envisagez de migrer vos applications pour utiliser le conteneur de conversion de texte par synthèse vocale à la place. Pour plus d’informations sur la mise à jour de votre application, procédez comme suit.

Conteneur Fonctionnalités Latest État de la version
Reconnaissance vocale Analyse les sentiments et transcrit de façon continue de la parole en temps réel ou des enregistrements audio par lots, avec des résultats intermédiaires. 2.15.0 Mise à la disposition générale
Reconnaissance vocale personnalisée À l’aide d’un modèle personnalisé issu du portail Custom Speech, transcrit en continu de la parole en temps réel ou des enregistrements audio en texte, avec des résultats intermédiaires. 2.15.0 Mise à la disposition générale
Synthèse vocale Convertit le texte en paroles naturelles par le biais d’une entrée de texte brut ou du langage de balisage SSML (Speech Synthesis Markup Language). 1.15.0 Mise à la disposition générale
Identification de la langue parlée Permet de détecter la langue parlée en fichiers audio. 1.3.0 preview
Synthèse vocale neuronale Convertit du texte en parole naturelle grâce à la technologie de réseau neuronal profond qui permet d’obtenir une parole synthétisée plus naturelle. 1.9.0 Mise à la disposition générale

Prérequis

Important

  • Pour utiliser les conteneurs Speech, vous devez envoyer une demande en ligne et obtenir son approbation. Pour plus d’informations, consultez la section Demande d’approbation pour l’exécution du conteneur ci-dessous.
  • Les conteneurs généralement disponibles répondent aux exigences de Microsoft en matière de stabilité et de support. Les conteneurs disponibles en préversion sont toujours en cours de développement.

L’utilisation des conteneurs du service Speech est soumise aux prérequis suivants. Si vous n’avez pas d’abonnement Azure, créez un compte gratuit avant de commencer.

  • Docker installé sur un ordinateur hôte. Vous devez configurer Docker pour permettre aux conteneurs de se connecter à Azure et de lui envoyer des données de facturation.
    • Sous Windows, vous devez également configurer Docker pour prendre en charge les conteneurs Linux.
    • Vous devez disposer d’une connaissance élémentaire des concepts liés à Docker.
  • Une ressource de service Speech avec le niveau tarifaire Gratuit (F0) ou Standard (S).

Collecte des paramètres requis

Il existe trois paramètres principaux pour tous les conteneurs de Cognitive Services requis. Le contrat de licence utilisateur final (CLUF) doit être présent avec une valeur de accept. En outre, une URL de point de terminaison et une clé API sont nécessaires.

URL du point de terminaison {ENDPOINT_URI}

La valeur URI du point de terminaison est disponible sur la page Vue d’ensemble du portail Azure de la ressource Cognitive Service correspondante. Accédez à la page Vue d’ensemble, pointez sur le point de terminaison et une icône Copy to clipboard s’affiche. Copiez et utilisez si nécessaire.

Collecter l’URI de point de terminaison pour une utilisation ultérieure

Clés {API_KEY}

Cette clé est utilisée pour démarrer le conteneur et est disponible sur la page Clés de la ressource Cognitive Service correspondante sur le portail Azure. Accédez à la page Clés, puis cliquez sur l’icône Copy to clipboard .

Obtenir l’une des deux clés pour une utilisation ultérieure

Important

Ces clés d’abonnement sont utilisées pour accéder à votre API Cognitive Service. Ne partagez pas vos clés. Stockez-les en toute sécurité, par exemple, à l’aide de Azure Key Vault. Nous vous recommandons également de régénérer ces clés régulièrement. Une seule clé est nécessaire pour effectuer un appel d’API. Lors de la régénération de la première clé, vous pouvez utiliser la deuxième clé pour un accès continu au service.

Spécifications et recommandations relatives à l’ordinateur hôte

L’hôte est un ordinateur x64 qui exécute le conteneur Docker. Il peut s’agir d’un ordinateur local ou d’un service d’hébergement Docker dans Azure, comme :

Exigences et suggestions relatives au conteneur

Le tableau suivant indique l’allocation de ressources minimale et recommandée pour chaque conteneur Speech.

Conteneur Minimum Recommandé
Reconnaissance vocale 2 cœurs, 2 Go de mémoire 4 cœurs, 4 Go de mémoire
Reconnaissance vocale personnalisée 2 cœurs, 2 Go de mémoire 4 cœurs, 4 Go de mémoire
Synthèse vocale 1 cœur, 2 Go de mémoire 2 cœur, 3 Go de mémoire
Identification de la langue parlée 1 cœur, 1 Go de mémoire 1 cœur, 1 Go de mémoire
Synthèse vocale neuronale 6 cœurs, 12 Go de mémoire 8 cœurs, 16 Go de mémoire
  • Chaque cœur doit être cadencé à au moins 2,6 gigahertz (GHz).

Le nombre de cœurs et la quantité de mémoire correspondent aux paramètres --cpus et --memory qui sont utilisés dans le cadre de la commande docker run.

Notes

Les valeurs minimales et recommandées se basent sur les limites Docker, et non sur les ressources de la machine hôte. Par exemple, les conteneurs de reconnaissance vocale contenant des portions de mappage de mémoire d’un modèle linguistique volumineux, il est recommandé que l’intégralité du fichier tienne dans la mémoire, ce qui correspond à 4 à 6 Go supplémentaires. En outre, la première exécution d’un conteneur peut prendre beaucoup de temps perce que les modèles sont paginés en mémoire.

Prise en charge d’Advanced Vector Extension

L’hôte est l’ordinateur qui exécute le conteneur docker. L’hôte doit prendre en charge Advanced Vector Extensions (AVX2). Vous pouvez vérifier cette prise en charge AVX2 sur les hôtes Linux avec la commande suivante :

grep -q avx2 /proc/cpuinfo && echo AVX2 supported || echo No AVX2 support detected

Avertissement

L’ordinateur hôte doit obligatoirement prendre en charge AVX2. Le conteneur ne fonctionnera pas correctement sans prise en charge AVX2.

Demande d’approbation pour l’exécution du conteneur

Complétez et envoyez le formulaire de demande pour demander l’accès au conteneur.

Le formulaire demande des informations sur vous, votre entreprise et le scénario d’utilisateur pour lequel vous allez utiliser le conteneur. Une fois le formulaire envoyé, l’équipe Azure Cognitive Services Azure l’examinera et vous informera de sa décision par courrier électronique.

Important

  • Dans le formulaire, vous devez utiliser une adresse e-mail associée à un ID d’abonnement Azure.
  • La ressource Azure que vous utilisez pour exécuter le conteneur doit avoir été créée avec l’ID d’abonnement Azure approuvé.
  • Vérifiez votre adresse e-mail (boîtes de réception et dossiers de courrier indésirable) pour obtenir des mises à jour sur l’état de votre application auprès de Microsoft.

Une fois approuvé, vous pourrez exécuter le conteneur après l’avoir téléchargé à partir de Microsoft Container Registry, décrit plus loin dans cet article.

Vous ne pourrez pas exécuter le conteneur si votre abonnement Azure n’a pas été approuvé.

Obtenir l’image conteneur avec docker pull

Les images conteneur pour Speech sont disponibles dans le service Container Registry suivant.

Conteneur Référentiel
Reconnaissance vocale mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

Conseil

Vous pouvez utiliser la commande docker images pour lister vos images conteneurs téléchargées. Par exemple, la commande suivante liste l’ID, le référentiel et la balise de chaque image conteneur téléchargée dans un tableau :

docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"

IMAGE ID         REPOSITORY                TAG
<image-id>       <repository-path/name>    <tag-name>

Docker pull pour les conteneurs Speech

Docker pull pour le conteneur Reconnaissance vocale

Utilisez la commande docker pull pour télécharger une image conteneur à partir du registre de conteneurs Microsoft.

docker pull mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

Important

L’étiquette latest extrait les paramètres régionaux en-US. Pour d’autres paramètres régionaux, consultez Paramètres régionaux de reconnaissance vocale.

Paramètres régionaux de reconnaissance vocale

Toutes les balises, à l’exception de latest, respectent le format suivant et sont sensibles à la casse :

<major>.<minor>.<patch>-<platform>-<locale>-<prerelease>

La balise suivante illustre le format :

2.6.0-amd64-en-us

Pour tous les paramètres régionaux pris en charge du conteneur de reconnaissance vocale, consultez les étiquettes d’images de reconnaissance vocale.

Comment utiliser le conteneur

Une fois que le conteneur est sur l’ordinateur hôte, appliquez la procédure suivante pour travailler avec le conteneur.

  1. Exécutez le conteneur avec les paramètres de facturation requis. D’autres exemples de commande docker run sont disponibles.
  2. Interrogez le point de terminaison de prédiction du conteneur.

Exécuter le conteneur avec docker run

Utilisez la commande docker run pour exécuter le conteneur. Pour plus d’informations sur la façon d’obtenir les valeurs {Endpoint_URI} et {API_Key}, consultez Collecte des paramètres requis. Des exemples supplémentaires de la commande docker run sont également disponibles.

Pour exécuter le conteneur de reconnaissance vocale standard, exécutez la commande docker run suivante.

docker run --rm -it -p 5000:5000 --memory 4g --cpus 4 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY}

Cette commande :

  • Exécute un conteneur Reconnaissance vocale à partir de l’image conteneur.
  • Alloue 4 cœurs de processeur et 4 gigaoctets (Go) de mémoire.
  • Expose le port TCP 5000 et alloue un pseudo-TTY pour le conteneur.
  • Supprime automatiquement le conteneur après sa fermeture. L’image conteneur est toujours disponible sur l’ordinateur hôte.

Notes

Les conteneurs prennent en charge l’entrée audio compressée dans le kit de développement logiciel (SDK) Speech avec GStreamer. Pour installer GStreamer dans un conteneur, suivez les instructions Linux associées dans Utilisation d’une entrée audio compressée par codec avec le kit SDK Speech.

Diarisation sur la sortie de reconnaissance vocale

La diarisation est activée par défaut. Pour obtenir la diarisation dans votre réponse, utilisez diarize_speech_config.set_service_property.

  1. Définissez le format de sortie de l’expression sur Detailed.
  2. Définissez le mode de diarisation. Les modes pris en charge sont Identity et Anonymous.
diarize_speech_config.set_service_property(
    name='speechcontext-PhraseOutput.Format',
    value='Detailed',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

diarize_speech_config.set_service_property(
    name='speechcontext-phraseDetection.speakerDiarization.mode',
    value='Identity',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Notes

Le mode « Identity » retourne "SpeakerId": "Customer" ou "SpeakerId": "Agent". Le mode « Anonymous » retourne "SpeakerId": "Speaker 1" ou "SpeakerId": "Speaker 2".

Analyser les sentiments sur la sortie de la reconnaissance vocale

À partir de la version v2.6.0 du conteneur de reconnaissance vocale, vous devez utiliser le point de terminaison de l’API 3.0 du service de langage au lieu de la préversion. Par exemple

  • https://westus2.api.cognitive.microsoft.com/text/analytics/v3.0/sentiment
  • https://localhost:5000/text/analytics/v3.0/sentiment

Notes

L’API v3.0 du service de langage n’offre pas de compatibilité descendante avec v3.0-preview.1. Pour bénéficier de la prise en charge des dernières fonctionnalités de sentiment, utilisez la version v2.6.0 de l’image conteneur Reconnaissance vocale et la version v3.0 du service de langage.

À compter de la version  2.2.0 du conteneur de reconnaissance vocale, vous pouvez appeler l’API Analyse de sentiments v3 sur la sortie. Pour appeler l’analyse des sentiments, vous avez besoin d’un point de terminaison de ressource de l’API du service de langage. Par exemple :

  • https://westus2.api.cognitive.microsoft.com/text/analytics/v3.0-preview.1/sentiment
  • https://localhost:5000/text/analytics/v3.0-preview.1/sentiment

Si vous accédez à un point de terminaison du service de langage dans le cloud, vous devez disposer d’une clé. Si vous exécutez des fonctionnalités du service de langage localement, vous n’aurez peut-être pas besoin de fournir cette valeur.

La clé et le point de terminaison sont passés au conteneur Speech comme arguments, comme dans l’exemple suivant.

docker run -it --rm -p 5000:5000 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY} \
CloudAI:SentimentAnalysisSettings:TextAnalyticsHost={TEXT_ANALYTICS_HOST} \
CloudAI:SentimentAnalysisSettings:SentimentAnalysisApiKey={SENTIMENT_APIKEY}

Cette commande :

  • Effectue les mêmes étapes que la commande ci-dessus.
  • Stocke un point de terminaison et une clé d’API du service de langage pour l’envoi de requêtes d’analyse de sentiments.

Liste d’expressions v2 sur la sortie de reconnaissance vocale

À partir de la version v2.6.0 du conteneur de reconnaissance vocale, vous pouvez obtenir la sortie avec vos propres expressions, soit la phrase entière, soit des expressions au milieu. Prenons l’exemple de l’homme grand dans la phrase suivante :

  • « Voici une phrase l’homme grand voici une autre phrase ».

Pour configurer une liste d’expressions, vous avez besoin d’ajouter vos propres expressions quand vous effectuez l’appel. Exemple :

    phrase="the tall man"
    recognizer = speechsdk.SpeechRecognizer(
        speech_config=dict_speech_config,
        audio_config=audio_config)
    phrase_list_grammer = speechsdk.PhraseListGrammar.from_recognizer(recognizer)
    phrase_list_grammer.addPhrase(phrase)
    
    dict_speech_config.set_service_property(
        name='setflight',
        value='xonlineinterp',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )

Si vous avez plusieurs expressions à ajouter, appelez .addPhrase() pour chaque expression pour l’ajouter à la liste d’expressions.

Important

Vous devez spécifier les options Eula, Billing et ApiKey pour exécuter le conteneur, sinon il ne démarrera pas. Pour plus d'informations, consultez Facturation.

Interroger le point de terminaison de prédiction du conteneur

Notes

Utilisez un numéro de port unique si vous exécutez plusieurs conteneurs.

Containers URL de l’hôte du SDK Protocol
Reconnaissance vocale standard et reconnaissance vocale personnalisée ws://localhost:5000 WS
Synthèse vocale (standard et neuronale), Identification de la langue parlée http://localhost:5000 HTTP

Pour plus d’informations sur l’utilisation des protocoles WSS et HTTPS, consultez Sécurité des conteneurs.

Reconnaissance vocale (standard et personnalisée)

Le conteneur fournit des API de point de terminaison de requête s’appuyant sur WebSocket, qui sont accessibles par le biais du Kit de développement logiciel (SDK) Speech. Par défaut, le Kit de développement logiciel (SDK) Speech utilise des services vocaux en ligne. Pour utiliser le conteneur, vous devez changer la méthode d’initialisation.

Conseil

Lorsque vous utilisez le Kit de développement logiciel (SDK) Speech avec des conteneurs, vous n’avez pas besoin de fournir de clé d’abonnement ou de jeton du porteur d’authentification de la ressource Azure Speech.

Considérons les exemples ci-dessous.

Passer de l’utilisation de cet appel d’initialisation du cloud Azure :

var config = SpeechConfig.FromSubscription("YourSubscriptionKey", "YourServiceRegion");

Pour utiliser cet appel avec l’hôte du conteneur :

var config = SpeechConfig.FromHost(
    new Uri("ws://localhost:5000"));

Analyser les sentiments

Si vous avez fourni vos informations d’identification d’API de service de langage au conteneur, vous pouvez utiliser le SDK Speech pour envoyer des requêtes de reconnaissance vocale avec l’analyse des sentiments. Vous pouvez configurer les réponses de l’API pour qu’elles utilisent un format simple ou détaillé.

Notes

La version v1.13 du kit de développement logiciel (SDK) Python du service de reconnaissance vocale a identifié un problème avec l’analyse des sentiments. Utilisez la version v1.12.x ou une version antérieure si vous utilisez l’analyse des sentiments dans le Kit de développement logiciel (SDK) Python du service de reconnaissance vocale.

Pour configurer le client Speech de sorte qu’il utilise un format simple, ajoutez "Sentiment" comme valeur pour Simple.Extensions. Si vous voulez choisir une version de modèle de service de langage spécifique, remplacez 'latest' dans la configuration de la propriété speechcontext-phraseDetection.sentimentAnalysis.modelversion.

speech_config.set_service_property(
    name='speechcontext-PhraseOutput.Simple.Extensions',
    value='["Sentiment"]',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)
speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentAnalysis.modelversion',
    value='latest',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Simple.Extensions retourne le résultat des sentiments dans la couche racine de la réponse.

{
   "DisplayText":"What's the weather like?",
   "Duration":13000000,
   "Id":"6098574b79434bd4849fee7e0a50f22e",
   "Offset":4700000,
   "RecognitionStatus":"Success",
   "Sentiment":{
      "Negative":0.03,
      "Neutral":0.79,
      "Positive":0.18
   }
}

Si vous voulez désactiver complètement l’analyse des sentiments, ajoutez une valeur de false à sentimentanalysis.enabled.

speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentanalysis.enabled',
    value='false',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Synthèse vocale (standard et neurale)

Le conteneur fournit des API de point de terminaison basées sur REST. Il existe de nombreux exemples de projets de code source pour les variantes de plateforme, d’infrastructure et de langage disponibles.

Avec les conteneurs de synthèse vocale standard et neuronale, vous devez vous appuyer sur les paramètres régionaux et la voix de la balise d’image que vous avez téléchargée. Par exemple, si vous avez téléchargé la balise latest, les paramètres régionaux par défaut sont en-US et la voix AriaNeural. L’argument {VOICE_NAME} est alors en-US-AriaNeural. Consultez l’exemple SSML ci-dessous :

<speak version="1.0" xml:lang="en-US">
    <voice name="en-US-AriaNeural">
        This text will get converted into synthesized speech.
    </voice>
</speak>

Exécuter plusieurs conteneurs sur le même hôte

Si vous envisagez d’exécuter plusieurs conteneurs avec les ports exposés, veillez à exécuter chaque conteneur avec un port exposé différent. Par exemple, exécutez le premier conteneur sur le port 5000 et le second conteneur sur le port 5001.

Vous pouvez avoir ce conteneur, et un autre conteneur Azure Cognitive Services qui s’exécutent ensemble sur l’hôte. Vous pouvez également disposer de plusieurs conteneurs du même conteneur Cognitive Services en cours d’exécution.

Valider l’exécution d’un conteneur

Il existe plusieurs façons de confirmer que le conteneur s’exécute. Recherchez l’adresse IP externe et le port exposé du conteneur en question, puis ouvrez le navigateur web de votre choix. Utilisez les différentes URL de requête ci-dessous pour vérifier que le conteneur est en cours d’exécution. Les exemples d’URL de requête listés ci-dessous sont http://localhost:5000, mais votre conteneur spécifique peut varier. N’oubliez pas que vous devez vous fier à l’adresse IP externe de votre conteneur et au port exposé.

URL de la demande Objectif
http://localhost:5000/ Le conteneur fournit une page d’accueil.
http://localhost:5000/ready Cette demande, qui utilise GET, permet de vérifier que le conteneur est prêt à accepter une requête sur le modèle. Cette requête peut être utilisée pour les probes liveness et readiness de Kubernetes.
http://localhost:5000/status Cette demande, qui utilise également GET, permet de vérifier si la clé API servant à démarrer le conteneur est valide sans provoquer de requête de point de terminaison. Cette requête peut être utilisée pour les probes liveness et readiness de Kubernetes.
http://localhost:5000/swagger Le conteneur fournit un ensemble complet de documentation pour les points de terminaison et une fonctionnalité Essayer. Avec cette fonctionnalité, vous pouvez entrer vos paramètres dans un formulaire HTML basé sur le web, et constituer la requête sans avoir à écrire du code. Une fois la requête retournée, un exemple de commande CURL est fourni pour illustrer les en-têtes HTTP, et le format du corps qui est nécessaire.

Page d’accueil du conteneur

Arrêter le conteneur

Pour arrêter le conteneur, dans l’environnement de ligne de commande où le conteneur est en cours d’exécution, sélectionnez Ctrl+C.

Dépannage

Au démarrage ou pendant l’exécution du conteneur, vous pouvez rencontrer des problèmes. Utilisez une montage de sortie et activez la journalisation. Ainsi, le conteneur pourra générer des fichiers journaux utiles à la résolution des problèmes.

Conseil

Pour plus d’informations et de conseils sur la résolution des problèmes, consultez les questions fréquentes sur les conteneurs Cognitive Services.

Si vous rencontrez des problèmes lors de l’exécution d’un conteneur Cognitive Services, essayez d’utiliser le conteneur de diagnostics Microsoft. Utilisez ce conteneur pour diagnostiquer dans votre environnement de déploiement les erreurs courantes pouvant nuire au bon fonctionnement des conteneurs Cognitive Services.

Pour obtenir le conteneur, utilisez la commande Docker pull suivante :

docker pull mcr.microsoft.com/azure-cognitive-services/diagnostic

Exécutez le conteneur, puis remplacez {ENDPOINT_URI} par votre point de terminaison et {API_KEY} par la clé de votre ressource :

docker run --rm mcr.microsoft.com/azure-cognitive-services/diagnostic \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY}

Le conteneur teste la connectivité réseau avec le point de terminaison de facturation.

Facturation

Les conteneurs Speech envoient des informations de facturation à Azure à l’aide d’une ressource Speech sur votre compte Azure.

Les requêtes sur le conteneur sont facturées au niveau tarifaire de la ressource Azure utilisée pour le paramètre ApiKey.

Les conteneurs Azure Cognitive Services ne sont pas concédés sous licence dans le but de s’exécuter sans être connectés au point de terminaison de mesure/facturation. Vous devez configurer les conteneurs de manière à ce qu’ils communiquent les informations de facturation au point de terminaison de facturation à tout moment. Les conteneurs Cognitive Services n’envoient pas de données client, telles que l’image ou le texte analysé, à Microsoft.

Connexion à Azure

Le conteneur a besoin des valeurs d’arguments de facturation pour s’exécuter. Ces valeurs permettent au conteneur de se connecter au point de terminaison de facturation. Le conteneur crée des rapports sur l’utilisation toutes les 10 à 15 minutes. Si le conteneur ne se connecte pas à Azure dans la fenêtre de temps imparti, il continue de s’exécuter, mais ne traite pas les requêtes tant que le point de terminaison de facturation n’est pas restauré. Une tentative de connexion est effectuée 10 fois, toutes les 10 à 15 minutes. S’il ne parvient pas à se connecter au point de terminaison de facturation au cours de ces 10 essais, le conteneur cesse de traiter les demandes. Pour obtenir un exemple des informations envoyées à Microsoft en lien avec la facturation, consultez le Forum aux questions sur le conteneur Cognitive Services.

Arguments de facturation

La commande docker run démarre le conteneur quand les trois options suivantes ont des valeurs valides :

Option Description
ApiKey Clé API de la ressource Cognitive Services utilisée pour le suivi des informations de facturation.
La valeur de cette option doit être définie sur une clé API pour la ressource provisionnée spécifiée dans Billing.
Billing Point de terminaison de la ressource Cognitive Services utilisé pour le suivi des informations de facturation.
La valeur de cette option doit être définie sur l’URI de point de terminaison d’une ressource Azure provisionnée.
Eula Indique que vous avez accepté la licence pour le conteneur.
La valeur de cette option doit être définie sur accepter.

Pour plus d’informations sur ces options, consultez Configurer des conteneurs.

Résumé

Dans cet article, vous avez découvert des concepts et le flux de travail pour le téléchargement, l’installation et l’exécution des conteneurs Speech. En résumé :

  • Speech fournit quatre conteneurs Linux pour Docker, qui encapsulent diverses fonctionnalités :
    • Reconnaissance vocale
    • Reconnaissance vocale personnalisée
    • Synthèse vocale
    • Synthèse vocale personnalisée
    • Synthèse vocale neuronale
    • Identification de la langue parlée
  • Les images conteneur sont téléchargées à partir du registre de conteneurs dans Azure.
  • Les images conteneurs s’exécutent dans Docker.
  • Que vous utilisiez l'API REST (synthèse vocale uniquement) ou le kit SDK (reconnaissance vocale ou synthèse vocale), vous spécifiez l'URI de l'hôte du conteneur.
  • Vous devez spécifier les informations de facturation lors de l’instanciation d’un conteneur.

Important

Les conteneurs Cognitives Services ne sont pas concédés sous licence pour s’exécuter sans être connectés à Azure pour le contrôle. Les clients doivent configurer les conteneurs de manière à ce qu’ils communiquent les informations de facturation au service de contrôle à tout moment. Les conteneurs Cognitive Services n’envoient pas les données des clients (p. ex., l’image ou le texte analysés) à Microsoft.

Étapes suivantes