Installer et exécuter des conteneurs Docker pour les API du service Speech

En utilisant des conteneurs, vous pouvez exécuter certaines API du service Speech Azure Cognitive Services dans votre propre environnement. Les conteneurs conviennent particulièrement bien à certaines exigences de sécurité et de gouvernance des données. Dans cet article, vous allez apprendre à télécharger, installer et exécuter un conteneur Speech.

Avec les conteneurs Speech, vous pouvez créer une architecture d’application vocale optimisée pour tirer parti des fonctionnalités robustes du cloud et de la localité en périphérie. Plusieurs conteneurs sont disponibles et sont aux mêmes prix que ceux des services Azure Speech basés sur le cloud.

Important

Nous avons mis hors service les voix de synthèse vocale standard et le conteneur de synthèse vocale le 31 août 2021. Envisagez de migrer vos applications pour utiliser le conteneur de synthèse vocale neuronale à la place. Pour plus d’informations sur la mise à jour de votre application, consultez Migrer de la voix standard vers la voix neuronale prédéfinie.

Conteneur Fonctionnalités Latest État de la version
Reconnaissance vocale Analyse les sentiments et transcrit de façon continue de la parole en temps réel ou des enregistrements audio par lots, avec des résultats intermédiaires. 3.3.0 Mise à la disposition générale
Reconnaissance vocale personnalisée À l’aide d’un modèle personnalisé issu du portail Custom Speech, transcrit en continu de la parole en temps réel ou des enregistrements audio en texte, avec des résultats intermédiaires. 3.3.0 Mise à la disposition générale
Identification de la langue parlée Détecte la langue parlée dans les fichiers audio. 1.5.0 Préversion
Synthèse vocale neuronale Convertit du texte en parole qui sonne naturel en utilisant la technologie de réseau neuronal profond qui permet d’obtenir une parole synthétisée plus naturelle. 2.1.0 Mise à la disposition générale

Prérequis

Important

  • Pour utiliser les conteneurs Speech, vous devez envoyer une demande en ligne et obtenir son approbation. Pour plus d’informations, consultez la section « Demande d’approbation pour exécuter le conteneur ».
  • Les conteneurs en disponibilité générale répondent aux critères de stabilité et de support de Microsoft. Les conteneurs en préversion sont toujours en cours de développement.

Vous devez répondre aux prérequis suivants avant d’utiliser les conteneurs du service Speech. Si vous n’avez pas d’abonnement Azure, créez un compte gratuit avant de commencer. Ce dont vous avez besoin :

  • Docker installé sur un ordinateur hôte. Vous devez configurer Docker pour permettre aux conteneurs de se connecter à Azure et de lui envoyer des données de facturation.
    • Sous Windows, vous devez également configurer Docker pour prendre en charge les conteneurs Linux.
    • Vous devez disposer d’une connaissance élémentaire des concepts liés à Docker.
  • Une ressource de service Speech avec le niveau tarifaire Gratuit (F0) ou Standard (S).

Collecter les paramètres obligatoires

Trois paramètres principaux sont requis pour tous les conteneurs Cognitive Services. Les termes du contrat de licence logiciel Microsoft doivent être présents avec la valeur Accepter. Un URI de point de terminaison et une clé API sont également nécessaires.

URI de point de terminaison

La valeur {ENDPOINT_URI} est disponible sur la page {ENDPOINT_URI} du portail Azure de la ressource Cognitive Services correspondante. Accédez à la page Vue d’ensemble, passez le curseur sur le point de terminaison et une icône Copier dans le Presse-papiers s’affiche. Copiez et utilisez le point de terminaison si nécessaire.

Screenshot that shows gathering the endpoint URI for later use.

Touches

La valeur {API_KEY} est utilisée pour démarrer le conteneur et est disponible sur la page {API_KEY} de la ressource Cognitive Services correspondante sur le portail Azure. Accédez à la page Clés, puis sélectionnez l’icône Copier dans le Presse-papiers.

Screenshot that shows getting one of the two keys for later use.

Important

Ces clés d’abonnement sont utilisées pour accéder à votre API Cognitive Services. Ne partagez pas vos clés. Stockez-les en toute sécurité. Par exemple, utilisez Azure Key Vault. Nous vous recommandons également de regénérer ces clés régulièrement. Une seule clé est nécessaire pour effectuer un appel d’API. Lors de la régénération de la première clé, vous pouvez utiliser la deuxième clé pour un accès continu au service.

Spécifications et recommandations relatives à l’ordinateur hôte

L’hôte est un ordinateur x64 qui exécute le conteneur Docker. Il peut s’agir d’un ordinateur local ou d’un service d’hébergement Docker dans Azure, comme :

Exigences et suggestions relatives au conteneur

Le tableau suivant indique l’allocation de ressources minimale et recommandée pour chaque conteneur Speech :

Conteneur Minimum Recommandé
Reconnaissance vocale 2 cœurs, 2 Go de mémoire 4 cœurs, 4 Go de mémoire
Reconnaissance vocale personnalisée 2 cœurs, 2 Go de mémoire 4 cœurs, 4 Go de mémoire
Identification de la langue parlée 1 cœur, 1 Go de mémoire 1 cœur, 1 Go de mémoire
Synthèse vocale neuronale 6 cœurs, 12 Go de mémoire 8 cœurs, 16 Go de mémoire

Chaque cœur doit être cadencé à au moins 2,6 gigahertz (GHz).

Le nombre de cœurs et la quantité de mémoire correspondent aux paramètres --cpus et --memory qui sont utilisés dans le cadre de la commande docker run.

Notes

Les allocations minimale et recommandée sont basées sur les limites de Docker, pas sur les ressources de l’ordinateur hôte. Prenons l’exemple des parties de la carte mémoire des conteneurs de reconnaissance vocale d’un grand modèle de langage. Nous recommandons que le fichier entier entre dans la mémoire, qui fait 4 à 6 Go supplémentaires. De plus, la première exécution d’un conteneur risque de prendre plus de temps parce que les modèles sont paginés en mémoire.

Prise en charge d’Advanced Vector Extension

L’hôte est l’ordinateur qui exécute le conteneur Docker. L’hôte doit prendre en chargeAdvanced Vector Extensions (AVX2). Vous pouvez vérifier cette prise en charge AVX2 sur les hôtes Linux avec la commande suivante :

grep -q avx2 /proc/cpuinfo && echo AVX2 supported || echo No AVX2 support detected

Avertissement

L’ordinateur hôte doit obligatoirement prendre en charge AVX2. Le conteneur ne fonctionnera pas correctement sans prise en charge AVX2.

Demande d’approbation pour l’exécution du conteneur

Complétez et envoyez le formulaire de demande pour demander l’accès au conteneur.

Le formulaire demande des informations sur vous, votre entreprise et le scénario d’utilisateur pour lequel vous allez utiliser le conteneur. Une fois le formulaire envoyé, l’équipe Azure Cognitive Services l’examinera et vous informera de sa décision par e-mail dans les 10 jours ouvrables.

Important

  • Dans le formulaire, vous devez utiliser une adresse e-mail associée à un ID d’abonnement Azure.
  • La ressource Azure que vous utilisez pour exécuter le conteneur doit avoir été créée avec l’ID d’abonnement Azure approuvé.
  • Vérifiez votre adresse e-mail (boîtes de réception et dossiers de courrier indésirable) pour obtenir des mises à jour sur l’état de votre application auprès de Microsoft.

Une fois l’approbation obtenue, vous pourrez exécuter le conteneur après l’avoir téléchargé à partir de Microsoft Container Registry, décrit plus loin dans cet article.

Vous ne pourrez pas exécuter le conteneur si votre abonnement Azure n’a pas été approuvé.

Obtenir l’image conteneur avec docker pull

Les images conteneur pour Speech sont disponibles dans le registre de conteneurs suivant.

Conteneur Référentiel
Reconnaissance vocale mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

Conseil

Vous pouvez utiliser la commande docker images pour lister vos images conteneurs téléchargées. Par exemple, la commande suivante liste l’ID, le référentiel et la balise de chaque image conteneur téléchargée dans un tableau :

docker images --format "table {{.ID}}\t{{.Repository}}\t{{.Tag}}"

IMAGE ID         REPOSITORY                TAG
<image-id>       <repository-path/name>    <tag-name>

Docker pull pour les conteneurs Speech

Docker pull pour le conteneur de reconnaissance vocale

Utilisez la commande docker pull pour télécharger une image conteneur à partir du registre de conteneurs Microsoft :

docker pull mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest

Important

L’étiquette latest extrait les paramètres régionaux en-US. Pour d’autres paramètres régionaux, consultez Paramètres régionaux de reconnaissance vocale.

Paramètres régionaux de reconnaissance vocale

Toutes les étiquettes, à l’exception de latest, respectent le format suivant et sont sensibles à la casse :

<major>.<minor>.<patch>-<platform>-<locale>-<prerelease>

La balise suivante illustre le format :

2.6.0-amd64-en-us

Pour tous les paramètres régionaux pris en charge du conteneur de reconnaissance vocale, consultez les Étiquettes d’images de reconnaissance vocale.

Utiliser le conteneur

Une fois que le conteneur se trouve sur l’ordinateur hôte, procédez comme suit pour utiliser le conteneur.

  1. Exécutez le conteneur avec les paramètres de facturation requis. D’autres exemples de commande docker run sont disponibles.
  2. Interrogez le point de terminaison de prédiction du conteneur.

Exécuter le conteneur avec docker run

Utilisez la commande docker run pour exécuter le conteneur. Pour plus d’informations sur la façon d’obtenir les valeurs {Endpoint_URI} et {API_Key}, consultez {Endpoint_URI}. D’autres exemples de la commande sont disponibles.

Exécuter le conteneur dans des environnements déconnectés

À partir de la version de conteneur 3.0.0, les clients peuvent exécuter des conteneurs de reconnaissance vocale dans un environnement sans accès à Internet. Pour plus d’informations, consultez Exécuter des conteneurs Cognitive Services dans des environnements déconnectés.

À partir de la version de conteneur 2.0.0, les clients peuvent exécuter des conteneurs de synthèse vocale neuronale dans un environnement sans accès à Internet. Pour plus d’informations, consultez Exécuter des conteneurs Cognitive Services dans des environnements déconnectés.

Pour exécuter le conteneur de reconnaissance vocale standard, exécutez la commande docker run suivante :

docker run --rm -it -p 5000:5000 --memory 4g --cpus 4 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY}

Cette commande :

  • Exécute un conteneur de reconnaissance vocale à partir de l’image conteneur.
  • Alloue 4 cœurs de processeur et 4 Go de mémoire.
  • Expose le port TCP 5000 et alloue un pseudo-TTY pour le conteneur.
  • Supprime automatiquement le conteneur après sa fermeture. L’image conteneur est toujours disponible sur l’ordinateur hôte.

Notes

Les conteneurs prennent en charge les entrées audio compressées dans le SDK Speech en utilisant GStreamer. Pour installer GStreamer dans un conteneur, suivez les instructions Linux associées dans Utilisation d’une entrée audio compressée par codec avec le kit SDK Speech.

Diarisation sur la sortie de reconnaissance vocale

La diarisation est activée par défaut. Pour obtenir la diarisation dans votre réponse, utilisez diarize_speech_config.set_service_property.

  1. Définissez le format de sortie de l’expression sur Detailed.

  2. Définissez le mode de diarisation. Les modes pris en charge sont Identity et Anonymous.

    diarize_speech_config.set_service_property(
        name='speechcontext-PhraseOutput.Format',
        value='Detailed',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )
    
    diarize_speech_config.set_service_property(
        name='speechcontext-phraseDetection.speakerDiarization.mode',
        value='Identity',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )
    

    Notes

    Le mode « Identity » retourne "SpeakerId": "Customer" ou "SpeakerId": "Agent". Le mode « Anonymous » retourne "SpeakerId": "Speaker 1" ou "SpeakerId": "Speaker 2".

Analyser les sentiments sur la sortie de la reconnaissance vocale

À partir de la version v2.6.0 du conteneur de reconnaissance vocale, vous devez utiliser le point de terminaison de l’API 3.0 du service de langage au lieu de la préversion. Par exemple :

  • https://westus2.api.cognitive.microsoft.com/text/analytics/v3.0/sentiment
  • https://localhost:5000/text/analytics/v3.0/sentiment

Notes

L’API v3.0 du service de langage n’offre pas de compatibilité descendante avec v3.0-preview.1. Pour bénéficier de la prise en charge des dernières fonctionnalités de sentiment, utilisez la version v2.6.0 de l’image conteneur Reconnaissance vocale et la version v3.0 du service de langage.

À compter de la version  2.2.0 du conteneur de reconnaissance vocale, vous pouvez appeler l’API Analyse de sentiments v3 sur la sortie. Pour appeler l’analyse des sentiments, vous avez besoin d’un point de terminaison de ressource de l’API du service de langage. Par exemple :

  • https://westus2.api.cognitive.microsoft.com/text/analytics/v3.0-preview.1/sentiment
  • https://localhost:5000/text/analytics/v3.0-preview.1/sentiment

Si vous accédez à un point de terminaison du service de langage dans le cloud, vous devez disposer d’une clé. Si vous exécutez des fonctionnalités du service de langage localement, vous n’aurez probablement pas besoin de fournir cette valeur.

La clé et le point de terminaison sont passés au conteneur Speech comme arguments, comme dans l’exemple suivant :

docker run -it --rm -p 5000:5000 \
mcr.microsoft.com/azure-cognitive-services/speechservices/speech-to-text:latest \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY} \
CloudAI:SentimentAnalysisSettings:TextAnalyticsHost={TEXT_ANALYTICS_HOST} \
CloudAI:SentimentAnalysisSettings:SentimentAnalysisApiKey={SENTIMENT_APIKEY}

Cette commande :

  • Effectue les mêmes étapes que la commande précédente.
  • Stocke un point de terminaison et une clé d’API du service de langage pour l’envoi de requêtes d’analyse de sentiments.

Liste d’expressions v2 sur la sortie de reconnaissance vocale

À partir de la version v2.6.0 du conteneur de reconnaissance vocale, vous pouvez obtenir la sortie avec vos propres expressions, soit la phrase entière, soit des expressions au milieu. Prenons l’exemple de l’homme grand dans la phrase suivante :

  • « Voici une phrase l’homme grand voici une autre phrase ».

Pour configurer une liste d’expressions, vous avez besoin d’ajouter vos propres expressions quand vous effectuez l’appel. Exemple :

    phrase="the tall man"
    recognizer = speechsdk.SpeechRecognizer(
        speech_config=dict_speech_config,
        audio_config=audio_config)
    phrase_list_grammer = speechsdk.PhraseListGrammar.from_recognizer(recognizer)
    phrase_list_grammer.addPhrase(phrase)
    
    dict_speech_config.set_service_property(
        name='setflight',
        value='xonlineinterp',
        channel=speechsdk.ServicePropertyChannel.UriQueryParameter
    )

Si vous avez plusieurs expressions à ajouter, appelez .addPhrase() pour chaque expression pour l’ajouter à la liste d’expressions.

Important

Les options Eula, Billing et ApiKey doivent être spécifiées pour exécuter le conteneur. Dans le cas contraire, le conteneur ne démarrera pas. Pour plus d'informations, consultez Facturation.

Interroger le point de terminaison de prédiction du conteneur

Notes

Utilisez un numéro de port unique si vous exécutez plusieurs conteneurs.

Containers URL de l’hôte du SDK Protocol
Reconnaissance vocale standard et reconnaissance vocale personnalisée ws://localhost:5000 WS
Conversion de texte par synthèse vocale, identification de langue parlée http://localhost:5000 HTTP

Pour plus d’informations sur l’utilisation des protocoles WSS et HTTPS, consultez Sécurité des conteneurs.

Reconnaissance vocale (standard et personnalisée)

Le conteneur fournit des API de point de terminaison de requête s’appuyant sur WebSocket, qui sont accessibles par le biais du SDK Speech. Par défaut, le Kit de développement logiciel (SDK) Speech utilise des services vocaux en ligne. Pour utiliser le conteneur, vous devez changer la méthode d’initialisation.

Conseil

Lorsque vous utilisez le SDK Speech avec des conteneurs, vous n’avez pas besoin de fournir de clé d’abonnement ou de jeton du porteur d’authentification de la ressource Azure Speech.

Consultez les exemples suivants.

Passer de l’utilisation de cet appel d’initialisation du cloud Azure :

var config = SpeechConfig.FromSubscription("YourSubscriptionKey", "YourServiceRegion");

Pour utiliser cet appel avec l’hôte du conteneur :

var config = SpeechConfig.FromHost(
    new Uri("ws://localhost:5000"));

Analyser les sentiments

Si vous avez fourni vos informations d’identification d’API de service de langage au conteneur, vous pouvez utiliser le SDK Speech pour envoyer des requêtes de reconnaissance vocale avec l’analyse des sentiments. Vous pouvez configurer les réponses de l’API pour qu’elles utilisent un format simple ou détaillé.

Notes

La version v1.13 du kit de développement logiciel (SDK) Python du service de reconnaissance vocale a identifié un problème avec l’analyse des sentiments. Utilisez la version v1.12.x ou antérieure si vous utilisez l’analyse des sentiments dans le SDK Python du service Speech.

Pour configurer le client Speech de sorte qu’il utilise un format simple, ajoutez "Sentiment" comme valeur pour Simple.Extensions. Si vous voulez choisir une version de modèle de service de langage spécifique, remplacez 'latest' dans la configuration de la propriété speechcontext-phraseDetection.sentimentAnalysis.modelversion.

speech_config.set_service_property(
    name='speechcontext-PhraseOutput.Simple.Extensions',
    value='["Sentiment"]',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)
speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentAnalysis.modelversion',
    value='latest',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Simple.Extensions retourne le résultat des sentiments dans la couche racine de la réponse.

{
   "DisplayText":"What's the weather like?",
   "Duration":13000000,
   "Id":"6098574b79434bd4849fee7e0a50f22e",
   "Offset":4700000,
   "RecognitionStatus":"Success",
   "Sentiment":{
      "Negative":0.03,
      "Neutral":0.79,
      "Positive":0.18
   }
}

Si vous voulez désactiver complètement l’analyse des sentiments, ajoutez une valeur de false à sentimentanalysis.enabled.

speech_config.set_service_property(
    name='speechcontext-phraseDetection.sentimentanalysis.enabled',
    value='false',
    channel=speechsdk.ServicePropertyChannel.UriQueryParameter
)

Synthèse vocale neuronale

Le conteneur fournit des API de point de terminaison basées sur REST. De nombreux exemples de projets de code source pour les variantes de plateforme, d’infrastructure et de langage sont disponibles.

Avec les conteneurs de synthèse vocale neuronale, vous devez vous appuyer sur les paramètres régionaux et la voix de l’étiquette d’image que vous avez téléchargée. Par exemple, si vous avez téléchargé l’étiquette latest, les paramètres régionaux par défaut sont en-US et la voix AriaNeural. L’argument {VOICE_NAME} est alors en-US-AriaNeural. Regardez l’exemple SSML suivant :

<speak version="1.0" xml:lang="en-US">
    <voice name="en-US-AriaNeural">
        This text will get converted into synthesized speech.
    </voice>
</speak>

Exécuter plusieurs conteneurs sur le même hôte

Si vous envisagez d’exécuter plusieurs conteneurs avec les ports exposés, veillez à exécuter chaque conteneur avec un port exposé différent. Par exemple, exécutez le premier conteneur sur le port 5000 et le second conteneur sur le port 5001.

Vous pouvez avoir ce conteneur et un autre conteneur Cognitive Services qui s’exécutent ensemble sur l’hôte. Vous pouvez également disposer de plusieurs conteneurs du même conteneur Cognitive Services en cours d’exécution.

Valider l’exécution d’un conteneur

Il existe plusieurs façons de confirmer que le conteneur s’exécute. Recherchez l’adresse IP externe et le port exposé du conteneur en question, puis ouvrez le navigateur web de votre choix. Utilisez les différentes URL de requête suivantes pour vérifier que le conteneur est en cours d’exécution. Les exemples d’URL de requête listés ici sont http://localhost:5000, mais votre conteneur spécifique peut varier. Veillez à vous fier à l’adresse IP externe de votre conteneur et au port exposé.

URL de la demande Objectif
http://localhost:5000/ Le conteneur fournit une page d’accueil.
http://localhost:5000/ready Demandée avec la fonction d’extraction, cette URL permet de vérifier que le conteneur est prêt à accepter une requête sur le modèle. Cette requête peut être utilisée pour les probes liveness et readiness de Kubernetes.
http://localhost:5000/status Également demandée avec la fonction d’extraction, cette URL permet de vérifier si la clé API servant à démarrer le conteneur est valide sans provoquer de requête de point de terminaison. Cette requête peut être utilisée pour les probes liveness et readiness de Kubernetes.
http://localhost:5000/swagger Le conteneur fournit un ensemble complet de documentation pour les points de terminaison et une fonctionnalité Essayer. Avec cette fonctionnalité, vous pouvez entrer vos paramètres dans un formulaire HTML basé sur le web, et constituer la requête sans avoir à écrire du code. Une fois la requête retournée, un exemple de commande CURL est fourni pour illustrer les en-têtes HTTP, et le format du corps qui est nécessaire.

Container's home page

Arrêter le conteneur

Pour arrêter le conteneur, dans l’environnement de ligne de commande où le conteneur est en cours d’exécution, sélectionnez Ctrl+C.

Dépannage

Lorsque vous démarrez ou exécutez le conteneur, vous risquez de rencontrer des problèmes. Utilisez une montage de sortie et activez la journalisation. Ainsi, le conteneur peut générer des fichiers journaux utiles quand vous résolvez des problèmes.

Conseil

Pour plus d’informations et de conseils sur la résolution des problèmes, consultez les questions fréquentes sur les conteneurs Cognitive Services.

Si vous rencontrez des problèmes lors de l’exécution d’un conteneur Cognitive Services, essayez d’utiliser le conteneur de diagnostics Microsoft. Utilisez ce conteneur pour diagnostiquer dans votre environnement de déploiement les erreurs courantes pouvant nuire au bon fonctionnement des conteneurs Cognitive Services.

Pour obtenir le conteneur, utilisez la commande docker pull suivante :

docker pull mcr.microsoft.com/azure-cognitive-services/diagnostic

Exécutez ensuite le conteneur. Remplacez {ENDPOINT_URI} par votre point de terminaison et {API_KEY} par la clé de votre ressource :

docker run --rm mcr.microsoft.com/azure-cognitive-services/diagnostic \
Eula=accept \
Billing={ENDPOINT_URI} \
ApiKey={API_KEY}

Le conteneur teste la connectivité réseau avec le point de terminaison de facturation.

Facturation

Les conteneurs Speech envoient des informations de facturation à Azure à l’aide d’une ressource Speech sur votre compte Azure.

Les requêtes sur le conteneur sont facturées au niveau tarifaire de la ressource Azure utilisée pour le paramètre ApiKey.

Les conteneurs Azure Cognitive Services ne sont pas concédés sous licence dans le but de s’exécuter sans être connectés au point de terminaison de mesure ou facturation. Vous devez configurer les conteneurs de manière à ce qu’ils communiquent les informations de facturation au point de terminaison de facturation à tout moment. Les conteneurs Cognitive Services n’envoient pas de données client, telles que l’image ou le texte analysé, à Microsoft.

Connexion à Azure

Le conteneur a besoin des valeurs d’arguments de facturation pour s’exécuter. Ces valeurs permettent au conteneur de se connecter au point de terminaison de facturation. Le conteneur crée des rapports sur l’utilisation toutes les 10 à 15 minutes. Si le conteneur ne se connecte pas à Azure dans la fenêtre de temps imparti, il continue de s’exécuter, mais ne traite pas les requêtes tant que le point de terminaison de facturation n’est pas restauré. Une tentative de connexion est effectuée 10 fois, toutes les 10 à 15 minutes. S’il ne parvient pas à se connecter au point de terminaison de facturation au cours de ces 10 essais, le conteneur cesse de traiter les demandes. Pour obtenir un exemple des informations envoyées à Microsoft en lien avec la facturation, consultez le Forum aux questions sur le conteneur Cognitive Services.

Arguments de facturation

La commande docker run démarre le conteneur quand les trois options suivantes ont des valeurs valides :

Option Description
ApiKey Clé API de la ressource Cognitive Services utilisée pour le suivi des informations de facturation.
La valeur de cette option doit être définie sur une clé API pour la ressource provisionnée spécifiée dans Billing.
Billing Point de terminaison de la ressource Cognitive Services utilisé pour le suivi des informations de facturation.
La valeur de cette option doit être définie sur l’URI de point de terminaison d’une ressource Azure provisionnée.
Eula Indique que vous avez accepté la licence pour le conteneur.
La valeur de cette option doit être définie sur accepter.

Pour plus d’informations sur ces options, consultez Configurer des conteneurs.

Résumé

Dans cet article, vous avez appris les concepts et le workflow du téléchargement, de l’installation et de l’exécution des conteneurs Speech. En résumé :

  • Speech fournit quatre conteneurs Linux pour Docker qui présentent diverses fonctionnalités :
    • Reconnaissance vocale
    • Reconnaissance vocale personnalisée
    • Synthèse vocale neuronale
    • Identification de la langue parlée
  • Les images conteneur sont téléchargées à partir du registre de conteneurs dans Azure.
  • Les images conteneurs s’exécutent dans Docker.
  • Que vous utilisiez l’API REST (synthèse vocale uniquement) ou le SDK (reconnaissance vocale ou synthèse vocale), vous spécifiez l’URI de l’hôte du conteneur.
  • Vous devez spécifier les informations de facturation quand vous instanciez un conteneur.

Important

Les conteneurs Cognitives Services ne sont pas concédés sous licence pour s’exécuter sans être connectés à Azure pour le contrôle. Les clients doivent configurer les conteneurs de manière à ce qu’ils communiquent les informations de facturation au service de contrôle à tout moment. Les conteneurs Cognitive Services n’envoient pas de données client (par exemple, l’image ou le texte en cours d’analyse) à Microsoft.

Étapes suivantes