Déployer des modèles Machine Learning sur AzureDeploy machine learning models to Azure

Découvrez comment déployer votre modèle Machine Learning ou Deep Learning en tant que service web dans le cloud Azure.Learn how to deploy your machine learning or deep learning model as a web service in the Azure cloud.

Le workflow est le même, quel que soit l’endroit où vous déployez votre modèle :The workflow is similar no matter where you deploy your model:

  1. Inscrire le modèleRegister the model
  2. Préparer un script d’entréePrepare an entry script
  3. Préparer une configuration d’inférencePrepare an inference configuration
  4. Déployez le modèle localement pour vous assurer que tout fonctionneDeploy the model locally to ensure everything works
  5. Choisir une cible de calcul.Choose a compute target.
  6. Redéployer le modèle dans le cloudRe-deploy the model to the cloud
  7. Tester le service web qui en résulte.Test the resulting web service.

Pour plus d’informations sur les concepts impliqués dans le workflow du déploiement Machine Learning, consultez Déployer, gérer et superviser des modèles avec Azure Machine Learning.For more information on the concepts involved in the machine learning deployment workflow, see Manage, deploy, and monitor models with Azure Machine Learning.

PrérequisPrerequisites

Se connecter à un espace de travailConnect to your workspace

Pratiques conseilléesDo

az login
az account set -s <my subscription>
az ml workspace list --resource-group=<my resource group>

pour afficher les espaces de travail auxquels vous avez accès.to see the workspaces you have access to.

Inscrire votre modèleRegister your model

Une situation courante pour un service Machine Learning déployé est que vous avez besoin des composants suivants :A typical situation for a deployed machine learning service is that you need the following components:

  • les ressources représentant le modèle spécifique que vous souhaitez déployer (par exemple un fichier de modèle pytorch)resources representing the specific model that you want deployed (for example: a pytorch model file)
  • le code que vous allez exécuter dans le service, qui exécute le modèle sur une entrée donnéecode that you will be running in th service, that executes the model on a given input

Azure Machine Learning vous permet de séparer le déploiement en deux composants distincts, afin que vous puissiez conserver le même code et simplement mettre à jour le modèle.Azure Machine Learnings allows you to separate the deployment into two separate components, so that you can keep the same code, but merely update the model. Nous définissons le mécanisme par lequel vous chargez un modèle séparément de votre code comme « inscription du modèle ».We define the mechanism by which you upload a model separately from your code as "registering the model".

Lorsque vous inscrivez un modèle, nous chargeons le modèle dans le cloud (dans le compte de stockage par défaut de votre espace de travail), puis nous le montons dans le même calcul que celui où est exécuté votre service web.When you register a model, we upload the model to the cloud (in your workspace's default storage account) and then mount it to the same compute where your webservice is running.

Les exemples suivants montrent comment inscrire un modèle.The following examples demonstrate how to register a model.

Important

Utilisez uniquement les modèles que vous créez ou que vous obtenez auprès d’une source approuvée.You should use only models that you create or obtain from a trusted source. Vous devez traiter les modèles sérialisés en tant que code, car des failles de sécurité ont été détectées dans plusieurs formats courants.You should treat serialized models as code, because security vulnerabilities have been discovered in a number of popular formats. En outre, des modèles peuvent être entraînés intentionnellement avec des intentions malveillantes pour fournir des sorties biaisées ou inexactes.Also, models might be intentionally trained with malicious intent to provide biased or inaccurate output.

Inscrire un modèle à partir d’un fichier localRegister a model from a local file

wget https://aka.ms/bidaf-9-model -o model.onnx
az ml model register -n bidaf_onnx -p ./model.onnx

Définissez -p sur le chemin d’accès d’un dossier ou d’un fichier que vous souhaitez inscrire.Set -p to the path of a folder or a file that you want to register.

Pour plus d’informations sur az ml model register, consultez la documentation de référence.For more information on az ml model register, consult the reference documentation.

Inscrire un modèle à partir d’une exécution de formation Azure MLRegister a model from an Azure ML training run

az ml model register -bidaf_onnx  --asset-path outputs/model.onnx  --experiment-name myexperiment --run-id myrunid --tag area=qna

Conseil

Si un message d’erreur indique que l’extension ml n’est pas installée, utilisez la commande suivante pour l’installer :If you get an error message stating that the ml extension isn't installed, use the following command to install it:

az extension add -n azure-cli-ml

Le paramètre --asset-path fait référence à l’emplacement cloud du modèle.The --asset-path parameter refers to the cloud location of the model. Dans cet exemple, le chemin d’un fichier unique est utilisé.In this example, the path of a single file is used. Pour inclure plusieurs fichiers dans l’inscription du modèle, définissez --asset-path avec le chemin d’un dossier contenant les fichiers.To include multiple files in the model registration, set --asset-path to the path of a folder that contains the files.

Pour plus d’informations sur az ml model register, consultez la documentation de référence.For more information on az ml model register, consult the reference documentation.

Définir un script d’entrée facticeDefine a dummy entry script

Le script d’entrée reçoit les données envoyées à un service web déployé, puis les passe au modèle.The entry script receives data submitted to a deployed web service and passes it to the model. Il renvoie ensuite la réponse du modèle au client.It then returns the model's response to the client. Le script est propre à votre modèle.The script is specific to your model. Le script d'entrée doit comprendre les données que le modèle attend et renvoie.The entry script must understand the data that the model expects and returns.

Les deux choses que vous devez accomplir dans votre script d’entrée sont les suivantes :The two things you need to accomplish in your entry script are:

  1. Charger votre modèle (à l’aide d’une fonction appelée init())Loading your model (using a function called init())
  2. Exécuter votre modèle sur des données d’entrée (à l’aide d’une fonction appelée run())Running your model on input data (using a function called run())

Pour votre déploiement initial, utilisez un script d'entrée factice qui imprime les données qu'il reçoit.For your initial deployment, use a dummy entry script that prints the data it receives.

import json

def init():
    print('This is init')

def run(data):
    test = json.loads(data)
    print(f'received data {test}')
    return(f'test is {test}')

Enregistrez ce fichier sous le nom echo_score.py dans un répertoire appelé source_dir.Save this file as echo_score.py inside of a directory called source_dir.

Par exemple, si un utilisateur appelle votre modèle avec :So, for example, if a user calls your model with:

curl -X POST -d '{"this":"is a test"}' -H "Content-Type: application/json" http://localhost:6789/score

La valeur suivante est renvoyée :The following value is returned:

"test is {'this': 'is a test'}"

Définir une configuration d’inférenceDefine an inference configuration

Une configuration d’inférence décrit le conteneur et les fichiers Docker à utiliser lors de l’initialisation de votre service web.An inference configuration describes the Docker container and files to use when initializing your web service. Tous les fichiers de votre répertoire source, y compris les sous-répertoires, seront compressés et chargés dans le cloud lorsque vous déploierez votre service web.All of the files within your source directory, including subdirectories, will be zipped up and uploaded to the cloud when you deploy your web service.

La configuration d’inférence ci-dessous spécifie que le déploiement de Machine Learning utilisera le fichier echo_score.py dans le répertoire ./source_dir pour traiter les demandes entrantes, et utilisera l’image Docker avec les packages Python spécifiés dans l’environnement project_environment.The inference configuration below specifies that the machine learning deployment will use the file echo_score.py in the ./source_dir directory to process incoming requests and that it will use the Docker image with the Python packages specified in the project_environment environment.

Vous pouvez utiliser n’importe quel environnement Azure Machine Learning organisé comme image Docker de base lors de la création de votre environnement de projet.You can use any Azure Machine Learning curated environment as the base Docker image when creating your project environment. Nous allons aussi installer les dépendances requises et stocker l’image Docker qui en résulte dans le référentiel associé à votre espace de travail.We will install the required dependencies on top and store the resulting Docker image into the repository that is associated with your workspace.

Voici une configuration d’inférence minimale possible :A minimal inference configuration can be written as:

{
    "entryScript": "echo_score.py",
    "sourceDirectory": "./source_dir",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/base:intelmpi2018.3-ubuntu16.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [],
                "dependencies": [
                    "python=3.6.2",
                    {
                        "pip": [
                            "azureml-defaults"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

Enregistrez le fichier sous le nom inferenceconfig.json.Save this file with the name inferenceconfig.json.

Pour une discussion plus approfondie sur les configurations d’inférence, consultez cet article.See this article for a more thorough discussion of inference configurations.

Définir une configuration de déploiementDefine a deployment configuration

Une configuration de déploiement spécifie la quantité de mémoire et de cœurs à réserver pour votre service web, qui sera nécessaire pour l’exécution, ainsi que les détails de configuration du service web sous-jacent.A deployment configuration specifies the amount of memory and cores to reserve for your webservice will require in order to run, as well as configuration details of the underlying webservice. Par exemple, une configuration de déploiement vous permet de spécifier que votre service nécessite 2 gigaoctets de mémoire, 2 cœurs d’UC, 1 cœur GPU et que vous souhaitez activer la mise à l’échelle automatique.For example, a deployment configuration lets you specify that your service needs 2 gigabytes of memory, 2 CPU cores, 1 GPU core, and that you want to enable autoscaling.

Les options disponibles pour une configuration de déploiement varient en fonction de la cible de calcul que vous choisissez.The options available for a deployment configuration differ depending on the compute target you choose. Dans un déploiement local, tout ce que vous pouvez spécifier est le port sur lequel votre service web sera traité.In a local deployment, all you can specify is which port your webservice will be served on.

Les entrées dans le document deploymentconfig.json correspondent aux paramètres pour LocalWebservice.deploy_configuration.The entries in the deploymentconfig.json document map to the parameters for LocalWebservice.deploy_configuration. Le tableau suivant décrit le mappage entre les entités dans le document JSON et les paramètres de la méthode :The following table describes the mapping between the entities in the JSON document and the parameters for the method:

Entité JSONJSON entity Paramètre de méthodeMethod parameter DescriptionDescription
computeType N/DNA La cible de calcul.The compute target. Pour les cibles locales, la valeur doit être local.For local targets, the value must be local.
port port Port local sur lequel exposer le point de terminaison HTTP du service.The local port on which to expose the service's HTTP endpoint.

Ce code JSON suivant est un exemple de configuration de déploiement à utiliser avec l’interface CLI :This JSON is an example deployment configuration for use with the CLI:

{
    "computeType": "local",
    "port": 32267
}

Enregistrez ce code JSON dans un fichier nommé deploymentconfig.json.Save this JSON as a file called deploymentconfig.json.

Pour plus d’informations, consultez cette référence.For more information, see this reference.

Déployer votre modèle Machine LearningDeploy your machine learning model

Vous êtes maintenant prêt à déployer votre modèle.You are now ready to deploy your model.

Remplacez bidaf_onnx:1 par le nom et le numéro de version de votre modèle.Replace bidaf_onnx:1 with the name of your model and its version number.

az ml model deploy -n myservice -m bidaf_onnx:1 --ic inferenceconfig.json --dc deploymentconfig.json
az ml service get-logs -n myservice

Appeler votre modèleCall into your model

Vérifions que votre modèle d’écho a été correctement déployé.Let's check that your echo model deployed successfully. Vous deviez être en mesure d’effectuer une requête d’activité simple, ainsi qu’une requête de scoring :You should be able to do a simple liveness request, as well as a scoring request:

curl -v http://localhost:32267
curl -v -X POST -H "content-type:application/json" -d '{"query": "What color is the fox", "context": "The quick brown fox jumped over the lazy dog."}' http://localhost:32267/score

Définir un script d’entréeDefine an entry script

Il est maintenant temps de charger votre modèle.Now it's time to actually load your model. Tout d’abord, modifiez votre script d’entrée :First, modify your entry script:

import json
import numpy as np
import os
import onnxruntime
from nltk import word_tokenize
import nltk

def init():
    nltk.download('punkt')
    global sess
    sess = onnxruntime.InferenceSession(os.path.join(os.getenv('AZUREML_MODEL_DIR'), 'model.onnx'))

def run(request):
    print(request)
    text = json.loads(request)
    qw, qc = preprocess(text['query'])
    cw, cc = preprocess(text['context'])

    # Run inference
    test = sess.run(None, {'query_word': qw, 'query_char': qc, 'context_word': cw, 'context_char': cc})
    start = np.asscalar(test[0])
    end = np.asscalar(test[1])
    ans = [w for w in cw[start:end+1].reshape(-1)]
    print(ans)
    return ans

def preprocess(word):
    tokens = word_tokenize(word)

    # split into lower-case word tokens, in numpy array with shape of (seq, 1)
    words = np.asarray([w.lower() for w in tokens]).reshape(-1, 1)

    # split words into chars, in numpy array with shape of (seq, 1, 1, 16)
    chars = [[c for c in t][:16] for t in tokens]
    chars = [cs+['']*(16-len(cs)) for cs in chars]
    chars = np.asarray(chars).reshape(-1, 1, 1, 16)
    return words, chars

Enregistrez ce fichier en tant que score.py à l’intérieur de source_dir.Save this file as score.py inside of source_dir.

Notez l’utilisation de la variable d’environnement AZUREML_MODEL_DIR pour rechercher votre modèle inscrit.Notice the use of the AZUREML_MODEL_DIR environment variable to locate your registered model. Maintenant que vous avez ajouté des packages PIP, vous devez également mettre à jour votre configuration d’inférence pour ajouter ces packages supplémentaires :Now that you've added some pip packages, you also need to update your inference configuration to add in those additional packages:

{
    "entryScript": "score.py",
    "sourceDirectory": "./source_dir",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/base:intelmpi2018.3-ubuntu16.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [],
                "dependencies": [
                    "python=3.6.2",
                    {
                        "pip": [
                            "azureml-defaults",
                            "nltk",
                            "numpy",
                            "onnxruntime"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "2"
    }
}

Déployer à nouveau et appeler votre serviceDeploy again and call your service

Déployez votre service :Deploy your service again:

Remplacez bidaf_onnx:1 par le nom et le numéro de version de votre modèle.Replace bidaf_onnx:1 with the name of your model and its version number.

az ml model deploy -n myservice -m bidaf_onnx:1 --ic inferenceconfig.json --dc deploymentconfig.json
az ml service get-logs -n myservice

Ensuite, assurez-vous que vous pouvez envoyer une demande de publication au service :Then ensure you can send a post request to the service:

curl -v -X POST -H "content-type:application/json" -d '{"query": "What color is the fox", "context": "The quick brown fox jumped over the lazy dog."}' http://localhost:32267/score

Choisir une cible de calculChoose a compute target

Reportez-vous au diagramme ci-dessous lorsque vous choisissez une cible de calcul.Refer to the below diagram when choosing a compute target.

Comment choisir une cible de calculHow to choose a compute target

La cible de calcul que vous utilisez pour héberger votre modèle aura une incidence sur le coût et la disponibilité de votre point de terminaison déployé.The compute target you use to host your model will affect the cost and availability of your deployed endpoint. Utilisez ce tableau pour choisir une cible de calcul appropriée.Use this table to choose an appropriate compute target.

Cible de calculCompute target Utilisé pourUsed for Prise en charge GPUGPU support Prise en charge FPGAFPGA support DescriptionDescription
Service web localLocal web service Test/débogageTesting/debugging     Pour les tests et la résolution des problèmes limités.Use for limited testing and troubleshooting. L’accélération matérielle dépend de l’utilisation de bibliothèques dans le système local.Hardware acceleration depends on use of libraries in the local system.
Azure Kubernetes Service (AKS)Azure Kubernetes Service (AKS) Inférence en temps réelReal-time inference Oui (déploiement de services web)Yes (web service deployment) OuiYes Pour les déploiements de production à grande échelle.Use for high-scale production deployments. Fournit un temps de réponse et une mise à l’échelle automatique rapides du service déployé.Provides fast response time and autoscaling of the deployed service. La mise à l’échelle automatique du cluster n’est pas prise en charge via le Kit de développement logiciel (SDK) Azure Machine Learning.Cluster autoscaling isn't supported through the Azure Machine Learning SDK. Pour modifier les nœuds du cluster AKS, utilisez l’interface utilisateur de votre cluster AKS dans le portail Azure.To change the nodes in the AKS cluster, use the UI for your AKS cluster in the Azure portal.

Pris en charge dans le concepteur.Supported in the designer.
Azure Container InstancesAzure Container Instances Test ou développementTesting or development     Pour les charges de travail à faible échelle basées sur le processeur qui nécessitent moins de 48 Go de RAM.Use for low-scale CPU-based workloads that require less than 48 GB of RAM.

Pris en charge dans le concepteur.Supported in the designer.
Clusters de calcul Azure Machine LearningAzure Machine Learning compute clusters Inférence BatchBatch inference Oui (pipeline d’apprentissage automatique)Yes (machine learning pipeline)   Exécutez le scoring par lots sur un calcul sans serveur.Run batch scoring on serverless compute. Prend en charge des machines virtuelles normales et basse priorité.Supports normal and low-priority VMs. Aucune prise en charge de l’inférence en temps réel.No support for real-time inference.

Notes

Les cibles de calcul telles que les cibles locales et les clusters de calcul Azure Machine Learning prennent en charge le GPU pour la formation et l’expérimentation, mais l’utilisation d’un GPU pour l’inférence lors d’un déploiement en tant que service web est prise en charge uniquement sur AKS.Although compute targets like local, and Azure Machine Learning compute clusters support GPU for training and experimentation, using GPU for inference when deployed as a web service is supported only on AKS.

L’utilisation d’un GPU pour l’inférence lors du scoring avec un pipeline d’apprentissage automatique est prise en charge uniquement sur un calcul Azure Machine Learning.Using a GPU for inference when scoring with a machine learning pipeline is supported only on Azure Machine Learning compute.

Lors du choix d’une référence (SKU) de cluster, effectuez un scale-up, puis un scale-out. Commencez avec une machine disposant de 150 % de la RAM dont votre modèle a besoin, profilez le résultat et recherchez une machine présentant le niveau de performance dont vous avez besoin.When choosing a cluster SKU, first scale up and then scale out. Start with a machine that has 150% of the RAM your model requires, profile the result and find a machine that has the performance you need. Une fois celle-ci trouvée, augmentez le nombre de machine en fonction de vos besoins en matière d’inférence simultanée.Once you've learned that, increase the number of machines to fit your need for concurrent inference.

Notes

  • Des instances de conteneur conviennent uniquement pour des modèles d’une taille inférieure à 1 Go.Container instances are suitable only for small models less than 1 GB in size.
  • Pour le développement et le test de modèles plus volumineux, utilisez des clusters AKS à nœud unique.Use single-node AKS clusters for dev/test of larger models.

Redéploiement dans le cloudRe-deploy to cloud

Une fois que vous avez confirmé que votre service fonctionne localement et choisi une cible de calcul à distance, vous êtes prêt à effectuer le déploiement dans le cloud.Once you've confirmed your service works locally and chosen a remote compute target, you are ready to deploy to the cloud.

Modifiez votre configuration de déploiement pour qu’elle corresponde à la cible de calcul que vous avez choisie, dans ce cas Azure Container Instances :Change your deploy configuration to correspond to the compute target you've chosen, in this case Azure Container Instances:

Les options disponibles pour une configuration de déploiement varient en fonction de la cible de calcul que vous choisissez.The options available for a deployment configuration differ depending on the compute target you choose.

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Enregistrez ce fichier en tant que deploymentconfig.json.Save this file as deploymentconfig.json.

Pour plus d’informations, consultez cette référence.For more information, see this reference.

Déployez votre service :Deploy your service again:

Remplacez bidaf_onnx:1 par le nom et le numéro de version de votre modèle.Replace bidaf_onnx:1 with the name of your model and its version number.

az ml model deploy -n myservice -m bidaf_onnx:1 --ic inferenceconfig.json --dc deploymentconfig.json
az ml service get-logs -n myservice

Appeler votre service d’accès à distanceCall your remote webservice

Lorsque vous déployez à distance, l’authentification de clé peut être activée.When you deploy remotely, you may have key authentication enabled. L’exemple ci-dessous montre comment obtenir votre clé de service avec Python afin d’effectuer une demande d’inférence.The example below shows how to get your service key with Python in order to make an inference request.

import requests
import json
from azureml.core import Webservice

service = Webservice(workspace=ws, name='myservice')
scoring_uri = service.scoring_uri

# If the service is authenticated, set the key or token
primary_key, _ = service.get_keys()

# Set the appropriate headers
headers = {'Content-Type': 'application/json'}
headers['Authorization'] = f'Bearer {key}'

# Make the request and display the response and logs
data = {"query": "What color is the fox", "context": "The quick brown fox jumped over the lazy dog."}
data = json.dumps(data)
resp = requests.post(scoring_uri, data=data, headers=headers)
print(resp.text)
print(service.get_logs())

Consultez l’article sur les applications clientes pour utiliser des services web pour d’autres exemples de clients dans d’autres langues.See the article on client applications to consume web services for more example clients in other languages.

Fonctionnement de l’état du serviceUnderstanding service state

Pendant le déploiement du modèle, vous pouvez voir le changement de l’état du service lors de son déploiement complet.During model deployment, you may see the service state change while it fully deploys.

Le tableau ci-après décrit les différents états de service :The following table describes the different service states:

État du service webWebservice state DescriptionDescription État final ?Final state?
TransitionTransitioning Le service est en cours de déploiement.The service is in the process of deployment. NonNo
UnhealthyUnhealthy Le service a été déployé, mais est actuellement inaccessible.The service has deployed but is currently unreachable. NonNo
Non planifiableUnschedulable Le service ne peut pas être déployé pour l’instant en raison d’un manque de ressources.The service cannot be deployed at this time due to lack of resources. NonNo
ÉchecFailed Le déploiement du service a échoué en raison d’une erreur ou d’un plantage.The service has failed to deploy due to an error or crash. OuiYes
HealthyHealthy Le service est sain et le point de terminaison est disponible.The service is healthy and the endpoint is available. OuiYes

Conseil

Lors du déploiement, les images Docker pour les cibles de calcul sont créées et chargées à partir d’Azure Container Registry (ACR).When deploying, Docker images for compute targets are built and loaded from Azure Container Registry (ACR). Par défaut, Azure Machine Learning crée un registre ACR du niveau de service De base.By default, Azure Machine Learning creates an ACR that uses the basic service tier. Un passage au niveau Standard ou Premium du registre ACR de l’espace de travail est susceptible de réduire le temps nécessaire à la génération et au déploiement des images dans les cibles de calcul.Changing the ACR for your workspace to standard or premium tier may reduce the time it takes to build and deploy images to your compute targets. Pour plus d’informations, consultez Niveaux de service pour Azure Container Registry.For more information, see Azure Container Registry service tiers.

Notes

Si vous déployez un modèle sur Azure Kubernetes Service (AKS), nous vous conseillons d’activer Azure Monitor pour ce cluster.If you are deploying a model to Azure Kubernetes Service (AKS), we advise you enable Azure Monitor for that cluster. Vous pourrez ainsi mieux appréhender dans leur globalité l’intégrité du cluster et l’utilisation des ressources.This will help you understand overall cluster health and resource usage. Voici également quelques ressources pouvant vous être utiles :You might also find the following resources useful:

Si vous essayez de déployer un modèle sur un cluster défectueux ou surchargé, des problèmes sont à prévoir.If you are trying to deploy a model to an unhealthy or overloaded cluster, it is expected to experience issues. Si vous avez besoin d’aide pour résoudre des problèmes de cluster AKS, contactez le support technique AKS.If you need help troubleshooting AKS cluster problems please contact AKS Support.

Supprimer des ressourcesDelete resources

Pour supprimer un service web déployé, utilisez az ml service delete <name of webservice>.To delete a deployed webservice, use az ml service delete <name of webservice>.

Pour supprimer de votre espace de travail un modèle inscrit, utilisez az ml model delete <model id>To delete a registered model from your workspace, use az ml model delete <model id>

Apprenez-en davantage sur la suppression d’un service web et la suppression d’un modèle.Read more about deleting a webservice and deleting a model.

Étapes suivantesNext steps