InferenceConfig Classe
- Héritage
-
builtins.objectInferenceConfig
Constructeur
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Paramètres
- entry_script
- str
Chemin d’un fichier local qui contient le code à exécuter pour l’image.
- runtime
- str
Runtime à utiliser pour l’image. Actuellement, les runtimes pris en charge sont « spark-py » et « python ».
- conda_file
- str
Chemin d’un fichier local contenant une définition d’environnement Conda à utiliser pour l’image.
- extra_docker_file_steps
- str
Chemin d’un fichier local contenant les étapes Docker supplémentaires à exécuter durant la configuration d’une image.
- source_directory
- str
Chemin du dossier qui contient tous les fichiers permettant de créer l’image.
- enable_gpu
- bool
Indique s’il est nécessaire d’activer la prise en charge du GPU dans l’image. L’image GPU doit être utilisée sur les services Microsoft Azure tels que Azure Container Instances, Capacité de calcul Azure Machine Learning, Machines virtuelles Azure et Azure Kubernetes Service. Valeur par défaut False.
- base_image
- str
Image personnalisée à utiliser comme image de base. Si aucune image de base n’est proposée, l’image de base sera utilisée en fonction d’un paramètre d’exécution donné.
- base_image_registry
- ContainerRegistry
Registre d’images contenant l’image de base.
- cuda_version
- str
Version de CUDA à installer pour les images qui nécessitent une prise en charge du GPU. L’image GPU doit être utilisée sur les services Microsoft Azure tels que Azure Container Instances, Capacité de calcul Azure Machine Learning, Machines virtuelles Azure et Azure Kubernetes Service. Les versions prises en charge sont les versions 9.0, 9.1 et 10.0.
Si enable_gpu
est défini, la valeur par défaut est « 9.1 ».
- environment
- Environment
Objet d’environnement à utiliser pour le déploiement. L’environnement n’a pas besoin d’être inscrit.
Indiquez ce paramètre ou les autres paramètres, mais pas les deux. Les paramètres individuels ne remplacent PAS l’objet d’environnement. Les exceptions incluent entry_script
, source_directory
et description
.
- entry_script
- str
Chemin d’un fichier local qui contient le code à exécuter pour l’image.
- runtime
- str
Runtime à utiliser pour l’image. Actuellement, les runtimes pris en charge sont « spark-py » et « python ».
- conda_file
- str
Chemin d’un fichier local contenant une définition d’environnement Conda à utiliser pour l’image.
- extra_docker_file_steps
- str
Chemin d’un fichier local contenant les étapes Docker supplémentaires à exécuter durant la configuration d’une image.
- source_directory
- str
Chemin du dossier qui contient tous les fichiers permettant de créer l’image.
- enable_gpu
- bool
Indique s’il est nécessaire d’activer la prise en charge du GPU dans l’image. L’image GPU doit être utilisée sur les services Microsoft Azure tels que Azure Container Instances, Capacité de calcul Azure Machine Learning, Machines virtuelles Azure et Azure Kubernetes Service. Valeur par défaut False.
- base_image
- str
Image personnalisée à utiliser comme image de base. Si aucune image de base n’est proposée, l’image de base sera utilisée en fonction d’un paramètre d’exécution donné.
- cuda_version
- str
Version de CUDA à installer pour les images qui nécessitent une prise en charge du GPU. L’image GPU doit être utilisée sur les services Microsoft Azure tels que Azure Container Instances, Capacité de calcul Azure Machine Learning, Machines virtuelles Azure et Azure Kubernetes Service. Les versions prises en charge sont les versions 9.0, 9.1 et 10.0.
Si enable_gpu
est défini, la valeur par défaut est « 9.1 ».
- environment
- Environment
Objet d’environnement à utiliser pour le déploiement. L’environnement n’a pas besoin d’être inscrit.
Indiquez ce paramètre ou les autres paramètres, mais pas les deux. Les paramètres individuels ne remplacent PAS l’objet d’environnement. Les exceptions incluent entry_script
, source_directory
et description
.
Remarques
L’exemple suivant montre comment créer un objet InferenceConfig et l’utiliser pour déployer un modèle.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variables
- entry_script
- str
Chemin d’un fichier local qui contient le code à exécuter pour l’image.
- runtime
- str
Runtime à utiliser pour l’image. Actuellement, les runtimes pris en charge sont « spark-py » et « python ».
- conda_file
- str
Chemin d’un fichier local contenant une définition d’environnement Conda à utiliser pour l’image.
- extra_docker_file_steps
- str
Chemin d’un fichier local contenant les étapes Docker supplémentaires à exécuter durant la configuration de l’image.
- source_directory
- str
Chemin du dossier qui contient tous les fichiers permettant de créer l’image.
- enable_gpu
- bool
Indique s’il est nécessaire d’activer la prise en charge du GPU dans l’image. L’image GPU doit être utilisée sur les services Microsoft Azure tels que Azure Container Instances, Capacité de calcul Azure Machine Learning, Machines virtuelles Azure et Azure Kubernetes Service.
- azureml.core.model.InferenceConfig.description
Description à fournir à cette image.
- base_image
- str
Image personnalisée à utiliser comme image de base. Si aucune image de base n’est proposée, l’image de base sera utilisée en fonction d’un paramètre d’exécution donné.
- base_image_registry
- ContainerRegistry
Registre d’images contenant l’image de base.
- cuda_version
- str
Version de CUDA à installer pour les images qui nécessitent une prise en charge du GPU. L’image GPU doit être utilisée sur les services Microsoft Azure tels que Azure Container Instances, Capacité de calcul Azure Machine Learning, Machines virtuelles Azure et Azure Kubernetes Service. Les versions prises en charge sont les versions 9.0, 9.1 et 10.0.
Si enable_gpu
est défini, la valeur par défaut est « 9.1 ».
- azureml.core.model.InferenceConfig.environment
Objet d’environnement à utiliser pour le déploiement. L’environnement n’a pas besoin d’être inscrit.
Indiquez ce paramètre ou les autres paramètres, mais pas les deux. Les paramètres individuels ne remplacent PAS l’objet d’environnement. Les exceptions incluent entry_script
, source_directory
et description
.
Méthodes
build_create_payload |
Génère la charge utile de la création de l’image conteneur. |
build_profile_payload |
Génère la charge utile de profilage pour le package de modèle. |
validate_configuration |
Vérifie que les valeurs de configuration spécifiées sont valides. Lève une exception WebserviceException en cas d’échec de la validation. |
validation_script_content |
Vérifiez que la syntaxe du script de score est valide avec ast.parse. Lève une exception UserErrorException en cas d’échec de la validation. |
build_create_payload
Génère la charge utile de la création de l’image conteneur.
build_create_payload(workspace, name, model_ids)
Paramètres
Retours
Charge utile de la création de l’image conteneur.
Type de retour
Exceptions
build_profile_payload
Génère la charge utile de profilage pour le package de modèle.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Paramètres
Liste d’objets de modèle. Il peut s’agir d’une liste vide.
- dataset_id
- str
ID associé au jeu de données contenant les données d’entrée pour l’exécution du profilage.
- container_resource_requirements
- ContainerResourceRequirements
impératifs liés aux ressources d’un conteneur pour la plus grande instance sur laquelle le modèle doit être déployé
Retours
Charge utile de profil du modèle
Type de retour
Exceptions
validate_configuration
Vérifie que les valeurs de configuration spécifiées sont valides.
Lève une exception WebserviceException en cas d’échec de la validation.
validate_configuration()
Exceptions
validation_script_content
Vérifiez que la syntaxe du script de score est valide avec ast.parse.
Lève une exception UserErrorException en cas d’échec de la validation.
validation_script_content()
Exceptions
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour