AutoMLRun Classe
Représente une exécution d’expérience de ML automatisé dans Azure Machine Learning.
La classe AutoMLRun peut être utilisée pour gérer une exécution, vérifier l’état de l’exécution et récupérer les détails sur l’exécution une fois qu’une exécution AutoML est envoyée. Pour plus d’informations sur l’utilisation des exécutions d’expériences, consultez la classe Run.
Initialiser une exécution AutoML.
- Héritage
-
AutoMLRun
Constructeur
AutoMLRun(experiment, run_id, **kwargs)
Paramètres
Remarques
Un objet AutoMLRun est retourné lorsque vous utilisez la méthode submit d’une expérience.
Pour récupérer une exécution déjà démarrée, utilisez le code suivant :
from azureml.train.automl.run import AutoMLRun
ws = Workspace.from_config()
experiment = ws.experiments['my-experiment-name']
automl_run = AutoMLRun(experiment, run_id = 'AutoML_9fe201fe-89fd-41cc-905f-2f41a5a98883')
Méthodes
cancel |
Annuler une exécution AutoML. Retourne la valeur True si l’exécution AutoML a été correctement annulée. |
cancel_iteration |
Annule une exécution enfant particulière. |
complete |
Termine une exécution AutoML. |
continue_experiment |
Poursuit une expérience AutoML existante. |
fail |
Échec d’une exécution AutoML. Vous pouvez également définir la propriété Error de l’exécution avec un message ou une exception transmis à |
get_best_child |
Retourne l’exécution enfant avec le meilleur score pour cette exécution AutoML. |
get_guardrails |
Imprime et retourne les résultats détaillés de la vérification de garde-fou des données en cours d’exécution. |
get_output |
Retourne l’exécution avec le meilleur pipeline correspondant déjà testé. Si aucun paramètre d’entrée n’est fourni, |
get_run_sdk_dependencies |
Obtient les dépendances d’exécution du kit de développement logiciel (SDK) pour une exécution donnée. |
pause |
Retourne la valeur True si l’exécution AutoML a été correctement interrompue. Cette méthode n’est pas implémentée. |
register_model |
Inscrit le modèle auprès du service AzureML ACI. |
resume |
Retourne la valeur True si l’exécution AutoML a été correctement reprise. Cette méthode n’est pas implémentée. |
retry |
Retourne la valeur True si l’exécution AutoML a été correctement retentée. Cette méthode n’est pas implémentée. |
summary |
Obtient une table contenant un résumé des algorithmes tentés et leurs scores. |
wait_for_completion |
Attendez la fin de l’exécution de cette exécution. Retourne l’objet d’état à l’issue de l’attente. |
cancel
Annuler une exécution AutoML.
Retourne la valeur True si l’exécution AutoML a été correctement annulée.
cancel()
Retours
Aucun
cancel_iteration
Annule une exécution enfant particulière.
cancel_iteration(iteration)
Paramètres
Retours
Aucun
complete
Termine une exécution AutoML.
complete(**kwargs)
Retours
Aucun
continue_experiment
Poursuit une expérience AutoML existante.
continue_experiment(X=None, y=None, sample_weight=None, X_valid=None, y_valid=None, sample_weight_valid=None, data=None, label=None, columns=None, cv_splits_indices=None, spark_context=None, experiment_timeout_hours=None, experiment_exit_score=None, iterations=None, show_output=False, training_data=None, validation_data=None, **kwargs)
Paramètres
Fonctionnalités d’apprentissage.
Étiquettes de formation.
Pondération des échantillons pour les données d’apprentissage.
Fonctionnalités de validation.
Étiquettes de validation.
Pondérations des échantillons de jeux de validation.
Liste des colonnes autorisées dans les données à utiliser en tant que fonctionnalités.
- cv_splits_indices
- ndarray
Index où répartir les données d’apprentissage pour la validation croisée. Chaque ligne est un pli croisé distinct et, dans chaque pli croisé, 2 tableaux sont fournis, le premier avec les index pour les échantillons à utiliser pour les données d’apprentissage et le deuxième avec les index à utiliser pour les données de validation. Par ex., [[t1, v1], [t2, v2], ...] où t1 représente les index d’apprentissage pour le premier pli croisé et v1 représentent les index de validation pour le premier pli croisé.
- spark_context
- <xref:SparkContext>
Contexte Spark, applicable uniquement lorsqu’il est utilisé dans un environnement Azure Databricks/Spark.
- experiment_timeout_hours
- float
Nombre d’heures supplémentaires durant lesquelles exécuter cette expérience.
- experiment_exit_score
- int
S’il est spécifié, indique que l’expérience prend fin une fois cette valeur atteinte.
- iterations
- int
Nombre d’itérations supplémentaires à exécuter pour cette expérience.
- show_output
- bool
Indicateur précisant s’il faut imprimer la sortie vers la console.
- training_data
- <xref:azureml.dataprep.Dataflow> ou DataFrame
Données d’apprentissage d’entrée.
- validation_data
- <xref:azureml.dataprep.Dataflow> ou DataFrame
Données de validation.
Retours
Exécution parente AutoML.
Type de retour
Exceptions
fail
Échec d’une exécution AutoML.
Vous pouvez également définir la propriété Error de l’exécution avec un message ou une exception transmis à error_details
.
fail(error_details=None, error_code=None, _set_status=True, **kwargs)
Paramètres
- _set_status
- bool
Indique si l’événement d’état doit être envoyé pour le suivi.
get_best_child
Retourne l’exécution enfant avec le meilleur score pour cette exécution AutoML.
get_best_child(metric: str | None = None, onnx_compatible: bool = False, **kwargs: Any) -> Run
Paramètres
- metric
- str
Métrique à utiliser lors de la sélection de la meilleure exécution à retourner. La valeur par défaut est la métrique principale.
- onnx_compatible
Indique s’il faut retourner uniquement les exécutions qui ont généré des modèles ONNX.
- kwargs
Retours
Exécution enfant AutoML.
get_guardrails
Imprime et retourne les résultats détaillés de la vérification de garde-fou des données en cours d’exécution.
get_guardrails(to_console: bool = True) -> Dict[str, Any]
Paramètres
- to_console
- bool
Indique s’il faut écrire les résultats de la vérification dans la console.
Retours
Dictionnaire de résultats du vérificateur.
Type de retour
Exceptions
get_output
Retourne l’exécution avec le meilleur pipeline correspondant déjà testé.
Si aucun paramètre d’entrée n’est fourni, get_output
retourne le meilleur pipeline en fonction de la métrique principale. Vous pouvez également utiliser le paramètre iteration
ou metric
pour récupérer une itération particulière ou la meilleure exécution par métrique fournie.
get_output(iteration: int | None = None, metric: str | None = None, return_onnx_model: bool = False, return_split_onnx_model: SplitOnnxModelName | None = None, **kwargs: Any) -> Tuple[Run, Any]
Paramètres
- iteration
- int
Numéro d’itération du modèle d’exécution et d’ajustement correspondant à retourner.
- metric
- str
Métrique à utiliser lors de la sélection du meilleur modèle d’exécution et d’ajustement à retourner.
- return_onnx_model
- bool
Cette méthode retourne le modèle ONNX converti si la valeur du paramètre enable_onnx_compatible_models
a été définie sur True dans l’objet AutoMLConfig.
- return_split_onnx_model
- SplitOnnxModelName
Type du modèle onnx découpé à retourner.
Retours
Modèle d’exécution et d’ajustement correspondant.
Type de retour
Exceptions
Remarques
Si vous souhaitez inspecter le(s) préprocesseur(s) et l’algorithme (estimateur) utilisés, vous pouvez le faire via Model.steps
, comme dans sklearn.pipeline.Pipeline.steps
.
Par exemple, le code ci-dessous montre comment récupérer l’estimateur.
best_run, model = parent_run.get_output()
estimator = model.steps[-1]
get_run_sdk_dependencies
Obtient les dépendances d’exécution du kit de développement logiciel (SDK) pour une exécution donnée.
get_run_sdk_dependencies(iteration=None, check_versions=True, **kwargs)
Paramètres
- iteration
- int
Numéro d’itération de l’exécution ajustée à récupérer. Si la valeur est None, récupère l’environnement parent.
- check_versions
- bool
Si la valeur est True, vérifie les versions avec l’environnement actuel. Si la valeur est False, passe.
Retours
Dictionnaire des dépendances récupérées à partir de RunHistory.
Type de retour
Exceptions
pause
Retourne la valeur True si l’exécution AutoML a été correctement interrompue.
Cette méthode n’est pas implémentée.
pause()
Exceptions
register_model
Inscrit le modèle auprès du service AzureML ACI.
register_model(model_name=None, description=None, tags=None, iteration=None, metric=None)
Paramètres
- iteration
- int
Remplacement pour le modèle à déployer. Déploie le modèle pour une itération donnée.
- metric
- str
Remplacement pour le modèle à déployer. Déploie le meilleur modèle pour une métrique différente.
Retours
Objet de modèle inscrit.
Type de retour
resume
Retourne la valeur True si l’exécution AutoML a été correctement reprise.
Cette méthode n’est pas implémentée.
resume()
Exceptions
retry
Retourne la valeur True si l’exécution AutoML a été correctement retentée.
Cette méthode n’est pas implémentée.
retry()
Exceptions
summary
Obtient une table contenant un résumé des algorithmes tentés et leurs scores.
summary()
Retours
Tramedonnées Pandas contenant les statistiques du modèle AutoML.
Type de retour
wait_for_completion
Attendez la fin de l’exécution de cette exécution.
Retourne l’objet d’état à l’issue de l’attente.
wait_for_completion(show_output=False, wait_post_processing=False)
Paramètres
- show_output
- bool
Indique s’il est nécessaire d’afficher la sortie d’exécution sur sys.stdout.
- wait_post_processing
- bool
Indique s’il est nécessaire d’attendre la fin du traitement de la validation une fois l’exécution terminée.
Retours
Objet d’état.
Type de retour
Exceptions
Attributs
run_id
Retourne l’ID d’exécution de l’exécution actuelle.
Retours
ID d’exécution de l’exécution actuelle.
Type de retour
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour