Share via


ForecastingJob Classe

Configuration de la tâche de prévision AutoML.

Initialisez une nouvelle tâche de prévision AutoML.

Héritage
azure.ai.ml.entities._job.automl.tabular.automl_tabular.AutoMLTabular
ForecastingJob

Constructeur

ForecastingJob(*, primary_metric: str | None = None, forecasting_settings: ForecastingSettings | None = None, **kwargs)

Paramètres

primary_metric
Optional[str]
Obligatoire

Métrique principale à utiliser pour la sélection du modèle.

forecasting_settings
Optional[ForecastingSettings]
Obligatoire

Paramètres de la tâche de prévision.

kwargs
Dict[str, Any]
Obligatoire

Arguments spécifiques au travail

Méthodes

dump

Vide le contenu du travail dans un fichier au format YAML.

set_data

Définissez la configuration des données.

set_featurization

Définissez la configuration de l’ingénierie des fonctionnalités.

set_forecast_settings

Gérer les paramètres utilisés par les tâches de prévision.

set_limits

Définissez des limites pour le travail.

set_training

Méthode permettant de configurer les paramètres liés à la formation de prévision.

dump

Vide le contenu du travail dans un fichier au format YAML.

dump(dest: str | PathLike | IO, **kwargs) -> None

Paramètres

dest
Union[<xref:PathLike>, str, IO[AnyStr]]
Obligatoire

Chemin d’accès local ou flux de fichiers dans lequel écrire le contenu YAML. Si dest est un chemin de fichier, un nouveau fichier est créé. Si dest est un fichier ouvert, le fichier est écrit directement dans.

kwargs
dict

Arguments supplémentaires à passer au sérialiseur YAML.

Exceptions

Déclenché si dest est un chemin de fichier et que le fichier existe déjà.

Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.

set_data

Définissez la configuration des données.

set_data(*, training_data: Input, target_column_name: str, weight_column_name: str | None = None, validation_data: Input | None = None, validation_data_size: float | None = None, n_cross_validations: str | int | None = None, cv_split_column_names: List[str] | None = None, test_data: Input | None = None, test_data_size: float | None = None) -> None

Paramètres

training_data
Input

Données de formation.

target_column_name
str

Nom de colonne de la colonne cible.

weight_column_name
Optional[str]

Poids du nom de la colonne, par défaut aucun

validation_data
Optional[Input]

Données de validation, la valeur par défaut est None

validation_data_size
Optional[float]

Taille des données de validation, valeur par défaut None

n_cross_validations
Optional[Union[str, int]]

n_cross_validations, la valeur par défaut est None

cv_split_column_names
Optional[List[str]]

cv_split_column_names, la valeur par défaut est None

test_data
Optional[Input]

Données de test, la valeur par défaut est None

test_data_size
Optional[float]

Taille des données de test, valeur par défaut None

Exceptions

Déclenché si dest est un chemin de fichier et que le fichier existe déjà.

Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.

set_featurization

Définissez la configuration de l’ingénierie des fonctionnalités.

set_featurization(*, blocked_transformers: List[BlockedTransformers | str] | None = None, column_name_and_types: Dict[str, str] | None = None, dataset_language: str | None = None, transformer_params: Dict[str, List[ColumnTransformer]] | None = None, mode: str | None = None, enable_dnn_featurization: bool | None = None) -> None

Paramètres

blocked_transformers
Optional[List[Union[BlockedTransformers, str]]]

Liste des noms de transformateurs à bloquer pendant la caractérisation, la valeur par défaut est None

column_name_and_types
Optional[Dict[str, str]]

Dictionnaire de noms de colonnes et de types de caractéristiques utilisés pour mettre à jour l’objectif des colonnes , par défaut, est None

dataset_language
Optional[str]

Code ISO 639-3 à trois caractères pour les langues contenues dans le jeu de données. Les langues autres que l’anglais ne sont prises en charge que si vous utilisez le calcul avec GPU. Le language_code « mul » doit être utilisé si le jeu de données contient plusieurs langues. Pour rechercher les codes ISO 639-3 pour différentes langues, reportez-vous à https://en.wikipedia.org/wiki/List_of_ISO_639-3_codes, par défaut, aucun

transformer_params
Optional[Dict[str, List[ColumnTransformer]]]

Dictionnaire du transformateur et des paramètres de personnalisation correspondants , par défaut, a la valeur None

mode
Optional[str]

« off », « auto », par défaut sur « auto », par défaut sur Aucun

enable_dnn_featurization
Optional[bool]

S’il faut inclure des méthodes d’ingénierie des fonctionnalités basées sur DNN, par défaut, aucun

Exceptions

Déclenché si dest est un chemin de fichier et que le fichier existe déjà.

Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.

set_forecast_settings

Gérer les paramètres utilisés par les tâches de prévision.

set_forecast_settings(*, time_column_name: str | None = None, forecast_horizon: str | int | None = None, time_series_id_column_names: str | List[str] | None = None, target_lags: str | int | List[int] | None = None, feature_lags: str | None = None, target_rolling_window_size: str | int | None = None, country_or_region_for_holidays: str | None = None, use_stl: str | None = None, seasonality: str | int | None = None, short_series_handling_config: str | None = None, frequency: str | None = None, target_aggregate_function: str | None = None, cv_step_size: int | None = None, features_unknown_at_forecast_time: str | List[str] | None = None) -> None

Paramètres

time_column_name
Optional[str]

Nom de la colonne de temps. Ce paramètre permet de spécifier la colonne DateHeure dans les données d’entrée utilisées pour la génération de la série chronologique et la déduction de sa fréquence.

forecast_horizon

Horizon maximal de prévision souhaité en unités de fréquence de série chronologique. La valeur par défaut est 1.

Les unités sont basées sur l’intervalle de temps de vos données d’entraînement (par ex., mensuelles, hebdomadaires) que l’analyste doit prévoir. Quand la tâche est de type prévision, ce paramètre est obligatoire. Pour plus d’informations sur la définition des paramètres de prévision, consultez Entraîner automatiquement un modèle de prévision de série chronologique.

time_series_id_column_names
Optional[Union[str, List[str]]]

Noms des colonnes utilisées pour regrouper une série chronologique. Permet de créer plusieurs séries. Si les noms de colonnes d’ID de série chronologique ne sont pas définis ou si les colonnes d’identificateur spécifiées n’identifient pas toutes les séries dans le jeu de données, les identificateurs de série chronologique sont automatiquement créés pour votre jeu de données.

target_lags

Nombre de périodes passées à décaler par rapport à la colonne cible. Par défaut, les latences sont désactivées.

Pendant la prévision, ce paramètre correspond au nombre de lignes dont les valeurs cibles doivent être décalées en fonction de la fréquence des données. Ce paramètre est représenté sous la forme d’une liste ou d’un entier unique. Un décalage est nécessaire en l’absence de correspondance ou de corrélation par défaut des relations entre les variables indépendantes et la variable dépendante. Par exemple, quand vous essayez de prévoir la demande d’un produit, la demande mensuelle peut dépendre du prix de certaines matières premières trois mois auparavant. Dans ce cas, vous pouvez appliquer un décalage négatif de trois mois à la cible (la demande) afin que le modèle soit entraîné sur la relation appropriée. Pour plus d’informations, consultez Entraîner automatiquement un modèle de prévision de série chronologique.

Remarque sur la détection automatique des décalages cibles et de la taille de fenêtre dynamique. Consultez les commentaires correspondants dans la section de la fenêtre dynamique. Nous utilisons l’algorithme suivant pour détecter la latence cible optimale et la taille de fenêtre dynamique.

  1. Estimez l’ordre de latence maximale pour la sélection de la fonctionnalité de consultation. Dans notre cas, il s’agit du nombre de périodes jusqu’à la granularité de la fréquence suivante, c.-à-d. si la fréquence est quotidienne, il s’agit d’une semaine (7), s’il s’agit d’une semaine, il s’agit du mois (4). Les valeurs multipliées par deux sont les plus grandes valeurs possibles des latences/fenêtres dynamiques. Dans nos exemples, nous examinerons l’ordre de latence maximale de 14 et 8 respectivement.

  2. Créez une série désaisonnière en ajoutant des composants de tendance et des restes. Ce sera utilisé à l’étape suivante.

  3. Estimez la fonction d'auto-corrélation partielle (PACF) sur les données de (2) et recherchez les points où l'auto-corrélation est significative, c'est-à-dire que sa valeur absolue est supérieure à 1,96/racine carrée (valeur maximale du retard), ce qui correspond à une signification de 95 %.

  4. Si tous les points sont significatifs, nous considérons qu’il s’agit d’un caractère saisonnier fort et que vous ne créez pas de fonctionnalités de recherche.

  5. Nous balayons les valeurs PACF à partir du début et la valeur avant la première corrélation insignifiante automatique désignera la latence. Si le premier élément significatif (la valeur corrélée elle-même) est suivi de manière non significative, le décalage sera 0 et nous n’utiliserons pas de fonctionnalités de recherche.

feature_lags
Optional[str]

Indicateur de génération de décalages pour les caractéristiques numériques avec « auto » ou None.

target_rolling_window_size
Optional[Union[str, int]]

Nombre de périodes passées utilisées pour créer une moyenne de fenêtres dynamiques de la colonne cible.

Pendant la prévision, ce paramètre correspond à n périodes historiques à utiliser pour générer les valeurs prévues, < = taille du jeu d’entraînement. En cas d’omission, n est la taille du jeu d’apprentissage complet. Spécifiez ce paramètre si vous souhaitez prendre en compte seulement une partie des données historiques pour l’entraînement du modèle. Si la valeur est définie sur « auto », la fenêtre dynamique est estimée comme dernière valeur où le PACF est plus le seuil de précision. Veuillez consulter la section target_lags pour plus de détails.

country_or_region_for_holidays
Optional[str]

Pays/région utilisé pour générer les caractéristiques de congés. Il doit s’agir des codes de pays/région à deux lettres au format ISO 3166, par exemple, « US » ou « GB ».

use_stl

Configurez la décomposition STL de la colonne cible de série chronologique. use_stl peut prendre trois valeurs : None (valeur par défaut) : aucune décomposition STL, season : génère uniquement le composant de saison, et season_trend : génère des composants de saison et de tendance.

seasonality
Optional[Union[int, str]

Définissez le caractère saisonnier de la série chronologique sous la forme d’un entier multiple de la fréquence de la série. Si la saisonnalité est définie sur « auto », elle est déduite. Si la valeur est None, la série chronologique est supposée non saisonnière, ce qui équivaut à caractère saisonnier = 1.

short_series_handling_config

Paramètre définissant la manière dont AutoML doit gérer les séries chronologiques courtes.

Valeurs possibles : « auto » (par défaut), « Remplir », « Annuler » et Aucune.

  • auto short series sera rembourré s’il n’y a pas de série longue,

sinon, les séries courtes seront supprimées.

  • remplir toutes les séries courtes sont remplies.
  • annuler toutes les séries courtes sont annulées.
  • Aucune les séries courtes ne sont pas modifiées.

Si la valeur est « remplir », la table est remplie avec les zéros et les valeurs vides pour les régresseurs et les valeurs aléatoires pour la cible avec la moyenne égale à la valeur médiane cible pour l’ID de série chronologique donné. Si la valeur médiane est supérieure ou égale à zéro, la valeur remplie minimale est découpée par zéro : Entrée :

Date

numeric_value

string

cible

2020-01-01

23

green

55

Sortie en supposant que le nombre minimal de valeurs est de quatre :

Date

numeric_value

string

cible

2019-12-29

0

N/D

55.1

2019-12-30

0

N/D

55.6

2019-12-31

0

N/D

54.5

2020-01-01

23

green

55

Remarque : Nous avons deux paramètres short_series_handling_configuration et legacy short_series_handling. Lorsque les deux paramètres sont définis, nous les synchronisons comme indiqué dans le tableau ci-dessous (short_series_handling_configuration et short_series_handling par souci de concision sont marqués respectivement comme handling_configuration et handling).

Manipulation

handlingconfiguration

gestion résultante

resultinghandlingconfiguration

True

auto

True

auto

True

Pad

True

auto

True

drop

True

auto

True

None

False

None

False

auto

False

None

False

Pad

False

None

False

drop

False

None

False

None

False

None

frequency

Fréquence de prévision.

Lors d'une prévision, ce paramètre représente la période pour laquelle la prévision est souhaitée, par exemple tous les jours, toutes les semaines, tous les ans, etc. La fréquence de prévision correspond à la fréquence du jeu de données par défaut. Vous pouvez la définir sur une valeur supérieure (mais pas inférieure) à la fréquence du jeu de données. Nous allons agréger les données et générer les résultats à la fréquence prévue. Par exemple, pour les données quotidiennes, vous pouvez définir une fréquence quotidienne, hebdomadaire ou mensuelle, mais pas toutes les heures. La fréquence doit correspondre à un alias de décalage Pandas. Pour plus d’informations, consultez la documentation Pandas : https://pandas.pydata.org/pandas-docs/stable/user_guide/timeseries.html#dateoffset-objects

target_aggregate_function

Fonction à utiliser pour agréger la colonne cible de la série chronologique de façon à ce qu’elle soit conforme à une fréquence spécifiée par l’utilisateur. Si target_aggregation_function est défini, mais que le paramètre freq ne l’est pas, une erreur est générée. Les fonctions d’agrégation cibles possibles sont les suivantes : « sum », « max », « min » et « mean ».

  • Les valeurs de la colonne cible sont agrégées en fonction de l’opération spécifiée. En général, la somme est appropriée pour la plupart des scénarios.

  • Les colonnes de prédiction numériques dans vos données sont agrégées par somme, moyenne, valeur minimale et valeur maximale. Par conséquent, le ML automatisé génère de nouvelles colonnes suffixées avec le nom de la fonction d’agrégation et applique l’opération d’agrégation sélectionnée.

  • Pour les colonnes de prédiction catégoriques, les données sont agrégées par mode, la catégorie la plus visible dans la fenêtre.

  • Les colonnes de prédiction de date sont agrégées par valeur minimale, valeur maximale et mode.

Freq

target_aggregation_function

Mécanisme de correction de la régularité des données

Aucun (par défaut)

Aucun (par défaut)

L’agrégation n’est pas appliquée. Si la fréquence valide ne peut pas être déterminée, l’erreur est déclenchée.

Une valeur

Aucun (par défaut)

L’agrégation n’est pas appliquée. Si le nombre de points de donnéescomplint togiven frequencygrid estless, alors 90%, ces points seront supprimés,sinon l’erreur sera déclenchée.

Aucun (par défaut)

Fonction d’agrégation

Erreur à propos de la demande de fréquenceparameter israisé.

Une valeur

Fonction d’agrégation

Agréger à la fréquence à l’aide deprovidedaggregationfunction.

cv_step_size
Optional[int]

Nombre de périodes entre origin_time d’un repli de validation croisée et le repli suivant. Par exemple, si n_step = 3 pour les données quotidiennes, l’heure d’origine de chaque repli sera espacée de trois jours.

features_unknown_at_forecast_time
Optional[Union[str, List[str]]]

Colonnes de fonctionnalité disponibles pour l’entraînement, mais inconnues au moment de la prévision/inférence. Si features_unknown_at_forecast_time est défini sur une liste vide, il est supposé que toutes les colonnes de fonctionnalité du jeu de données sont connues au moment de l’inférence. Si ce paramètre n’est pas défini, la prise en charge des fonctionnalités futures n’est pas activée.

Exceptions

Déclenché si dest est un chemin de fichier et que le fichier existe déjà.

Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.

set_limits

Définissez des limites pour le travail.

set_limits(*, enable_early_termination: bool | None = None, exit_score: float | None = None, max_concurrent_trials: int | None = None, max_cores_per_trial: int | None = None, max_nodes: int | None = None, max_trials: int | None = None, timeout_minutes: int | None = None, trial_timeout_minutes: int | None = None) -> None

Paramètres

enable_early_termination
Optional[bool]

Si vous souhaitez activer l’arrêt anticipé si le score ne s’améliore pas à court terme, la valeur par défaut est None.

Logique d’arrêt anticipé :

  • Aucun arrêt anticipé pour les 20 premières itérations (repères).

  • La fenêtre d’arrêt anticipé commence à la 21ème itération et recherche les early_stopping_n_iters itérations

    (actuellement défini sur 10). Cela signifie que la première itération où l’arrêt peut se produire est la 31ème.

  • AutoML planifie toujours 2 itérations d’ensemble APRÈS l’arrêt précoce, ce qui peut entraîner des scores plus élevés.

  • L’arrêt anticipé est déclenché si la valeur absolue du meilleur score calculé est la même pour les dernières

    early_stopping_n_iters itérations, autrement dit, s’il n’y a pas d’amélioration du score pour early_stopping_n_iters itérations.

exit_score
Optional[float]

Score cible de l’expérience. L’expérimentation se termine une fois ce score atteint. S’il n’est pas spécifié (aucun critère), l’expérimentation s’exécute jusqu’à ce que la métrique principale n’affiche plus de progression. Pour plus d’informations sur les critères de sortie, consultez cet article , la valeur par défaut est None

max_concurrent_trials
Optional[int]

Il s’agit du nombre maximal d’itérations qui seraient exécutées en parallèle. La valeur par défaut est 1.

  • Les clusters AmlCompute prennent en charge une itération exécutée par nœud.

Quand plusieurs exécutions parentes d’expérience AutoML sont effectuées en parallèle sur un seul cluster AmlCompute, la somme des valeurs max_concurrent_trials de toutes les expériences doit être inférieure ou égale au nombre maximal de nœuds. Sinon, les exécutions sont mises en file d’attente jusqu’à ce que les nœuds soient disponibles.

  • DSVM prend en charge plusieurs itérations par nœud. max_concurrent_trials Devrait

être inférieur ou égal au nombre de cœurs sur la machine virtuelle DSVM. Quand plusieurs exécutions d’expérience sont effectuées en parallèle sur une seule DSVM, la somme des valeurs max_concurrent_trials de toutes les expériences doit être inférieure ou égale au nombre maximal de nœuds.

  • Databricks : max_concurrent_trials doit être inférieur ou égal au nombre de

nœuds worker sur Databricks.

max_concurrent_trials ne s’applique pas aux exécutions locales. Auparavant, ce paramètre était appelé concurrent_iterations.

max_cores_per_trial
Optional[int]

Nombre maximal de threads à utiliser pour une itération d’entraînement donnée. Valeurs acceptables :

  • Supérieur à 1 et inférieur ou égal au nombre maximal de cœurs sur la cible de calcul.

  • Égal à -1, ce qui signifie qu’il faut utiliser tous les cœurs possibles par itération et par exécution enfant.

  • Égal à 1, valeur par défaut.

max_nodes
Optional[int]

[Expérimental] Nombre maximal de nœuds à utiliser pour l’entraînement distribué.

  • Pour la prévision, chaque modèle est entraîné à l’aide de nœuds max(2, int(max_nodes / max_concurrent_trials)).

  • Pour la classification/régression, chaque modèle est entraîné à l’aide de nœuds max_nodes.

Remarque : ce paramètre est en préversion publique et peut changer à l’avenir.

max_trials
Optional[int]

Nombre total de combinaisons différentes d’algorithmes et de paramètres à tester pendant une expérience de ML automatisé. Si non spécifié, la valeur par défaut est 1000 itérations.

timeout_minutes
Optional[int]

Durée maximale en minutes pendant laquelle toutes les itérations combinées peuvent être effectuées avant que l’expérience ne se termine. Si la valeur n’est pas spécifiée, le délai d’expiration par défaut de l’expérience est de 6 jours. Pour spécifier un délai d’attente inférieur ou égal à 1 heure, assurez-vous que la taille de votre jeu de données n’est pas supérieure à 10 000 000 (colonne lignes et fois colonne) ou qu’une erreur s’affiche par défaut sur Aucun

trial_timeout_minutes
Optional[int]

Durée d’exécution maximale (en minutes) de chaque itération avant de s’arrêter. Si ce n’est pas spécifié, une valeur de 1 mois ou 43200 minutes est utilisée, la valeur par défaut est None

Exceptions

Déclenché si dest est un chemin de fichier et que le fichier existe déjà.

Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.

set_training

Méthode permettant de configurer les paramètres liés à la formation de prévision.

set_training(*, enable_onnx_compatible_models: bool | None = None, enable_dnn_training: bool | None = None, enable_model_explainability: bool | None = None, enable_stack_ensemble: bool | None = None, enable_vote_ensemble: bool | None = None, stack_ensemble_settings: StackEnsembleSettings | None = None, ensemble_model_download_timeout: int | None = None, allowed_training_algorithms: List[str] | None = None, blocked_training_algorithms: List[str] | None = None, training_mode: str | TrainingMode | None = None) -> None

Paramètres

enable_onnx_compatible_models

Indique s’il faut activer ou désactiver l’application des modèles compatibles ONNX. La valeur par défaut est False. Pour plus d’informations sur Open Neural Network Exchange (ONNX) et Azure Machine Learning, consultez cet article.

enable_dnn_training
Optional[bool]

Indique s’il faut inclure des modèles basés sur DNN lors de la sélection du modèle. Toutefois, la valeur par défaut est True pour les tâches DNN NLP et False pour toutes les autres tâches AutoML.

enable_model_explainability

Indique s’il faut activer l’explication du meilleur modèle AutoML à la fin de toutes les itérations d’entraînement AutoML. Pour plus d’informations, consultez Interprétabilité : explications des modèles dans le Machine Learning automatisé. , a la valeur par défaut None

enable_stack_ensemble

Indique s’il faut activer ou désactiver l’itération StackEnsemble. Si l’indicateur enable_onnx_compatible_models est défini, l’itération StackEnsemble est désactivée. De même, pour les tâches de série chronologique, l’itération StackEnsemble est désactivée par défaut, afin d’éviter les risques de sur-ajustement en raison de l’utilisation d’un petit jeu d’entraînement dans l’ajustement du méta-apprenant. Pour plus d’informations sur les ensembles, consultez Configuration d’ensemble , valeur par défaut : Aucun.

enable_vote_ensemble

Indique s’il faut activer ou désactiver l’itération VotingEnsemble. Pour plus d’informations sur les ensembles, consultez Configuration d’ensemble , valeur par défaut : Aucun.

stack_ensemble_settings
Optional[StackEnsembleSettings]

Paramètres pour l’itération StackEnsemble, la valeur par défaut est None

ensemble_model_download_timeout
Optional[int]

Pendant la génération de modèles VotingEnsemble et StackEnsemble, plusieurs modèles ajustés des exécutions enfants précédentes sont téléchargés. Configurez ce paramètre avec une valeur supérieure à 300 secondes. Si plus de temps est nécessaire, la valeur par défaut est None

allowed_training_algorithms
Optional[List[str]]

Liste des noms de modèle à rechercher pour une expérience. S’ils ne sont pas spécifiés, tous les modèles pris en blocked_training_algorithms charge pour la tâche sont utilisés moins tous les modèles TensorFlow spécifiés ou dépréciés, la valeur par défaut est None

blocked_training_algorithms
Optional[List[str]]

Liste d’algorithmes à ignorer pour une expérience, la valeur par défaut est None

training_mode

[Expérimental] Mode d’entraînement à utiliser. Les valeurs possibles sont :

  • distributed : active l’entraînement distribué pour les algorithmes pris en charge.

  • non_distributed- désactive l’entraînement distribué.

  • auto- Actuellement, il est identique à non_distributed. À l’avenir, cela pourrait changer.

Remarque : Ce paramètre est en préversion publique et peut changer à l’avenir.

Exceptions

Déclenché si dest est un chemin de fichier et que le fichier existe déjà.

Déclenché si dest est un fichier ouvert et que le fichier n’est pas accessible en écriture.

Attributs

base_path

Chemin d’accès de base de la ressource.

Retours

Chemin d’accès de base de la ressource.

Type de retour

str

creation_context

Contexte de création de la ressource.

Retours

Métadonnées de création pour la ressource.

Type de retour

featurization

Obtenez les paramètres de caractérisation tabulaire pour le travail AutoML.

Retours

Paramètres de caractérisation tabulaire pour le travail AutoML

Type de retour

forecasting_settings

Retourne les paramètres de prévision.

Retours

paramètres de prévision.

Type de retour

id

ID de la ressource.

Retours

ID global de la ressource, id Azure Resource Manager (ARM).

Type de retour

inputs

limits

Obtenez les limites tabulaires du travail AutoML.

Retours

Limites tabulaires pour le travail AutoML

Type de retour

log_files

Fichiers de sortie de travail.

Retours

Dictionnaire des noms de journaux et des URL.

Type de retour

log_verbosity

Obtenez le détail du journal pour le travail AutoML.

Retours

détail du journal pour le travail AutoML

Type de retour

<xref:LogVerbosity>

outputs

primary_metric

Retourne la métrique principale à utiliser pour la sélection du modèle.

Retours

Métrique principale pour la sélection du modèle.

Type de retour

status

État du travail.

Les valeurs courantes retournées sont « Exécution en cours (Running) », « Terminé (Finished) » et « Échec (Failed) ». Toutes les valeurs possibles sont les suivantes :

  • NotStarted : il s’agit d’un état temporaire dans lequel se trouvent les objets Run côté client avant la soumission cloud.

  • Démarrage : l’exécution a commencé à être traitée dans le cloud. L’appelant a un ID d’exécution à ce stade.

  • Approvisionnement : le calcul à la demande est en cours de création pour une soumission de travail donnée.

  • Préparation : l’environnement d’exécution est en cours de préparation et se trouve dans l’une des deux étapes suivantes :

    • Build d’image Docker

    • Configuration de l’environnement Conda

  • Mis en file d’attente : le travail est mis en file d’attente sur la cible de calcul. Par exemple, dans BatchAI, le travail est dans un état mis en file d’attente

    en attendant que tous les nœuds demandés soient prêts.

  • En cours d’exécution : le travail a commencé à s’exécuter sur la cible de calcul.

  • Finalisation : l’exécution du code utilisateur est terminée et l’exécution est en phase de post-traitement.

  • CancelRequested : l’annulation a été demandée pour le travail.

  • Terminé : l’exécution s’est terminée avec succès. Cela inclut à la fois l’exécution et l’exécution du code utilisateur

    Étapes de post-traitement.

  • Failed (Échec) : l’exécution a échoué. En règle générale, la propriété Error d’une exécution fournit des détails sur la raison de l’échec.

  • Annulé : suit une demande d’annulation et indique que l’exécution a bien été annulée.

  • NotResponding : pour les exécutions pour lesquelles des pulsations sont activées, aucune pulsation n’a été envoyée récemment.

Retours

État du travail.

Type de retour

studio_url

Point de terminaison Azure ML Studio.

Retours

URL de la page des détails du travail.

Type de retour

task_type

Obtenir le type de tâche.

Retours

Type de tâche à exécuter. Les valeurs possibles sont les suivantes : « classification », « régression », « forecasting ».

Type de retour

str

test_data

Obtenir des données de test.

Retours

Entrée de données de test

Type de retour

training

Retourne les paramètres d’entraînement des prévisions.

Retours

paramètres d’entraînement.

Type de retour

<xref:azure.ai.ml.automl.ForecastingTrainingSettings>

training_data

Obtenir des données d’entraînement.

Retours

Entrée de données d’entraînement

Type de retour

type

Type du travail.

Retours

Type du travail.

Type de retour

validation_data

Obtenir des données de validation.

Retours

Entrée de données de validation

Type de retour