Condividi tramite


Estimator Classe

Rappresenta un stimatore generico per eseguire il training dei dati usando qualsiasi framework fornito.

DEPRECATO. Usare l'oggetto ScriptRunConfig con un ambiente definito o un ambiente curato da Azure ML. Per un'introduzione alla configurazione delle esecuzioni degli esperimenti con ScriptRunConfig, vedere Configurare e inviare esecuzioni di training.

Questa classe è progettata per l'uso con i framework di Machine Learning che non hanno già un stimatore preconfigurato di Azure Machine Learning. Gli stimatori preconfigurato esistono per Chainer, PyTorch, TensorFlowe SKLearn. Per creare un strumento di stima non preconfigurato, vedere Eseguire il training dei modelli con Azure Machine Learning usando lo strumento di stima.

La classe Estimator esegue il wrapping delle informazioni di configurazione per semplificare le attività di specificare il modo in cui viene eseguito uno script. Supporta l'esecuzione a nodo singolo e a più nodi. L'esecuzione dello strumento di stima produce un modello nella directory di output specificata nello script di training.

Inizializzare lo strumento di stima.

viene usato azureml.core.environment._DEFAULT_SHM_SIZE. Per altre informazioni, vedere Informazioni di riferimento sull'esecuzione di Docker. :type shm_size: str :p aram resume_from: percorso dati contenente i file di checkpoint o modello da cui riprendere l'esperimento. :type resume_from: azureml.datapath.datapath.DataPath :p aram max_run_duration_seconds: tempo massimo consentito per l'esecuzione. Azure ML tenterà di eseguire automaticamente il tentativo

annullare l'esecuzione se richiede più tempo di questo valore.

Ereditarietà
azureml.train.estimator._mml_base_estimator.MMLBaseEstimator
Estimator

Costruttore

Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)

Parametri

Nome Descrizione
source_directory
Necessario
str

Directory locale contenente i file di configurazione dell'esperimento e di codice necessari per un processo di training.

compute_target
Necessario

Destinazione di calcolo in cui si verificherà il training. Può essere un oggetto o la stringa "local".

vm_size
Necessario
str

Dimensioni della macchina virtuale della destinazione di calcolo che verrà creata per il training. Valori supportati: qualsiasi dimensione della macchina virtuale di Azure.

vm_priority
Necessario
str

Priorità della macchina virtuale della destinazione di calcolo che verrà creata per il training. Se non specificato, viene usato "dedicato".

Valori supportati: 'dedicato' e 'lowpriority'.

Questa operazione ha effetto solo quando il vm_size parametro viene specificato nell'input.

entry_script
Necessario
str

Percorso relativo del file usato per avviare il training.

script_params
Necessario

Dizionario degli argomenti della riga di comando da passare allo script di training specificato in entry_script.

node_count
Necessario
int

Numero di nodi nella destinazione di calcolo usata per il training. Se maggiore di 1, verrà eseguito un processo distribuito MPI.

process_count_per_node
Necessario
int

Numero di processi (o "worker") da eseguire in ogni nodo. Se maggiore di 1, verrà eseguito un processo distribuito MPI. Solo la AmlCompute destinazione è supportata per i processi distribuiti.

distributed_backend
Necessario
str

Back-end di comunicazione per il training distribuito.

DEPRECATO. Usare il distributed_training parametro .

Valori supportati: 'mpi'. 'mpi' rappresenta MPI/Horovod.

Questo parametro è obbligatorio quando node_count o process_count_per_node> 1.

Quando node_count == 1 e process_count_per_node == 1, non verrà usato alcun back-end a meno che il back-end non sia impostato in modo esplicito. Solo la destinazione è supportata per il AmlCompute training distribuito.

distributed_training
Necessario
Mpi

Parametri per l'esecuzione di un processo di training distribuito.

Per l'esecuzione di un processo distribuito con back-end MPI, usare l'oggetto Mpi per specificare process_count_per_node.

use_gpu
Necessario

Indica se l'ambiente da eseguire l'esperimento deve supportare GPU. Se true, nell'ambiente verrà usata un'immagine Docker predefinita basata su GPU. Se false, verrà usata un'immagine basata sulla CPU. Le immagini Docker predefinite (CPU o GPU) verranno usate solo se il custom_docker_image parametro non è impostato. Questa impostazione viene usata solo nelle destinazioni di calcolo abilitate per Docker.

use_docker
Necessario

Specifica se l'ambiente da eseguire l'esperimento deve essere basato su Docker.

custom_docker_base_image
Necessario
str

Nome dell'immagine Docker da cui verrà compilata l'immagine da usare per il training.

DEPRECATO. Usare il custom_docker_image parametro .

In caso contrario, un'immagine basata sulla CPU predefinita verrà usata come immagine di base.

custom_docker_image
Necessario
str

Nome dell'immagine Docker da cui verrà compilata l'immagine da usare per il training. In caso contrario, un'immagine basata sulla CPU predefinita verrà usata come immagine di base. Specificare solo le immagini disponibili nei repository docker pubblici (Docker Hub). Per usare un'immagine da un repository Docker privato, usare invece il parametro environment_definition del costruttore.

image_registry_details
Necessario

Dettagli del Registro immagini Docker.

user_managed
Necessario

Specifica se Azure ML riutilizza un ambiente Python esistente. Se false, viene creato un ambiente Python in base alla specifica delle dipendenze conda.

conda_packages
Necessario

Elenco di stringhe che rappresentano pacchetti conda da aggiungere all'ambiente Python per l'esperimento.

pip_packages
Necessario

Elenco di stringhe che rappresentano i pacchetti pip da aggiungere all'ambiente Python per l'esperimento.

conda_dependencies_file_path
Necessario
str

Percorso relativo del file yaml delle dipendenze conda. Se specificato, Azure ML non installerà pacchetti correlati al framework.

DEPRECATO. Usare il conda_dependencies_file paramenter.

Specificare conda_dependencies_file_path o conda_dependencies_file. Se vengono specificati entrambi, conda_dependencies_file viene usato.

pip_requirements_file_path
Necessario
str

Percorso relativo del file di testo dei requisiti pip.

DEPRECATO. Usare il pip_requirements_file parametro .

Questo parametro può essere specificato in combinazione con il pip_packages parametro . Specificare pip_requirements_file_path o pip_requirements_file. Se vengono specificati entrambi, pip_requirements_file viene usato.

conda_dependencies_file
Necessario
str

Percorso relativo del file yaml delle dipendenze conda. Se specificato, Azure ML non installerà pacchetti correlati al framework.

pip_requirements_file
Necessario
str

Percorso relativo del file di testo dei requisiti pip. Questo parametro può essere specificato in combinazione con il pip_packages parametro .

environment_variables
Necessario

Dizionario dei nomi e dei valori delle variabili di ambiente. Queste variabili di ambiente vengono impostate nel processo in cui viene eseguito lo script utente.

environment_definition
Necessario

Definizione dell'ambiente per l'esperimento. Include PythonSection, DockerSection e variabili di ambiente. Qualsiasi opzione di ambiente non esposta direttamente tramite altri parametri alla costruzione di Estimator può essere impostata usando questo parametro. Se questo parametro è specificato, avrà la precedenza su altri parametri correlati all'ambiente, ad esempio use_gpu, custom_docker_image, conda_packageso pip_packages. Gli errori verranno segnalati in combinazioni non valide.

inputs
Necessario

Elenco di DataReference oggetti da DatasetConsumptionConfig usare come input.

source_directory_data_store
Necessario

Archivio dati di backup per la condivisione di progetto.

shm_size
Necessario
str

Dimensioni del blocco di memoria condiviso del contenitore Docker. Se non è impostato, viene usato il azureml.core.environment._DEFAULT_SHM_SIZE predefinito. Per altre informazioni, vedere Informazioni di riferimento sull'esecuzione di Docker.

resume_from
Necessario

Percorso dati contenente i file di checkpoint o modello da cui riprendere l'esperimento.

max_run_duration_seconds
Necessario
int

Tempo massimo consentito per l'esecuzione. Azure ML tenterà di annullare automaticamente l'esecuzione se richiede più tempo di questo valore.

source_directory
Necessario
str

Directory locale contenente i file di configurazione dell'esperimento e di codice necessari per un processo di training.

compute_target
Necessario

Destinazione di calcolo in cui si verificherà il training. Può essere un oggetto o la stringa "local".

vm_size
Necessario
str

Dimensioni della macchina virtuale della destinazione di calcolo che verrà creata per il training. Valori supportati: qualsiasi dimensione della macchina virtuale di Azure.

vm_priority
Necessario
str

Priorità della macchina virtuale della destinazione di calcolo che verrà creata per il training. Se non specificato, viene usato "dedicato".

Valori supportati: 'dedicato' e 'lowpriority'.

Questa operazione ha effetto solo quando il vm_size parametro viene specificato nell'input.

entry_script
Necessario
str

Percorso relativo del file usato per avviare il training.

script_params
Necessario

Dizionario degli argomenti della riga di comando da passare allo script di training specificato in entry_script.

node_count
Necessario
int

Numero di nodi nella destinazione di calcolo usata per il training. Se maggiore di 1, verrà eseguito un processo distribuito da MPI. Solo la AmlCompute destinazione è supportata per i processi distribuiti.

process_count_per_node
Necessario
int

numero di processi per nodo. Se maggiore di 1, verrà eseguito un processo distribuito da MPI. Solo la AmlCompute destinazione è supportata per i processi distribuiti.

distributed_backend
Necessario
str

Back-end di comunicazione per il training distribuito.

DEPRECATO. Usare il distributed_training parametro .

Valori supportati: 'mpi'. 'mpi' rappresenta MPI/Horovod.

Questo parametro è obbligatorio quando node_count o process_count_per_node> 1.

Quando node_count == 1 e process_count_per_node == 1, non verrà usato alcun back-end a meno che il back-end non sia impostato in modo esplicito. Solo la destinazione è supportata per il AmlCompute training distribuito.

distributed_training
Necessario
Mpi

Parametri per l'esecuzione di un processo di training distribuito.

Per l'esecuzione di un processo distribuito con back-end MPI, usare l'oggetto Mpi per specificare process_count_per_node.

use_gpu
Necessario

Specifica se l'ambiente da eseguire l'esperimento deve supportare GPU. Se true, nell'ambiente verrà usata un'immagine Docker predefinita basata su GPU. Se false, verrà usata un'immagine basata sulla CPU. Le immagini Docker predefinite (CPU o GPU) verranno usate solo se il custom_docker_image parametro non è impostato. Questa impostazione viene usata solo nelle destinazioni di calcolo abilitate per Docker.

use_docker
Necessario

Specifica se l'ambiente da eseguire l'esperimento deve essere basato su Docker.

custom_docker_base_image
Necessario
str

Nome dell'immagine Docker da cui verrà compilata l'immagine da usare per il training.

DEPRECATO. Usare il custom_docker_image parametro .

In caso contrario, un'immagine basata sulla CPU predefinita verrà usata come immagine di base.

custom_docker_image
Necessario
str

Nome dell'immagine Docker da cui verrà compilata l'immagine da usare per il training. In caso contrario, un'immagine basata sulla CPU predefinita verrà usata come immagine di base. Specificare solo le immagini disponibili nei repository docker pubblici (Docker Hub). Per usare un'immagine da un repository Docker privato, usare invece il parametro environment_definition del costruttore.

image_registry_details
Necessario

Dettagli del Registro immagini Docker.

user_managed
Necessario

Specifica se Azure ML riutilizza un ambiente Python esistente. Se false, viene creato un ambiente Python in base alla specifica delle dipendenze conda.

conda_packages
Necessario

Elenco di stringhe che rappresentano pacchetti conda da aggiungere all'ambiente Python per l'esperimento.

pip_packages
Necessario

Elenco di stringhe che rappresentano i pacchetti pip da aggiungere all'ambiente Python per l'esperimento.

conda_dependencies_file_path
Necessario

Percorso relativo del file yaml delle dipendenze conda. Se specificato, Azure ML non installerà pacchetti correlati al framework.

DEPRECATO. Usare il conda_dependencies_file paramenter.

Specificare conda_dependencies_file_path o conda_dependencies_file. Se vengono specificati entrambi, conda_dependencies_file viene usato.

pip_requirements_file_path
Necessario

Percorso relativo del file di testo dei requisiti pip.

DEPRECATO. Usare il pip_requirements_file parametro .

Questa opzione può essere fornita in combinazione con il pip_packages parametro . Specificare pip_requirements_file_path o pip_requirements_file. Se vengono specificati entrambi, pip_requirements_file viene usato.

pip_requirements_file
Necessario
str

Percorso relativo del file di testo dei requisiti pip. Questa opzione può essere fornita in combinazione con il pip_packages parametro .

environment_variables
Necessario

Dizionario dei nomi e dei valori delle variabili di ambiente. Queste variabili di ambiente vengono impostate nel processo in cui viene eseguito lo script utente.

environment_definition
Necessario

Definizione dell'ambiente per l'esperimento. Include PythonSection, DockerSection e variabili di ambiente. Qualsiasi opzione di ambiente non esposta direttamente tramite altri parametri alla costruzione di Estimator può essere impostata usando questo parametro. Se questo parametro è specificato, avrà la precedenza su altri parametri correlati all'ambiente, ad esempio use_gpu, custom_docker_image, conda_packageso pip_packages. Gli errori verranno segnalati in combinazioni non valide.

inputs
Necessario

Elenco di DataReference oggetti da DatasetConsumptionConfig usare come input.

source_directory_data_store
Necessario

Archivio dati di backup per la condivisione di progetto.

shm_size
Necessario

Dimensioni del blocco di memoria condiviso del contenitore Docker. Se non è impostato, l'impostazione predefinita

_disable_validation
Necessario

Disabilitare la convalida dello script prima di eseguire l'invio. Il valore predefinito è True.

_show_lint_warnings
Necessario

Mostra avvisi di linting dello script. Il valore predefinito è False.

_show_package_warnings
Necessario

Mostra avvisi di convalida del pacchetto. Il valore predefinito è False.