Estimator Klasa
Reprezentuje ogólny narzędzie do szacowania w celu trenowania danych przy użyciu dowolnej dostarczonej platformy.
PRZESTARZAŁE. ScriptRunConfig Użyj obiektu z własnym zdefiniowanym środowiskiem lub nadzorowanym środowiskiem usługi Azure ML. Aby zapoznać się z wprowadzeniem do konfigurowania przebiegów eksperymentów za pomocą polecenia ScriptRunConfig, zobacz Konfigurowanie i przesyłanie przebiegów trenowania.
Ta klasa jest przeznaczona do użytku z platformami uczenia maszynowego, które nie mają jeszcze wstępnie skonfigurowanego narzędzia do szacowania usługi Azure Machine Learning. Istnieją wstępnie skonfigurowane narzędzia do szacowania dla Chainer, PyTorch, TensorFlowi SKLearn. Aby utworzyć narzędzie do szacowania, które nie jest wstępnie skonfigurowane, zobacz Trenowanie modeli za pomocą usługi Azure Machine Learning przy użyciu narzędzia do szacowania.
Klasa narzędzia do szacowania opakowuje informacje o konfiguracji, aby uprościć zadania określania sposobu wykonywania skryptu. Obsługuje on wykonywanie z jednym węzłem, a także wykonywanie wielu węzłów. Uruchomienie narzędzia do szacowania powoduje utworzenie modelu w katalogu wyjściowym określonym w skry skryptie trenowania.
Zainicjuj narzędzie do szacowania.
azureml.core.environment._DEFAULT_SHM_SIZE jest używana. Aby uzyskać więcej informacji, zobacz Dokumentacja uruchamiania platformy Docker. :type shm_size: str :p aram resume_from: ścieżka danych zawierająca pliki punktu kontrolnego lub modelu, z których można wznowić eksperyment. :type resume_from: azureml.data.datapath.DataPath :p aram max_run_duration_seconds: maksymalny dozwolony czas uruchomienia. Usługa Azure ML podejmie próbę automatycznego
anuluj przebieg, jeśli trwa dłużej niż ta wartość.
- Dziedziczenie
-
azureml.train.estimator._mml_base_estimator.MMLBaseEstimatorEstimator
Konstruktor
Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)
Parametry
- source_directory
- str
Katalog lokalny zawierający pliki konfiguracji eksperymentu i kodu potrzebne do zadania szkoleniowego.
- compute_target
- AbstractComputeTarget lub str
Docelowy obiekt obliczeniowy, w którym nastąpi trenowanie. Może to być obiekt lub ciąg "local".
- vm_size
- str
Rozmiar maszyny wirtualnej docelowego obliczeniowego, który zostanie utworzony na potrzeby trenowania. Obsługiwane wartości: dowolny rozmiar maszyny wirtualnej platformy Azure.
- vm_priority
- str
Priorytet maszyny wirtualnej docelowego obliczeniowego, który zostanie utworzony na potrzeby trenowania. Jeśli nie zostanie określona, zostanie użyta wartość "dedykowana".
Obsługiwane wartości: "dedykowane" i "lowpriority".
Ma to zastosowanie tylko wtedy, gdy vm_size
parametr jest określony w danych wejściowych.
- script_params
- dict
Słownik argumentów wiersza polecenia, który ma być przekazywany do skryptu szkoleniowego określonego w pliku entry_script
.
- node_count
- int
Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli jest większe niż 1, zadanie rozproszone mpI zostanie uruchomione.
- process_count_per_node
- int
Liczba procesów (lub "procesów roboczych") do uruchomienia w każdym węźle. Jeśli jest większe niż 1, zadanie rozproszone mpI zostanie uruchomione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych.
- distributed_backend
- str
Zaplecze komunikacji na potrzeby trenowania rozproszonego.
PRZESTARZAŁE. Użyj parametru distributed_training
.
Obsługiwane wartości: "mpi". Element "mpi" reprezentuje mpI/Horovod.
Ten parametr jest wymagany, gdy node_count
lub process_count_per_node
> 1.
Gdy node_count
== 1 i process_count_per_node
== 1, nie będzie używane zaplecze, chyba że zaplecze jest jawnie ustawione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku trenowania rozproszonego.
- distributed_training
- Mpi
Parametry uruchamiania rozproszonego zadania trenowania.
Aby uruchomić zadanie rozproszone z zapleczem MPI, użyj Mpi obiektu , aby określić process_count_per_node
.
- use_gpu
- bool
Wskazuje, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU.
Jeśli to prawda, domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość false, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub PROCESOR GPU) będą używane tylko wtedy, gdy custom_docker_image
parametr nie jest ustawiony. To ustawienie jest używane tylko w obiektach docelowych obliczeniowych z obsługą platformy Docker.
- use_docker
- bool
Określa, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker.
- custom_docker_base_image
- str
Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie utworzony.
PRZESTARZAŁE. Użyj parametru custom_docker_image
.
Jeśli nie zostanie ustawiony, zostanie użyty domyślny obraz oparty na procesorze CPU jako obraz podstawowy.
- custom_docker_image
- str
Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie utworzony. Jeśli nie zostanie ustawiony, zostanie użyty domyślny obraz oparty na procesorze CPU jako obraz podstawowy. Określ tylko obrazy dostępne w publicznych repozytoriach platformy Docker (Docker Hub). Aby użyć obrazu z prywatnego repozytorium platformy Docker, użyj parametru konstruktora environment_definition
.
- user_managed
- bool
Określa, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python. Jeśli wartość false, środowisko języka Python jest tworzone na podstawie specyfikacji zależności conda.
- conda_packages
- list
Lista ciągów reprezentujących pakiety conda do dodania do środowiska języka Python na potrzeby eksperymentu.
- pip_packages
- list
Lista ciągów reprezentujących pakiety pip do dodania do środowiska języka Python na potrzeby eksperymentu.
- conda_dependencies_file_path
- str
Ścieżka względna do pliku yaml zależności conda. Jeśli zostanie określony, usługa Azure ML nie zainstaluje żadnych pakietów powiązanych ze strukturą.
PRZESTARZAŁE. Użyj paramentatora conda_dependencies_file
.
Określ wartość conda_dependencies_file_path
lub conda_dependencies_file
. Jeśli zostaną określone oba, conda_dependencies_file
zostanie użyta.
- pip_requirements_file_path
- str
Ścieżka względna do pliku tekstowego wymagań pip.
PRZESTARZAŁE. Użyj parametru pip_requirements_file
.
Ten parametr można określić w połączeniu z parametrem pip_packages
. Określ wartość pip_requirements_file_path
lub pip_requirements_file
. Jeśli zostaną określone oba, pip_requirements_file
zostanie użyta.
- conda_dependencies_file
- str
Ścieżka względna do pliku yaml zależności conda. Jeśli zostanie określony, usługa Azure ML nie zainstaluje żadnych pakietów powiązanych ze strukturą.
- pip_requirements_file
- str
Ścieżka względna do pliku tekstowego wymagań pip.
Ten parametr można określić w połączeniu z parametrem pip_packages
.
- environment_variables
- dict
Słownik nazw i wartości zmiennych środowiskowych. Te zmienne środowiskowe są ustawiane w procesie, w którym jest wykonywany skrypt użytkownika.
- environment_definition
- Environment
Definicja środowiska eksperymentu. Obejmuje ona zmienne środowiskowe PythonSection, DockerSection i Environment. Za pomocą tego parametru można ustawić opcję środowiska, która nie jest bezpośrednio widoczna za pośrednictwem innych parametrów konstrukcji narzędzia do szacowania. Jeśli ten parametr zostanie określony, pierwszeństwo będzie mieć inne parametry związane ze środowiskiem, takie jak use_gpu
, custom_docker_image
, conda_packages
lub pip_packages
.
Błędy będą zgłaszane w przypadku nieprawidłowych kombinacji.
- inputs
- list
Lista obiektów lubDatasetConsumptionConfig, które DataReference mają być używane jako dane wejściowe.
- shm_size
- str
Rozmiar bloku pamięci udostępnionej kontenera platformy Docker. Jeśli nie zostanie ustawiona, zostanie użyta domyślna azureml.core.environment._DEFAULT_SHM_SIZE. Aby uzyskać więcej informacji, zobacz Dokumentacja uruchamiania platformy Docker.
- resume_from
- DataPath
Ścieżka danych zawierająca pliki punktu kontrolnego lub modelu, z których ma być wznowione eksperyment.
- max_run_duration_seconds
- int
Maksymalny dozwolony czas dla przebiegu. Usługa Azure ML podejmie próbę automatycznego anulowania przebiegu, jeśli trwa dłużej niż ta wartość.
- source_directory
- str
Katalog lokalny zawierający konfigurację eksperymentu i pliki kodu potrzebne do zadania trenowania.
- compute_target
- AbstractComputeTarget lub str
Docelowy obiekt obliczeniowy, w którym nastąpi trenowanie. Może to być obiekt lub ciąg "local".
- vm_size
- str
Rozmiar maszyny wirtualnej docelowego obiektu obliczeniowego, który zostanie utworzony na potrzeby trenowania. Obsługiwane wartości: dowolny rozmiar maszyny wirtualnej platformy Azure.
- vm_priority
- str
Priorytet maszyny wirtualnej docelowego obiektu obliczeniowego, który zostanie utworzony na potrzeby trenowania. Jeśli nie zostanie określony, zostanie użyty ciąg "dedicated".
Obsługiwane wartości: "dedicated" i "lowpriority".
Ma to zastosowanie tylko wtedy, gdy vm_size
parametr jest określony w danych wejściowych.
- script_params
- dict
Słownik argumentów wiersza polecenia do przekazania do skryptu trenowania określonego w .entry_script
- node_count
- int
Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli wartość jest większa niż 1, zostanie uruchomione zadanie rozproszone mpI. Tylko element docelowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych.
- process_count_per_node
- int
Liczba procesów na węzeł. Jeśli wartość jest większa niż 1, zostanie uruchomione zadanie rozproszone mpI. Tylko element docelowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych.
- distributed_backend
- str
Zaplecze komunikacji na potrzeby trenowania rozproszonego.
PRZESTARZAŁE. Użyj parametru distributed_training
.
Obsługiwane wartości: "mpi". Element "mpi" reprezentuje interfejs MPI/Horovod.
Ten parametr jest wymagany, gdy node_count
wartość lub process_count_per_node
> 1.
Gdy node_count
== 1 i process_count_per_node
== 1, nie będzie używane zaplecze, chyba że zaplecze jest jawnie ustawione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku trenowania rozproszonego.
- distributed_training
- Mpi
Parametry uruchamiania rozproszonego zadania trenowania.
W przypadku uruchamiania zadania rozproszonego z zapleczem MPI użyj Mpi obiektu w celu określenia elementu process_count_per_node
.
- use_gpu
- bool
Określa, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU.
W przypadku wartości true domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość false, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub procesor GPU) będą używane tylko wtedy, gdy custom_docker_image
parametr nie zostanie ustawiony. To ustawienie jest używane tylko w docelowych obiektach obliczeniowych z obsługą platformy Docker.
- use_docker
- bool
Określa, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker.
- custom_docker_base_image
- str
Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie skompilowany.
PRZESTARZAŁE. Użyj parametru custom_docker_image
.
Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze CPU będzie używany jako obraz podstawowy.
- custom_docker_image
- str
Nazwa obrazu platformy Docker, z którego obraz do użycia do trenowania zostanie skompilowany. Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze CPU będzie używany jako obraz podstawowy. Określ tylko obrazy dostępne w publicznych repozytoriach platformy Docker (Docker Hub). Aby użyć obrazu z prywatnego repozytorium platformy Docker, zamiast tego użyj parametru konstruktora environment_definition
.
- user_managed
- bool
Określa, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python. Jeśli wartość false, środowisko języka Python jest tworzone na podstawie specyfikacji zależności conda.
- conda_packages
- list
Lista ciągów reprezentujących pakiety Conda do dodania do środowiska języka Python na potrzeby eksperymentu.
- pip_packages
- list
Lista ciągów reprezentujących pakiety pip do dodania do środowiska języka Python na potrzeby eksperymentu.
- conda_dependencies_file_path
Ścieżka względna do pliku yaml zależności conda. Jeśli zostanie określony, usługa Azure ML nie zainstaluje żadnych pakietów powiązanych ze strukturą.
PRZESTARZAŁE. conda_dependencies_file
Użyj paramentera.
Określ wartość conda_dependencies_file_path
lub conda_dependencies_file
. Jeśli określono oba elementy, conda_dependencies_file
jest używany.
- pip_requirements_file_path
Ścieżka względna do pliku tekstowego wymagań pip.
PRZESTARZAŁE. Użyj parametru pip_requirements_file
.
Można to podać w połączeniu z parametrem pip_packages
. Określ wartość pip_requirements_file_path
lub pip_requirements_file
. Jeśli określono oba elementy, pip_requirements_file
jest używany.
- pip_requirements_file
- str
Ścieżka względna do pliku tekstowego wymagań pip.
Można to podać w połączeniu z parametrem pip_packages
.
- environment_variables
- dict
Słownik nazw i wartości zmiennych środowiskowych. Te zmienne środowiskowe są ustawiane w procesie wykonywania skryptu użytkownika.
- environment_definition
- Environment
Definicja środowiska dla eksperymentu. Obejmuje ona zmienne środowiskowe PythonSection, DockerSection i . Za pomocą tego parametru można ustawić opcję środowiska, która nie jest bezpośrednio widoczna za pośrednictwem innych parametrów konstrukcji narzędzia do szacowania. Jeśli ten parametr zostanie określony, pierwszeństwo będzie mieć inne parametry związane ze środowiskiem, takie jak use_gpu
, custom_docker_image
, conda_packages
lub pip_packages
.
Błędy będą zgłaszane w przypadku nieprawidłowych kombinacji.
- inputs
- list
Lista obiektów lubDatasetConsumptionConfig, które DataReference mają być używane jako dane wejściowe.
- shm_size
Rozmiar bloku pamięci udostępnionej kontenera platformy Docker. Jeśli nie zostanie ustawiona, wartość domyślna
- _disable_validation
- bool
Wyłącz walidację skryptu przed przesłaniem. Wartość domyślna to True.
- _show_lint_warnings
- bool
Pokaż ostrzeżenia dotyczące lintingu skryptu. Wartość domyślna to False.
- _show_package_warnings
- bool
Pokaż ostrzeżenia dotyczące walidacji pakietu. Wartość domyślna to False.
Opinia
https://aka.ms/ContentUserFeedback.
Dostępne już wkrótce: W 2024 r. będziemy stopniowo wycofywać zgłoszenia z serwisu GitHub jako mechanizm przesyłania opinii na temat zawartości i zastępować go nowym systemem opinii. Aby uzyskać więcej informacji, sprawdź:Prześlij i wyświetl opinię dla