Chainer Klasse
Stellt einen Schätzer für das Training in Chainer-Experimenten dar.
VERALTET. Verwenden Sie das ScriptRunConfig-Objekt mit Ihrer eigenen definierten Umgebung oder eine der von Azure ML Chainer zusammengestellten Umgebungen. Eine Einführung in das Konfigurieren von Experimentausführungen mit ScriptRunConfig finden Sie unter Konfigurieren und Übermitteln von Trainingsausführungen.
Unterstützte Versionen: 5.1.0, 7.0.0
Initialisieren Sie einen Chainer-Schätzer.
- Vererbung
-
azureml.train.estimator._framework_base_estimator._FrameworkBaseEstimatorChainer
Konstruktor
Chainer(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, framework_version=None, _enable_optimized_mode=False, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)
Parameter
- source_directory
- str
Ein lokales Verzeichnis mit Konfigurationsdateien für Experimente.
- compute_target
- AbstractComputeTarget oder str
Das Computeziel für das Training. Dies kann entweder ein Objekt oder die Zeichenfolge „local“ sein.
- vm_size
- str
Die VM-Größe des Computeziels, das für das Training erstellt wird. Unterstützte Werte: beliebige Azure-VM-Größen.
- vm_priority
- str
Die VM-Priorität des Computeziels, das für das Training erstellt wird. Wenn keine Angabe erfolgt, wird „dedicated“ verwendet.
Unterstützte Werte: „dedicated“ und „lowpriority“.
Wird nur angewandt, wenn vm_size param
in der Eingabe angegeben wird.
- script_params
- dict
Ein Wörterbuch mit Befehlszeilenargumenten, die an das in entry_script
angegebene Trainingsskript übergeben werden.
- node_count
- int
Die Anzahl der Knoten am Computeziel, die für das Training verwendet werden. Wenn der Wert größer als 1 ist, wird ein verteilter MPI-Auftrag ausgeführt. Für verteilte Aufträge wird nur das Ziel AmlCompute unterstützt.
- process_count_per_node
- int
Die Anzahl von Prozessen pro Knoten. Wenn der Wert größer als 1 ist, wird ein verteilter MPI-Auftrag ausgeführt. Für verteilte Aufträge wird nur das Ziel AmlCompute unterstützt.
- distributed_backend
- str
Das Kommunikations-Back-End für das verteilte Training
VERALTET. Verwenden Sie den Parameter distributed_training
.
Unterstützte Werte: „mpi“.
„mpi“: MPI/Horovod
Dieser Parameter ist erforderlich, wenn node_count
oder process_count_per_node
> 1 ist.
Wenn node_count
== 1 und process_count_per_node
== 1 ist, wird nur dann ein Back-End verwendet, wenn es explizit festgelegt wird. Für das verteilte Training wird nur das Ziel AmlCompute unterstützt.
- distributed_training
- Mpi
Parameter zum Ausführen eines verteilten Trainingsauftrags.
Verwenden Sie zum Ausführen eines verteilten Auftrags mit MPI-Back-End das Mpi-Objekt, um process_count_per_node
anzugeben.
- use_gpu
- bool
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, GPUs unterstützen soll.
TRUE gibt an, dass ein GPU-basiertes Docker-Standardimage in der Umgebung verwendet wird. Bei FALSE wird ein CPU-basiertes Image verwendet. Docker-Standardimages (CPU oder GPU) werden nur verwendet, wenn der custom_docker_image
-Parameter nicht festgelegt ist. Diese Einstellung wird nur bei Docker-fähigen Computezielen verwendet.
- use_docker
- bool
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, Docker-basiert sein soll.
- custom_docker_base_image
- str
Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird.
VERALTET. Verwenden Sie den Parameter custom_docker_image
.
Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet.
- custom_docker_image
- str
Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird. Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet.
- user_managed
- bool
Gibt an, ob Azure Machine Learning eine vorhandene Python-Umgebung wiederverwendet. Bei FALSE erstellt Azure Machine Learning eine Python-Umgebung basierend auf der Spezifikation der Conda-Abhängigkeiten.
- conda_packages
- list
Eine Liste von Zeichenfolgen, die Conda-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen
- pip_packages
- list
Eine Liste von Zeichenfolgen, die pip-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen
- conda_dependencies_file_path
- str
Der relative Pfad zur YAML-Datei mit den Conda-Abhängigkeiten.
Falls angegeben, installiert Azure Machine Learning keine frameworkbezogenen Pakete.
VERALTET. Verwenden Sie den Parameter conda_dependencies_file
.
- pip_requirements_file_path
- str
Der relative Pfad zur Textdatei mit den pip-Anforderungen.
Dieser kann in Kombination mit dem Parameter pip_packages
bereitgestellt werden.
VERALTET. Verwenden Sie den Parameter pip_requirements_file
.
- conda_dependencies_file
- str
Der relative Pfad zur YAML-Datei mit den Conda-Abhängigkeiten. Falls angegeben, installiert Azure Machine Learning keine frameworkbezogenen Pakete.
- pip_requirements_file
- str
Der relative Pfad zur Textdatei mit den pip-Anforderungen.
Dieser kann in Kombination mit dem Parameter pip_packages
bereitgestellt werden.
- environment_variables
- dict
Ein Wörterbuch mit Umgebungsvariablennamen und Werten. Diese Umgebungsvariablen werden für den Prozess festgelegt, in dem das Benutzerskript ausgeführt wird.
- environment_definition
- Environment
Die Umgebungsdefinition für das Experiment Sie enthält PythonSection, DockerSection und Umgebungsvariablen. Jede Umgebungsoption, die nicht direkt über andere Parameter für die Erstellung des Schätzers verfügbar gemacht wird, kann mit diesem Parameter festgelegt werden. Wenn dieser Parameter angegeben wird, hat er Vorrang vor anderen umgebungsbezogenen Parametern wie use_gpu
, custom_docker_image
, conda_packages
oder pip_packages
.
Bei ungültigen Kombinationen werden Fehler gemeldet.
- inputs
- list
Eine Liste von DataReference- oder DatasetConsumptionConfig-Objekten, die als Eingabe verwendet werden sollen
- source_directory_data_store
- Datastore
Der Sicherungsdatenspeicher für die Projektfreigabe.
- shm_size
- str
Die Größe des freigegebenen Speicherblocks des Docker-Containers. Wenn diese Einstellung nicht festgelegt ist, wird die Standardgröße „azureml.core.environment._DEFAULT_SHM_SIZE“ verwendet. Weitere Informationen finden Sie in der Referenz zur Docker-Ausführung.
- resume_from
- DataPath
Der Datenpfad, der die Prüfpunkt- oder Modelldateien enthält, aus denen das Experiment fortgesetzt werden soll
- max_run_duration_seconds
- int
Die maximal zulässige Zeit für die Ausführung Azure Machine Learning versucht, die Ausführung automatisch abzubrechen, wenn sie länger dauert als dieser Wert angibt.
- framework_version
- str
Die Chainer-Version, die zum Ausführen des Trainingscodes verwendet werden soll.
Chainer.get_supported_versions()
gibt eine Liste der vom aktuellen SDK unterstützten Versionen zurück.
- source_directory
- str
Ein lokales Verzeichnis mit Konfigurationsdateien für Experimente.
- compute_target
- AbstractComputeTarget oder str
Das Computeziel für das Training. Dies kann entweder ein Objekt oder die Zeichenfolge „local“ sein.
- vm_size
- str
Die VM-Größe des Computeziels, das für das Training erstellt wird. Unterstützte Werte: beliebige Azure-VM-Größen.
- vm_priority
- str
Die VM-Priorität des Computeziels, das für das Training erstellt wird. Wenn nicht angegeben, wird standardmäßig "dedicated" verwendet.
Unterstützte Werte: „dedicated“ und „lowpriority“.
Dies wird nur wirksam, wenn der vm_size Param in der Eingabe angegeben ist.
- script_params
- dict
Ein Wörterbuch mit Befehlszeilenargumenten, die an das in entry_script
angegebene Trainingsskript übergeben werden.
- node_count
- int
Die Anzahl der Knoten am Computeziel, die für das Training verwendet werden. Wenn der Wert größer als 1 ist, wird ein verteilter MPI-Auftrag ausgeführt. Für verteilte Aufträge wird nur das Ziel AmlCompute unterstützt.
- process_count_per_node
- int
Die Anzahl von Prozessen pro Knoten. Wenn der Wert größer als 1 ist, wird ein verteilter MPI-Auftrag ausgeführt. Für verteilte Aufträge wird nur AmlCompute das Zielcomputeziel unterstützt.
- distributed_backend
- str
Das Kommunikations-Back-End für das verteilte Training
VERALTET. Verwenden Sie den Parameter distributed_training
.
Unterstützte Werte: „mpi“.
„mpi“: MPI/Horovod
Dieser Parameter ist erforderlich, wenn node_count
oder process_count_per_node
> 1 ist.
Wenn node_count
== 1 und process_count_per_node
== 1 ist, wird nur dann ein Back-End verwendet, wenn es explizit festgelegt wird. Für das verteilte Training wird nur das Ziel AmlCompute unterstützt.
- distributed_training
- Mpi
Parameter zum Ausführen eines verteilten Trainingsauftrags.
Verwenden Sie zum Ausführen eines verteilten Auftrags mit MPI-Back-End das Mpi-Objekt, um process_count_per_node
anzugeben.
- use_gpu
- bool
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, GPUs unterstützen soll.
„True“ gibt an, dass ein GPU-basiertes Docker-Standardimage in der Umgebung verwendet wird. Bei „False“ wird ein CPU-basiertes Image verwendet. Docker-Standardimages (CPU oder GPU) werden nur verwendet, wenn der Parameter custom_docker_image
nicht festgelegt ist. Diese Einstellung wird nur bei Docker-fähigen Computezielen verwendet.
- use_docker
- bool
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, Docker-basiert sein soll.
- custom_docker_base_image
- str
Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird.
VERALTET. Verwenden Sie den Parameter custom_docker_image
.
Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet.
- custom_docker_image
- str
Der Name des Docker-Images, mit dem das für das Training zu verwendende Image erstellt wird. Wenn diese Einstellung nicht festgelegt ist, wird als Basisimage ein CPU-basiertes Standardimage verwendet.
- user_managed
- bool
Gibt an, ob Azure Machine Learning eine vorhandene Python-Umgebung wiederverwendet. Bei FALSE erstellt Azure Machine Learning eine Python-Umgebung basierend auf der Spezifikation der Conda-Abhängigkeiten.
- conda_packages
- list
Eine Liste von Zeichenfolgen, die Conda-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen
- pip_packages
- list
Eine Liste von Zeichenfolgen, die pip-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen
- conda_dependencies_file_path
- str
Der relative Pfad zur YAML-Datei mit den Conda-Abhängigkeiten. Falls angegeben, installiert Azure Machine Learning keine frameworkbezogenen Pakete.
VERALTET. Verwenden Sie den Parameter conda_dependencies_file
.
- pip_requirements_file_path
- str
Der relative Pfad zur Textdatei mit den pip-Anforderungen.
Dieser kann in Kombination mit dem Parameter pip_packages
bereitgestellt werden.
VERALTET. Verwenden Sie den Parameter pip_requirements_file
.
- conda_dependencies_file
- str
Der relative Pfad zur YAML-Datei mit den Conda-Abhängigkeiten. Falls angegeben, installiert Azure Machine Learning keine frameworkbezogenen Pakete.
- pip_requirements_file
- str
Der relative Pfad zur Textdatei mit den pip-Anforderungen.
Dieser kann in Kombination mit dem Parameter pip_packages
bereitgestellt werden.
- environment_variables
- dict
Ein Wörterbuch mit Umgebungsvariablennamen und Werten. Diese Umgebungsvariablen werden für den Prozess festgelegt, in dem das Benutzerskript ausgeführt wird.
- environment_definition
- Environment
Die Umgebungsdefinition für das Experiment Sie enthält PythonSection, DockerSection und Umgebungsvariablen. Jede Umgebungsoption, die nicht direkt über andere Parameter für die Erstellung des Schätzers verfügbar gemacht wird, kann mit diesem Parameter festgelegt werden. Wenn dieser Parameter angegeben wird, hat er Vorrang vor anderen umgebungsbezogenen Parametern wie use_gpu
, custom_docker_image
, conda_packages
oder pip_packages
.
Bei ungültigen Kombinationen werden Fehler gemeldet.
- inputs
- list
Eine Liste der azureml.data.data_reference. DataReference-Objekte, die als Eingabe verwendet werden sollen.
- source_directory_data_store
- Datastore
Der Sicherungsdatenspeicher für die Projektfreigabe.
- shm_size
- str
Die Größe des freigegebenen Speicherblocks des Docker-Containers. Wenn diese Einstellung nicht festgelegt ist, wird die Standardgröße „azureml.core.environment._DEFAULT_SHM_SIZE“ verwendet. Weitere Informationen finden Sie in der Referenz zur Docker-Ausführung.
- resume_from
- DataPath
Der Datenpfad, der die Prüfpunkt- oder Modelldateien enthält, aus denen das Experiment fortgesetzt werden soll
- max_run_duration_seconds
- int
Die maximal zulässige Zeit für die Ausführung Azure Machine Learning versucht, die Ausführung automatisch abzubrechen, wenn sie länger dauert als dieser Wert angibt.
- framework_version
- str
Die Chainer-Version, die zum Ausführen des Trainingscodes verwendet werden soll.
Chainer.get_supported_versions()
gibt eine Liste der vom aktuellen SDK unterstützten Versionen zurück.
- _enable_optimized_mode
- bool
Aktivieren Sie den inkrementellen Umgebungsbuild mit vordefinierten Frameworkimages für eine schnellere Umgebungsvorbereitung. Ein vordefiniertes Frameworkimage basiert auf standardmäßigen CPU-/GPU-Basisimages von Azure ML mit vorinstallierten Frameworkabhängigkeiten.
- _disable_validation
- bool
Deaktivieren Sie die Skriptüberprüfung, bevor Sie die Übermittlung ausführen. Der Standardwert ist True.
- _show_lint_warnings
- bool
Skriptlintingwarnungen anzeigen. Die Standardeinstellung lautet „false“.
- _show_package_warnings
- bool
Paketvalidierungswarnungen anzeigen. Die Standardeinstellung lautet „false“.
Hinweise
Beim Übermitteln eines Trainingsauftrags führt Azure Machine Learning Ihr Skript in einer Conda-Umgebung innerhalb eines Docker-Containers aus. Für Chainer-Container werden die folgenden Abhängigkeiten installiert.
Abhängigkeiten | Chainer 5.1.0 | Chainer 7.0.0 | —————————- | —————– | ————— | Python | 3.6.2 | 3.6.2 | CUDA (nur GPU-Image) | 9.0 | 9.0 | cuDNN (nur GPU-Image) | 7.6.3 | 7.6.3 | NCCL (nur GPU-Image) | 2.4.8 | 2.4.8 | azureml-defaults | Latest | Latest | IntelMpi | 2018.3.222 | 2018.3.222 | horovod | 0.15.2 | 0.15.2 | miniconda | 4.5.11 | 4.5.11 | chainer | 5.1.0 | 7.0.0 | cupy-cuda90 (nur GPU-Image) | 5.2.0 | 7.0.0 | git | 2.7.4 | 2.7.4 |
Die Docker-Images erweitern Ubuntu 16.04.
Um zusätzliche Abhängigkeiten zu installieren, können Sie entweder den Parameter pip_packages
oder den Parameter conda_packages
verwenden. Sie können auch den Parameter pip_requirements_file
oder conda_dependencies_file
angeben.
Alternativ können Sie ein eigenes Image erstellen und den Parameter custom_docker_image
an den Schätzer-Konstruktor übergeben.
Weitere Informationen zu Docker-Containern, die beim Chainer-Training verwendet werden, finden Sie unter https://github.com/Azure/AzureML-Containers.
Attribute
DEFAULT_VERSION
DEFAULT_VERSION = '5.1.0'
FRAMEWORK_NAME
FRAMEWORK_NAME = 'Chainer'
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Issues stufenweise als Feedbackmechanismus für Inhalte abbauen und durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unterFeedback senden und anzeigen für