Estimator クラス
提供されたフレームワークを使用してデータをトレーニングするための汎用推定器を表します。
非推奨。 独自に定義した環境または Azure ML キュレーション環境でScriptRunConfigオブジェクトを使用します。 ScriptRunConfig で実験の実行を構成する方法の概要については、「トレーニングの実行を構成して送信する」を参照してください。
このクラスは、Azure Machine Learning の事前に構成された推定器がない機械学習フレームワークで使用するように設計されています。 事前に構成された推定器は、Chainer、PyTorch、TensorFlow、SKLearn 用が存在します。 事前に構成されていない推定器を作成するには、Azure Machine Learning で推定器を使用したモデルのトレーニングに関する記事をご覧ください。
Estimator クラスは、実行構成情報をラップして、スクリプトの実行方法を指定するタスクをシンプルにするのに役立ちます。 単一ノード実行とマルチノード実行がサポートされています。 推定器を実行すると、トレーニング スクリプトで指定された出力ディレクトリ内にモデルが生成されます。
推定器を初期化します。
azureml.core.environment._DEFAULT_SHM_SIZEが使用されます。 詳細については、Docker 実行リファレンスを参照してください。 :type shm_size: str :p aram resume_from: 実験を再開するチェックポイント またはモデル ファイルを含むデータ パス。 :type resume_from: azureml.data.datapath.DataPath :p aram max_run_duration_seconds: 実行に許容される最大時間。 Azure ML では、自動的に
この値よりも時間がかかる場合は、実行を取り消します。
- 継承
-
azureml.train.estimator._mml_base_estimator.MMLBaseEstimatorEstimator
コンストラクター
Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)
パラメーター
- compute_target
- AbstractComputeTarget または str
トレーニングが発生するコンピューティング先。 これは、オブジェクトまたは文字列 "local" のいずれかです。
- vm_priority
- str
トレーニング用に作成されるコンピューティング先の VM 優先度。 指定しない場合は、'dedicated' が使用されます。
サポートされる値: 'dedicated' と 'lowpriority'。
これは、vm_size
パラメーターが入力で指定されている場合にのみ有効になります。
- process_count_per_node
- int
各ノード上で実行するプロセス ("worker") の数。 1 より大きい場合は、MPI 分散ジョブが実行されます。 分散ジョブには、AmlCompute ターゲットのみがサポートされています。
- distributed_backend
- str
分散トレーニング用の通信バックエンド。
非推奨。 distributed_training
パラメーターを使用します。
サポートされる値: 'mpi'。 'mpi' は MPI/Horovod を表します。
このパラメーターは、node_count
または process_count_per_node
> 1 の場合に必要です。
node_count
== 1 かつ process_count_per_node
== 1 の場合、バックエンドが明示的に設定されていない限り、バックエンドは使用されません。 分散トレーニングでは、AmlCompute ターゲットのみがサポートされています。
- distributed_training
- Mpi
分散トレーニング ジョブを実行するためのパラメーター。
MPI バックエンドで分散ジョブを実行する場合は、Mpi オブジェクトを使用して process_count_per_node
を指定します。
- use_gpu
- bool
実験を実行する環境で GPU をサポートする必要があるかどうかを指定します。
true の場合は、GPU ベースの既定の Docker イメージが環境内で使用されます。 false の場合、CPU ベースのイメージが使用されます。 既定の Docker イメージ (CPU または GPU) は、custom_docker_image
パラメーターが設定されていない場合にのみ使用されます。 この設定は、Docker 対応のコンピューティング先でのみ使用されます。
- custom_docker_base_image
- str
Docker イメージの名前。トレーニングに使用するイメージは、この Docker イメージからビルドされます。
非推奨。 custom_docker_image
パラメーターを使用します。
設定しない場合は、既定の CPU ベースのイメージが基本イメージとして使用されます。
- custom_docker_image
- str
Docker イメージの名前。トレーニングに使用するイメージは、この Docker イメージからビルドされます。 設定されていない場合、既定の CPU ベースのイメージが基本イメージとして使用されます。 パブリックな Docker リポジトリ (Docker Hub) 内の使用可能なイメージのみを指定します。 プライベートな docker リポジトリにあるイメージを使用するには、コンストラクターの environment_definition
パラメーターを利用します。
- user_managed
- bool
Azure ML が既存の Python 環境を再利用するかどうかを指定します。 false の場合、conda の依存関係の仕様に基づいて、Python 環境が作成されます。
- conda_dependencies_file_path
- str
conda の依存関係 yaml ファイルへの相対パス。 指定した場合、Azure ML によって、フレームワーク関連のパッケージはインストールされません。
非推奨。 conda_dependencies_file
パラメーターを使用します。
conda_dependencies_file_path
または conda_dependencies_file
を指定します。 両方が指定されている場合は、conda_dependencies_file
が使用されます。
- pip_requirements_file_path
- str
pip 要件テキスト ファイルへの相対パス。
非推奨。 pip_requirements_file
パラメーターを使用します。
このパラメーターは、pip_packages
パラメーターと組み合わせて指定できます。 pip_requirements_file_path
または pip_requirements_file
を指定します。 両方が指定されている場合は、pip_requirements_file
が使用されます。
- conda_dependencies_file
- str
conda の依存関係 yaml ファイルへの相対パス。 指定した場合、Azure ML によって、フレームワーク関連のパッケージはインストールされません。
- environment_definition
- Environment
実験の環境定義。 PythonSection、DockerSection、および環境変数が含まれます。 他のパラメーターを介して推定器構造に直接公開されていない環境オプションは、このパラメーターを使用して設定できます。 このパラメーターを指定すると、use_gpu
、custom_docker_image
、conda_packages
、pip_packages
などの他の環境関連パラメーターよりも優先されます。
無効な組み合わせに対してエラーが報告されます。
- shm_size
- str
Docker コンテナーの共有メモリ ブロックのサイズ。 設定しなかった場合は、既定の azureml.core.environment._DEFAULT_SHM_SIZE が使用されます。 詳細については、Docker 実行リファレンスを参照してください。
- compute_target
- AbstractComputeTarget または str
トレーニングが発生するコンピューティング先。 これは、オブジェクトまたは文字列 "local" のいずれかです。
- vm_priority
- str
トレーニング用に作成されるコンピューティング先の VM 優先度。 指定しない場合は、'dedicated' が使用されます。
サポートされる値: 'dedicated' と 'lowpriority'。
これは、vm_size
パラメーターが入力で指定されている場合にのみ有効になります。
- node_count
- int
トレーニングに使用するコンピューティング先のノードの数。 1 より大きい場合は、MPI 分散ジョブが実行されます。 分散ジョブには、AmlCompute ターゲットのみがサポートされています。
- process_count_per_node
- int
ノードあたりのプロセスの数。 1 より大きい場合は、MPI 分散ジョブが実行されます。 分散ジョブには、AmlCompute ターゲットのみがサポートされています。
- distributed_backend
- str
分散トレーニング用の通信バックエンド。
非推奨。 distributed_training
パラメーターを使用します。
サポートされる値: 'mpi'。 'mpi' は MPI/Horovod を表します。
このパラメーターは、node_count
または process_count_per_node
> 1 の場合に必要です。
node_count
== 1 かつ process_count_per_node
== 1 の場合、バックエンドが明示的に設定されていない限り、バックエンドは使用されません。 分散トレーニングでは、AmlCompute ターゲットのみがサポートされています。
- distributed_training
- Mpi
分散トレーニング ジョブを実行するためのパラメーター。
MPI バックエンドで分散ジョブを実行する場合は、Mpi オブジェクトを使用して process_count_per_node
を指定します。
- use_gpu
- bool
実験を実行する環境で GPU をサポートする必要があるかどうかを指定します。
true の場合、GPU ベースの既定の Docker イメージが環境で使用されます。 false の場合、CPU ベースのイメージが使用されます。 既定の Docker イメージ (CPU または GPU) は、custom_docker_image
パラメーターが設定されていない場合にのみ使用されます。 この設定は、Docker 対応のコンピューティング先でのみ使用されます。
- custom_docker_base_image
- str
Docker イメージの名前。トレーニングに使用するイメージは、この Docker イメージからビルドされます。
非推奨。 custom_docker_image
パラメーターを使用します。
設定しない場合は、既定の CPU ベースのイメージが基本イメージとして使用されます。
- custom_docker_image
- str
Docker イメージの名前。トレーニングに使用するイメージは、この Docker イメージからビルドされます。 設定されていない場合、既定の CPU ベースのイメージが基本イメージとして使用されます。 パブリックな Docker リポジトリ (Docker Hub) 内の使用可能なイメージのみを指定します。 プライベートな docker リポジトリにあるイメージを使用するには、コンストラクターの environment_definition
パラメーターを利用します。
- user_managed
- bool
Azure ML が既存の Python 環境を再利用するかどうかを指定します。 false の場合、conda の依存関係の仕様に基づいて、Python 環境が作成されます。
- conda_dependencies_file_path
conda の依存関係 yaml ファイルへの相対パス。 指定した場合、Azure ML によって、フレームワーク関連のパッケージはインストールされません。
非推奨。 conda_dependencies_file
パラメーターを使用します。
conda_dependencies_file_path
または conda_dependencies_file
を指定します。 両方が指定されている場合は、conda_dependencies_file
が使用されます。
- pip_requirements_file_path
pip 要件テキスト ファイルへの相対パス。
非推奨。 pip_requirements_file
パラメーターを使用します。
これは、pip_packages
パラメーターと組み合わせて指定できます。 pip_requirements_file_path
または pip_requirements_file
を指定します。 両方が指定されている場合は、pip_requirements_file
が使用されます。
- environment_definition
- Environment
実験の環境定義。 PythonSection、DockerSection、および環境変数が含まれます。 他のパラメーターを介して推定器構造に直接公開されていない環境オプションは、このパラメーターを使用して設定できます。 このパラメーターを指定すると、use_gpu
、custom_docker_image
、conda_packages
、pip_packages
などの他の環境関連パラメーターよりも優先されます。
無効な組み合わせに対してエラーが報告されます。
- shm_size
Docker コンテナーの共有メモリ ブロックのサイズ。 設定されていない場合は、既定の
フィードバック
https://aka.ms/ContentUserFeedback」を参照してください。
以下は間もなく提供いたします。2024 年を通じて、コンテンツのフィードバック メカニズムとして GitHub の issue を段階的に廃止し、新しいフィードバック システムに置き換えます。 詳細については、「フィードバックの送信と表示