InferenceConfig クラス
- 継承
-
builtins.objectInferenceConfig
コンストラクター
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
パラメーター
- enable_gpu
- bool
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 既定値は False です。
- base_image
- str
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。
- cuda_version
- str
GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
enable_gpu
が設定されている場合、これは既定では "9.1" に設定されます。
- environment
- Environment
デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。
このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_script
、source_directory
、description
があります。
- enable_gpu
- bool
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 既定値は False です。
- cuda_version
- str
GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
enable_gpu
が設定されている場合、これは既定では "9.1" に設定されます。
- environment
- Environment
デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。
このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_script
、source_directory
、description
があります。
注釈
次のサンプルは、InferenceConfig オブジェクトを作成し、それを使用してモデルをデプロイする方法を示しています。
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
変数
- entry_script
- str
イメージに対して実行するコードを含むローカル ファイルのパス。
- runtime
- str
イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。
- conda_file
- str
イメージに使用する Conda 環境定義を含むローカル ファイルのパス。
- extra_docker_file_steps
- str
イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。
- source_directory
- str
イメージを作成するためのすべてのファイルを含むフォルダーのパス。
- enable_gpu
- bool
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。
- azureml.core.model.InferenceConfig.description
このイメージに付与する説明。
- base_image
- str
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。
- base_image_registry
- ContainerRegistry
基本イメージを含むイメージ レジストリ。
- cuda_version
- str
GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
enable_gpu
が設定されている場合、これは既定では "9.1" に設定されます。
- azureml.core.model.InferenceConfig.environment
デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。
このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_script
、source_directory
、description
があります。
メソッド
build_create_payload |
コンテナー イメージの作成ペイロードをビルドします。 |
build_profile_payload |
モデル パッケージのプロファイル ペイロードをビルドします。 |
validate_configuration |
指定された構成値が有効であることを確認します。 検証が失敗した場合、WebserviceException を発生させます。 |
validation_script_content |
ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。 検証が失敗した場合、UserErrorException を発生させます。 |
build_create_payload
コンテナー イメージの作成ペイロードをビルドします。
build_create_payload(workspace, name, model_ids)
パラメーター
戻り値
コンテナー イメージの作成ペイロード。
の戻り値の型 :
例外
build_profile_payload
モデル パッケージのプロファイル ペイロードをビルドします。
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
パラメーター
- container_resource_requirements
- ContainerResourceRequirements
モデルをデプロイする先の最大インスタンスのコンテナー リソース要件
戻り値
モデルのプロファイル ペイロード
の戻り値の型 :
例外
validate_configuration
validation_script_content
ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。
検証が失敗した場合、UserErrorException を発生させます。
validation_script_content()
例外
フィードバック
https://aka.ms/ContentUserFeedback」を参照してください。
以下は間もなく提供いたします。2024 年を通じて、コンテンツのフィードバック メカニズムとして GitHub の issue を段階的に廃止し、新しいフィードバック システムに置き換えます。 詳細については、「フィードバックの送信と表示