MMLBaseEstimatorRunConfig 类
所有估算器运行配置的抽象基类。
已弃用。 使用 RunConfiguration 类。
- 继承
-
MMLBaseEstimatorRunConfig
构造函数
MMLBaseEstimatorRunConfig(compute_target, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=None, process_count_per_node=None, distributed_backend=None, use_gpu=None, use_docker=None, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None)
参数
- vm_priority
- str
将为训练创建的计算目标的 VM 优先级。 如果未指定,则使用“dedicated”。
支持的值:“dedicated”和“lowpriority”。
这仅在输入中指定了 vm_size 参数时才会生效。
- distributed_backend
- str
分布式训练的通信后端。
支持的值:“mpi”和“ps”。
'mpi':MPI/Horovod 'ps':参数服务器
在 node_count、process_count_per_node、worker_count 或 parameter_server_count> 1 时,此参数是必需的。
当 node_count == 1 且 process_count_per_node == 1 时,除非显式设置后端,否则不会使用后端。 分布式训练仅支持 azureml.core.compute.AmlCompute 目标。
- use_gpu
- bool
指定要运行试验的环境是否应支持 GPU。
如果为 true,则将在环境中使用基于 GPU 的默认 Docker 映像。 如果为 false,则使用基于 CPU 的映像。 仅当未设置 custom_docker_image 参数时,才会使用默认 docker 映像(CPU 或 GPU)。 此设置仅用于启用了 Docker 的计算目标。
- custom_docker_base_image
- str
要从中生成用于训练的映像的 Docker 映像的名称。
已弃用。 使用 custom_docker_image 参数。
如果未设置,则将使用基于 CPU 的默认映像作为基础映像。
- user_managed
- bool
指定 Azure ML 是否重复使用现有的 Python 环境。 如果为 false,将基于 conda 依赖项规范创建 Python 环境。
- environment_definition
- Environment
试验的环境定义。 它包括 PythonSection、DockerSection 和环境变量。 使用此参数可以设置不通过其他参数直接公开到估算器构造的任何环境选项。 如果指定了此参数,它将优先于其他与环境相关的参数,如 use_gpu、custom_docker_image、conda_packages 或 pip_packages。对于这些无效组合,将报告错误。
- shm_size
- str
Docker 容器的共享内存块的大小。 有关详细信息,请参阅 Docker 运行参考。 如果未设置,则使用默认的 azureml.core.environment._DEFAULT_SHM_SIZE。
反馈
提交和查看相关反馈