ParallelRunStep 类
创建 Azure 机器学习管道步骤异步并行处理大量数据。
有关使用 ParallelRunStep 的示例,请参阅笔记本 https://aka.ms/batch-inference-notebooks。
有关故障排除指南,请参阅 https://aka.ms/prstsg。 可在此处找到更多参考资料。
- 继承
-
azureml.pipeline.core._parallel_run_step_base._ParallelRunStepBaseParallelRunStep
构造函数
ParallelRunStep(name, parallel_run_config, inputs, output=None, side_inputs=None, arguments=None, allow_reuse=True)
参数
- inputs
- list[Union[<xref:azureml.data.dataset_consumption_config.DatasetConsumptionConfig,azureml.pipeline.core.pipeline_output_dataset.PipelineOutputFileDataset,azureml.pipeline.core.pipeline_output_dataset.PipelineOutputTabularDataset>]]
输入数据集的列表。 列表中的所有数据集应属于同一类型。 将对输入数据进行分区以便并行处理。 列表中的每个数据集都单独分区为微型批处理,并且在并行处理中,每个微型批处理将被同等对待。
- output
- Union[<xref:azureml.pipeline.core.builder.PipelineData,azureml.pipeline.core.graph.OutputPortBinding,azureml.data.output_dataset_config.OutputDatasetConfig>]
输出端口绑定,可供后面的管道步骤使用。
- side_inputs
- list[Union[<xref:azureml.pipeline.core.graph.InputPortBinding,azureml.data.data_reference.DataReference,azureml.pipeline.core.PortDataReference,azureml.pipeline.core.builder.PipelineData,azureml.pipeline.core.pipeline_output_dataset.PipelineOutputFileDataset,azureml.pipeline.core.pipeline_output_dataset.PipelineOutputTabularDataset,azureml.data.dataset_consumption_config.DatasetConsumptionConfig>]]
侧输入引用数据的列表。 不会将侧输入分区为输入数据。
注解
ParallelRunStep 可用于并行处理大量数据。 常见的用例是训练 ML 模型或运行脱机推理,以根据一批观察数据来生成预测。 ParallelRunStep 的工作原理是将数据分解成并行处理的批处理。 可以通过 ParallelRunConfig 类控制批大小节点计数和其他可优化参数以加快并行处理速度。 ParallelRunStep 可以作为输入用于 TabularDataset 或 FileDataset。
如需使用 ParallelRunStep:
创建一个 ParallelRunConfig 对象用于指定批处理的执行方式,该对象的参数可控制批大小、每个计算目标的节点数,以及对自定义 Python 脚本的引用。
创建使用 ParallelRunConfig 对象的 ParallelRunStep 对象,并定义该步骤的输入和输出。
像使用其他管道步骤类型一样,在Pipeline中使用已配置的 ParallelRunStep 对象。
以下文章讨论了使用 ParallelRunStep 和 ParallelRunConfig 类进行批量推理的示例:
教程:生成用于批量评分的 Azure 机器学习管道。 本文介绍如何在管道中将这两个类用于异步批评分,并使 REST 终结点能够运行管道。
使用 Azure 机器学习对大量数据运行批处理推理。 本文介绍如何通过自定义推理脚本和 MNIST 数据集上预先训练的图像分类模型库以异步和并行方式处理大量数据。
from azureml.pipeline.steps import ParallelRunStep, ParallelRunConfig
parallel_run_config = ParallelRunConfig(
source_directory=scripts_folder,
entry_script=script_file,
mini_batch_size="5",
error_threshold=10, # Optional, allowed failed count on mini batch items
allowed_failed_count=15, # Optional, allowed failed count on mini batches
allowed_failed_percent=10, # Optional, allowed failed percent on mini batches
output_action="append_row",
environment=batch_env,
compute_target=compute_target,
node_count=2)
parallelrun_step = ParallelRunStep(
name="predict-digits-mnist",
parallel_run_config=parallel_run_config,
inputs=[ named_mnist_ds ],
output=output_dir,
arguments=[ "--extra_arg", "example_value" ],
allow_reuse=True
)
有关此示例详细信息,请参阅笔记本 https://aka.ms/batch-inference-notebooks。
方法
| create_module_def |
创建描述步骤的模块定义对象。 此方法不能直接使用。 |
| create_node |
为 PythonScriptStep 创建节点并将其添加到指定的图。 此方法不能直接使用。 通过 ParallelRunStep 实例化管道时,Azure 机器学习会自动通过此方法传递所需的参数,以便可以将步骤添加到表示工作流的管道图形中。 |
create_module_def
创建描述步骤的模块定义对象。
此方法不能直接使用。
create_module_def(execution_type, input_bindings, output_bindings, param_defs=None, create_sequencing_ports=True, allow_reuse=True, version=None, arguments=None)
参数
返回
模块定义对象。
返回类型
create_node
为 PythonScriptStep 创建节点并将其添加到指定的图。
此方法不能直接使用。 通过 ParallelRunStep 实例化管道时,Azure 机器学习会自动通过此方法传递所需的参数,以便可以将步骤添加到表示工作流的管道图形中。
create_node(graph, default_datastore, context)
参数
- context
- <xref:azureml.pipeline.core._GraphContext>
上下文。
返回
创建的节点。
返回类型
反馈
提交和查看相关反馈