AccelInferenceConfig 类

特定于加速模型部署的模型部署配置。

将执行以下操作之一:

  1. 如果将转换后的模型传递给它,则部署该模型。

  2. 部署以前转换的已传递模型的模型版本(如果存在)。

  3. 转换已传递的模型并部署已转换的模型。

继承
builtins.object
AccelInferenceConfig

构造函数

AccelInferenceConfig(description=None, input_tensor=None, output_tensor=None)

参数

description
默认值: None
input_tensor
默认值: None
output_tensor
默认值: None

方法

build_create_payload

生成容器映像的创建有效负载。 对于加速的推理,模型 ID 将是基础模型,可以进行转换,也可以用于选择以前转换的模型。

build_profile_payload

生成模型包的分析有效负载。

validate_configuration

检查指定的配置值是否有效。

如果验证失败,将引发 WebserviceException。

build_create_payload

生成容器映像的创建有效负载。 对于加速的推理,模型 ID 将是基础模型,可以进行转换,也可以用于选择以前转换的模型。

build_create_payload(workspace, image_name, model_ids)

参数

workspace
Workspace
必需

要在其中创建映像的工作区对象

image_name
str
必需

映像的名称

model_ids
<xref:azureml.accel.list>[str]
必需

一个列表,其中包含要确定的单个模型 ID

返回

容器映像创建有效负载

返回类型

例外

build_profile_payload

生成模型包的分析有效负载。

build_profile_payload(profile_name, input_data)

参数

profile_name
str
必需

配置文件的名称

input_data
str
必需

用于分析的输入数据

返回

模型配置文件有效负载

返回类型

例外

validate_configuration

检查指定的配置值是否有效。

如果验证失败,将引发 WebserviceException。

validate_configuration()

例外

WebserviceException