AccelInferenceConfig 类
特定于加速模型部署的模型部署配置。
将执行以下操作之一:
如果将转换后的模型传递给它,则部署该模型。
部署以前转换的已传递模型的模型版本(如果存在)。
转换已传递的模型并部署已转换的模型。
- 继承
-
builtins.objectAccelInferenceConfig
构造函数
AccelInferenceConfig(description=None, input_tensor=None, output_tensor=None)
参数
- description
默认值: None
- input_tensor
默认值: None
- output_tensor
默认值: None
方法
| build_create_payload |
生成容器映像的创建有效负载。 对于加速的推理,模型 ID 将是基础模型,可以进行转换,也可以用于选择以前转换的模型。 |
| build_profile_payload |
生成模型包的分析有效负载。 |
| validate_configuration |
检查指定的配置值是否有效。 如果验证失败,将引发 WebserviceException。 |
build_create_payload
生成容器映像的创建有效负载。 对于加速的推理,模型 ID 将是基础模型,可以进行转换,也可以用于选择以前转换的模型。
build_create_payload(workspace, image_name, model_ids)
参数
返回
容器映像创建有效负载
返回类型
例外
build_profile_payload
生成模型包的分析有效负载。
build_profile_payload(profile_name, input_data)
参数
返回
模型配置文件有效负载
返回类型
例外
validate_configuration
检查指定的配置值是否有效。
如果验证失败,将引发 WebserviceException。
validate_configuration()
例外
WebserviceException
反馈
提交和查看相关反馈