InferenceConfig Classe

Representa as definições de configuração de um ambiente personalizado utilizado para implementação.

A configuração da inferência é um parâmetro de entrada para Model ações relacionadas com a implementação:

Inicialize o objeto de configuração.

Herança
builtins.object
InferenceConfig

Construtor

InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)

Parâmetros

entry_script
str
Necessário

O caminho para um ficheiro local que contém o código a executar para a imagem.

runtime
str
valor predefinido: None

O runtime a utilizar para a imagem. Os runtimes suportados atuais são "spark-py" e "python".

conda_file
str
valor predefinido: None

O caminho para um ficheiro local que contém uma definição de ambiente conda a utilizar para a imagem.

extra_docker_file_steps
str
valor predefinido: None

O caminho para um ficheiro local que contém passos adicionais do Docker a executar ao configurar a imagem.

source_directory
str
valor predefinido: None

O caminho para a pasta que contém todos os ficheiros para criar a imagem.

enable_gpu
bool
valor predefinido: None

Indica se pretende ativar o suporte de GPU na imagem. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. A predefinição é Falso.

description
str
valor predefinido: None

Uma descrição para dar esta imagem.

base_image
str
valor predefinido: None

Uma imagem personalizada a ser utilizada como imagem de base. Se não for dada nenhuma imagem de base, a imagem de base será utilizada com base num determinado parâmetro de runtime.

base_image_registry
ContainerRegistry
valor predefinido: None

O registo de imagens que contém a imagem de base.

cuda_version
str
valor predefinido: None

A Versão do CUDA a instalar para imagens que precisam de suporte de GPU. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. As versões suportadas são 9.0, 9.1 e 10.0. Se enable_gpu estiver definido, esta predefinição é "9.1".

environment
Environment
valor predefinido: None

Um objeto de ambiente a utilizar para a implementação. O ambiente não tem de ser registado.

Forneça este parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem entry_script, source_directorye description.

entry_script
str
Necessário

O caminho para um ficheiro local que contém o código a executar para a imagem.

runtime
str
Necessário

O runtime a utilizar para a imagem. Os runtimes suportados atuais são "spark-py" e "python".

conda_file
str
Necessário

O caminho para um ficheiro local que contém uma definição de ambiente conda a utilizar para a imagem.

extra_docker_file_steps
str
Necessário

O caminho para um ficheiro local que contém passos adicionais do Docker a executar ao configurar a imagem.

source_directory
str
Necessário

O caminho para a pasta que contém todos os ficheiros para criar a imagem.

enable_gpu
bool
Necessário

Indica se pretende ativar o suporte de GPU na imagem. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. A predefinição é Falso.

description
str
Necessário

Uma descrição para dar esta imagem.

base_image
str
Necessário

Uma imagem personalizada a ser utilizada como imagem de base. Se não for dada nenhuma imagem de base, a imagem de base será utilizada com base num determinado parâmetro de runtime.

base_image_registry
ContainerRegistry
Necessário

O registo de imagens que contém a imagem de base.

cuda_version
str
Necessário

A Versão do CUDA a instalar para imagens que precisam de suporte de GPU. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. As versões suportadas são 9.0, 9.1 e 10.0. Se enable_gpu estiver definido, esta predefinição é "9.1".

environment
Environment
Necessário

Um objeto de ambiente a utilizar para a implementação. O ambiente não tem de ser registado.

Forneça este parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem entry_script, source_directorye description.

Observações

O exemplo seguinte mostra como criar um objeto InferenceConfig e utilizá-lo para implementar um modelo.


   from azureml.core.model import InferenceConfig
   from azureml.core.webservice import AciWebservice


   service_name = 'my-custom-env-service'

   inference_config = InferenceConfig(entry_script='score.py', environment=environment)
   aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)

   service = Model.deploy(workspace=ws,
                          name=service_name,
                          models=[model],
                          inference_config=inference_config,
                          deployment_config=aci_config,
                          overwrite=True)
   service.wait_for_deployment(show_output=True)

Variáveis

entry_script
str

O caminho para um ficheiro local que contém o código a executar para a imagem.

runtime
str

O runtime a utilizar para a imagem. Os runtimes suportados atuais são "spark-py" e "python".

conda_file
str

O caminho para um ficheiro local que contém uma definição de ambiente conda a utilizar para a imagem.

extra_docker_file_steps
str

O caminho para um ficheiro local que contém passos adicionais do Docker a executar ao configurar a imagem.

source_directory
str

O caminho para a pasta que contém todos os ficheiros para criar a imagem.

enable_gpu
bool

Indica se pretende ativar o suporte de GPU na imagem. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service.

azureml.core.model.InferenceConfig.description

Uma descrição para dar esta imagem.

base_image
str

Uma imagem personalizada a ser utilizada como imagem de base. Se não for dada nenhuma imagem de base, a imagem de base será utilizada com base num determinado parâmetro de runtime.

base_image_registry
ContainerRegistry

O registo de imagens que contém a imagem de base.

cuda_version
str

A versão do CUDA a instalar para imagens que precisam de suporte de GPU. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. As versões suportadas são 9.0, 9.1 e 10.0. Se enable_gpu estiver definido, esta predefinição é "9.1".

azureml.core.model.InferenceConfig.environment

Um objeto de ambiente a utilizar para a implementação. O ambiente não tem de ser registado.

Forneça este parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem entry_script, source_directorye description.

Métodos

build_create_payload

Crie o payload de criação para a imagem contentor.

build_profile_payload

Crie o payload de criação de perfis para o pacote Modelo.

validate_configuration

Verifique se os valores de configuração especificados são válidos.

Gera uma WebserviceException falha na validação if.

validation_script_content

Verifique se a sintaxe do script de classificação é válida com ast.parse.

Gera uma UserErrorException falha na validação if.

build_create_payload

Crie o payload de criação para a imagem contentor.

build_create_payload(workspace, name, model_ids)

Parâmetros

workspace
Workspace
Necessário

O objeto da área de trabalho no qual criar a imagem.

name
str
Necessário

O nome da imagem.

model_ids
list[str]
Necessário

Uma lista de IDs de modelo para empacotar na imagem.

Devoluções

O payload de criação da imagem de contentor.

Tipo de retorno

Exceções

build_profile_payload

Crie o payload de criação de perfis para o pacote Modelo.

build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)

Parâmetros

profile_name
str
Necessário

O nome da execução da criação de perfis.

input_data
str
valor predefinido: None

Os dados de entrada para criação de perfis.

workspace
Workspace
valor predefinido: None

Um objeto de Área de Trabalho no qual criar o perfil do modelo.

models
list[Model]
valor predefinido: None

Uma lista de objetos de modelo. Pode ser uma lista vazia.

dataset_id
str
valor predefinido: None

ID associado ao conjunto de dados que contém dados de entrada para a execução de criação de perfis.

container_resource_requirements
ContainerResourceRequirements
valor predefinido: None

requisitos de recursos de contentor para a maior instância na qual o modelo vai ser implementado

description
str
valor predefinido: None

Descrição a associar à execução da criação de perfis.

Devoluções

Payload do perfil de modelo

Tipo de retorno

Exceções

validate_configuration

Verifique se os valores de configuração especificados são válidos.

Gera uma WebserviceException falha na validação if.

validate_configuration()

Exceções

validation_script_content

Verifique se a sintaxe do script de classificação é válida com ast.parse.

Gera uma UserErrorException falha na validação if.

validation_script_content()

Exceções