Compartir a través de


TritonInferencingServer Clase

Nota

Se trata de una clase experimental y puede cambiar en cualquier momento. Consulte https://aka.ms/azuremlexperimental para más información.

Configuraciones de inferencia de triton de Azure ML.

Herencia
builtins.object
TritonInferencingServer

Constructor

TritonInferencingServer(*, inference_configuration: CodeConfiguration | None = None, **kwargs: Any)

Parámetros

Nombre Description
inference_configuration
Requerido

Configuración de inferencia del servidor de inferencia.

Variables

Nombre Description
type

Tipo del servidor de inferencia.