Share via


Migrar para a Inferência em Tempo Real sem Servidor

Importante

  • Esta documentação foi desativada e pode não estar atualizada. Não há mais suporte para os produtos, serviços ou tecnologias mencionados neste conteúdo.
  • As diretrizes neste artigo são para a versão prévia da funcionalidade Serviço de Modelo, anteriormente Inferência em tempo real sem servidor. O Databricks recomenda migrar os seus fluxos de trabalho de serviço de modelo para a funcionalidade de disponibilidade geral. Confira Serviço de modelo com o Azure Databricks.

Importante

Esse recurso está em uma versão prévia.

Este artigo demonstra como habilitar a Inferência em tempo real sem servidor em seu workspace e mudar seus modelos, de usar o Serviço de Modelo do MLflow Herdado para o serviço de modelo com Inferência em tempo real sem servidor.

Para obter informações gerais sobre a Inferência em Tempo Real sem Servidor, confira Serviço de modelo com a Inferência em Tempo Real sem Servidor.

Requisitos

  • O modelo registrado no Registro de Modelos do MLflow.
  • Permissões de Criação de Cluster no workspace. Consulte Gerenciar direitos.
  • Permissões PODE GERENCIAR VERSÕES DE PRODUÇÃO no modelo registrado. Consulte ACLs de modelo do MLFlow.

Alterações significativas

  • Em Inferência em tempo real sem servidor, o formato da solicitação para o ponto de extremidade e a resposta do ponto de extremidade são ligeiramente diferentes do Serviço de Modelo do MLflow Herdado. Confira Como pontuar um ponto de extremidade de modelo para obter detalhes sobre o novo protocolo de formato.
  • Na Inferência em Tempo Real sem Servidor, a URL do ponto de extremidade inclui model-endpoint em vez de model
  • A Inferência em Tempo Real sem Servidor inclui suporte completo para gerenciar recursos com fluxos de trabalho de API e está pronta para produção.

Habilitar inferência em tempo real sem servidor para seu workspace

Importante

A inferência em tempo real sem servidor deve ser habilitada para seu workspace. Na primeira vez que ele estiver habilitado para o workspace, o administrador do workspace deverá ler e aceitar os termos e condições.

Para habilitar a inferência em tempo real sem servidor para seu workspace:

  1. Inscrever-se na versão prévia.
    1. Entre em contato com sua equipe de conta do Azure Databricks para solicitar o ingresso na Visualização Pública de inferência em tempo real sem servidor.
    2. O Databricks envia um formulário do Google.
    3. Preencha o formulário e envie para o Databricks. O formulário inclui informações sobre qual workspace se inscrever.
    4. Aguarde até que o Databricks notifique que seu workspace está inscrito na versão prévia.
  2. Como administrador do workspace, acesse a página de configurações de administração.
  3. Selecione Configurações do Workspace.
  4. Selecione Habilitação de inferência em tempo real sem servidor do MLflow.

Desabilitar o Serviço de Modelo do MLflow Herdado em seus modelos

Antes de habilitar a Inferência em tempo real sem servidor para seus modelos, você precisa desabilitar o Serviço de Modelo do MLflow Herdado em seus modelos atualmente servidos.

As etapas a seguir mostram como fazer isso com a interface do usuário.

  1. Navegue até modelos na barra lateral do workspace do Machine Learning.
  2. Selecione o modelo para o qual você deseja desabilitar o Serviço de Modelo do MLflow Herdado.
  3. Na guia Serviço, selecione Interromper.
  4. Uma mensagem aparece para confirmar. Selecione Interromper serviço.

Habilitar inferência em tempo real sem servidor em seus modelos

Depois que a Inferência em tempo real sem servidor estiver habilitada em seu workspace, você observará a tela a seguir na guia Serviço de seus modelos registrados. Para habilitar a Inferência em tempo real sem servidor para esse modelo, clique no botão Habilitar Inferência em tempo real sem servidor.

Painel de serviço

Importante

Se você não vir esse botão, mas, em vez disso, vir um botão Habilitar Serviço, você está usando os pontos de extremidade dos pontos de extremidade do Serviço de Modelo Herdado do MLflow e não pontos de extremidade de modelo sem servidor. Entre em contato com um administrador do workspace para habilitar o recurso neste workspace.

Recursos adicionais