Quais são os destinos de computação no Azure Machine Learning?

Um alvo de cálculo é um recurso ou ambiente de computação designado onde executa o seu script de treino ou hospeda a sua implementação de serviço. Esta localização pode ser a sua máquina local ou um recurso computacional baseado em nuvem. A utilização de metas de computação facilita-lhe a mudança posterior do seu ambiente de computação sem ter de alterar o seu código.

Num ciclo de vida típico de desenvolvimento de modelos, você pode:

  1. Comece por desenvolver e experimentar uma pequena quantidade de dados. Nesta fase, utilize o seu ambiente local, como um computador local ou uma máquina virtual baseada em nuvem (VM), como alvo de computação.
  2. Dimensione até dados maiores, ou faça treino distribuído utilizando um destes alvos de computação de formação.
  3. Depois de o seu modelo estar pronto, desloque-o para um ambiente de hospedagem web ou dispositivo IoT com um destes alvosde computação de implementação .

Os recursos de cálculo que utiliza para os seus alvos de cálculo estão ligados a um espaço de trabalho. Os recursos de cálculo que não a máquina local são partilhados pelos utilizadores do espaço de trabalho.

Metas de computação de formação

A Azure Machine Learning tem um suporte variado em diferentes alvos de computação. Um ciclo de vida típico de desenvolvimento de modelos começa com desenvolvimento ou experimentação em uma pequena quantidade de dados. Nesta fase, use um ambiente local como o seu computador local ou um VM baseado em nuvem. À medida que aumenta a sua formação em conjuntos de dados maiores ou realiza treino distribuído, use o cálculo Azure Machine Learning para criar um cluster de nó único ou multi-nós que escala automaticamente cada vez que submete uma corrida. Também pode anexar o seu próprio recurso de computação, embora o suporte para diferentes cenários possa variar.

Os alvos de cálculo podem ser reutilizados de um trabalho de treino para o outro. Por exemplo, depois de anexar um VM remoto ao seu espaço de trabalho, pode reutilizá-lo para vários trabalhos. Para os gasodutos de aprendizagem automática, utilize o passo de gasoduto adequado para cada alvo de cálculo.

Você pode usar qualquer um dos seguintes recursos para um alvo de computação de formação para a maioria dos empregos. Nem todos os recursos podem ser usados para aprendizagem automática de máquinas, oleodutos de aprendizagem automática ou designer.

Metas de formação   Aprendizagem automática automatizada Pipelines de aprendizagem automática Estruturador do Azure Machine Learning
Computador local Yes    
Aglomerado de computação Azure Machine Learning Yes Yes Yes
Instância de computação do Azure Machine Learning Sim (através de SDK) Yes
VM remoto Yes Yes  
Piscinas Apache Spark (pré-visualização) Sim (apenas modo local SDK) Yes  
Azure   Databricks Sim (apenas modo local SDK) Yes  
Azure Data Lake Analytics   Yes  
Azure HDInsight   Yes  
Azure Batch   Yes  

Dica

A instância compute tem disco OS de 120GB. Se ficar sem espaço em disco, utilize o terminal para limpar pelo menos 1-2 GB antes de parar ou reiniciar a instância de cálculo.

Saiba mais sobre como submeter uma corrida de treino a um alvo de computação.

Metas de cálculo para inferência

Ao realizar inferência, a Azure Machine Learning cria um recipiente Docker que acolhe o modelo e os recursos associados necessários para a sua utilização. Este recipiente é então utilizado num alvo de computação.

O alvo de computação que utiliza para hospedar o seu modelo irá afetar o custo e a disponibilidade do seu ponto final implantado. Utilize esta tabela para escolher um alvo de computação apropriado.

Destino de computação Utilizado para Suporte de GPU Suporte de FPGA Description
 Serviço web local   Teste/depuragem     Utilização para testes limitados e resolução de problemas. A aceleração do hardware depende da utilização de bibliotecas no sistema local.
Azure Kubernetes Service (AKS) Inferência em tempo real Sim (implantação de serviço web) Sim Utilização para implantações de produção de alta escala. Proporciona tempo de resposta rápida e autoscalagem do serviço implantado. A autoescalagem do cluster não é suportada através do Azure Machine Learning SDK. Para alterar os nós no cluster AKS, utilize o UI para o seu cluster AKS no portal Azure.

Apoiado no designer.
Azure Container Instances Inferência em tempo real     Utilize cargas de trabalho baseadas em CPU de baixa escala que exijam menos de 48 GB de RAM. Não requer que maneje um aglomerado.

Apoiado no designer.
Clusters de computação do Azure Machine Learning  Inferência do lote Sim (pipeline de aprendizagem automática)   Executar a pontuação do lote no cálculo sem servidor. Suporta VMs normais e de baixa prioridade. Sem apoio para inferência em tempo real.

Nota

Embora os alvos computativos como os clusters de cálculo local, e Azure Machine Learning suportem GPU para treino e experimentação, usando GPU para inferência quando implementado como um serviço web é suportado apenas em AKS.

A utilização de uma GPU para inferência ao marcar com um pipeline de aprendizagem automática é suportada apenas no cálculo Azure Machine Learning.

Ao escolher um cluster SKU, primeiro escalone e depois escale para fora. Comece com uma máquina que tenha 150% da RAM que o seu modelo necessita, perfile o resultado e encontre uma máquina que tenha o desempenho de que necessita. Assim que aprenderes isso, aumenta o número de máquinas para se adaptar à tua necessidade de inferência simultânea.

Nota

  • As instâncias do contentor são adequadas apenas para pequenos modelos com menos de 1 GB de tamanho.
  • Utilize clusters AKS de nó único para dev/teste de modelos maiores.

Saiba onde e como implementar o seu modelo num alvo de computação.

Azure Machine Learning compute (gerido)

Um recurso de computação gerido é criado e gerido pela Azure Machine Learning. Este cálculo está otimizado para trabalhos de aprendizagem automática. Azure Machine Learning compute clusters e compute instances são os únicos computas geridos.

Pode criar casos de cálculo de aprendizagem automática Azure ou clusters de cálculo a partir de:

Quando criados, estes recursos computacional são automaticamente parte do seu espaço de trabalho, ao contrário de outros tipos de metas de computação.

Funcionalidade Cluster de cálculo Instância de computação
Cluster de nó único ou multi-nódoa
Autoescala cada vez que submete uma corrida
Gestão automática de clusters e agendamento de empregos
Apoio aos recursos da CPU e da GPU

Nota

Quando um cluster de computação está inativo, ele escala automaticamente para 0 nós, para que não pague quando não está em uso. Um caso de computação está sempre ligado e não se auto-escala. Deve parar a instância de cálculo quando não está a usá-lo para evitar custos adicionais.

Séries e tamanhos VM suportados

Quando selecionar um tamanho de nó para um recurso de computação gerido em Azure Machine Learning, pode escolher entre os tamanhos VM selecionados disponíveis no Azure. O Azure oferece uma gama de tamanhos para Linux e Windows para diferentes cargas de trabalho. Para saber mais, consulte os tipos e tamanhos VM.

Existem algumas exceções e limitações à escolha de um tamanho VM:

  • Algumas séries de VM não são suportadas no Azure Machine Learning.
  • Algumas séries VM são restritas. Para utilizar uma série restrita, contacte o suporte e solicite um aumento de quota para a série. Para obter informações sobre como contactar o suporte, consulte as opções de suporte do Azure.

Consulte a tabela seguinte para saber mais sobre séries e restrições apoiadas.

SérieS VM suportadas Restrições Categoria Apoiado por
D Nenhum. Fins gerais Aglomerados e instâncias computacional
DDSv4 Nenhum. Fins gerais Aglomerados e instâncias computacional
Dv2 Nenhum. Fins gerais Aglomerados e instâncias computacional
Dv3 Nenhum. Fins gerais Aglomerados e instâncias computacional
DSv2 Nenhum. Fins gerais Aglomerados e instâncias computacional
DSv3 Nenhum. Fins gerais Aglomerados e instâncias computacional
EAv4 Nenhum. Otimizada para memória Aglomerados e instâncias computacional
Ev3 Nenhum. Otimizada para memória Aglomerados e instâncias computacional
FSv2 Nenhum. Otimizado para computação Aglomerados e instâncias computacional
H Nenhum. Computação de elevado desempenho Aglomerados e instâncias computacional
HB Requer aprovação. Computação de elevado desempenho Aglomerados e instâncias computacional
HBv2 Requer aprovação. Computação de elevado desempenho Aglomerados e instâncias computacional
HCS Requer aprovação. Computação de elevado desempenho Aglomerados e instâncias computacional
M Requer aprovação. Otimizada para memória Aglomerados e instâncias computacional
NC Nenhum. GPU Aglomerados e instâncias computacional
NC Promo Nenhum. GPU Aglomerados e instâncias computacional
NCsv2 Requer aprovação. GPU Aglomerados e instâncias computacional
NCsv3 Requer aprovação. GPU Aglomerados e instâncias computacional
NDs Requer aprovação. GPU Aglomerados e instâncias computacional
NDv2 Requer aprovação. GPU Aglomerados e instâncias computacional
NV Nenhum. GPU Aglomerados e instâncias computacional
NVv3 Requer aprovação. GPU Aglomerados e instâncias computacional

Embora a Azure Machine Learning suporte estas séries VM, podem não estar disponíveis em todas as regiões do Azure. Para verificar se as séries VM estão disponíveis, consulte os Produtos disponíveis por região.

Nota

A Azure Machine Learning não suporta todos os tamanhos VM que o Azure Compute suporta. Para listar os tamanhos VM disponíveis, utilize um dos seguintes métodos:

Isolamento computacional

O Azure Machine Learning compute oferece tamanhos VM que são isolados a um tipo de hardware específico e dedicados a um único cliente. Os tamanhos de VM isolados são mais adequados para cargas de trabalho que requerem um alto grau de isolamento das cargas de trabalho de outros clientes por razões que incluem o cumprimento dos requisitos de conformidade e regulamentação. Utilizar um tamanho isolado garante que o seu VM será o único a funcionar nessa instância específica do servidor.

As atuais ofertas de VM isoladas incluem:

  • Standard_M128ms
  • Standard_F72s_v2
  • Standard_NC24s_v3
  • Standard_NC24rs_v3*

*Com capacidade RDMA

Para saber mais sobre o isolamento, veja o Isolamento na nuvem pública azul.

Computação não gerido

Um alvo computacional não gerido não é gerido pela Azure Machine Learning. Cria este tipo de meta de computação fora do Azure Machine Learning e, em seguida, anexá-lo ao seu espaço de trabalho. Os recursos computacional não geridos podem exigir medidas adicionais para manter ou melhorar o desempenho das cargas de trabalho de aprendizagem automática.

Passos seguintes

Aprenda a: