Compartilhar via


Computação de alto desempenho em VMs das séries HB e N habilitadas para InfiniBand

Aplica-se a: ✔️ VMs do Linux ✔️ VMs do Windows ✔️ Conjuntos de dimensionamento flexíveis ✔️ Conjuntos de dimensionamento uniformes

As VMs das séries H e N habilitadas para InfiniBand do Azure foram projetadas para fornecer desempenho no nível de liderança, escalabilidade da MPI (Interface de Passagem de Mensagem) e redução de custos para uma variedade de cargas de trabalho de HPC e IA do mundo real. Essas VMs otimizadas para HPC (computação de alto desempenho) são usadas para resolver alguns dos problemas que exigem uma computação mais intensiva em ciência e engenharia como: dinâmica de fluidos, modelagem da Terra, simulações climáticas etc.

Estes artigos descrevem como começar a usar as VMs das séries N e H habilitadas para InfiniBand no Azure, bem como a configuração ideal das cargas de trabalho de HPC e IA nas VMs para escalabilidade.

Recursos e funcionalidades

As VMs das séries HB e N habilitadas para InfiniBand foram projetadas para fornecer o melhor desempenho de HPC e escalabilidade da MPI, bem como redução de custos para cargas de trabalho de HPC. Confira as VMs da série HB e da série N para saber mais sobre os recursos e as funcionalidades delas.

RDMA e InfiniBand

As VMs compatíveis com RDMA da série HB e da série N se comunicam pela rede InfiniBand de baixa latência e alta largura de banda. A funcionalidade RDMA em uma interconexão como essa é crítica para aumentar a escalabilidade e o desempenho de cargas de trabalho de HPC e IA de nó distribuído. As VMs das séries H e N habilitadas para InfiniBand estão conectadas em uma fat tree sem bloqueio com um design de diâmetro baixo para desempenho otimizado e consistente de RDMA. Confira Habilitar o InfiniBand para saber mais sobre como configurá-lo nas VMs habilitadas para InfiniBand.

Interface de envio de mensagem

As séries HB e N habilitadas para SR-IOV dão suporte a quase todas as versões e bibliotecas MPI. Algumas das bibliotecas MPI mais usadas são: Intel MPI, OpenMPI, HPC-X, MVAPICH2, MPICH e Platform MPI. Todos os verbos de RDMA (acesso remoto direto à memória) são compatíveis. Confira Configurar a MPI para saber mais sobre como instalar várias bibliotecas MPI compatíveis e a configuração ideal delas.

Introdução

A primeira etapa é selecionar o tipo de VM da série HB e da série N ideal para a carga de trabalho com base nas especificações da VM e na funcionalidade RDMA. Em segundo lugar, configure a VM habilitando o InfiniBand. Há vários métodos para fazer isso, incluindo o uso de imagens de VM otimizadas com drivers inclusos; confira Otimização para Linux e Habilitar o InfiniBand para obter detalhes. Em terceiro lugar, é fundamental escolher e configurar a MPI de modo apropriado para executar cargas de trabalho de nó distribuído. Confira Configurar a MPI para obter detalhes. Em quarto lugar, configure cargas de trabalho de modo ideal para obter desempenho e escalabilidade seguindo as diretrizes específicas da família de VMs, conforme mostrado na Visão geral da série HBv3 e na Visão geral da série HC.

Próximas etapas