HPC (High performance Computing) VM-grootten

Let op

In dit artikel wordt verwezen naar CentOS, een Linux-distributie die de status End Of Life (EOL) nadert. Houd rekening met uw gebruik en plan dienovereenkomstig. Zie de Richtlijnen voor het einde van de levensduur van CentOS voor meer informatie.

Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️

Tip

Probeer de selectorfunctie voor virtuele machines om andere grootten te vinden die het beste bij uw workload passen.

VM's uit de HBv4-serie zijn geoptimaliseerd voor verschillende HPC-workloads, zoals rekenkundige vloeistofdynamiek, eindige elementanalyse, front-end, rendering, moleculaire dynamiek, rekenkundige geowetenschappen, weersimulatie en financiële risicoanalyse. HBv4-VM's hebben maximaal 176 AMD EPYC™ 9V33X (GenuaX) CPU-kernen met 3D-V Cache van AMD, 768 GB RAM en geen gelijktijdige multithreading. Vm's uit de HBv4-serie bieden ook 780 GB/s van DDR5-geheugenbandbreedte en 2304 MB L3-cache per VM, tot 12 GB/s (leesbewerkingen) en 7 GB/s (schrijfbewerkingen) van ssd-prestaties van blokapparaten en klokfrequenties tot 3,7 GHz.

Alle VM's uit de HBv4-serie hebben 400 Gb/s NDR InfiniBand van NVIDIA-netwerken om MPI-workloads op supercomputerschaal mogelijk te maken. Deze VM's zijn verbonden in een niet-blokkerende vetstructuur voor geoptimaliseerde en consistente RDMA-prestaties. NDR blijft ondersteuning bieden voor functies zoals Adaptieve routering en dynamisch Verbinding maken ed Transport (DCT). Deze nieuwste generatie van InfiniBand biedt ook meer ondersteuning voor offload van MPI-collectieven, geoptimaliseerde werkelijke latenties vanwege congestiebesturingsinformatie en verbeterde adaptieve routeringsmogelijkheden. Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt aanbevolen.

VM's uit de HBv3-serie zijn geoptimaliseerd voor HPC-toepassingen zoals vloeistofdynamiek, expliciete en impliciete eindige elementanalyse, weermodellering, seismische verwerking, reservoirsimulatie en RTL-simulatie. HBv3-VM's hebben maximaal 120 AMD EPYC™ 7003-serie (MilanX) CPU-kernen, 448 GB RAM en geen hyperthreading. VM's uit de HBv3-serie bieden ook 350 GB per seconde geheugenbandbreedte, maximaal 32 MB L3-cache per kern, tot 7 GB/s van ssd-prestaties van blokapparaten en klokfrequenties tot 3,5 GHz.

Alle VM's uit de HBv3-serie bieden 200 GB/sec-HDR InfiniBand van NVIDIA Networking waardoor MPI-workloads op de schaal van een supercomputer mogelijk zijn. Deze VM's zijn verbonden in een niet-blokkerende vetstructuur voor geoptimaliseerde en consistente RDMA-prestaties. De HDR InfiniBand-infrastructuur ondersteunt ook Adaptive Routing en de Dynamic Verbinding maken ed Transport (DCT, naast standaard RC- en UD-transporten). Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

VM's uit de HBv2-serie zijn geoptimaliseerd voor toepassingen die worden aangestuurd door geheugenbandbreedte, zoals vloeistofdynamiek, analyse van eindige elementen en reservoirsimulatie. HBv2-VM's hebben 120 AMD EPYC 7742 processorkernen, 4 GB RAM per CPU-kern en geen gelijktijdige multithreading. Elke HBv2-VM biedt maximaal 340 GB per seconde geheugenbandbreedte en maximaal 4 teraFLOPS van FP64-rekenkracht.

HBv2-VM's hebben 200 Gb/sec Mellanox HDR InfiniBand, terwijl vm's uit de HB- en HC-serie 100 Gb/sec Mellanox EDR InfiniBand hebben. Elk van deze VM-typen is verbonden in een niet-blokkerende vetstructuur voor geoptimaliseerde en consistente RDMA-prestaties. HBv2-VM's ondersteunen adaptieve routering en dynamische Verbinding maken ed transport (DCT, naast standaard RC- en UD-transporten). Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

VM's uit de HB-serie zijn geoptimaliseerd voor toepassingen die worden aangestuurd door geheugenbandbreedte, zoals vloeistofdynamiek, expliciete analyse van eindige elementen en weermodellering. HB-VM’s zijn voorzien van 60 AMD EPYC 7551-processorkernen en 4 GB RAM-geheugen per CPU-kern, zonder hyperthreading. Het AMD EPYC-platform biedt meer dan 260 GB/s aan geheugenbandbreedte.

VM's uit de HC-serie zijn geoptimaliseerd voor toepassingen die worden aangestuurd door compacte berekeningen, zoals impliciete analyse van eindige elementen, moleculaire dynamiek en rekenkundige chemie. HC-VM’s zijn voorzien van 44 Intel Xeon Platinum 8168-processorkernen en 8 GB aan RAM-geheugen per CPU-kern, zonder hyperthreading. Het Intel Xeon Platinum-platform ondersteunt het uitgebreide ecosysteem van softwarehulpprogramma's van Intel, zoals de Intel Math Kernel Library.

VM's uit de HX-serie zijn geoptimaliseerd voor workloads die aanzienlijke geheugencapaciteit vereisen met twee keer de geheugencapaciteit als HBv4. Workloads zoals siliciumontwerp kunnen bijvoorbeeld vm's uit de HX-serie gebruiken om EDA-klanten in staat te stellen de meest geavanceerde productieprocessen te gebruiken om hun meest geheugenintensieve workloads uit te voeren. HX-VM's hebben maximaal 176 AMD EPYC™ 9V33X (GenuaX) CPU-kernen, 1408 GB RAM en geen gelijktijdige multithreading. VM's uit de HX-serie bieden ook 780 GB/s van DDR5-geheugenbandbreedte en 2304 MB L3-cache per VM, tot 12 GB/s (leesbewerkingen) en 7 GB/s (schrijfbewerkingen) van ssd-prestaties van blokapparaten en klokfrequenties tot 3,7 GHz.

Notitie

Alle VM's uit de HBv4-, HBv3-, HBv2-, HB-, HC- en HX-serie hebben exclusieve toegang tot de fysieke servers. Er is slechts 1 VM per fysieke server en er is geen gedeelde multitenancy met andere VM's voor deze VM-grootten.

Met RDMA compatibele exemplaren

De meeste HPC-VM-grootten hebben een netwerkinterface voor RDMA-connectiviteit (Remote Direct Memory Access). Geselecteerde N-seriegrootten die zijn aangewezen met r, zijn ook geschikt voor RDMA. Deze interface is naast de standaard Azure Ethernet-netwerkinterface die beschikbaar is in de andere VM-grootten.

Met deze secundaire interface kunnen instanties die geschikt zijn voor RDMA communiceren via een InfiniBand-netwerk (IB), werken met HDR-tarieven voor HBv3, HBv2, EDR-tarieven voor HB-, HC-, NDv2- en FDR-tarieven voor H16r-, H16mr- en andere rdMA-compatibele virtuele machines uit de N-serie. Deze RDMA-mogelijkheden kunnen de schaalbaarheid en prestaties van MPI-toepassingen (Message Passing Interface) verbeteren.

Notitie

SR-IOV-ondersteuning: In Azure HPC zijn er momenteel twee klassen VM's, afhankelijk van of deze SR-IOV zijn ingeschakeld voor InfiniBand. Momenteel zijn bijna alle nieuwere generatie vm's die geschikt zijn voor RDMA of InfiniBand in Azure SR-IOV ingeschakeld, met uitzondering van H16r, H16mr en NC24r. RDMA is alleen ingeschakeld via het InfiniBand-netwerk (IB) en wordt ondersteund voor alle RDMA-compatibele VM's. IP via IB wordt alleen ondersteund op de VM's met SR-IOV. RDMA is niet ingeschakeld via het Ethernet-netwerk.

  • Besturingssysteem : Linux-distributies zoals CentOS, RHEL, Ubuntu, SUSE worden vaak gebruikt. Windows Server 2016 en nieuwere versies worden ondersteund op alle VM's uit de HPC-serie. Windows Server 2012 R2 wordt niet ondersteund op HBv2 en hoger als VM-grootten met meer dan 64 (virtuele of fysieke) kernen. Zie VM-installatiekopieën voor een lijst met ondersteunde VM-installatiekopieën op marketplace en hoe deze op de juiste wijze kunnen worden geconfigureerd. De respectieve pagina's met VM-grootte vermelden ook de ondersteuning voor de softwarestack.

  • InfiniBand en Drivers: op VM's met InfiniBand zijn de juiste stuurprogramma's vereist om RDMA in te schakelen. Zie VM-installatiekopieën voor een lijst met ondersteunde VM-installatiekopieën op marketplace en hoe deze op de juiste wijze kunnen worden geconfigureerd. Zie ook het inschakelen van InfiniBand voor meer informatie over VM-extensies of handmatige installatie van InfiniBand-stuurprogramma's.

  • MPI : met de VM-grootten met SR-IOV in Azure kan bijna elke variant van MPI worden gebruikt met Mellanox OFED. Zie MPI instellen voor HPC voor meer informatie over het instellen van MPI op HPC-VM's in Azure.

    Notitie

    RDMA-netwerkadresruimte: Het RDMA-netwerk in Azure reserveert de adresruimte 172.16.0.0/16. Als u MPI-toepassingen wilt uitvoeren op exemplaren die zijn geïmplementeerd in een virtueel Azure-netwerk, moet u ervoor zorgen dat de adresruimte van het virtuele netwerk niet overlapt met het RDMA-netwerk.

Opties voor clusterconfiguratie

Azure biedt verschillende opties voor het maken van clusters van HPC-VM's die kunnen communiceren met behulp van het RDMA-netwerk, waaronder:

  • Virtuele machines : implementeer de MET RDMA geschikte HPC-VM's in dezelfde schaalset of beschikbaarheidsset (wanneer u het Azure Resource Manager-implementatiemodel gebruikt). Als u het klassieke implementatiemodel gebruikt, implementeert u de VM's in dezelfde cloudservice.

  • Virtuele-machineschaalsets : zorg ervoor dat u in een virtuele-machineschaalset de implementatie beperkt tot één plaatsingsgroep voor InfiniBand-communicatie binnen de schaalset. Stel bijvoorbeeld in een Resource Manager-sjabloon de singlePlacementGroup eigenschap in op true. Houd er rekening mee dat de maximale schaalsetgrootte waarmee kan worden singlePlacementGroup=true geïntensioneerd, standaard is beperkt tot 100 VM's. Als uw HPC-taakschaalbehoeften hoger zijn dan 100 VM's in één tenant, kunt u een verhoging aanvragen, een online klantenondersteuningsaanvraag zonder kosten openen. De limiet voor het aantal VIRTUELE machines in één schaalset kan worden verhoogd tot 300. Houd er rekening mee dat bij het implementeren van VM's met behulp van beschikbaarheidssets de maximumlimiet 200 VM's per beschikbaarheidsset is.

    Notitie

    MPI tussen virtuele machines: als RDMA (bijvoorbeeld het gebruik van MPI-communicatie) is vereist tussen virtuele machines (VM's), moet u ervoor zorgen dat de VM's zich in dezelfde virtuele-machineschaalset of beschikbaarheidsset bevinden.

  • Azure CycleCloud : maak een HPC-cluster met behulp van Azure CycleCloud om MPI-taken uit te voeren.

  • Azure Batch : maak een Azure Batch-pool om MPI-workloads uit te voeren. Als u rekenintensieve exemplaren wilt gebruiken bij het uitvoeren van MPI-toepassingen met Azure Batch, raadpleegt u Taken met meerdere exemplaren gebruiken om MPI-toepassingen (Message Passing Interface) uit te voeren in Azure Batch.

  • Microsoft HPC Pack HPC Pack - bevat een runtime-omgeving voor MS-MPI die gebruikmaakt van het Azure RDMA-netwerk wanneer deze wordt geïmplementeerd op LINUX-VM's die geschikt zijn voor RDMA. Zie Bijvoorbeeld implementaties een Linux RDMA-cluster instellen met HPC Pack om MPI-toepassingen uit te voeren.

Implementatieoverwegingen

  • Azure-abonnement : als u meer dan een paar rekenintensieve exemplaren wilt implementeren, kunt u een abonnement met betalen per gebruik of andere aankoopopties overwegen. Als u een gratis account van Azure gebruikt, kunt u slechts een paar Azure Compute-resources van Azure gebruiken.

  • Prijzen en beschikbaarheid : controleer de prijzen en beschikbaarheid van VM's per Azure-regio.

  • Kernquotum : mogelijk moet u het quotum voor kernen in uw Azure-abonnement verhogen vanaf de standaardwaarde. Uw abonnement kan ook het aantal kerngeheugens beperken dat u kunt implementeren in bepaalde VM-groottefamilies, inclusief de H-serie. Als u een verhoging van het quotum wilt aanvragen, opent u een online een ondersteuningsverzoek. Hiervoor worden geen kosten in rekening gebracht. (Standaardlimieten kunnen variëren, afhankelijk van uw abonnementscategorie.)

    Notitie

    Neem contact op met de ondersteuning van Azure als u behoefte hebt aan grootschalige capaciteit. Azure-quota zijn kredietlimieten, geen capaciteitsgaranties. Ongeacht uw quotum worden er alleen kosten in rekening gebracht voor kernen die u gebruikt.

  • Virtueel netwerk: een virtueel Azure-netwerk is niet vereist voor het gebruik van rekenintensieve exemplaren. Voor veel implementaties hebt u echter ten minste een virtueel Azure-netwerk in de cloud of een site-naar-site-verbinding nodig als u toegang nodig hebt tot on-premises resources. Maak zo nodig een nieuw virtueel netwerk om de exemplaren te implementeren. Het toevoegen van rekenintensieve VM's aan een virtueel netwerk in een affiniteitsgroep wordt niet ondersteund.

  • Formaat wijzigen : vanwege hun gespecialiseerde hardware kunt u alleen rekenintensieve exemplaren binnen dezelfde groottefamilie (H-serie of N-serie) wijzigen. U kunt bijvoorbeeld alleen het formaat van een VM uit de ene H-serie wijzigen van de ene grootte van de H-serie naar een andere. Aanvullende overwegingen met betrekking tot de ondersteuning van InfiniBand-stuurprogramma's en NVMe-schijven moeten mogelijk worden overwogen voor bepaalde VM's.

Andere grootten

Volgende stappen