HPC (High performance Computing) VM-grootten

Van toepassing op: ✔️ Virtuele Linux-heavy_check_mark: Windows-VM's ✔️ Flexibele schaalsets ✔️ Uniforme schaalsets

Tip

Probeer het hulpprogramma Virtuele machines te selecteren om andere grootten te vinden die het beste bij uw workload passen.

Virtuele machines uit de Azure H-serie (VM's) zijn ontworpen voor het leveren van hoogwaardige prestaties, schaalbaarheid en kostenefficiëntie voor verschillende echte HPC-workloads.

HBv3-serie VM's zijn geoptimaliseerd voor HPC-toepassingen zoals vloeistofdynamica, expliciete en impliciete analyse van eindige elementen, weermodellen, seismische verwerking, reservoirsimulatie en SIMULATIE van SIMULATIE. HBv3-VM's hebben maximaal 120 AMD EPYC™ CPU-kernen uit de 7003-serie (Gigabyte), 448 GB RAM en geen hyperthreading. VM's uit de HBv3-serie bieden ook 350 GB/sec geheugenbandbreedte, maximaal 32 MB aan L3-cache per kern, maximaal 7 GB/s aan SSD-prestaties van blokapparaat en klokfrequenties tot 3,675 GHz.

Alle VM's uit de HBv3-serie zijn voorzien van 200 Gb/sec. DE INFiniBand van NVIDIA Networking om MPI-werkbelastingen op supercomputerschaal mogelijk te maken. Deze VM's zijn verbonden in een niet-blokkerende fat-structuur voor geoptimaliseerde en consistente RDMA-prestaties. De WAS InfiniBand-fabric ondersteunt naast standaard RC- en UD-transporten ook adaptieve routering en DCT (Dynamic Connected Transport). Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

HBv2-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door geheugenbandbreedte, zoals vloeistofdynamica, analyse van eindige elementen en reservoirsimulatie. HBv2-VM's hebben 120 AMD EPYC 7742-processorkernen, 4 GB RAM per CPU-kern en geen gelijktijdige multithreading. Elke HBv2-VM biedt maximaal 340 GB per seconde geheugenbandbreedte en maximaal 4 teraFLOPS aan FP64-rekenkracht.

HBv2-VM's hebben 200 Gb/sec Mellanox WANT InfiniBand, terwijl VM's uit zowel de HB- als de HC-serie 100 Gb/sec Mellanox EDR InfiniBand hebben. Elk van deze VM-typen is verbonden in een niet-blokkerende fat-structuur voor geoptimaliseerde en consistente RDMA-prestaties. HBv2-VM's ondersteunen naast standaard RC- en UD-transporten adaptieve routering en DCT (Dynamic Connected Transport). Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

HB-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door geheugenbandbreedte, zoals vloeistofdynamica, expliciete analyse van eindige elementen en weermodellen. HB-VM's hebben 60 AMD EPYC 7551-processorkernen, 4 GB RAM per CPU-kern en geen hyperthreading. Het AMD EPYC-platform biedt meer dan 260 GB/seconde geheugenbandbreedte.

HC-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door compacte berekeningen, zoals impliciete analyse van eindige elementen, moleculaire dynamica en computationele chemie. HC-VM's hebben 44 Intel XeonCore 8168-processorkernen, 8 GB RAM per CPU-kern en geen hyperthreading. Het Intel Xeon Platform ondersteunt het uitgebreide ecosysteem van softwarehulpprogramma's van Intel, zoals de Intel Math Kernel Library.

H-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door hoge CPU-frequenties of hoge geheugenvereisten per kern. VM's uit de H-serie hebben 8 of 16 Intel Xeon E5 2667 v3-processorkernen, 7 of 14 GB RAM per CPU-kern en geen hyperthreading. De H-serie heeft 56 Gb/sec Mellanox FDR InfiniBand in een niet-blokkerende fat tree-configuratie voor consistente RDMA-prestaties. VM's van de H-serie ondersteunen Intel MPI 5.x en MS-MPI.

Notitie

Alle VM's uit de HBv3-, HBv2-, HB- en HC-serie hebben exclusieve toegang tot de fysieke servers. Er is slechts één VM per fysieke server en er is geen gedeelde multitenancy met andere VM's voor deze VM-grootten.

Notitie

De VM's A8 – A11 worden met teruggetrokken vanaf 3/2021. Er zijn nu geen nieuwe VM-implementaties van deze grootten mogelijk. Als u bestaande VM's hebt, raadpleegt u e-mailmeldingen voor volgende stappen, waaronder het migreren naar andere VM-grootten in HPC Migration Guide.

Met RDMA compatibele exemplaren

De meeste HPC VM-grootten zijn voorzien van een netwerkinterface voor RDMA-connectiviteit (Remote Direct Memory Access). Geselecteerde grootten uit de N-serie die zijn aangewezen met 'r' zijn ook geschikt voor RDMA. Deze interface is een aanvulling op de standaard Azure Ethernet-netwerkinterface die beschikbaar is in de andere VM-grootten.

Met deze secundaire interface kunnen de RDMA-compatibele exemplaren communiceren via een InfiniBand-netwerk (IB) en werken met DEV-tarieven voor HBv3, HBv2, EDR-tarieven voor HB-, HC-, NDv2- en FDR-tarieven voor H16r-, H16mr- en andere RDMA-compatibele virtuele machines uit de N-serie. Deze RDMA-mogelijkheden kunnen de schaalbaarheid en prestaties van Message Passing Interface (MPI)-toepassingen verbeteren.

Notitie

SR-IOV-ondersteuning: in Azure HPC zijn er momenteel twee klassen van virtuelems, afhankelijk van of SR-IOV is ingeschakeld voor InfiniBand. Op dit moment zijn bijna alle nieuwere VM's met RDMA-ondersteuning of InfiniBand in Azure ingeschakeld met SR-IOV, met uitzondering van H16r, H16mr en NC24r. RDMA wordt alleen ingeschakeld via het IB-netwerk (InfiniBand) en wordt ondersteund voor alle VM's die geschikt zijn voor RDMA. IP via IB wordt alleen ondersteund op de VM's met SR-IOV-ondersteuning. RDMA is niet ingeschakeld via het Ethernet-netwerk.

  • Besturingssysteem: Linux-distributies zoals CentOS, RHEL, Ubuntu en SUSE worden vaak gebruikt. Windows Server 2016 en nieuwere versies worden ondersteund op alle VM's uit de HPC-serie. Windows Server 2012 R2 en Windows Server 2012 worden ook ondersteund op de VM's die niet zijn ingeschakeld voor SR-IOV. Houd er rekening Windows Server 2012 R2 niet wordt ondersteund op HBv2 en hoger als VM-grootten met meer dan 64 (virtuele of fysieke) kernen. Zie VM-afbeeldingen voor een lijst met ondersteunde VM-afbeeldingen op de Marketplace en hoe deze op de juiste wijze kunnen worden geconfigureerd. Op de betreffende pagina's met de VM-grootte wordt ook de ondersteuning voor de softwarestack vermeld.

  • InfiniBand en stuurprogramma's: op VM's met InfiniBand zijn de juiste stuurprogramma's vereist om RDMA in te kunnenschakelen. Zie VM-afbeeldingen voor een lijst met ondersteunde VM-afbeeldingen op de Marketplace en hoe deze op de juiste wijze kunnen worden geconfigureerd. Zie ook InfiniBand inschakelen voor meer informatie over VM-extensies of handmatige installatie van InfiniBand-stuurprogramma's.

  • MPI: met de VM-grootten met SR-IOV in Azure kan vrijwel elke MPI-smaak worden gebruikt met Mellanox OFED. Op niet-SR-IOV ingeschakelde VM's gebruiken ondersteunde MPI-implementaties de Microsoft Network Direct-interface (ND) om te communiceren tussen VM's. Daarom worden alleen Intel MPI 5.x en Microsoft MPI (MS-MPI) 2012 R2 of hoger ondersteund. Latere versies van de Intel MPI-runtimebibliotheek zijn al dan niet compatibel met de Azure RDMA-stuurprogramma's. Zie MPI instellen voor HPC voor meer informatie over het instellen van MPI op HPC-VM's in Azure.

    Notitie

    RDMA-netwerkadresruimte: het RDMA-netwerk in Azure reserveert de adresruimte 172.16.0.0/16. Als u MPI-toepassingen wilt uitvoeren op exemplaren die zijn geïmplementeerd in een virtueel Azure-netwerk, moet u ervoor zorgen dat de adresruimte van het virtuele netwerk het RDMA-netwerk niet overlapt.

Opties voor clusterconfiguratie

Azure biedt verschillende opties voor het maken van clusters met HPC-VM's die kunnen communiceren via het RDMA-netwerk, waaronder:

  • Virtuele machines: implementeer de HPC-VM's die geschikt zijn voor RDMA in dezelfde schaalset of beschikbaarheidsset (wanneer u het Azure Resource Manager implementatiemodel gebruikt). Als u het klassieke implementatiemodel gebruikt, implementeert u de VM's in dezelfde cloudservice.

  • Virtuele-machineschaalsets: zorg ervoor dat u in een virtuele-machineschaalset de implementatie beperkt tot één plaatsingsgroep voor InfiniBand-communicatie binnen de schaalset. Stel bijvoorbeeld in een Resource Manager de eigenschap singlePlacementGroup in op true . Houd er rekening mee dat de maximale schaalsetgrootte die kan worden gebruikt, standaard is ingesteld singlePlacementGroup=true op 100 VM's. Als de schaal van uw HPC-taak groter is dan 100 VM's in één tenant, kunt u een verhoging aanvragen en gratis een online klantondersteuningsaanvraag openen. De limiet voor het aantal VM's in één schaalset kan worden verhoogd tot 300. Houd er rekening mee dat bij het implementeren van VM's met beschikbaarheidssets de maximumlimiet is ingesteld op 200 VM's per beschikbaarheidsset.

    Notitie

    MPI tussen virtuele machines: als RDMA (bijvoorbeeld MPI-communicatie) is vereist tussen virtuele machines (VM's), moet u ervoor zorgen dat de virtuele machines zich in dezelfde virtuele-machineschaalset of beschikbaarheidsset hebben.

  • Azure CycleCloud: maak een HPC-cluster met behulp Azure CycleCloud MPI-taken uit te voeren.

  • Azure Batch: maak een Azure Batch voor het uitvoeren van MPI-workloads. Als u rekenintensieve exemplaren wilt gebruiken bij het uitvoeren van MPI-toepassingen met Azure Batch, zie Taken met meerdere exemplaren gebruiken om Message Passing Interface-toepassingen (MPI)uit te voeren in Azure Batch .

  • Microsoft HPC Pack - HPC Pack bevat een runtime-omgeving voor MS-MPI die gebruikmaakt van het Azure RDMA-netwerk wanneer het wordt geïmplementeerd op Linux-VM's die geschikt zijn voor RDMA. Zie Een Linux RDMA-cluster instellen met HPC Pack om MPI-toepassingen uit te voeren voor voorbeeldimplementaties.

Overwegingen bij de implementatie

  • Azure-abonnement: als u meer dan een paar rekenintensieve exemplaren wilt implementeren, kunt u een betalen per gebruik-abonnement of andere aankoopopties overwegen. Als u een gratis account van Azure gebruikt, kunt u slechts een paar Azure Compute-resources van Azure gebruiken.

  • Prijzen en beschikbaarheid: controleer de prijzen en beschikbaarheid van VM's per Azure-regio.

  • Kernquotum: mogelijk moet u het quotum voor kernen in uw Azure-abonnement verhogen van de standaardwaarde. Uw abonnement kan ook het aantal kernen beperken dat u in bepaalde VM-groottefamilies kunt implementeren, inclusief de H-serie. Als u een quotumverhoging wilt aanvragen, opent u gratis een online klantondersteuningsaanvraag. (Standaardlimieten kunnen variëren, afhankelijk van uw abonnementscategorie.)

    Notitie

    Neem contact Ondersteuning voor Azure als u behoefte hebt aan grootschalige capaciteit. Azure-quota zijn tegoedlimieten, geen capaciteitsgaranties. Ongeacht uw quotum worden er alleen kosten in rekening gebracht voor de kernen die u gebruikt.

  • Virtueel netwerk: een virtueel Azure-netwerk is niet vereist voor het gebruik van de rekenintensieve instanties. Voor veel implementaties hebt u echter ten minste een virtueel Azure-cloudnetwerk of een site-naar-site-verbinding nodig als u toegang nodig hebt tot on-premises resources. Maak indien nodig een nieuw virtueel netwerk om de exemplaren te implementeren. Het toevoegen van rekenintensieve VM's aan een virtueel netwerk in een affiniteitsgroep wordt niet ondersteund.

  • Het formaat van deze exemplaren kan worden uitgebreid: vanwege de gespecialiseerde hardware kunt u de grootte van rekenintensieve exemplaren alleen binnen dezelfde groottefamilie (H-serie of N-serie) groter maken. U kunt bijvoorbeeld alleen de grootte van een VM uit de H-serie van de ene H-serie naar de andere grootte. Aanvullende overwegingen met het oog op ondersteuning van InfiniBand-stuurprogramma's en NVMe-schijven moeten mogelijk worden overwogen voor bepaalde VM's.

Andere grootten

Volgende stappen