Storlekar på virtuella HPC-datorer

Gäller för: ✔️ Virtuella Linux-datorer ✔️ Windows virtuella datorer:heavy_check_mark: Flexibla skalningsuppsättningar:heavy_check_mark: Enhetliga skalningsuppsättningar

Tips

Prova väljarverktyget För virtuella datorer för att hitta andra storlekar som passar din arbetsbelastning bäst.

Virtuella datorer i Azure H-serien är utformade för att leverera högpresterande prestanda, skalbarhet och kostnadseffektivitet för olika verkliga HPC-arbetsbelastningar.

HBv3-serien Virtuella datorer är optimerade för HPC-program som strömningsdynamik, explicit och implicit analys av finita element, vädermodellering, seismisk bearbetning, reservoarsimulering och RTL-simulering. Virtuella HBv3-datorer har upp till 120 AMD EPYC™ processorkärnor i 7003-serien (Cpu), 448 GB RAM-minne och ingen hypertrådning. Virtuella datorer i HBv3-serien ger också 350 GB/sek minnesbandbredd, upp till 32 MB L3-cache per kärna, upp till 7 GB/s blockenhets SSD-prestanda och klockfrekvenser upp till 3,675 GHz.

Alla virtuella datorer i HBv3-serien har en infiniBand på 200 Gb/sek från NVIDIA Networking för att aktivera MPI-arbetsbelastningar i superdatorskala. De här virtuella datorerna är anslutna i ett icke-blockerande fat tree för optimerad och konsekvent RDMA-prestanda. INFINIBand-infrastrukturinfrastrukturen har även stöd för anpassningsbar routning och DCT (Dynamic Connected Transport), utöver standard-RC- och UD-transporter. Dessa funktioner förbättrar programmets prestanda, skalbarhet och konsekvens och deras användning rekommenderas starkt.

HBv2-serien Virtuella datorer är optimerade för program som drivs av minnesbandbredd, till exempel strömningsdynamik, analys av finita element och reservoarsimulering. Virtuella HBv2-datorer har 120 AMD EPYC 7742-processorkärnor, 4 GB RAM-minne per processorkärna och ingen samtidig flertrådsfunktion. Varje virtuell HBv2-dator ger upp till 340 GB/sek minnesbandbredd och upp till 4 teraFLOPS FP64-beräkning.

Virtuella HBv2-datorer har en funktion på 200 Gb/sek Mellanox OEM InfiniBand, medan virtuella datorer i både HB- och HC-serien har mellanox-Identifiering och åtgärd på slutpunkt InfiniBand på 100 Gb/s. Var och en av dessa typer av virtuella datorer är anslutna i ett icke-blockerande fet träd för optimerad och konsekvent RDMA-prestanda. Virtuella HBv2-datorer stöder anpassningsbar routning och dynamisk ansluten transport (DCT, förutom standard RC- och UD-transporter). Dessa funktioner förbättrar programmets prestanda, skalbarhet och konsekvens och deras användning rekommenderas starkt.

HB-serien Virtuella datorer är optimerade för program som drivs av minnesbandbredd, till exempel strömningsdynamik, explicit analys med finita element och vädermodellering. Virtuella HB-datorer har 60 AMD EPYC 7551-processorkärnor, 4 GB RAM-minne per processorkärna och ingen hypertrådning. AMD EPYC-plattformen ger mer än 260 GB/sek minnesbandbredd.

HC-serien Virtuella datorer är optimerade för program som drivs av kompakt beräkning, till exempel implicit analys av finita element, molekyldynamik och beräkningskemi. De virtuella HC-datorerna har 44 Intel Xeon Gigabyte 8168-processorkärnor, 8 GB RAM-minne per processorkärna och ingen hypertrådning. Intel Xeon Platform-plattformen stöder Intels omfattande ekosystem med programvaruverktyg som Intel Math Kernel Library.

H-serien Virtuella datorer är optimerade för program som drivs av höga processorfrekvenser eller stora minneskrav per kärna. Virtuella datorer i H-serien har 8 eller 16 Intel Xeon E5 2667 v3-processorkärnor, 7 eller 14 GB RAM-minne per processorkärna och ingen hypertrådning. H-serien har 56 Gb/sek Mellanox FDR InfiniBand i en icke-blockerande fat tree-konfiguration för konsekvent RDMA-prestanda. Virtuella datorer i H-serien stöder Intel MPI 5.x och MS-MPI.

Anteckning

Alla virtuella datorer i HBv3-, HBv2-, HB- och HC-serien har exklusiv åtkomst till de fysiska servrarna. Det finns bara en virtuell dator per fysisk server och det finns ingen delad flera innehavare med andra virtuella datorer för dessa VM-storlekar.

Anteckning

De virtuella A8– A11-datorerna dras tillbaka från och med 3/2021. Inga nya VM-distributioner av dessa storlekar är nu möjliga. Om du har befintliga virtuella datorer kan du gå till e-postaviseringar för nästa steg, inklusive migrering till andra VM-storlekar i HPC-migreringsguiden.

RDMA-kompatibla instanser

De flesta av HPC VM-storlekarna har ett nätverksgränssnitt för RDMA-anslutning (Remote Direct Memory Access). Valda N-seriestorlekar som anges med "r" är också RDMA-kompatibla. Det här gränssnittet är utöver det standardnätverksgränssnitt för Azure Ethernet som är tillgängligt i de andra VM-storlekarna.

Med det här sekundära gränssnittet kan DE RDMA-kompatibla instanserna kommunicera via ett InfiniBand-nätverk (IB), som fungerar enligt FREKVENSEN FÖR HBv3, HBv2, Identifiering och åtgärd på slutpunkt för HB-, HC-, NDv2- och FDR-priser för H16r, H16mr och andra RDMA-kompatibla virtuella datorer i N-serien. Dessa RDMA-funktioner kan öka skalbarheten och prestandan för Message Passing Interface (MPI)-baserade program.

Anteckning

Stöd för SR-IOV: I Azure HPC finns det för närvarande två klasser av virtuella datorer beroende på om de är SR-IOV-aktiverade för InfiniBand. För närvarande är nästan alla nyare generationens RDMA-kompatibla eller InfiniBand-aktiverade virtuella datorer i Azure SR-IOV-aktiverade förutom H16r, H16mr och NC24r. RDMA är endast aktiverat i InfiniBand-nätverket (IB) och stöds för alla RDMA-kompatibla virtuella datorer. IP över IB stöds endast på de SR-IOV-aktiverade virtuella datorerna. RDMA är inte aktiverat via Ethernet-nätverket.

  • Operativsystem – Linux-distributioner som CentOS, RHEL, Ubuntu och SUSE används ofta. Windows Server 2016 och nyare versioner stöds på alla virtuella datorer i HPC-serien. Windows Server 2012 R2 och Windows Server 2012 också på virtuella datorer som inte är SR-IOV-aktiverade. Observera att Windows Server 2012 R2 inte stöds på HBv2 och framåt som VM-storlekar med fler än 64 (virtuella eller fysiska) kärnor. Se VM-avbildningar för en lista över VM-avbildningar som stöds på Marketplace och hur de kan konfigureras på rätt sätt. På respektive sidor för VM-storlek visas även stöd för programstacken.

  • InfiniBand och drivrutiner – På InfiniBand-aktiverade virtuella datorer krävs lämpliga drivrutiner för att aktivera RDMA. Se VM-avbildningar för en lista över VM-avbildningar som stöds på Marketplace och hur de kan konfigureras på rätt sätt. Se även aktivera InfiniBand om du vill veta mer om VM-tillägg eller manuell installation av InfiniBand-drivrutiner.

  • MPI – Med SR-IOV-aktiverade VM-storlekar i Azure kan nästan alla varianter av MPI användas med Mellanox OFED. På icke-SR-IOV-aktiverade virtuella datorer använder MPI-implementeringar som stöds Gränssnittet Microsoft Network Direct (ND) för att kommunicera mellan virtuella datorer. Därför stöds endast Intel MPI 5.x och Microsoft MPI (MS-MPI) 2012 R2 eller senare versioner. Senare versioner av Intel MPI-körningsbiblioteket kan vara kompatibla med Azure RDMA-drivrutinerna. Se Konfigurera MPI för HPC för mer information om hur du ställer in MPI på virtuella HPC-datorer på Azure.

    Anteckning

    RDMA-nätverksadressutrymme: RDMA-nätverket i Azure reserverar adressutrymmet 172.16.0.0/16. Om du vill köra MPI-program på instanser som distribuerats i ett virtuellt Azure-nätverk kontrollerar du att adressutrymmet för det virtuella nätverket inte överlappar RDMA-nätverket.

Konfigurationsalternativ för kluster

Azure erbjuder flera alternativ för att skapa kluster av virtuella HPC-datorer som kan kommunicera med RDMA-nätverket, inklusive:

  • Virtuella datorer – Distribuera rdma-kompatibla virtuella HPC-datorer i samma skalningsuppsättning eller tillgänglighetsuppsättning (när du använder Azure Resource Manager-distributionsmodellen). Om du använder den klassiska distributionsmodellen distribuerar du de virtuella datorerna i samma molntjänst.

  • VM-skalningsuppsättningar – I en VM-skalningsuppsättning ser du till att begränsa distributionen till en enda placeringsgrupp för InfiniBand-kommunikation i skalningsuppsättningen. I en mall Resource Manager du egenskapen singlePlacementGroup till true . Observera att den maximala skalningsuppsättningsstorleken som kan användas är högst singlePlacementGroup=true 100 virtuella datorer som standard. Om behoven för HPC-jobbskalning är högre än 100 virtuella datorer i en enda klientorganisation kan du begära en ökning, öppna en kundsupportbegäran online utan kostnad. Gränsen för antalet virtuella datorer i en enda skalningsuppsättning kan ökas till 300. Observera att när du distribuerar virtuella datorer med tillgänglighetsuppsättningar är den maximala gränsen på 200 virtuella datorer per tillgänglighetsuppsättning.

    Anteckning

    MPI mellan virtuella datorer: Om RDMA (t.ex. med MPI-kommunikation) krävs mellan virtuella datorer (VM) ska du se till att de virtuella datorerna finns i samma VM-skalningsuppsättning eller tillgänglighetsuppsättning.

  • Azure CycleCloud – Skapa ett HPC-kluster med Azure CycleCloud köra MPI-jobb.

  • Azure Batch – Skapa en Azure Batch för att köra MPI-arbetsbelastningar. Om du vill använda beräkningsintensiva instanser när du kör MPI-program med Azure Batch kan du se Använda aktiviteter med flera instanser för att köra Message Passing Interface-program (MPI) i Azure Batch.

  • Microsoft HPC Pack - HPC Pack innehåller en körningsmiljö för MS-MPI som använder Azure RDMA-nätverket när det distribueras på RDMA-kompatibla virtuella Linux-datorer. Exempeldistributioner finns i Konfigurera ett Linux RDMA-kluster med HPC Pack för att köra MPI-program.

Distributionsöverväganden

  • Azure-prenumeration – Om du vill distribuera fler än några beräkningsintensiva instanser bör du överväga en prenumeration där du betalar per användning eller andra köpalternativ. Om du använder ett kostnadsfritt Azure-konto kan du bara använda ett begränsat antal Azure Compute-kärnor.

  • Priser och tillgänglighet – Kontrollera priser och tillgänglighet för virtuella datorer efter Azure-regioner.

  • Kärnkvot – Du kan behöva öka kärnkvoten i din Azure-prenumeration från standardvärdet. Din prenumeration kan också begränsa antalet kärnor som du kan distribuera i vissa VM-storleksfamiljer, inklusive H-serien. Om du vill begära en kvotökning öppnar du en supportbegäran online utan kostnad. (Standardgränserna kan variera beroende på din prenumerationskategori.)

    Anteckning

    Kontakta Azure Support om du har storskaliga kapacitetsbehov. Azure-kvoter är kreditgränser, inte kapacitetsgarantier. Oavsett din kvot debiteras du bara för kärnor som du använder.

  • Virtuellt nätverk – Ett virtuellt Azure-nätverk krävs inte för att använda de beräkningsintensiva instanserna. För många distributioner behöver du dock minst ett molnbaserat virtuellt Azure-nätverk eller en plats-till-plats-anslutning om du behöver åtkomst till lokala resurser. Skapa vid behov ett nytt virtuellt nätverk för att distribuera instanserna. Det går inte att lägga till beräkningsintensiva virtuella datorer i ett virtuellt nätverk i en tillhörighetsgrupp.

  • Storleksändring – På grund av deras specialiserade maskinvara kan du bara ändra storlek på beräkningsintensiva instanser inom samma storleksfamilj (H-serien eller N-serien). Du kan till exempel bara ändra storlek på en virtuell dator i H-serien från en H-seriestorlek till en annan. Ytterligare överväganden kring stöd för InfiniBand-drivrutin och NVMe-diskar kan behöva övervägas för vissa virtuella datorer.

Andra storlekar

Nästa steg