Storlekar på virtuella HPC-datorer

Varning

Den här artikeln refererar till CentOS, en Linux-distribution som närmar sig EOL-status (End Of Life). Överväg att använda och planera i enlighet med detta. Mer information finns i CentOS End Of Life-vägledningen.

Gäller för: ✔️ Virtuella Linux-datorer ✔️ med virtuella Windows-datorer ✔️ – flexibla skalningsuppsättningar ✔️ Enhetliga skalningsuppsättningar

Dricks

Prova väljareverktyget För virtuella datorer för att hitta andra storlekar som passar bäst för din arbetsbelastning.

Virtuella datorer i HBv4-serien är optimerade för olika HPC-arbetsbelastningar, till exempel beräkningsvätskedynamik, finita elementanalyser, klientdel , rendering, molekylär dynamik, beräkningsgeovetenskap, vädersimulering och analys av finansiella risker. Virtuella HBv4-datorer har upp till 176 AMD EPYC™ 9V33X -processorkärnor (GenoaX) med AMD:s 3D-V Cache, 768 GB RAM-minne och ingen samtidig multitrådning. Virtuella datorer i HBv4-serien ger också 780 GB/s DDR5-minnesbandbredd och 2 304 MB L3-cache per virtuell dator, till 12 GB/s (läsningar) och 7 GB/s (skrivningar) av blockenhetens SSD-prestanda och klockfrekvenser på upp till 3,7 GHz.

Alla virtuella datorer i HBv4-serien har 400 Gb/s NDR InfiniBand från NVIDIA-nätverk för att aktivera MPI-arbetsbelastningar i superdatorskala. Dessa virtuella datorer är anslutna i ett icke-blockerande fettträd för optimerade och konsekventa RDMA-prestanda. NDR fortsätter att stödja funktioner som adaptiv routning och dct (Dynamically Anslut ed Transport). Den här senaste generationen av InfiniBand ger också större stöd för avlastning av MPI-kollektiv, optimerade verkliga svarstider på grund av överbelastningskontrollinformation och förbättrade anpassningsbara routningsfunktioner. Dessa funktioner förbättrar programmets prestanda, skalbarhet och konsekvens, och deras användning rekommenderas.

Virtuella datorer i HBv3-serien är optimerade för HPC-program som vätskedynamik, explicit och implicit finita elementanalys, vädermodellering, seismisk bearbetning, reservoarsimulering och RTL-simulering. Virtuella HBv3-datorer har upp till 120 AMD EPYC™ 7003-seriens (MilanX)-processorkärnor, 448 GB RAM-minne och ingen hypertrådning. Virtuella datorer i HBv3-serien ger också 350 GB/s minnesbandbredd, upp till 32 MB L3-cache per kärna, upp till 7 GB/s SSD-prestanda för blockenheter och klockfrekvenser på upp till 3,5 GHz.

Alla virtuella datorer i HBv3-serien har 200 GB/sek HDR InfiniBand från NVIDIA i nätverk för MPI-arbetsbelastningar i superdatorskala. Dessa virtuella datorer är anslutna i ett icke-blockerande fettträd för optimerade och konsekventa RDMA-prestanda. HDR InfiniBand-infrastrukturresurserna har också stöd för adaptiv routning och dct (Dynamic Anslut ed Transport, förutom standardtransport av RC och UD). Dessa funktioner förbättrar programmets prestanda, skalbarhet och konsekvens, och deras användning rekommenderas starkt.

Virtuella datorer i HBv2-serien är optimerade för program som drivs av minnesbandbredd, till exempel vätskedynamik, finita elementanalyser och simulering av reservoarer. Virtuella HBv2-datorer har 120 AMD EPYC 7742-processorkärnor, 4 GB RAM per CPU-kärna och ingen samtidig multitrådning. Varje virtuell HBv2-dator ger upp till 340 GB/sek minnesbandbredd och upp till 4 teraFLOPS FP64-beräkning.

Virtuella HBv2-datorer har 200 Gb/sek Mellanox HDR InfiniBand, medan både HB- och HC-seriens virtuella datorer har 100 Gb/sek Mellanox Identifiering och åtgärd på slutpunkt InfiniBand. Var och en av dessa typer av virtuella datorer är ansluten i ett icke-blockerande fettträd för optimerade och konsekventa RDMA-prestanda. Virtuella HBv2-datorer har stöd för anpassningsbar routning och dct (Dynamic Anslut ed Transport, utöver standardtransport av RC och UD). Dessa funktioner förbättrar programmets prestanda, skalbarhet och konsekvens, och deras användning rekommenderas starkt.

Virtuella datorer i HB-serien är optimerade för program som drivs av minnesbandbredd, till exempel vätskedynamik, explicit finita elementanalyser och vädermodellering. Virtuella HB-datorer har 60 AMD EPYC 7551-processorkärnor, 4 GB RAM per CPU-kärna och ingen hypertrådning. AMD EPYC-plattformen tillhandahåller minnesbandbredd på över 260 GB/sek.

Virtuella datorer i HC-serien är optimerade för program som drivs av tät beräkning, till exempel implicit finita elementanalyser, molekylär dynamik och beräkningskemi. Virtuella HC-datorer har 44 Intel Xeon Platinum 8168-processorkärnor, 8 GB RAM per CPU-kärna och ingen hypertrådning. Intel Xeon Platinum-plattformen stöder Intels omfattande ekosystem av programvaruverktyg som Intel Math Kernel Library.

Virtuella datorer i HX-serien är optimerade för arbetsbelastningar som kräver betydande minneskapacitet med dubbelt så hög minneskapacitet som HBv4. Arbetsbelastningar som kiseldesign kan till exempel använda virtuella datorer i HX-serien för att göra det möjligt för EDA-kunder som riktar in sig på de mest avancerade tillverkningsprocesserna att köra sina mest minnesintensiva arbetsbelastningar. Virtuella HX-datorer har upp till 176 AMD EPYC™ 9V33X-processorkärnor (GenoaX), 1 408 GB RAM-minne och ingen samtidig multitrådning. Virtuella datorer i HX-serien ger också 780 GB/s DDR5-minnesbandbredd och 2 304 MB L3-cache per virtuell dator, upp till 12 GB/s (läsningar) och 7 GB/s (skrivningar) av blockenhetens SSD-prestanda och klockfrekvenser på upp till 3,7 GHz.

Kommentar

Alla virtuella datorer i HBv4, HBv3, HBv2, HB, HC och HX-serien har exklusiv åtkomst till de fysiska servrarna. Det finns bara en virtuell dator per fysisk server och det finns ingen delad multi-innehavare med andra virtuella datorer för dessa VM-storlekar.

RDMA-kompatibla instanser

De flesta storlekar på virtuella HPC-datorer har ett nätverksgränssnitt för fjärranslutning till direkt minnesåtkomst (RDMA). De valda N-seriens storlekar som är avsedda med "r" är också RDMA-kompatibla. Det här gränssnittet är utöver det vanliga Azure Ethernet-nätverksgränssnittet som är tillgängligt i de andra VM-storlekarna.

Med det här sekundära gränssnittet kan RDMA-kompatibla instanser kommunicera via ett IB-nätverk (InfiniBand) som körs med HDR-priser för HBv3, HBv2, Identifiering och åtgärd på slutpunkt för HB-, HC-, NDv2- och FDR-priser för H16r, H16mr och andra virtuella RDMA-kompatibla virtuella datorer i N-serien. Dessa RDMA-funktioner kan öka skalbarheten och prestandan för MPI-baserade program (Message Passing Interface).

Kommentar

SR-IOV-stöd: I Azure HPC finns det för närvarande två klasser av virtuella datorer beroende på om de är SR-IOV aktiverade för InfiniBand. För närvarande är nästan alla nyare, RDMA-kompatibla eller InfiniBand-aktiverade virtuella datorer i Azure SR-IOV aktiverade förutom H16r, H16mr och NC24r. RDMA aktiveras endast via InfiniBand-nätverket (IB) och stöds för alla RDMA-kompatibla virtuella datorer. IP via IB stöds endast på de virtuella datorerna som är SR-IOV-aktiverade. RDMA är inte aktiverat via Ethernet-nätverket.

Konfigurationsalternativ för kluster

Azure har flera alternativ för att skapa kluster med virtuella HPC-datorer som kan kommunicera med RDMA-nätverket, inklusive:

  • Virtuella datorer – Distribuera de RDMA-kompatibla virtuella HPC-datorerna i samma skalningsuppsättning eller tillgänglighetsuppsättning (när du använder Azure Resource Manager-distributionsmodellen). Om du använder den klassiska distributionsmodellen distribuerar du de virtuella datorerna i samma molntjänst.

  • Vm-skalningsuppsättningar – I en VM-skalningsuppsättning kontrollerar du att du begränsar distributionen till en enda placeringsgrupp för InfiniBand-kommunikation i skalningsuppsättningen. I en Resource Manager-mall anger du singlePlacementGroup till exempel egenskapen till true. Observera att den maximala skalningsuppsättningsstorleken som kan spunnas upp med singlePlacementGroup=true är begränsad till 100 virtuella datorer som standard. Om dina HPC-jobbskalningsbehov är högre än 100 virtuella datorer i en enda klientorganisation kan du begära en ökning, öppna en kundsupportbegäran online utan kostnad. Gränsen för antalet virtuella datorer i en enda skalningsuppsättning kan ökas till 300. Observera att när du distribuerar virtuella datorer med hjälp av tillgänglighetsuppsättningar är maxgränsen 200 virtuella datorer per tillgänglighetsuppsättning.

    Kommentar

    MPI mellan virtuella datorer: Om RDMA (t.ex. användning av MPI-kommunikation) krävs mellan virtuella datorer (VM) kontrollerar du att de virtuella datorerna finns i samma VM-skalningsuppsättning eller tillgänglighetsuppsättning.

  • Azure CycleCloud – Skapa ett HPC-kluster med Hjälp av Azure CycleCloud för att köra MPI-jobb.

  • Azure Batch – Skapa en Azure Batch-pool för att köra MPI-arbetsbelastningar. Information om hur du använder beräkningsintensiva instanser när du kör MPI-program med Azure Batch finns i Använda aktiviteter med flera instanser för att köra MPI-program (Message Passing Interface) i Azure Batch.

  • Microsoft HPC Pack - HPC Pack innehåller en körningsmiljö för MS-MPI som använder Azure RDMA-nätverket när det distribueras på RDMA-kompatibla virtuella Linux-datorer. Exempel på distributioner finns i Konfigurera ett Linux RDMA-kluster med HPC Pack för att köra MPI-program.

Att tänka på vid distribuering

  • Azure-prenumeration – Om du vill distribuera fler än några beräkningsintensiva instanser bör du överväga en betala per användning-prenumeration eller andra köpalternativ. Om du använder ett kostnadsfritt Azure-konto kan du bara använda ett begränsat antal Azure Compute-kärnor.

  • Priser och tillgänglighet – Kontrollera priser och tillgänglighet för virtuella datorer efter Azure-regioner.

  • Kärnkvot – Du kan behöva öka kärnkvoten i din Azure-prenumeration från standardvärdet. Din prenumeration kan också begränsa antalet kärnor som du kan distribuera i vissa vm-storleksfamiljer, inklusive H-serien. Om du vill begära en ökning av kvoten kan du öppna ett kundsupportärende online utan kostnad. (Standardgränserna kan variera beroende på din prenumerationskategori.)

    Kommentar

    Kontakta Azure Support om du har storskaliga kapacitetsbehov. Azure-kvoter är kreditgränser, inte kapacitetsgarantier. Oavsett din kvot debiteras du bara för kärnor som du använder.

  • Virtuellt nätverk – Ett virtuellt Azure-nätverk krävs inte för att använda beräkningsintensiva instanser. För många distributioner behöver du dock minst ett molnbaserat virtuellt Azure-nätverk eller en plats-till-plats-anslutning om du behöver komma åt lokala resurser. När det behövs skapar du ett nytt virtuellt nätverk för att distribuera instanserna. Det går inte att lägga till beräkningsintensiva virtuella datorer i ett virtuellt nätverk i en tillhörighetsgrupp.

  • Storleksändring – På grund av deras specialiserade maskinvara kan du bara ändra storlek på beräkningsintensiva instanser inom samma storleksfamilj (H-serien eller N-serien). Du kan till exempel bara ändra storlek på en virtuell dator i H-serien från en H-seriestorlek till en annan. Ytterligare överväganden kring InfiniBand-drivrutinsstöd och NVMe-diskar kan behöva övervägas för vissa virtuella datorer.

Andra storlekar

Nästa steg