High-Performance Computing (HPC): VM-GrößenHigh performance computing VM sizes

Virtuelle Azure-Computer (Azure-VMs) der H-Serie bieten eine herausragende Leistung, Skalierbarkeit und Kosteneffizienz für verschiedene HPC-Workloads in der Praxis.Azure H-series virtual machines (VMs) are designed to deliver leadership-class performance, scalability, and cost efficiency for various real-world HPC workloads.

VMs der HBv3-Serie sind für HPC-Anwendungen optimiert, wie z. B. Strömungssimulationen, explizite und implizite Finite-Elemente-Analysen, Wettermodellierung, seismische Erkundung, Lagerstätten- und RTL-Simulationen.HBv3-series VMs are optimized for HPC applications such as fluid dynamics, explicit and implicit finite element analysis, weather modeling, seismic processing, reservoir simulation, and RTL simulation. HBv3-VMs verfügen über bis zu 120 CPU-Kerne der AMD EPYC™ 7003-Serie (Milan), 448 GB RAM und kein Hyperthreading.HBv3 VMs feature up to 120 AMD EPYC™ 7003-series (Milan) CPU cores, 448 GB of RAM, and no hyperthreading. Außerdem bieten VMs der HBv3-Serie eine Arbeitsspeicherbandbreite von 350 GB/s, bis zu 32 MB L3-Cache pro Kern, bis zu 7 GB/s der Blockgeräte-SSD-Leistung und Taktfrequenzen von bis zu 3,675 GHz.HBv3-series VMs also provide 350 GB/sec of memory bandwidth, up to 32 MB of L3 cache per core, up to 7 GB/s of block device SSD performance, and clock frequencies up to 3.675 GHz.

Alle VMs der HBv3-Serie bieten 200 GBit/s HDR InfiniBand aus dem NVIDIA-Netzwerk für MPI-Workloads wie bei Supercomputern.All HBv3-series VMs feature 200 Gb/sec HDR InfiniBand from NVIDIA Networking to enable supercomputer-scale MPI workloads. Diese VMs sind für eine optimierte und konsistente RDMA-Leistung in einer FAT-Struktur ohne Blocks verbunden.These VMs are connected in a non-blocking fat tree for optimized and consistent RDMA performance. Das HDR InfiniBand-Fabric unterstützt auch adaptives Routing und DCT (Dynamic Connected Transport, zusätzlich zum standardmäßigen RC- und UD-Transport).The HDR InfiniBand fabric also supports Adaptive Routing and the Dynamic Connected Transport (DCT, in addition to standard RC and UD transports). Diese Features verbessern die Anwendungsleistung, Skalierbarkeit und Konsistenz, und ihre Verwendung wird dringend empfohlen.These features enhance application performance, scalability, and consistency, and their usage is strongly recommended.

VMs der HBv2-Serie sind für Anwendungen mit hohen Anforderungen an die Speicherbandbreite optimiert, z. B. Strömungssimulationen, Finite-Element-Analysen oder Lagerstättensimulationen.HBv2-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, finite element analysis, and reservoir simulation. HBv2-VMs bieten 120 AMD-Prozessorkerne des Modells EPYC 7742, 4 GB RAM pro CPU-Kern und kein gleichzeitiges Multithreading.HBv2 VMs feature 120 AMD EPYC 7742 processor cores, 4 GB of RAM per CPU core, and no simultaneous multithreading. Jede HBv2-VM bietet eine Speicherbandbreite von bis zu 340 Gbit/s und eine FP64-Computeleistung von bis zu 4 TeraFLOP.Each HBv2 VM provides up to 340 GB/sec of memory bandwidth, and up to 4 teraFLOPS of FP64 compute.

HBv2-VMs unterstützen Mellanox HDR InfiniBand mit 200 GBit/s, und VMs der Serien HB und HC unterstützen Mellanox EDR InfiniBand mit 100 GBit/s.HBv2 VMs feature 200 Gb/sec Mellanox HDR InfiniBand, while both HB and HC-series VMs feature 100 Gb/sec Mellanox EDR InfiniBand. Jeder dieser VM-Typen ist für eine optimierte und konsistente RDMA-Leistung in einer FAT-Struktur ohne Blocks verbunden.Each of these VM types is connected in a non-blocking fat tree for optimized and consistent RDMA performance. HBv2-VMs unterstützen adaptives Routing und DCT (Dynamic Connected Transport, zusätzlich zum standardmäßigen RC- und UD-Transport).HBv2 VMs support Adaptive Routing and the Dynamic Connected Transport (DCT, in addition to standard RC and UD transports). Diese Features verbessern die Anwendungsleistung, Skalierbarkeit und Konsistenz, und ihre Verwendung wird dringend empfohlen.These features enhance application performance, scalability, and consistency, and their usage is strongly recommended.

VMs der HB-Serie sind für Anwendungen mit hohen Anforderungen an die Speicherbandbreite optimiert, z. B. Strömungssimulationen, explizite Finite-Elemente-Analysen oder Wettermodelle.HB-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, explicit finite element analysis, and weather modeling. HB-VMs bieten 60 AMD-Prozessorkerne des Modells EPYC 7551, 4 GB RAM pro CPU-Kern und kein Hyperthreading.HB VMs feature 60 AMD EPYC 7551 processor cores, 4 GB of RAM per CPU core, and no hyperthreading. Die AMD EPYC-Plattform bietet eine Speicherbandbreite von mehr als 260 GB/Sekunde.The AMD EPYC platform provides more than 260 GB/sec of memory bandwidth.

VMs der HC-Serie sind für Anwendungen mit hohen Anforderungen an die Rechenleistung optimiert, z. B. implizite Finite-Elemente-Analysen, Molekulardynamik oder Chemoinformatik.HC-series VMs are optimized for applications driven by dense computation, such as implicit finite element analysis, molecular dynamics, and computational chemistry. HC-VMs bieten 44 Intel-Prozessorkerne des Modells Xeon Platinum 8168, 8 GB RAM pro CPU-Kern und kein Hyperthreading.HC VMs feature 44 Intel Xeon Platinum 8168 processor cores, 8 GB of RAM per CPU core, and no hyperthreading. Die Intel Xeon Platinum-Plattform unterstützt Intels umfangreiches Ökosystem von Softwaretools, etwa die Intel Math Kernel Library.The Intel Xeon Platinum platform supports Intel’s rich ecosystem of software tools such as the Intel Math Kernel Library.

VMs der H-Serie sind für Anwendungen optimiert, für die Anforderungen hinsichtlich hoher CPU-Frequenzen oder großem Arbeitsspeicher pro Kern gelten.H-series VMs are optimized for applications driven by high CPU frequencies or large memory per core requirements. Virtuelle Computer der H-Serie bieten 8 oder 16 Intel-Prozessorkerne des Modells Xeon E5 2667 v3, 7 oder 14 GB RAM pro CPU-Kern und kein Hyperthreading.H-series VMs feature 8 or 16 Intel Xeon E5 2667 v3 processor cores, 7 or 14 GB of RAM per CPU core, and no hyperthreading. Die H-Serie unterstützt Mellanox EDR InfiniBand mit 56 GBit/s in einer FAT-Strukturkonfiguration ohne Blocks für einheitliche RDMA-Leistung.H-series features 56 Gb/sec Mellanox FDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. Virtuelle Computer der H-Serie unterstützen Intel MPI 5.x und MS-MPI.H-series VMs support Intel MPI 5.x and MS-MPI.

Hinweis

Alle VMs der HBv3-, HBv2-, HB- und HC-Serie haben exklusiven Zugriff auf die physischen Server.All HBv3, HBv2, HB, and HC-series VMs have exclusive access to the physical servers. Es ist nur ein virtueller Computer pro physischem Server vorhanden, und für diese VM-Größen gibt es keine freigegebene Mehrinstanzenfähigkeit mit anderen VMs.There is only 1 VM per physical server and there is no shared multi-tenancy with any other VMs for these VM sizes.

Hinweis

Die A8- bis A11-VMs werden ab März 2021 außer Betrieb genommen.The A8 – A11 VMs are retired as of 3/2021. Es sind keine neuen VM-Bereitstellungen dieser Größen mehr möglich.No new VM deployments of these sizes are now possible. Wenn Sie über vorhandene VMs verfügen, finden Sie in den E-Mail-Benachrichtigungen Informationen zu den nächsten Schritten und im HPC-Migrationsleitfaden Informationen zur Migration zu anderen VM-Größen.If you have existing VMs, refer to emailed notifications for next steps including migrating to other VM sizes in HPC Migration Guide.

RDMA-fähige InstanzenRDMA-capable instances

Die meisten HPC-VM-Größen verfügen über eine Netzwerkschnittstelle für RDMA-Verbindungen (Remote Direct Memory Access).Most of the HPC VM sizes feature a network interface for remote direct memory access (RDMA) connectivity. Ausgewählte Größen der N-Serie mit dem Zusatz „r“ sind ebenfalls RDMA-fähig.Selected N-series sizes designated with 'r' are also RDMA-capable. Diese Schnittstelle steht zusätzlich zur standardmäßigen Azure-Ethernet-Netzwerkschnittstelle in anderen VM-Größen zur Verfügung.This interface is in addition to the standard Azure Ethernet network interface available in the other VM sizes.

Mithilfe dieser zweiten Schnittstelle können die RDMA-fähigen Instanzen über ein InfiniBand-Netzwerk (IB) kommunizieren, das mit HDR-Raten für virtuelle Computer der Größen HBv3, HBv2, EDR-Raten für virtuelle Computer der Größen HB, HC, NDv2 sowie mit FDR-Raten für virtuelle Computer der Größen H16r und H16mr sowie andere für RDMA-fähige virtuelle Computer der N-Serie betrieben wird.This secondary interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at HDR rates for HBv3, HBv2, EDR rates for HB, HC, NDv2, and FDR rates for H16r, H16mr, and other RDMA-capable N-series virtual machines. Durch diese RDMA-Funktionen können Skalierbarkeit und Leistung von MPI-basierten Anwendungen (Message Passing Interface) gesteigert werden.These RDMA capabilities can boost the scalability and performance of Message Passing Interface (MPI) based applications.

Hinweis

SR-IOV-Unterstützung: In Azure HPC gibt es derzeit zwei Klassen von virtuellen Computern, je nachdem, ob sie SR-IOV-fähig für InfiniBand sind.SR-IOV support: In Azure HPC, currently there are two classes of VMs depending on whether they are SR-IOV enabled for InfiniBand. Derzeit sind fast alle für RDMA oder InfiniBand geeigneten VMs der neueren Generation in Azure SR-IOV-fähig – mit Ausnahme von H16r, H16mr und NC24r.Currently, almost all the newer generation, RDMA-capable or InfiniBand enabled VMs on Azure are SR-IOV enabled except for H16r, H16mr, and NC24r. RDMA kann nur über das IB-Netzwerk (InfiniBand) verwendet werden und wird für alle RDMA-fähigen virtuellen Computer unterstützt.RDMA is only enabled over the InfiniBand (IB) network and is supported for all RDMA-capable VMs. „IP over IB“ wird nur auf den SR-IOV-fähigen virtuellen Computern unterstützt.IP over IB is only supported on the SR-IOV enabled VMs. RDMA kann nicht über das Ethernet-Netzwerk verwendet werden.RDMA is not enabled over the Ethernet network.

  • Betriebssystem: Häufig werden Linux-Distributionen wie CentOS, RHEL, Ubuntu und SUSE verwendet.Operating System - Linux distributions such as CentOS, RHEL, Ubuntu, SUSE are commonly used. Windows Server 2016 oder höher wird auf allen virtuellen Computern der HPC-Serie unterstützt.Windows Server 2016 and newer versions are supported on all the HPC series VMs. Windows Server 2012 R2 und Windows Server 2012 werden auch auf virtuellen Computern unterstützt, die nicht SR-IOV-fähig sind.Windows Server 2012 R2 and Windows Server 2012 are also supported on the non-SR-IOV enabled VMs. Beachten Sie, dass Windows Server 2012 R2 ab HBv2 als VM-Größe mit mehr als 64 (virtuellen oder physischen) Kernen nicht unterstützt wird.Note that Windows Server 2012 R2 is not supported on HBv2 onwards as VM sizes with more than 64 (virtual or physical) cores. Unter Optimierung für Linux finden Sie eine Liste der unterstützten VM-Images im Marketplace und Informationen dazu, wie diese entsprechend konfiguriert werden.See VM Images for a list of supported VM Images on the Marketplace and how they can be configured appropriately. Auf den jeweiligen Seiten zur VM-Größe ist auch die Unterstützung des Softwarestapels aufgeführt.The respective VM size pages also list out the software stack support.

  • InfiniBand und Treiber: Auf InfiniBand-fähigen virtuellen Computern sind die entsprechenden Treiber erforderlich, um RDMA zu aktivieren.InfiniBand and Drivers - On InfiniBand enabled VMs, the appropriate drivers are required to enable RDMA. Unter Optimierung für Linux finden Sie eine Liste der unterstützten VM-Images im Marketplace und Informationen dazu, wie diese entsprechend konfiguriert werden.See VM Images for a list of supported VM Images on the Marketplace and how they can be configured appropriately. Weitere Informationen zu VM-Erweiterungen oder zur manuellen Installation von InfiniBand-Treibern finden Sie auch unter Aktivieren von InfiniBand.Also see enabling InfiniBand to learn about VM extensions or manual installation of InfiniBand drivers.

  • MPI: Die SR-IOV-fähigen VM-Größen in Azure gestatten die Verwendung nahezu jeder Variante von MPI mit Mellanox OFED.MPI - The SR-IOV enabled VM sizes on Azure allow almost any flavor of MPI to be used with Mellanox OFED. Auf nicht SR-IOV-fähigen virtuellen Computern verwenden unterstützte MPI-Implementierungen die Microsoft Network Direct-Schnittstelle (ND) für die Kommunikation zwischen virtuellen Computern.On non-SR-IOV enabled VMs, supported MPI implementations use the Microsoft Network Direct (ND) interface to communicate between VMs. Daher werden nur die Versionen ab Intel MPI 5.x und Microsoft MPI (MS-MPI) 2012 R2 unterstützt.Hence, only Intel MPI 5.x and Microsoft MPI (MS-MPI) 2012 R2 or later versions are supported. Höhere Versionen der Intel MPI-Laufzeitbibliothek sind möglicherweise nicht mit den Azure-RDMA-Treibern kompatibel.Later versions of the Intel MPI runtime library may or may not be compatible with the Azure RDMA drivers. Details zum Einrichten von MPI (Message Passing Interface) auf HPC-VMs in Azure finden Sie unter Einrichten von Message Passing Interface für HPC.See Setup MPI for HPC for more details on setting up MPI on HPC VMs on Azure.

    Hinweis

    RDMA-Netzwerkadressbereich: Das RDMA-Netzwerk in Azure reserviert sich den Adressbereich 172.16.0.0/16.RDMA network address space: The RDMA network in Azure reserves the address space 172.16.0.0/16. Wenn Sie MPI-Anwendungen auf Instanzen ausführen möchten, die in einem virtuellen Azure-Netzwerk bereitgestellt wurden, vergewissern Sie sich, dass der Adressraum des virtuellen Netzwerks sich nicht mit dem RDMA-Netzwerk überschneidet.To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.

Konfigurationsoptionen für ClusterCluster configuration options

Azure bietet mehrere Optionen zum Erstellen von Clustern von HPC-VMs, die über das RDMA-Netzwerk kommunizieren können, darunter Folgende:Azure provides several options to create clusters of HPC VMs that can communicate using the RDMA network, including:

  • Virtuelle Computer: Stellen Sie die RDMA-fähigen HPC-VMs in derselben Skalierungsgruppe oder Verfügbarkeitsgruppe bereit (wenn Sie das Azure Resource Manager-Bereitstellungsmodell verwenden).Virtual machines - Deploy the RDMA-capable HPC VMs in the same scale set or availability set (when you use the Azure Resource Manager deployment model). Stellen Sie die VMs bei Verwendung des klassischen Bereitstellungsmodells im gleichen Clouddienst bereit.If you use the classic deployment model, deploy the VMs in the same cloud service.

  • VM-Skalierungsgruppen: Stellen Sie bei Verwendung einer VM-Skalierungsgruppe sicher, dass Sie die Bereitstellung auf eine einzelne Platzierungsgruppe für InfiniBand-Kommunikation in der Skalierungsgruppe beschränken.Virtual machine scale sets - In a virtual machine scale set, ensure that you limit the deployment to a single placement group for InfiniBand communication within the scale set. Legen Sie z. B. in einer Resource Manager-Vorlage die Eigenschaft singlePlacementGroup auf true fest.For example, in a Resource Manager template, set the singlePlacementGroup property to true. Beachten Sie, dass die maximale Skalierungsgruppengröße, die mit singlePlacementGroup=true hochgefahren werden kann, standardmäßig auf 100 VMs begrenzt ist.Note that the maximum scale set size that can be spun up with singlePlacementGroup=true is capped at 100 VMs by default. Wenn Ihre Anforderung hinsichtlich der HPC-Aufträge mehr als 100 virtuelle Computer in einem einzelnen Mandanten umfasst, können Sie eine Erhöhung anfordern und eine kostenlose Anfrage für den Onlinekundensupport öffnen.If your HPC job scale needs are higher than 100 VMs in a single tenant, you may request an increase, open an online customer support request at no charge. Der Grenzwert für die Anzahl der virtuellen Computer in einer einzelnen Skalierungsgruppe kann auf 300 erhöht werden.The limit on the number of VMs in a single scale set can be increased to 300. Beachten Sie, dass bei der Bereitstellung von VMs mit Verfügbarkeitsgruppen der Höchstwert bei 200 VMs pro Verfügbarkeitsgruppe liegt.Note that when deploying VMs using Availability Sets the maximum limit is at 200 VMs per Availability Set.

    Hinweis

    MPI zwischen virtuellen Computern: Wenn RDMA (z. B. mithilfe der MPI-Kommunikation) zwischen virtuellen Computern (VMs) erforderlich ist, sollten Sie sicherstellen, dass sich die VMs in derselben VM-Skalierungsgruppe oder Verfügbarkeitsgruppe befinden.MPI among virtual machines: If RDMA (e.g. using MPI communication) is required between virtual machines (VMs), ensure that the VMs are in the same virtual machine scale set or availability set.

  • Azure CycleCloud: Erstellen Sie in Azure CycleCloud einen HPC-Cluster zum Ausführen von MPI-Aufträgen.Azure CycleCloud - Create an HPC cluster using Azure CycleCloud to run MPI jobs.

  • Azure Batch: Erstellen Sie einen Azure Batch-Pool, um MPI-Workloads auszuführen.Azure Batch - Create an Azure Batch pool to run MPI workloads. Informationen zur Verwendung rechenintensiver Instanzen zum Ausführen von MPI-Anwendungen mit Azure Batch finden Sie unter Verwendung von Tasks mit mehreren Instanzen zum Ausführen von MPI-Anwendungen (Message Passing Interface) in Azure Batch.To use compute-intensive instances when running MPI applications with Azure Batch, see Use multi-instance tasks to run Message Passing Interface (MPI) applications in Azure Batch.

  • Microsoft HPC Pack - HPC Pack enthält eine Laufzeitumgebung für MS-MPI, die das Azure-RDMA-Netzwerk bei der Bereitstellung auf RDMA-fähigen Linux-VMs verwendet.Microsoft HPC Pack - HPC Pack includes a runtime environment for MS-MPI that uses the Azure RDMA network when deployed on RDMA-capable Linux VMs. Beispielbereitstellungen finden Sie unter Einrichten eines Linux-RDMA-Clusters mit HPC Pack zum Ausführen von MPI-Anwendungen.For example deployments, see Set up a Linux RDMA cluster with HPC Pack to run MPI applications.

Überlegungen zur BereitstellungDeployment considerations

  • Azure-Abonnement: Um eine größere Anzahl von rechenintensiven Instanzen bereitzustellen, sollten Sie ein Abonnement mit nutzungsbasierter Bezahlung oder andere Kaufoptionen in Erwägung ziehen.Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Bei Verwendung eines kostenlosen Azure-Kontoskönnen Sie nur eine begrenzte Anzahl von Azure-Compute-Kernen nutzen.If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • Preise und Verfügbarkeit: Informationen nach Azure-Regionen finden Sie unter VM-Preise und Verfügbarkeit.Pricing and availability - Check VM pricing and availability by Azure regions.

  • Kontingent Speicherkerne: Es kann sein, dass Sie das Kontingent für die Speicherkerne in Ihrem Azure-Abonnement anpassen müssen, indem Sie den Standardwert erhöhen.Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. Möglicherweise ist bei Ihrem Abonnement auch die Anzahl von Kernen beschränkt, die in bestimmten VM-Größenkategorien bereitgestellt werden können.Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. In diesem Fall können Sie kostenlos eine Anfrage an den Onlinekundensupport richten und eine Erhöhung des Kontingents anfordern.To request a quota increase, open an online customer support request at no charge. (Standardgrenzwerte variieren unter Umständen je nach Abonnementkategorie.)(Default limits may vary depending on your subscription category.)

    Hinweis

    Wenn Sie einen umfangreichen Kapazitätsbedarf haben, wenden Sie sich an den Azure-Support.Contact Azure Support if you have large-scale capacity needs. Azure-Kontingente sind Angebotsbeschränkungen, keine Kapazitätsgarantien.Azure quotas are credit limits, not capacity guarantees. Unabhängig von Ihrem Kontingent werden nur die tatsächlich verwendeten Kerne in Rechnung gestellt.Regardless of your quota, you are only charged for cores that you use.

  • Virtuelles Netzwerk: Ein virtuelles Azure-Netzwerk ist nicht erforderlich, um die rechenintensiven Instanzen zu verwenden.Virtual network – An Azure virtual network is not required to use the compute-intensive instances. Für viele Bereitstellungen benötigen Sie jedoch mindestens ein cloudbasiertes virtuelles Azure-Netzwerk oder auch eine Site-to-Site-Verbindung für den Zugriff auf lokale Ressourcen.However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. Erstellen Sie ggf. ein neues virtuelles Netzwerk zum Bereitstellen der Instanzen.When needed, create a new virtual network to deploy the instances. Das Hinzufügen rechenintensiver virtueller Computer zu einem virtuellen Netzwerk in einer Affinitätsgruppe wird nicht unterstützt.Adding compute-intensive VMs to a virtual network in an affinity group is not supported.

  • Größenanpassung: Aufgrund der speziellen Hardware können Sie die Größe rechenintensiver Instanzen nur innerhalb der gleichen Größenfamilie (H-Serie oder N-Serie) anpassen.Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or N-series). So können Sie beispielsweise die Größe eines virtuellen Computers der H-Serie nur auf eine andere Größe der H-Serie festlegen.For example, you can only resize an H-series VM from one H-series size to another. Für bestimmte virtuelle Computer müssen möglicherweise zusätzliche Überlegungen zur Unterstützung von InfiniBand-Treibern und NVMe-Datenträgern in Betracht gezogen werden.Additional considerations around InfiniBand driver support and NVMe disks may need to be considered for certain VMs.

Andere GrößenOther sizes

Nächste SchritteNext steps