Größen von virtuellen HPC-Computern (High Performance Computing)High performance compute VM sizes

Virtuelle Azure-Computer (Azure-VMs) der H-Serie bieten eine herausragende Leistung, MPI-Skalierbarkeit und Kosteneffizienz für verschiedene HPC-Workloads in der Praxis.Azure H-series virtual machines (VMs) are designed to deliver leadership-class performance, MPI scalability, and cost efficiency for a variety of real-world HPC workloads.

VMs der HB-Serie sind für Anwendungen mit hohen Anforderungen an die Speicherbandbreite optimiert, z.B. Strömungssimulationen, explizite Finite-Element-Analysen oder Wettermodelle.HB-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, explicit finite element analysis, and weather modeling. HB-VMs bieten 60 AMD-Prozessorkerne des Modells EPYC 7551, 4 GB RAM pro CPU-Kern und kein Hyperthreading.HB VMs feature 60 AMD EPYC 7551 processor cores, 4 GB of RAM per CPU core, and no hyperthreading. Die AMD EPYC-Plattform bietet eine Speicherbandbreite von mehr als 260 GB/Sekunde.The AMD EPYC platform provides more than 260 GB/sec of memory bandwidth.

Die VMs der HC-Serie sind für Anwendungen mit hohen Anforderungen an die Rechenleistung optimiert, z. B. implizite Finite-Element-Analysen, Molekulardynamik oder Chemoinformatik.HC-series VMs are optimized for applications driven by dense computation, such as implicit finite element analysis, molecular dynamics, and computational chemistry. HC-VMs bieten 44 Intel-Prozessorkerne des Modells Xeon Platinum 8168, 8 GB RAM pro CPU-Kern und kein Hyperthreading.HC VMs feature 44 Intel Xeon Platinum 8168 processor cores, 8 GB of RAM per CPU core, and no hyperthreading. Die Intel Xeon Platinum-Plattform unterstützt Intels umfangreiches Ökosystem von Softwaretools, etwa die Intel Math Kernel Library.The Intel Xeon Platinum platform supports Intel’s rich ecosystem of software tools such as the Intel Math Kernel Library.

Sowohl HB- als auch HC-VMs unterstützen Mellanox EDR InfiniBand mit 100 GBit/s in einer FAT-Strukturkonfiguration ohne Blocks für einheitliche RDMA-Leistung.Both HB and HC VMs feature 100 Gb/sec Mellanox EDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. HB-und HC-VMs unterstützen Mellanox/OFED-Standardtreiber so, dass alle MPI-Typen und -Versionen sowie RDMA-Verben unterstützt werden.HB and HC VMs support standard Mellanox/OFED drivers such that all MPI types and versions, as well as RDMA verbs, are supported as well.

Virtuelle Computer der H-Serie sind für Anwendungen optimiert, für die Anforderungen hinsichtlich hoher CPU-Frequenzen oder sehr viel Arbeitsspeicher pro Kern gelten.H-series VMs are optimized for applications driven by high CPU frequencies or large memory per core requirements. Virtuelle Computer der H-Serie bieten 8 oder 16 Intel-Prozessorkerne des Modells Xeon E5 2667 v3, 7 oder 14 GB RAM pro CPU-Kern und kein Hyperthreading.H-series VMs feature 8 or 16 Intel Xeon E5 2667 v3 processor cores, 7 or 14 GB of RAM per CPU core, and no hyperthreading. Die H-Serie unterstützt Mellanox EDR InfiniBand mit 56 GBit/s in einer FAT-Strukturkonfiguration ohne Blocks für einheitliche RDMA-Leistung.H-series features 56 Gb/sec Mellanox FDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. Virtuelle Computer der H-Serie unterstützen Intel MPI 5.x und MS-MPI.H-series VMs support Intel MPI 5.x and MS-MPI.

HB-SerieHB-series

ACU: 199-216ACU: 199-216

Storage Premium UnterstütztPremium Storage: Supported

Storage Premium-Zwischenspeicherung: UnterstütztPremium Storage Caching: Supported

SizeSize vCPUvCPU ProzessorProcessor Arbeitsspeicher (GB)Memory (GB) Speicherbandbreite GB/sMemory bandwidth GB/s Basis-CPU-Frequenz (GHz)Base CPU frequency (GHz) Frequenz für alle Kerne (GHz, Spitze)All-cores frequency (GHz, peak) Frequenz für Einzelkern (GHz, Spitze)Single-core frequency (GHz, peak) RDMA-Leistung (Gb/s)RDMA performance (Gb/s) MPI-UnterstützungMPI support Temporärer Speicher (GB)Temp storage (GB) Max. Anzahl DatenträgerMax data disks Max. Ethernet-KartenMax Ethernet NICs
Standard_HB60rsStandard_HB60rs 6060 AMD EPYC 7551AMD EPYC 7551 240240 263263 2.02.0 2.552.55 2.552.55 100100 AlleAll 700700 44 11

HC-SerieHC-series

ACU: 297-315ACU: 297-315

Storage Premium UnterstütztPremium Storage: Supported

Storage Premium-Zwischenspeicherung: UnterstütztPremium Storage Caching: Supported

SizeSize vCPUvCPU ProzessorProcessor Arbeitsspeicher (GB)Memory (GB) Speicherbandbreite GB/sMemory bandwidth GB/s Basis-CPU-Frequenz (GHz)Base CPU frequency (GHz) Frequenz für alle Kerne (GHz, Spitze)All-cores frequency (GHz, peak) Frequenz für Einzelkern (GHz, Spitze)Single-core frequency (GHz, peak) RDMA-Leistung (Gb/s)RDMA performance (Gb/s) MPI-UnterstützungMPI support Temporärer Speicher (GB)Temp storage (GB) Max. Anzahl DatenträgerMax data disks Max. Ethernet-KartenMax Ethernet NICs
Standard_HC44rsStandard_HC44rs 4444 Intel Xeon Platinum 8168Intel Xeon Platinum 8168 352352 191191 2.72.7 3.43.4 3,73.7 100100 AlleAll 700700 44 11

H-ReiheH-series

ACU: 290-300ACU: 290-300

Storage Premium Nicht unterstütztPremium Storage: Not Supported

Storage Premium-Zwischenspeicherung: Nicht unterstütztPremium Storage Caching: Not Supported

SizeSize vCPUvCPU ProzessorProcessor Arbeitsspeicher (GB)Memory (GB) Speicherbandbreite GB/sMemory bandwidth GB/s Basis-CPU-Frequenz (GHz)Base CPU frequency (GHz) Frequenz für alle Kerne (GHz, Spitze)All-cores frequency (GHz, peak) Frequenz für Einzelkern (GHz, Spitze)Single-core frequency (GHz, peak) RDMA-Leistung (Gb/s)RDMA performance (Gb/s) MPI-UnterstützungMPI support Temporärer Speicher (GB)Temp storage (GB) Max. Anzahl DatenträgerMax data disks Max. Ethernet-KartenMax Ethernet NICs
Standard_H8Standard_H8 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 5656 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 10001000 3232 22
Standard_H16Standard_H16 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H8mStandard_H8m 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 10001000 3232 22
Standard_H16mStandard_H16m 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16r 1Standard_H16r 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16mr 1Standard_H16mr 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44

1 Für MPI-Anwendungen ist ein dediziertes RDMA-Back-End-Netzwerk durch ein FDR InfiniBand-Netzwerk aktiviert.1 For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network.


Definitionen der GrößentabelleSize table definitions

  • Speicherkapazität wird in GiB-Einheiten oder 1.024^3 Bytes angezeigt.Storage capacity is shown in units of GiB or 1024^3 bytes. Beachten Sie beim Vergleich von in GB (1.000^3 Bytes) gemessenen Datenträgern mit in GiB (1.024^3) gemessenen Datenträgern, dass die in GiB angegebenen Kapazitätszahlen kleiner erscheinen können.When comparing disks measured in GB (1000^3 bytes) to disks measured in GiB (1024^3) remember that capacity numbers given in GiB may appear smaller. Beispiel: 1.023 GiB = 1.098,4 GB.For example, 1023 GiB = 1098.4 GB
  • Der Datenträgerdurchsatz wird in E/A-Vorgängen pro Sekunde (Input/Output Operations Per Second, IOPS) und MB/s gemessen, wobei MB/s = 10^6 Bytes/Sekunde beträgt.Disk throughput is measured in input/output operations per second (IOPS) and MBps where MBps = 10^6 bytes/sec.
  • Datenträger können mit oder ohne Cache betrieben werden.Data disks can operate in cached or uncached modes. Beim Datenträgerbetrieb mit Cache ist der Hostcachemodus auf ReadOnly oder ReadWrite festgelegt.For cached data disk operation, the host cache mode is set to ReadOnly or ReadWrite. Beim Datenträgerbetrieb ohne Cache ist der Hostcachemodus auf None festgelegt.For uncached data disk operation, the host cache mode is set to None.
  • Die beste Leistung für Ihre virtuellen Computer erhalten Sie, wenn Sie die Anzahl von Datenträgern auf zwei Datenträger pro vCPU beschränken.If you want to get the best performance for your VMs, you should limit the number of data disks to 2 disks per vCPU.
  • Erwartete Netzwerkbandbreite ist die maximale aggregierte Bandbreite pro VM-Typ, die NIC-übergreifend für alle Ziele zugeordnet ist.Expected network bandwidth is the maximum aggregated bandwidth allocated per VM type across all NICs, for all destinations. Obergrenzen werden zwar nicht garantiert, können aber bei der Wahl des passenden VM-Typs für die geplante Anwendung als Richtwert herangezogen werden.Upper limits are not guaranteed, but are intended to provide guidance for selecting the right VM type for the intended application. Die tatsächliche Netzwerkleistung hängt von unterschiedlichen Faktoren ab. Hierzu zählen beispielsweise Netzwerküberlastung, Anwendungslasten und die Netzwerkeinstellungen.Actual network performance will depend on a variety of factors including network congestion, application loads, and network settings. Informationen zum Optimieren des Netzwerkdurchsatzes finden Sie unter Optimieren des Netzwerkdurchsatzes für virtuelle Azure-Computer.For information on optimizing network throughput, see Optimizing network throughput for Windows and Linux. Unter Umständen muss eine bestimmte Version gewählt oder der virtuelle Computer optimiert werden, um die erwartete Netzwerkbandbreite unter Linux oder Windows zu erzielen.To achieve the expected network performance on Linux or Windows, it may be necessary to select a specific version or optimize your VM. Weitere Informationen finden Sie unter Testen der Bandbreite/des Durchsatzes (NTTTCP).For more information, see How to reliably test for virtual machine throughput.

Überlegungen zur BereitstellungDeployment considerations

  • Azure-Abonnement: Um eine größere Anzahl von rechenintensiven Instanzen bereitzustellen, sollten Sie ein Abonnement mit nutzungsbasierter Bezahlung oder andere Kaufoptionen in Erwägung ziehen.Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Bei Verwendung eines kostenlosen Azure-Kontoskönnen Sie nur eine begrenzte Anzahl von Azure-Compute-Kernen nutzen.If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • Preise und Verfügbarkeit: Diese VM-Größen werden nur im Tarif „Standard“ angeboten.Pricing and availability - These VM sizes are offered only in the Standard pricing tier. Informationen zur Verfügbarkeit in den Azure-Regionen finden Sie unter Verfügbare Produkte nach Region .Check Products available by region for availability in Azure regions.

  • Kontingent Speicherkerne: Es kann sein, dass Sie das Kontingent für die Speicherkerne in Ihrem Azure-Abonnement anpassen müssen, indem Sie den Standardwert erhöhen.Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. Möglicherweise ist bei Ihrem Abonnement auch die Anzahl von Kernen beschränkt, die in bestimmten VM-Größenkategorien bereitgestellt werden können.Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. In diesem Fall können Sie kostenlos eine Anfrage an den Onlinekundensupport richten und eine Erhöhung des Kontingents anfordern.To request a quota increase, open an online customer support request at no charge. (Standardgrenzwerte variieren unter Umständen je nach Abonnementkategorie.)(Default limits may vary depending on your subscription category.)

    Hinweis

    Wenn Sie einen umfangreichen Kapazitätsbedarf haben, wenden Sie sich an den Azure-Support.Contact Azure Support if you have large-scale capacity needs. Azure-Kontingente sind Angebotsbeschränkungen, keine Kapazitätsgarantien.Azure quotas are credit limits, not capacity guarantees. Unabhängig von Ihrem Kontingent werden nur die tatsächlich verwendeten Kerne in Rechnung gestellt.Regardless of your quota, you are only charged for cores that you use.

  • Virtuelles Netzwerk: Ein virtuelles Azure-Netzwerk ist nicht erforderlich, um die rechenintensiven Instanzen zu verwenden.Virtual network – An Azure virtual network is not required to use the compute-intensive instances. Für viele Bereitstellungen benötigen Sie jedoch mindestens ein cloudbasiertes virtuelles Azure-Netzwerk oder auch eine Site-to-Site-Verbindung für den Zugriff auf lokale Ressourcen.However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. Erstellen Sie ggf. ein neues virtuelles Netzwerk zum Bereitstellen der Instanzen.When needed, create a new virtual network to deploy the instances. Das Hinzufügen rechenintensiver virtueller Computer zu einem virtuellen Netzwerk in einer Affinitätsgruppe wird nicht unterstützt.Adding compute-intensive VMs to a virtual network in an affinity group is not supported.

  • Größenanpassung: Aufgrund der speziellen Hardware können Sie die Größe rechenintensiver Instanzen nur innerhalb der gleichen Größenfamilie (H-Serie oder rechenintensive A-Serie) anpassen.Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or compute-intensive A-series). So können Sie beispielsweise die Größe eines virtuellen Computers der H-Serie nur auf eine andere Größe der H-Serie festlegen.For example, you can only resize an H-series VM from one H-series size to another. Wechsel von einer nicht rechenintensiven Größe zu einer rechenintensiven Größe werden nicht unterstützt.In addition, resizing from a non-compute-intensive size to a compute-intensive size is not supported.

RDMA-fähige InstanzenRDMA-capable instances

Eine Teilmenge der rechenintensiven Instanzen (A8, A9, H16r, H16mr, HB und HC) verfügt über eine Netzwerkschnittstelle für RDMA-Verbindungen (Remote Direct Memory Access).A subset of the compute-intensive instances (A8, A9, H16r, H16mr, HB and HC) feature a network interface for remote direct memory access (RDMA) connectivity. Ausgewählte N-Seriengrößen mit dem Zusatz „r“, z. B. die NC24rs-Konfigurationen (NC24rs_v2 und NC24rs_v3), sind ebenfalls RDMA-fähig.Selected N-series sizes designated with 'r' such as the NC24rs configurations (NC24rs_v2 and NC24rs_v3) are also RDMA-capable. Diese Schnittstelle steht zusätzlich zur standardmäßigen Azure-Netzwerkschnittstelle anderer VM-Größen zur Verfügung.This interface is in addition to the standard Azure network interface available to other VM sizes.

Mithilfe dieser Schnittstelle können die RDMA-fähigen Instanzen über ein InfiniBand-Netzwerk (IB) kommunizieren, das mit EDR-Raten für virtuelle Computer der Größen HB und HC sowie mit FDR-Raten für virtuelle Computer der Größen H16r und H16mr sowie für RDMA-fähige virtuelle Computer der N-Serie und mit QDR-Raten für virtuelle Computer der Größe A8 und A9 betrieben wird.This interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at EDR rates for HB, HC, FDR rates for H16r, H16mr, and RDMA-capable N-series virtual machines, and QDR rates for A8 and A9 virtual machines. Mit diesen RDMA-Funktionen können Skalierbarkeit und Leistung von bestimmten MPI-Anwendungen (Message Passing Interface) gesteigert werden.These RDMA capabilities can boost the scalability and performance of certain Message Passing Interface (MPI) applications. Weitere Informationen zur Geschwindigkeit finden Sie in den Details in den Tabellen auf dieser Seite.For more information on speed, see the details in the tables on this page.

Hinweis

In Azure wird „IP over IB“ nur auf SR-IOV-fähigen virtuellen Computern unterstützt (SR-IOV für InfiniBand, derzeit HB und HC).In Azure, IP over IB is only supported on the SR-IOV enabled VMs (SR-IOV for InfiniBand, currently HB and HC). „RDMA over IB“ wird für alle RDMA-fähigen Instanzen unterstützt.RDMA over IB is supported for all RDMA-capable instances.

  • Betriebssystem: Windows Server 2016 auf allen oben genannten virtuellen HPC-Computern.Operating system - Windows Server 2016 on all the above HPC series VMs. Windows Server 2012 R2 und Windows Server 2012 werden auch auf virtuellen Computern unterstützt, die nicht SR-IOV-fähig sind (und daher nicht zur HB- oder HC-Reihe gehören).Windows Server 2012 R2, Windows Server 2012 are also supported on the non-SR-IOV enabled VMs (hence excluding HB and HC).

  • MPI: Die SR-IOV-fähigen VM-Größen (HB, HC) in Azure gestatten die Verwendung nahezu jeder Variante von MPI mit Mellanox OFED.MPI - The SR-IOV enabled VM sizes on Azure (HB, HC) allow almost any flavor of MPI to be used with Mellanox OFED. Auf nicht SR-IOV-fähigen virtuellen Computern verwenden unterstützte MPI-Implementierungen die Microsoft Network Direct-Schnittstelle (ND) für die Kommunikation zwischen Instanzen.On non-SR-IOV enabled VMs, supported MPI implementations use the Microsoft Network Direct (ND) interface to communicate between instances. Daher werden nur die Versionen Microsoft MPI (MS-MPI) 2012 R2 oder höher und Intel MPI 5.x unterstützt.Hence, only Microsoft MPI (MS-MPI) 2012 R2 or later and Intel MPI 5.x versions are supported. Höhere Versionen (2017, 2018) der Intel MPI-Laufzeitbibliothek sind möglicherweise mit den Azure-RDMA-Treibern kompatibel.Later versions (2017, 2018) of the Intel MPI runtime library may or may not be compatible with the Azure RDMA drivers.

  • InfiniBandDriverWindows-VM-Erweiterung: Fügen Sie auf RDMA-fähigen virtuellen Computern die Erweiterung „InfiniBandDriverWindows“ hinzu, um InfiniBand zu aktivieren.InfiniBandDriverWindows VM extension - On RDMA-capable VMs, add the InfiniBandDriverWindows extension to enable InfiniBand. Diese Windows-Erweiterung für VMs installiert Windows Network Direct-Treiber (auf VMs ohne SR-IOV) oder Mellanox OFED-Treiber (auf VMs mit SR-IOV), um RDMA-Konnektivität herzustellen.This Windows VM extension installs Windows Network Direct drivers (on non-SR-IOV VMs) or Mellanox OFED drivers (on SR-IOV VMs) for RDMA connectivity. In bestimmten Bereitstellungen von A8- und A9-Instanzen wird die Erweiterung HpcVmDrivers automatisch hinzugefügt.In certain deployments of A8 and A9 instances, the HpcVmDrivers extension is added automatically. Beachten Sie, dass die VM-Erweiterung „HpcVmDrivers“ eingestellt wird. Sie wird nicht mehr aktualisiert.Note that the HpcVmDrivers VM extension is being deprecated; it will not be updated. Um die VM-Erweiterung einer VM hinzuzufügen, können Sie Azure PowerShell-Cmdlets verwenden.To add the VM extension to a VM, you can use Azure PowerShell cmdlets.

    Der folgende Befehl installiert die neueste Version 1.0 der Erweiterung „InfiniBandDriverWindows“ auf einer vorhandenen, RDMA-fähigen VM mit dem Namen myVM, die in der Ressourcengruppe mit dem Namen myResourceGroup in der Region USA, Westen bereitgestellt ist:The following command installs the latest version 1.0 InfiniBandDriverWindows extension on an existing RDMA-capable VM named myVM deployed in the resource group named myResourceGroup in the West US region:

    Set-AzVMExtension -ResourceGroupName "myResourceGroup" -Location "westus" -VMName "myVM" -ExtensionName "InfiniBandDriverWindows" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverWindows" -TypeHandlerVersion "1.0"
    

    Alternativ können VM-Erweiterungen zur einfachen Bereitstellung mithilfe des folgenden JSON-Elements in Azure Resource Manager-Vorlagen aufgenommen werden:Alternatively, VM extensions can be included in Azure Resource Manager templates for easy deployment, with the following JSON element:

    "properties":{
    "publisher": "Microsoft.HpcCompute",
    "type": "InfiniBandDriverWindows",
    "typeHandlerVersion": "1.0",
    } 
    

    Durch folgenden Befehl wird die neueste Version (1.0) der Erweiterung „InfiniBandDriverWindows“ auf allen RDMA-fähigen VMs in einer vorhandenen VM-Skalierungsgruppe mit dem Namen myVMSS installiert, die in der Ressourcengruppe mit dem Namen myResourceGroup bereitgestellt wurde:The following command installs the latest version 1.0 InfiniBandDriverWindows extension on all RDMA-capable VMs in an existing VM scale set named myVMSS deployed in the resource group named myResourceGroup:

    $VMSS = Get-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS"
    Add-AzVmssExtension -VirtualMachineScaleSet $VMSS -Name "InfiniBandDriverWindows" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverWindows" -TypeHandlerVersion "1.0"
    Update-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "MyVMSS" -VirtualMachineScaleSet $VMSS
    Update-AzVmssInstance -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS" -InstanceId "*"
    

    Weitere Informationen finden Sie unter Erweiterungen und Features für virtuelle Computer.For more information, see Virtual machine extensions and features. Erweiterungen können auch für virtuelle Computer verwendet werden, die mit dem klassischen Bereitstellungsmodell bereitgestellt wurden.You can also work with extensions for VMs deployed in the classic deployment model.

  • RDMA-Netzwerkadressbereich: Für das RDMA-Netzwerk in Azure wird der Adressbereich 172.16.0.0/16 reserviert.RDMA network address space - The RDMA network in Azure reserves the address space 172.16.0.0/16. Wenn Sie MPI-Anwendungen auf Instanzen ausführen möchten, die in einem virtuellen Azure-Netzwerk bereitgestellt wurden, vergewissern Sie sich, dass der Adressraum des virtuellen Netzwerks sich nicht mit dem RDMA-Netzwerk überschneidet.To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.

Konfigurationsoptionen für ClusterCluster configuration options

Azure bietet mehrere Optionen zum Erstellen von Clustern von Windows-HPC-VMs, die über das RDMA-Netzwerk kommunizieren können, einschließlich der folgenden:Azure provides several options to create clusters of Windows HPC VMs that can communicate using the RDMA network, including:

  • Virtuelle Computer: Stellen Sie die RDMA-fähigen HPC-VMs in der gleichen Verfügbarkeitsgruppe bereit (wenn Sie das Azure Resource Manager-Bereitstellungsmodell verwenden).Virtual machines - Deploy the RDMA-capable HPC VMs in the same availability set (when you use the Azure Resource Manager deployment model). Stellen Sie die VMs bei Verwendung des klassischen Bereitstellungsmodells im gleichen Clouddienst bereit.If you use the classic deployment model, deploy the VMs in the same cloud service.

  • VM-Skalierungsgruppen: Stellen Sie bei Verwendung einer VM-Skalierungsgruppe sicher, dass Sie die Bereitstellung auf eine einzelne Platzierungsgruppe beschränken.Virtual machine scale sets - In a virtual machine scale set, ensure that you limit the deployment to a single placement group. Legen Sie z. B. in einer Resource Manager-Vorlage die Eigenschaft singlePlacementGroup auf true fest.For example, in a Resource Manager template, set the singlePlacementGroup property to true.

  • MPI zwischen virtuellen Computern: Wenn für die MPI-Kommunikation zwischen virtuellen Computern (VMs) erforderlich, dann sollten Sie sicherstellen, dass sich die VMs in der selben Verfügbarkeitsgruppe oder derselben VM-Skalierungsgruppe befinden.MPI among virtual machines - If MPI communication if required between virtual machines (VMs), ensure that the VMs are in the same availability set or the virtual machine same scale set.

  • Azure CycleCloud: Erstellen Sie in Azure CycleCloud einen HPC-Cluster zum Ausführen von MPI-Aufträgen auf Windows-Knoten.Azure CycleCloud - Create an HPC cluster in Azure CycleCloud to run MPI jobs on Windows nodes.

  • Azure Batch: Erstellen Sie einen Azure Batch-Pool zum Ausführen von MPI-Workloads auf Windows Server-Computeknoten.Azure Batch - Create an Azure Batch pool to run MPI workloads on Windows Server compute nodes. Weitere Informationen finden Sie unter Verwenden RDMA-fähiger oder GPU-fähiger Instanzen in Batch-Pools.For more information, see Use RDMA-capable or GPU-enabled instances in Batch pools. Informationen zum Ausführen containerbasierter Workloads in Batch finden Sie im Projekt Batch Shipyard.Also see the Batch Shipyard project, for running container-based workloads on Batch.

  • Microsoft HPC Pack - HPC Pack enthält eine Laufzeitumgebung für MS-MPI, die das Azure RDMA-Netzwerk bei der Bereitstellung auf RDMA-fähigen Windows-VMs verwendet.Microsoft HPC Pack - HPC Pack includes a runtime environment for MS-MPI that uses the Azure RDMA network when deployed on RDMA-capable Windows VMs. Beispielbereitstellungen finden Sie unter Einrichten eines Windows RDMA-Clusters mit HPC Pack zum Ausführen von MPI-Anwendungen.For example deployments, see Set up a Windows RDMA cluster with HPC Pack to run MPI applications.

Andere GrößenOther sizes

Nächste SchritteNext steps