Größen von virtuellen HPC-Computern (High Performance Computing)High performance compute VM sizes

Die Größen A8 bis A11 und die Größen der H-Reihe werden auch als rechenintensive Instanzen bezeichnet.The A8-A11 and H-series sizes are also known as compute-intensive instances. Die Hardware, auf der diese Größen ausgeführt werden, wurde für rechenintensive Anwendungen mit hoher Netzwerkauslastung konzipiert und optimiert. Hierzu zählen beispielsweise HPC-Clusteranwendungen (High Performance Computing), Modellierung und Simulationen.The hardware that runs these sizes is designed and optimized for compute-intensive and network-intensive applications, including high-performance computing (HPC) cluster applications, modeling, and simulations. Die Reihen A8 bis A11 nutzen Intel Xeon E5-2670 mit 2,6 GHZ und die H-Reihe Intel Xeon E5-2667 v3 mit 3,2 GHz.The A8-A11 series uses Intel Xeon E5-2670 @ 2.6 GHZ and the H-series uses Intel Xeon E5-2667 v3 @ 3.2 GHz. Dieser Artikel enthält Informationen zur Anzahl von vCPUs, Datenträgern und NICs sowie zum Speicherdurchsatz und zur Netzwerkbandbreite der einzelnen Größen in dieser Gruppe.This article provides information about the number of vCPUs, data disks, and NICs as well as storage throughput and network bandwidth for each size in this grouping.

Virtuelle Azure-Computer der H-Reihe sind High Performing Computing-VMs für High-End-Berechnungsanforderungen, z.B. Molekülmodellierung und Strömungsdynamikberechnung.Azure H-series virtual machines are the latest in high performance computing VMs aimed at high end computational needs, like molecular modeling, and computational fluid dynamics. Diese virtuellen Computer mit 8 und 16 vCPUs basieren auf der Intel Haswell E5-2667 V3-Prozessortechnologie mit DDR4-Arbeitsspeicher und SSD-basiertem temporärem Speicher.These 8 and 16 vCPU VMs are built on the Intel Haswell E5-2667 V3 processor technology featuring DDR4 memory and SSD-based temporary storage.

Neben beträchtlicher CPU-Leistung bietet die H-Serie verschiedene Optionen für RDMA-Netzwerke mit niedriger Latenz unter Verwendung von FDR InfiniBand sowie verschiedene Speicherkonfigurationen für Berechnungsanforderungen mit hohem Speicherbedarf.In addition to the substantial CPU power, the H-series offers diverse options for low latency RDMA networking using FDR InfiniBand and several memory configurations to support memory intensive computational requirements.

H-ReiheH-series

ACU: 290 - 300ACU: 290-300

GrößeSize vCPUvCPU Arbeitsspeicher: GiBMemory: GiB Temporärer Speicher (SSD): GiBTemp storage (SSD) GiB Max. Anzahl DatenträgerMax data disks Max. Datenträger-Datendurchsatz: IOPSMax disk throughput: IOPS Maximale Anzahl NICsMax NICs
Standard_H8Standard_H8 88 5656 10001000 3232 32 x 50032 x 500 22
Standard_H16Standard_H16 1616 112112 20002000 6464 64 x 50064 x 500 44
Standard_H8mStandard_H8m 88 112112 10001000 3232 32 x 50032 x 500 22
Standard_H16mStandard_H16m 1616 224224 20002000 6464 64 x 50064 x 500 44
Standard_H16r 1Standard_H16r 1 1616 112112 20002000 6464 64 x 50064 x 500 44
Standard_H16mr 1Standard_H16mr 1 1616 224224 20002000 6464 64 x 50064 x 500 44

1 Für MPI-Anwendungen ist ein dediziertes RDMA-Back-End-Netzwerk durch ein FDR InfiniBand-Netzwerk aktiviert, das eine äußerst geringe Latenz und eine hohe Bandbreite ermöglicht.1 For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network, which delivers ultra-low-latency and high bandwidth.


A-Serie: Rechenintensive InstanzenA-series - compute-intensive instances

ACU: 225ACU: 225

GrößeSize vCPUvCPU Arbeitsspeicher: GiBMemory: GiB Temporärer Speicher (HDD): GiBTemp storage (HDD): GiB Max. Anzahl DatenträgerMax data disks Max. Datenträger-Datendurchsatz: IOPSMax data disk throughput: IOPS Maximale Anzahl NICsMax NICs
Standard_A8 1Standard_A8 1 88 5656 382382 3232 32 x 50032x500 22
Standard_A9 1Standard_A9 1 1616 112112 382382 6464 64 x 50064x500 44
Standard_A10Standard_A10 88 5656 382382 3232 32 x 50032x500 22
Standard_A11Standard_A11 1616 112112 382382 6464 64 x 50064x500 44

1 Für MPI-Anwendungen ist ein dediziertes RDMA-Back-End-Netzwerk durch ein FDR InfiniBand-Netzwerk aktiviert, das eine äußerst geringe Latenz und eine hohe Bandbreite ermöglicht.1For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network, which delivers ultra-low-latency and high bandwidth.


Definitionen der GrößentabelleSize table definitions

  • Speicherkapazität wird in GiB-Einheiten oder 1.024^3 Bytes angezeigt.Storage capacity is shown in units of GiB or 1024^3 bytes. Beachten Sie beim Vergleich von in GB (1.000^3 Bytes) gemessenen Datenträgern mit in GiB (1.024^3) gemessenen Datenträgern, dass die in GiB angegebenen Kapazitätszahlen kleiner erscheinen können.When comparing disks measured in GB (1000^3 bytes) to disks measured in GiB (1024^3) remember that capacity numbers given in GiB may appear smaller. Beispiel: 1.023 GiB = 1.098,4 GB.For example, 1023 GiB = 1098.4 GB
  • Der Datenträgerdurchsatz wird in E/A-Vorgängen pro Sekunde (Input/Output Operations Per Second, IOPS) und MB/s gemessen, wobei MB/s = 10^6 Bytes/Sekunde beträgt.Disk throughput is measured in input/output operations per second (IOPS) and MBps where MBps = 10^6 bytes/sec.
  • Datenträger können mit oder ohne Cache betrieben werden.Data disks can operate in cached or uncached modes. Beim Datenträgerbetrieb mit Cache ist der Hostcachemodus auf ReadOnly oder ReadWrite festgelegt.For cached data disk operation, the host cache mode is set to ReadOnly or ReadWrite. Beim Datenträgerbetrieb ohne Cache ist der Hostcachemodus auf None festgelegt.For uncached data disk operation, the host cache mode is set to None.
  • Die beste Leistung für Ihre virtuellen Computer erhalten Sie, wenn Sie die Anzahl von Datenträgern auf zwei Datenträger pro vCPU beschränken.If you want to get the best performance for your VMs, you should limit the number of data disks to 2 disks per vCPU.
  • Erwartete Netzwerkbandbreite ist die maximale aggregierte Bandbreite pro VM-Typ, die NIC-übergreifend für alle Ziele zugeordnet ist.Expected network bandwidth is the maximum aggregated bandwidth allocated per VM type across all NICs, for all destinations. Obergrenzen werden zwar nicht garantiert, können aber bei der Wahl des passenden VM-Typs für die geplante Anwendung als Richtwert herangezogen werden.Upper limits are not guaranteed, but are intended to provide guidance for selecting the right VM type for the intended application. Die tatsächliche Netzwerkleistung hängt von unterschiedlichen Faktoren ab. Hierzu zählen beispielsweise Netzwerküberlastung, Anwendungslasten und die Netzwerkeinstellungen.Actual network performance will depend on a variety of factors including network congestion, application loads, and network settings. Informationen zum Optimieren des Netzwerkdurchsatzes finden Sie unter Optimieren des Netzwerkdurchsatzes für virtuelle Azure-Computer.For information on optimizing network throughput, see Optimizing network throughput for Windows and Linux. Unter Umständen muss eine bestimmte Version gewählt oder der virtuelle Computer optimiert werden, um die erwartete Netzwerkbandbreite unter Linux oder Windows zu erzielen.To achieve the expected network performance on Linux or Windows, it may be necessary to select a specific version or optimize your VM. Weitere Informationen finden Sie unter Testen der Bandbreite/des Durchsatzes (NTTTCP).For more information, see How to reliably test for virtual machine throughput.

Überlegungen zur BereitstellungDeployment considerations

  • Azure-Abonnement: Um eine größere Anzahl von rechenintensiven Instanzen bereitzustellen, sollten Sie ein Abonnement mit nutzungsbasierter Bezahlung oder andere Kaufoptionen in Erwägung ziehen.Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Bei Verwendung eines kostenlosen Azure-Kontoskönnen Sie nur eine begrenzte Anzahl von Azure-Compute-Kernen nutzen.If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • Preise und Verfügbarkeit: Diese VM-Größen werden nur im Tarif „Standard“ angeboten.Pricing and availability - These VM sizes are offered only in the Standard pricing tier. Informationen zur Verfügbarkeit in den Azure-Regionen finden Sie unter Verfügbare Produkte nach Region.Check Products available by region for availability in Azure regions.

  • Kontingent Speicherkerne: Es kann sein, dass Sie das Kontingent für die Speicherkerne in Ihrem Azure-Abonnement anpassen müssen, indem Sie den Standardwert erhöhen.Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. Möglicherweise ist bei Ihrem Abonnement auch die Anzahl von Kernen beschränkt, die in bestimmten VM-Größenkategorien bereitgestellt werden können.Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. In diesem Fall können Sie kostenlos eine Anfrage an den Onlinekundensupport richten und eine Erhöhung des Kontingents anfordern.To request a quota increase, open an online customer support request at no charge. (Standardgrenzwerte variieren unter Umständen je nach Abonnementkategorie.)(Default limits may vary depending on your subscription category.)

    Hinweis

    Wenn Sie einen umfangreichen Kapazitätsbedarf haben, wenden Sie sich an den Azure-Support.Contact Azure Support if you have large-scale capacity needs. Azure-Kontingente sind Angebotsbeschränkungen, keine Kapazitätsgarantien.Azure quotas are credit limits, not capacity guarantees. Unabhängig von Ihrem Kontingent werden nur die tatsächlich verwendeten Kerne in Rechnung gestellt.Regardless of your quota, you are only charged for cores that you use.

  • Virtuelles Netzwerk: Ein virtuelles Azure-Netzwerk ist nicht erforderlich, um die rechenintensiven Instanzen zu verwenden.Virtual network – An Azure virtual network is not required to use the compute-intensive instances. Für viele Bereitstellungen benötigen Sie jedoch mindestens ein cloudbasiertes virtuelles Azure-Netzwerk oder auch eine Site-to-Site-Verbindung für den Zugriff auf lokale Ressourcen.However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. Erstellen Sie ggf. ein neues virtuelles Netzwerk zum Bereitstellen der Instanzen.When needed, create a new virtual network to deploy the instances. Das Hinzufügen rechenintensiver virtueller Computer zu einem virtuellen Netzwerk in einer Affinitätsgruppe wird nicht unterstützt.Adding compute-intensive VMs to a virtual network in an affinity group is not supported.
  • Größenanpassung: Aufgrund der speziellen Hardware können Sie die Größe rechenintensiver Instanzen nur innerhalb der gleichen Größenfamilie (H-Serie oder rechenintensive A-Serie) anpassen.Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or compute-intensive A-series). So können Sie beispielsweise die Größe eines virtuellen Computers der H-Serie nur auf eine andere Größe der H-Serie festlegen.For example, you can only resize an H-series VM from one H-series size to another. Wechsel von einer nicht rechenintensiven Größe zu einer rechenintensiven Größe werden nicht unterstützt.In addition, resizing from a non-compute-intensive size to a compute-intensive size is not supported.

RDMA-fähige InstanzenRDMA-capable instances

Eine Teilmenge der rechenintensiven Instanzen (H16r, H16mr, A8 und A9) verfügt über eine Netzwerkschnittstelle für RDMA-Verbindungen (Remote Direct Memory Access).A subset of the compute-intensive instances (H16r, H16mr, A8, and A9) feature a network interface for remote direct memory access (RDMA) connectivity. (Ausgewählte N-Seriengrößen mit dem Zusatz „r“, z.B. NC24r, sind ebenfalls RDMA-fähig.) Diese Schnittstelle steht zusätzlich zur standardmäßigen Azure-Netzwerkschnittstelle anderer VM-Größen zur Verfügung.(Selected N-series sizes designated with 'r' such as NC24r are also RDMA-capable.) This interface is in addition to the standard Azure network interface available to other VM sizes.

Mithilfe dieser Schnittstelle können die RDMA-fähigen Instanzen über ein InfiniBand-Netzwerk (IB) kommunizieren, das mit FDR-Raten für virtuelle Computer der Größe H16r, H16mr und RDMA-fähige virtuelle Computer der N-Serie und QDR-Raten für virtuelle Computer der Größe A8 und A9 betrieben wird.This interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at FDR rates for H16r, H16mr, and RDMA-capable N-series virtual machines, and QDR rates for A8 and A9 virtual machines. Mit diesen RDMA-Funktionen können Skalierbarkeit und Leistung von bestimmten MPI-Anwendungen (Message Passing Interface) gesteigert werden.These RDMA capabilities can boost the scalability and performance of certain Message Passing Interface (MPI) applications.

Hinweis

In Azure wird „IP over IB“ nicht unterstützt.In Azure, IP over IB is not supported. Es wird nur „RDMA over IB“ unterstützt.Only RDMA over IB is supported.

Stellen Sie die RDMA-fähigen HPC-VMs in der gleichen Verfügbarkeitsgruppe bzw. VM-Skalierungsgruppe (bei Verwendung des Azure Resource Manager-Bereitstellungsmodells) bzw. im gleichen Clouddienst (bei Verwendung des klassischen Bereitstellungsmodells) bereit.Deploy the RDMA-capable HPC VMs in the same availability set or VM scale set (when you use the Azure Resource Manager deployment model) or the same cloud service (when you use the classic deployment model). Es folgen weitere Anforderungen für RDMA-fähige HPC-VMs für den Zugriff auf das Azure RDMA-Netzwerk.Additional requirements for RDMA-capable HPC VMs to access the Azure RDMA network follow.

  • Betriebssystem: Windows Server 2016, Windows Server 2012 R2, Windows Server 2012Operating system - Windows Server 2016, Windows Server 2012 R2, Windows Server 2012

  • MPI : Microsoft MPI (MS-MPI) 2012 R2 oder höher, Intel MPI Library 5.xMPI - Microsoft MPI (MS-MPI) 2012 R2 or later, Intel MPI Library 5.x

    Unterstützte MPI-Implementierungen verwenden die Microsoft Network Direct-Schnittstelle für die Kommunikation zwischen Instanzen.Supported MPI implementations use the Microsoft Network Direct interface to communicate between instances.

  • RDMA-Netzwerkadressbereich: Für das RDMA-Netzwerk in Azure wird der Adressbereich 172.16.0.0/16 reserviert.RDMA network address space - The RDMA network in Azure reserves the address space 172.16.0.0/16. Wenn Sie MPI-Anwendungen auf Instanzen ausführen möchten, die in einem virtuellen Azure-Netzwerk bereitgestellt wurden, vergewissern Sie sich, dass der Adressraum des virtuellen Netzwerks sich nicht mit dem RDMA-Netzwerk überschneidet.To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.

  • VM-Erweiterung HpcVmDrivers: Fügen Sie auf RDMA-fähigen VMs die Erweiterung HpcVmDrivers hinzu, um Windows-Netzwerkgerätetreiber für RDMA-Verbindungen zu installieren.HpcVmDrivers VM extension - On RDMA-capable VMs, add the HpcVmDrivers extension to install Windows network device drivers for RDMA connectivity. (In bestimmten Bereitstellungen von A8- und A9-Instanzen wird die Erweiterung HpcVmDrivers automatisch hinzugefügt.) Um die VM-Erweiterung einer VM hinzuzufügen, können Sie Azure PowerShell-Cmdlets verwenden.(In certain deployments of A8 and A9 instances, the HpcVmDrivers extension is added automatically.) To add the VM extension to a VM, you can use Azure PowerShell cmdlets.

Der folgende Befehl installiert die neueste Version 1.1 der Erweiterung HpcVMDrivers auf einer vorhandenen RDMA-fähigen VM mit dem Namen myVM, die in der Ressourcengruppe mit dem Namen myResourceGroup in der Region USA, Westen bereitgestellt ist:The following command installs the latest version 1.1 HpcVMDrivers extension on an existing RDMA-capable VM named myVM deployed in the resource group named myResourceGroup in the West US region:

Set-AzureRmVMExtension -ResourceGroupName "myResourceGroup" -Location "westus" -VMName "myVM" -ExtensionName "HpcVmDrivers" -Publisher "Microsoft.HpcCompute" -Type "HpcVmDrivers" -TypeHandlerVersion "1.1"

Weitere Informationen finden Sie unter Erweiterungen und Features für virtuelle Computer.For more information, see Virtual machine extensions and features. Erweiterungen können auch für virtuelle Computer verwendet werden, die mit dem klassischen Bereitstellungsmodell bereitgestellt wurden.You can also work with extensions for VMs deployed in the classic deployment model.

Verwenden von HPC PackUsing HPC Pack

Microsoft HPC Pack, Microsofts kostenlose HPC-Cluster- und Auftragsverwaltungslösung, stellt eine Option zum Erstellen eines Computeclusters in Azure zum Ausführen Windows-basierter MPI-Anwendungen und anderer HPC-Workloads dar.Microsoft HPC Pack, Microsoft’s free HPC cluster and job management solution, is one option for you to create a compute cluster in Azure to run Windows-based MPI applications and other HPC workloads. HPC Pack 2012 R2 und neuere Versionen enthalten eine Laufzeitumgebung für MS-MPI, die das Azure RDMA-Netzwerk bei der Bereitstellung auf RDMA-fähigen VMs verwendet.HPC Pack 2012 R2 and later versions include a runtime environment for MS-MPI that uses the Azure RDMA network when deployed on RDMA-capable VMs.

Andere GrößenOther sizes

Nächste SchritteNext steps