Tailles de machines virtuelles de calcul haute performanceHigh performance compute VM sizes

Les machines virtuelles Azure de la série H sont conçues pour offrir des performances, une extensibilité MPI et une rentabilité exceptionnelles adaptées à un vaste éventail de charges de travail HPC réelles.Azure H-series virtual machines (VMs) are designed to deliver leadership-class performance, MPI scalability, and cost efficiency for a variety of real-world HPC workloads.

Les machines virtuelles de la série HB sont optimisées pour des applications tributaires de la bande passante mémoire, par exemple la dynamique des fluides, l’analyse explicite par éléments finis et la modélisation du climat.HB-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, explicit finite element analysis, and weather modeling. Les machines virtuelles HB disposent de 60 cœurs de processeur AMD EPYC 7551, de 4 Go de RAM par cœur de processeur, et d’aucun hyperthreading.HB VMs feature 60 AMD EPYC 7551 processor cores, 4 GB of RAM per CPU core, and no hyperthreading. La plateforme AMD EPYC fournit plus de 260 Go/s de bande passante mémoire.The AMD EPYC platform provides more than 260 GB/sec of memory bandwidth.

Les machines virtuelles de la série HC sont optimisées pour les applications tributaires d’un calcul dense, telles que l’analyse implicite par éléments finis, la dynamique moléculaire et la chimie numérique.HC-series VMs are optimized for applications driven by dense computation, such as implicit finite element analysis, molecular dynamics, and computational chemistry. Les machines virtuelles HC disposent de 44 cœurs de processeur Intel Xeon Platinum 8168, de 8 Go de RAM par cœur de processeur, et d’aucun hyperthreading.HC VMs feature 44 Intel Xeon Platinum 8168 processor cores, 8 GB of RAM per CPU core, and no hyperthreading. La plateforme Intel Xeon Platinum prend en charge le riche écosystème d’outils logiciels d’Intel, comme Intel Math Kernel Library.The Intel Xeon Platinum platform supports Intel’s rich ecosystem of software tools such as the Intel Math Kernel Library.

Les machines virtuelles des séries HB et HC disposent d’un Infiniband EDR Mellanox de 100 Go/s dans une configuration de gros arbres non bloquant pour des performances RDMA homogènes.Both HB and HC VMs feature 100 Gb/sec Mellanox EDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. Les machines virtuelles des séries HB et HC prennent en charge les pilotes Mellanox/OFED standard, et l’ensemble des types et des versions de MPI. Les verbes RDMA sont aussi pris en charge.HB and HC VMs support standard Mellanox/OFED drivers such that all MPI types and versions, as well as RDMA verbs, are supported as well.

Les machines virtuelles de la série H sont optimisées pour les applications tributaires de fréquences de processeur élevées ou de besoins en mémoire important par cœur.H-series VMs are optimized for applications driven by high CPU frequencies or large memory per core requirements. Les machines virtuelles de la série H disposent de 8 ou 16 cœurs de processeur Intel Xeon E5 2667 v3, de 7 ou 14 Go de RAM par cœur de processeur, et d’aucun hyperthreading.H-series VMs feature 8 or 16 Intel Xeon E5 2667 v3 processor cores, 7 or 14 GB of RAM per CPU core, and no hyperthreading. Les machines virtuelles de la série H disposent d’un Infiniband FDR Mellanox de 56 Go/s dans une configuration de gros arbres non bloquant pour des performances RDMA homogènes.H-series features 56 Gb/sec Mellanox FDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. Les machines virtuelles de la série H prennent en charge Intel MPI 5.x et MS-MPI.H-series VMs support Intel MPI 5.x and MS-MPI.

Série HBHB-series

ACU : 199-216ACU: 199-216

Premium Storage : Pris en chargePremium Storage: Supported

Mise en cache du Stockage Premium : Pris en chargePremium Storage Caching: Supported

SizeSize Processeurs virtuelsvCPU ProcesseurProcessor Mémoire (Go)Memory (GB) Bande passante mémoire (Go/s)Memory bandwidth GB/s Fréquence du processeur de base (GHz)Base CPU frequency (GHz) Fréquence de tous les cœurs (GHz, pic)All-cores frequency (GHz, peak) Fréquence d’un cœur (GHz, pic)Single-core frequency (GHz, peak) Performances RDMA (Gbit/s)RDMA performance (Gb/s) Prise en charge MPIMPI support Stockage temporaire (Go)Temp storage (GB) Disques de données max.Max data disks Cartes réseau Ethernet max.Max Ethernet NICs
Standard_HB60rsStandard_HB60rs 6060 AMD EPYC 7551AMD EPYC 7551 240240 263263 2.02.0 2.552.55 2.552.55 100100 TousAll 700700 44 11

Série HCHC-series

ACU : 297-315ACU: 297-315

Premium Storage : Pris en chargePremium Storage: Supported

Mise en cache du Stockage Premium : Pris en chargePremium Storage Caching: Supported

SizeSize Processeurs virtuelsvCPU ProcesseurProcessor Mémoire (Go)Memory (GB) Bande passante mémoire (Go/s)Memory bandwidth GB/s Fréquence du processeur de base (GHz)Base CPU frequency (GHz) Fréquence de tous les cœurs (GHz, pic)All-cores frequency (GHz, peak) Fréquence d’un cœur (GHz, pic)Single-core frequency (GHz, peak) Performances RDMA (Gbit/s)RDMA performance (Gb/s) Prise en charge MPIMPI support Stockage temporaire (Go)Temp storage (GB) Disques de données max.Max data disks Cartes réseau Ethernet max.Max Ethernet NICs
Standard_HC44rsStandard_HC44rs 4444 Intel Xeon Platinum 8168Intel Xeon Platinum 8168 352352 191191 2.72.7 3.43.4 3.73.7 100100 TousAll 700700 44 11

Série HH-series

ACU : 290-300ACU: 290-300

Premium Storage : Non pris en chargePremium Storage: Not Supported

Mise en cache du Stockage Premium : Non pris en chargePremium Storage Caching: Not Supported

SizeSize Processeurs virtuelsvCPU ProcesseurProcessor Mémoire (Go)Memory (GB) Bande passante mémoire (Go/s)Memory bandwidth GB/s Fréquence du processeur de base (GHz)Base CPU frequency (GHz) Fréquence de tous les cœurs (GHz, pic)All-cores frequency (GHz, peak) Fréquence d’un cœur (GHz, pic)Single-core frequency (GHz, peak) Performances RDMA (Gbit/s)RDMA performance (Gb/s) Prise en charge MPIMPI support Stockage temporaire (Go)Temp storage (GB) Disques de données max.Max data disks Cartes réseau Ethernet max.Max Ethernet NICs
Standard_H8Standard_H8 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 5656 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 1 0001000 3232 22
Standard_H16Standard_H16 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H8mStandard_H8m 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 1 0001000 3232 22
Standard_H16mStandard_H16m 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16r 1Standard_H16r 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16mr 1Standard_H16mr 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44

1 Pour les applications MPI, un réseau principal RDMA dédié est activé par un réseau InfiniBand FDR.1 For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network.


Définitions des tailles de tablesSize table definitions

  • La capacité de stockage est indiquée en unités de Gio ou 1 024^3 octets.Storage capacity is shown in units of GiB or 1024^3 bytes. Lors de la comparaison de disques mesurés en Go (1 000^3 octets) à des disques mesurés en Gio (1 024^3) n’oubliez pas que les indications de capacité en Gio peuvent sembler plus petites.When comparing disks measured in GB (1000^3 bytes) to disks measured in GiB (1024^3) remember that capacity numbers given in GiB may appear smaller. Par exemple, 1 023 Gio = 1 098,4 GoFor example, 1023 GiB = 1098.4 GB
  • Le débit de disque est mesuré en opérations d’entrée/sortie par seconde (IOPS) et Mbit/s où Mbit/s = 10^6 octets par seconde.Disk throughput is measured in input/output operations per second (IOPS) and MBps where MBps = 10^6 bytes/sec.
  • Les disques de données peuvent fonctionner en mode avec ou sans mise en cache.Data disks can operate in cached or uncached modes. En cas de fonctionnement du disque de données avec mise en cache, le mode de mise en cache hôte est défini sur ReadOnly ou ReadWrite.For cached data disk operation, the host cache mode is set to ReadOnly or ReadWrite. En cas de fonctionnement du disque de données sans mise en cache, le mode de mise en cache hôte est défini sur Aucun.For uncached data disk operation, the host cache mode is set to None.
  • Si vous souhaitez obtenir des performances optimales pour vos machines virtuelles, vous devez limiter le nombre de disques de données à 2 disques par processeur virtuel.If you want to get the best performance for your VMs, you should limit the number of data disks to 2 disks per vCPU.
  • La bande passante réseau attendue est la bande passante agrégée maximale qui est allouée par type de machine virtuelle entre toutes les cartes réseau, pour toutes les destinations.Expected network bandwidth is the maximum aggregated bandwidth allocated per VM type across all NICs, for all destinations. Les limites supérieures ne sont pas garanties, mais servent de points de repère pour sélectionner le type de machine virtuelle adapté à l’application prévue.Upper limits are not guaranteed, but are intended to provide guidance for selecting the right VM type for the intended application. Les performances réseau réelles dépendent de nombreux facteurs, notamment la congestion du réseau, les charges de l’application, ainsi que les paramètres réseau.Actual network performance will depend on a variety of factors including network congestion, application loads, and network settings. Pour plus d’informations sur l’optimisation du débit du réseau, consultez Optimisation du débit du réseau pour Windows et Linux.For information on optimizing network throughput, see Optimizing network throughput for Windows and Linux. Pour atteindre la performance réseau attendue sous Linux ou Windows, il peut être nécessaire de sélectionner une version spécifique ou d’optimiser votre machine virtuelle.To achieve the expected network performance on Linux or Windows, it may be necessary to select a specific version or optimize your VM. Pour plus d’informations, consultez Tester de manière fiable le débit d’une machine virtuelle.For more information, see How to reliably test for virtual machine throughput.

Points à prendre en considération pour le déploiementDeployment considerations

  • Abonnement Azure : pour déployer un plus grand nombre d’instances de calcul intensif, envisagez de souscrire un abonnement de paiement à l’utilisation ou d’autres options d’achat.Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Si vous utilisez un compte gratuit Azure, vous pouvez seulement utiliser un nombre limité de cœurs de calcul Azure.If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • Tarification et disponibilité : ces tailles de machines virtuelles sont proposées uniquement au niveau tarifaire Standard.Pricing and availability - These VM sizes are offered only in the Standard pricing tier. Pour connaître la disponibilité dans les différentes régions Azure, voir Disponibilité des produits par région .Check Products available by region for availability in Azure regions.

  • Quota de cœurs : vous devrez peut-être augmenter le quota de cœurs dans votre abonnement Azure à partir de la valeur par défaut.Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. Votre abonnement peut également limiter le nombre de cœurs, que vous pouvez déployer dans certaines familles de taille de machine virtuelle, dont la série H.Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. Pour demander une augmentation de quota, ouvrez une demande de service clientèle en ligne gratuitement.To request a quota increase, open an online customer support request at no charge. (Les limites par défaut peuvent varier en fonction de la catégorie de votre abonnement.)(Default limits may vary depending on your subscription category.)

    Notes

    Si vous avez des besoins de capacité à grande échelle, contactez le support Azure.Contact Azure Support if you have large-scale capacity needs. Les quotas d’Azure sont des limites de crédit et non des garanties de capacité.Azure quotas are credit limits, not capacity guarantees. Quel que soit votre quota, vous êtes facturé uniquement pour les cœurs que vous utilisez.Regardless of your quota, you are only charged for cores that you use.

  • Réseau virtuel : un réseau virtuel Azure n’est pas requis pour utiliser les instances qui nécessitent beaucoup de ressources système.Virtual network – An Azure virtual network is not required to use the compute-intensive instances. Cependant, pour bon nombre de scénarios de déploiement, vous avez besoin d’au moins un réseau virtuel Azure cloud ou d’une connexion de site à site si vous devez accéder à des ressources locales.However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. Si nécessaire, créez un réseau virtuel avant de déployer les instances.When needed, create a new virtual network to deploy the instances. L’ajout de machines virtuelles nécessitant beaucoup de ressources système à un réseau virtuel dans un groupe d’affinités n’est pas pris en charge.Adding compute-intensive VMs to a virtual network in an affinity group is not supported.

  • Redimensionnement : en raison de leur matériel spécialisé, vous pouvez uniquement redimensionner les instances nécessitant beaucoup de ressources système qui appartiennent à la même famille de taille (série H ou série A nécessitant beaucoup de ressources système).Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or compute-intensive A-series). Par exemple, vous pouvez redimensionner une machine virtuelle de la série H uniquement d’une seule taille en une autre de cette même série.For example, you can only resize an H-series VM from one H-series size to another. Le redimensionnement d’une taille ne nécessitant pas beaucoup de ressources système en une taille nécessitant beaucoup de ressources système n’est pas pris en charge.In addition, resizing from a non-compute-intensive size to a compute-intensive size is not supported.

Instances prenant en charge RDMARDMA-capable instances

Un sous-ensemble d’instances nécessitant beaucoup de ressources système (A8, A9, H16r et H16mr) offre une interface réseau pour la connectivité par accès direct à la mémoire à distance (RDMA).A subset of the compute-intensive instances (A8, A9, H16r, H16mr, HB and HC) feature a network interface for remote direct memory access (RDMA) connectivity. Les tailles de la série N désignées par « r », telles que les configurations NC24rs (NC24rs_v2 et NC24rs_v3) sont également compatibles RDMA.Selected N-series sizes designated with 'r' such as the NC24rs configurations (NC24rs_v2 and NC24rs_v3) are also RDMA-capable. Cette interface s’ajoute à l’interface réseau Azure standard disponible pour d’autres tailles de machine virtuelle.This interface is in addition to the standard Azure network interface available to other VM sizes.

Cette interface permet aux instances prenant en charge l’accès RDMA de communiquer sur un réseau InfiniBand (IB), opérant à des vitesses EDR pour les machines virtuelles HB, HC, à des vitesses FDR pour les machines virtuelles de la série N H16r, H16mr, compatibles RDMA, et à des vitesses QDR pour les machines virtuelles A8 et A9.This interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at EDR rates for HB, HC, FDR rates for H16r, H16mr, and RDMA-capable N-series virtual machines, and QDR rates for A8 and A9 virtual machines. Ces fonctionnalités RDMA peuvent améliorer l’extensibilité et les performances de certaines applications MPI (Message Passing Interface).These RDMA capabilities can boost the scalability and performance of certain Message Passing Interface (MPI) applications. Pour plus d’informations sur la vitesse, consultez les détails dans les tables sur cette page.For more information on speed, see the details in the tables on this page.

Notes

Dans Azure, la fonction IP over IB est uniquement prise en charge sur les machines virtuelles compatibles SR-IOV (SR-IOV pour InfiniBand, actuellement HB et HC).In Azure, IP over IB is only supported on the SR-IOV enabled VMs (SR-IOV for InfiniBand, currently HB and HC). RDMA over IB est pris en charge pour toutes les instances compatibles RDMA.RDMA over IB is supported for all RDMA-capable instances.

  • Système d’exploitation : Windows Server 2016 sur toutes les machines virtuelles de la série de calcul haute performance (HPC) ci-dessus.Operating system - Windows Server 2016 on all the above HPC series VMs. Windows Server 2012 R2, Windows Server 2012 sont également pris en charge sur les machines virtuelles non compatibles SR-IOV (excluant HB et HC).Windows Server 2012 R2, Windows Server 2012 are also supported on the non-SR-IOV enabled VMs (hence excluding HB and HC).

  • MPI : les tailles des machines virtuelles SR-IOV activées sur Azure (HB, HC) permettent d’utiliser presque tous les qualificateurs de MPI avec Mellanox OFED.MPI - The SR-IOV enabled VM sizes on Azure (HB, HC) allow almost any flavor of MPI to be used with Mellanox OFED. Sur les machines virtuelles non compatibles SR-IOV, les implémentations MPI prises en charge utilisent l’interface Microsoft Network Direct (ND) pour la communication entre les instances.On non-SR-IOV enabled VMs, supported MPI implementations use the Microsoft Network Direct (ND) interface to communicate between instances. Par conséquent, seules les versions Microsoft MPI (MS-MPI) 2012 R2 ou ultérieures et Intel MPI 5.x sont supportées.Hence, only Microsoft MPI (MS-MPI) 2012 R2 or later and Intel MPI 5.x versions are supported. Les versions ultérieures (2017, 2018) de la bibliothèque runtime MPI Intel peuvent ne pas être compatibles avec les pilotes Azure RDMA.Later versions (2017, 2018) of the Intel MPI runtime library may or may not be compatible with the Azure RDMA drivers.

  • Extension de machine virtuelle InfiniBandDriverWindows : sur les machines virtuelles compatibles RDMA, ajoutez l’extension InfiniBandDriverWindows pour activer InfiniBand.InfiniBandDriverWindows VM extension - On RDMA-capable VMs, add the InfiniBandDriverWindows extension to enable InfiniBand. Cette extension de machine virtuelle Windows installe des pilotes Windows Network Direct (sur des machines virtuelles non compatibles SR-IOV) ou des pilotes Mellanox OFED (sur des machines virtuelles compatibles SR-IOV) pour la connectivité RDMA.This Windows VM extension installs Windows Network Direct drivers (on non-SR-IOV VMs) or Mellanox OFED drivers (on SR-IOV VMs) for RDMA connectivity. Dans certains déploiements des instances A8 et A9, l’extension HpcVmDrivers est ajoutée automatiquement.In certain deployments of A8 and A9 instances, the HpcVmDrivers extension is added automatically. Notez que l’extension de machine virtuelle HpcVmDrivers est déconseillée ; elle ne sera pas mise à jour.Note that the HpcVmDrivers VM extension is being deprecated; it will not be updated. Pour ajouter l’extension de machine virtuelle sur une machine virtuelle, vous pouvez utiliser les cmdlets Azure PowerShell.To add the VM extension to a VM, you can use Azure PowerShell cmdlets.

    La commande suivante installe la dernière version 1.0 de l’extension InfiniBandDriverWindows sur une machine virtuelle existante prenant en charge RDMA et nommée myVM déployée dans le groupe de ressources nommé myResourceGroup dans la région USA Ouest :The following command installs the latest version 1.0 InfiniBandDriverWindows extension on an existing RDMA-capable VM named myVM deployed in the resource group named myResourceGroup in the West US region:

    Set-AzVMExtension -ResourceGroupName "myResourceGroup" -Location "westus" -VMName "myVM" -ExtensionName "InfiniBandDriverWindows" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverWindows" -TypeHandlerVersion "1.0"
    

    Les extensions de machine virtuelle peuvent également être incluses dans les modèles Azure Resource Manager pour faciliter le déploiement, avec l’élément JSON suivant :Alternatively, VM extensions can be included in Azure Resource Manager templates for easy deployment, with the following JSON element:

    "properties":{
    "publisher": "Microsoft.HpcCompute",
    "type": "InfiniBandDriverWindows",
    "typeHandlerVersion": "1.0",
    } 
    

    La commande suivante installe la dernière version 1.0 de l’extension InfiniBandDriverWindows sur toutes les machines virtuelles prenant en charge RDMA qui existent dans un groupe de machines virtuelles identique nommé myVMSS et déployées dans le groupe de ressources nommé myResourceGroup :The following command installs the latest version 1.0 InfiniBandDriverWindows extension on all RDMA-capable VMs in an existing VM scale set named myVMSS deployed in the resource group named myResourceGroup:

    $VMSS = Get-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS"
    Add-AzVmssExtension -VirtualMachineScaleSet $VMSS -Name "InfiniBandDriverWindows" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverWindows" -TypeHandlerVersion "1.0"
    Update-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "MyVMSS" -VirtualMachineScaleSet $VMSS
    Update-AzVmssInstance -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS" -InstanceId "*"
    

    Pour plus d’informations, consultez Extensions et fonctionnalités de la machine virtuelle.For more information, see Virtual machine extensions and features. Vous pouvez également utiliser les extensions pour les machines virtuelles déployées dans le modèle de déploiement classique.You can also work with extensions for VMs deployed in the classic deployment model.

  • Espace d’adressage réseau RDMA : le réseau RDMA dans Azure réserve l’espace d’adressage 172.16.0.0/16.RDMA network address space - The RDMA network in Azure reserves the address space 172.16.0.0/16. Si vous exécutez des applications MPI sur des instances déployées dans un réseau virtuel Azure, assurez-vous que l’espace d’adressage du réseau virtuel ne chevauche pas le réseau RDMA.To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.

Options de configuration de clusterCluster configuration options

Azure fournit plusieurs options pour créer des clusters de machines virtuelles HPC Windows pouvant communiquer via le réseau RDMA, notamment :Azure provides several options to create clusters of Windows HPC VMs that can communicate using the RDMA network, including:

  • Machines virtuelles : Déployez les machines virtuelles HPC compatibles RDMA dans le même groupe à haute disponibilité (quand vous utilisez le modèle de déploiement Azure Resource Manager).Virtual machines - Deploy the RDMA-capable HPC VMs in the same availability set (when you use the Azure Resource Manager deployment model). Si vous utilisez le modèle de déploiement classique, déployez les machines virtuelles dans le même service cloud.If you use the classic deployment model, deploy the VMs in the same cloud service.

  • Groupes de machines virtuelles identiques : dans un groupe de machines virtuelles identiques, veillez à limiter le déploiement à un seul groupe de placements.Virtual machine scale sets - In a virtual machine scale set, ensure that you limit the deployment to a single placement group. Par exemple, dans un modèle Resource Manager, définissez la propriété singlePlacementGroup avec la valeur true.For example, in a Resource Manager template, set the singlePlacementGroup property to true.

  • MPI entre les machines virtuelles : si la communication MPI est nécessaire entre les machines virtuelles (VM), assurez-vous que les machines virtuelles sont dans le même groupe à haute disponibilité ou le même groupe identique de machines virtuelles.MPI among virtual machines - If MPI communication if required between virtual machines (VMs), ensure that the VMs are in the same availability set or the virtual machine same scale set.

  • Azure CycleCloud : Créez un cluster HPC dans Azure CycleCloud pour exécuter des travaux MPI sur des nœuds Windows.Azure CycleCloud - Create an HPC cluster in Azure CycleCloud to run MPI jobs on Windows nodes.

  • Azure Batch : Créez un pool Azure Batch pour exécuter des charges de travail MPI sur des nœuds de calcul Windows Server.Azure Batch - Create an Azure Batch pool to run MPI workloads on Windows Server compute nodes. Pour plus d’informations, consultez Utiliser des instances compatibles RDMA ou GPU dans les pools Batch.For more information, see Use RDMA-capable or GPU-enabled instances in Batch pools. Consultez également le projet Batch Shipyard pour l’exécution de charges de travail basées sur des conteneurs dans Batch.Also see the Batch Shipyard project, for running container-based workloads on Batch.

  • Microsoft HPC Pack - HPC Pack comprend un environnement d’exécution pour MS-MPI qui utilise le réseau RDMA Azure en cas de déploiement sur des machines virtuelles Windows compatibles RDMA.Microsoft HPC Pack - HPC Pack includes a runtime environment for MS-MPI that uses the Azure RDMA network when deployed on RDMA-capable Windows VMs. Pour des exemples de déploiement, consultez Configuration d'un cluster RDMA Windows avec HPC Pack pour exécuter des applications MPI.For example deployments, see Set up a Windows RDMA cluster with HPC Pack to run MPI applications.

Autres taillesOther sizes

Étapes suivantesNext steps