Tamaños de máquina virtual de proceso de alto rendimientoHigh performance compute virtual machine sizes

La máquinas virtuales de la serie H de Azure están diseñada para ofrecer rendimiento de primer nivel, escalabilidad de MPI y rentabilidad para diversas cargas de trabajo de HPC del mundo real.Azure H-series virtual machines (VMs) are designed to deliver leadership-class performance, MPI scalability, and cost efficiency for a variety of real-world HPC workloads.

Las máquinas virtuales de la serie HB están optimizadas para aplicaciones que funcionan con ancho de banda de la memoria, como la dinámica de fluidos, el análisis explícito de elementos finitos y los modelos de clima.HB-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, explicit finite element analysis, and weather modeling. Las máquinas virtuales HB cuentan con 60 núcleos de procesador AMD EPYC 7551, 4 GB de RAM por núcleo de CPU y no tienen hyperthreading.HB VMs feature 60 AMD EPYC 7551 processor cores, 4 GB of RAM per CPU core, and no hyperthreading. La plataforma AMD EPYC proporciona un ancho de banda de memoria de más de 260 GB/s.The AMD EPYC platform provides more than 260 GB/sec of memory bandwidth.

Las máquinas virtuales de la serie HC están optimizadas para aplicaciones basadas en cálculos intensivos, como el análisis implícito de elementos finitos, la dinámica molecular y la química computacional.HC-series VMs are optimized for applications driven by dense computation, such as implicit finite element analysis, molecular dynamics, and computational chemistry. Las máquinas virtuales HC cuentan con 44 núcleos de procesador Intel Xeon Platinum 8168, 8 GB de RAM por núcleo de CPU y no tienen hyperthreading.HC VMs feature 44 Intel Xeon Platinum 8168 processor cores, 8 GB of RAM per CPU core, and no hyperthreading. La plataforma Intel Xeon Platinum admite el rico ecosistema de herramientas de software de Intel, como la biblioteca Intel Math Kernel Library.The Intel Xeon Platinum platform supports Intel’s rich ecosystem of software tools such as the Intel Math Kernel Library.

Las máquinas de las series HB y HC cuentan con una interconexión Mellanox EDR InfiniBand de 100 Gb/s en una configuración de árbol de FAT sin bloqueo para proporcionar un rendimiento de RDMA consistente.Both HB and HC VMs feature 100 Gb/sec Mellanox EDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. Las máquinas virtuales HB y HC admiten controladores Mellanox/OFED estándar de forma que no solo se admiten todos los tipos y versiones de MPI, sino también los verbos de RDMA.HB and HC VMs support standard Mellanox/OFED drivers such that all MPI types and versions, as well as RDMA verbs, are supported as well.

Las máquinas virtuales de la serie H están optimizadas para aplicaciones basadas en frecuencias alta de CPU o requisitos de gran cantidad de memoria por núcleo.H-series VMs are optimized for applications driven by high CPU frequencies or large memory per core requirements. Las máquinas virtuales de la serie H cuentan con 8 o 16 núcleos de procesador Intel Xeon E5 2667 v3, 7 o 14 GB de RAM por núcleo de CPU y no tienen hyperthreading.H-series VMs feature 8 or 16 Intel Xeon E5 2667 v3 processor cores, 7 or 14 GB of RAM per CPU core, and no hyperthreading. Las máquinas de la serie H cuentan con una interconexión Mellanox FDR InfiniBand de 56 Gb/s en una configuración de árbol de FAT sin bloqueo para proporcionar un rendimiento de RDMA consistente.H-series features 56 Gb/sec Mellanox FDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. Las máquinas virtuales de la serie H admiten Intel MPI 5.x y MS-MPI.H-series VMs support Intel MPI 5.x and MS-MPI.

Serie HBHB-series

ACU: 199-216ACU: 199-216

Premium Storage: CompatiblePremium Storage: Supported

Almacenamiento en caché de Premium Storage: CompatiblePremium Storage Caching: Supported

SizeSize vCPUvCPU ProcesadorProcessor Memoria (GB)Memory (GB) Ancho de banda de memoria, en GB/sMemory bandwidth GB/s Frecuencia de CPU base (GHz)Base CPU frequency (GHz) Frecuencia de todos los núcleos (GHz, pico)All-cores frequency (GHz, peak) Frecuencia de cada núcleo (GHz, pico)Single-core frequency (GHz, peak) Rendimiento de RDMA (GB/s)RDMA performance (Gb/s) Compatibilidad con MPIMPI support Almacenamiento temporal (GB)Temp storage (GB) Discos de datos máx.Max data disks NIC Ethernet máx.Max Ethernet NICs
Standard_HB60rsStandard_HB60rs 6060 AMD EPYC 7551AMD EPYC 7551 240240 263263 2.02.0 2.552.55 2.552.55 100100 TodoAll 700700 44 11

Serie HCHC-series

ACU: 297-315ACU: 297-315

Premium Storage: CompatiblePremium Storage: Supported

Almacenamiento en caché de Premium Storage: CompatiblePremium Storage Caching: Supported

SizeSize vCPUvCPU ProcesadorProcessor Memoria (GB)Memory (GB) Ancho de banda de memoria, en GB/sMemory bandwidth GB/s Frecuencia de CPU base (GHz)Base CPU frequency (GHz) Frecuencia de todos los núcleos (GHz, pico)All-cores frequency (GHz, peak) Frecuencia de cada núcleo (GHz, pico)Single-core frequency (GHz, peak) Rendimiento de RDMA (GB/s)RDMA performance (Gb/s) Compatibilidad con MPIMPI support Almacenamiento temporal (GB)Temp storage (GB) Discos de datos máx.Max data disks NIC Ethernet máx.Max Ethernet NICs
Standard_HC44rsStandard_HC44rs 4444 Intel Xeon Platinum 8168Intel Xeon Platinum 8168 352352 191191 2.72.7 3.43.4 3.73.7 100100 TodoAll 700700 44 11

Serie HH-series

ACU: 290-300ACU: 290-300

Premium Storage: No compatiblePremium Storage: Not Supported

Almacenamiento en caché de Premium Storage: No compatiblePremium Storage Caching: Not Supported

SizeSize vCPUvCPU ProcesadorProcessor Memoria (GB)Memory (GB) Ancho de banda de memoria, en GB/sMemory bandwidth GB/s Frecuencia de CPU base (GHz)Base CPU frequency (GHz) Frecuencia de todos los núcleos (GHz, pico)All-cores frequency (GHz, peak) Frecuencia de cada núcleo (GHz, pico)Single-core frequency (GHz, peak) Rendimiento de RDMA (GB/s)RDMA performance (Gb/s) Compatibilidad con MPIMPI support Almacenamiento temporal (GB)Temp storage (GB) Discos de datos máx.Max data disks NIC Ethernet máx.Max Ethernet NICs
Standard_H8Standard_H8 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 5656 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 10001000 3232 22
Standard_H16Standard_H16 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H8mStandard_H8m 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 10001000 3232 22
Standard_H16mStandard_H16m 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16r 1Standard_H16r 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16mr 1Standard_H16mr 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x, MS-MPIIntel 5.x, MS-MPI 20002000 6464 44

1 Para las aplicaciones MPI, la red de back-end RDMA dedicada está habilitada por la red InfiniBand FDR.1 For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network.


Definiciones de tabla de tamañoSize table definitions

  • La capacidad de almacenamiento se muestra en unidades de GiB o 1024^3 bytes.Storage capacity is shown in units of GiB or 1024^3 bytes. Cuando compare discos que se miden en GB (1000^3 bytes) con discos que se miden en GiB (1024^3), recuerde que los números que representan la capacidad en GiB pueden parecer más pequeños.When comparing disks measured in GB (1000^3 bytes) to disks measured in GiB (1024^3) remember that capacity numbers given in GiB may appear smaller. Por ejemplo, 1023 GiB = 1098.4 GBFor example, 1023 GiB = 1098.4 GB
  • Se midió el rendimiento de disco en operaciones de entrada/salida por segundo (E/S por segundo) y MBps, donde Mbps = 10^6 bytes/s.Disk throughput is measured in input/output operations per second (IOPS) and MBps where MBps = 10^6 bytes/sec.
  • Los discos de datos pueden funcionar en modo en caché o en modo no en caché.Data disks can operate in cached or uncached modes. En el caso de la operación de disco de datos en caché, el modo de caché del host está establecido en ReadOnly o ReadWrite.For cached data disk operation, the host cache mode is set to ReadOnly or ReadWrite. En el caso de la operación de disco de datos no en caché, el modo de caché del host está definido en None.For uncached data disk operation, the host cache mode is set to None.
  • Si desea obtener el mejor rendimiento para las VM, debe limitar el número de discos de datos a 2 discos por vCPU.If you want to get the best performance for your VMs, you should limit the number of data disks to 2 disks per vCPU.
  • El ancho de banda de red esperado es el ancho de banda agregado máximo asignado por tipo de máquina virtual en todas las NIC y para todos los destinos.Expected network bandwidth is the maximum aggregated bandwidth allocated per VM type across all NICs, for all destinations. Los límites superiores no están garantizados pero están diseñados para proporcionar una guía a la hora de seleccionar el tipo correcto de máquina virtual para la aplicación deseada.Upper limits are not guaranteed, but are intended to provide guidance for selecting the right VM type for the intended application. El rendimiento de red real dependerá de diversos factores (como, por ejemplo, la congestión de la red, las cargas de la aplicación y la configuración de red).Actual network performance will depend on a variety of factors including network congestion, application loads, and network settings. Para más información acerca de cómo optimizar el rendimiento de red, consulte Optimización del rendimiento de red para Windows y Linux.For information on optimizing network throughput, see Optimizing network throughput for Windows and Linux. Para lograr el rendimiento de red esperado en Linux o Windows, puede que sea necesario seleccionar una versión específica u optimizar la máquina virtual.To achieve the expected network performance on Linux or Windows, it may be necessary to select a specific version or optimize your VM. Para más información, consulte Pruebas confiables para el rendimiento de máquinas virtuales.For more information, see How to reliably test for virtual machine throughput.

Consideraciones de la implementaciónDeployment considerations

  • Suscripción de Azure: para implementar más que algunas instancias de proceso intensivo, considere la posibilidad de usar una suscripción de pago por uso u otras opciones de compra.Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Si usa una cuenta gratuita de Azure, solo puede usar un número limitado de núcleos de proceso de Azure.If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • Disponibilidad y precios: los tamaños de máquina virtual se ofrecen solo en el plan de tarifa estándar.Pricing and availability - These VM sizes are offered only in the Standard pricing tier. Para ver la disponibilidad en las regiones de Azure, consulte Productos disponibles por región .Check Products available by region for availability in Azure regions.

  • Cuota de núcleos: quizás tenga que aumentar la cuota de núcleos de su suscripción de Azure partiendo del valor predeterminado.Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. La suscripción también podría limitar el número de núcleos que se pueden implementar en ciertas familias de tamaño de máquina virtual, como la serie H.Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. Para solicitar un aumento de cuota, abra una solicitud de soporte técnico al cliente en línea sin cargo alguno.To request a quota increase, open an online customer support request at no charge. (Los límites predeterminados pueden variar según la categoría de suscripción).(Default limits may vary depending on your subscription category.)

    Nota

    Si tiene necesidades de capacidad a gran escala, póngase en contacto con el soporte técnico de Azure.Contact Azure Support if you have large-scale capacity needs. Las cuotas de Azure son límites de crédito, no garantías de capacidad.Azure quotas are credit limits, not capacity guarantees. Independientemente de la cuota, solamente se le cobrarán los núcleos que use.Regardless of your quota, you are only charged for cores that you use.

  • Red virtual : no se necesita una red virtual de Azure para usar instancias de proceso intensivo.Virtual network – An Azure virtual network is not required to use the compute-intensive instances. Sin embargo, para muchas implementaciones necesita al menos una red virtual de Azure basada en la nube o una conexión de sitio a sitio si necesita acceder a recursos locales.However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. Si es necesario, cree una red virtual para implementar las instancias.When needed, create a new virtual network to deploy the instances. No se admite la adición de máquinas virtuales de proceso intensivo a las redes virtuales de grupos de afinidad.Adding compute-intensive VMs to a virtual network in an affinity group is not supported.

  • Cambio de tamaño: debido a su hardware especializado, solo se puede cambiar el tamaño de las instancias de proceso intensivo dentro de la misma familia de tamaño (serie H o serie A de proceso intensivo).Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or compute-intensive A-series). Por ejemplo, una máquina virtual de la serie H solo se puede cambiar de un tamaño de serie H a otro.For example, you can only resize an H-series VM from one H-series size to another. Además, no se admite el cambio de tamaño de un tamaño que no sea de proceso intensivo a un tamaño que sí lo sea.In addition, resizing from a non-compute-intensive size to a compute-intensive size is not supported.

Instancias compatibles con RDMARDMA-capable instances

Un subconjunto de las instancias de proceso intensivo (A8, A9, H16r, H16mr, HB y HC) incluye una interfaz de red para la conectividad de acceso directo a memoria remota (RDMA).A subset of the compute-intensive instances (A8, A9, H16r, H16mr, HB and HC) feature a network interface for remote direct memory access (RDMA) connectivity. Tamaños seleccionados de la serie N designados con la letra "r", como las configuraciones de NC24rs (NC24rs_v2 y NC24rs_v3) también son compatibles con RDMA.Selected N-series sizes designated with 'r' such as the NC24rs configurations (NC24rs_v2 and NC24rs_v3) are also RDMA-capable. Esta interfaz se añade a la interfaz de red estándar de Azure disponible para otros tamaños de máquina virtual.This interface is in addition to the standard Azure network interface available to other VM sizes.

Esta interfaz permite que las instancias compatibles con RDMA se comuniquen través de una red InfiniBand (IB), que funciona a velocidades EDR en las series HB y HC, a velocidades FDR en máquinas virtuales H16r, H16mr y de la serie N compatibles con RDMA, y a velocidades QDR en máquinas virtuales A8 y A9.This interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at EDR rates for HB, HC, FDR rates for H16r, H16mr, and RDMA-capable N-series virtual machines, and QDR rates for A8 and A9 virtual machines. Estas funcionalidades RDMA pueden mejorar la escalabilidad y el rendimiento de determinadas aplicaciones de la Interfaz de paso de mensajes (MPI).These RDMA capabilities can boost the scalability and performance of certain Message Passing Interface (MPI) applications. Para más información acerca de la velocidad, consulte los detalles en las tablas de esta página.For more information on speed, see the details in the tables on this page.

Nota

En Azure, solo se admite IP sobre IB en VM habilitadas para SR-IOV (SR-IOV para InfiniBand, actualmente, HB y HC).In Azure, IP over IB is only supported on the SR-IOV enabled VMs (SR-IOV for InfiniBand, currently HB and HC). RDMA a través de IB se admite en todas las instancias compatibles con RDMA.RDMA over IB is supported for all RDMA-capable instances.

MPIMPI

Los tamaños de las máquinas virtuales habilitadas para SR-IOV en Azure permiten que se utilice casi cualquier tipo de MPI.The SR-IOV enabled VM sizes on Azure allow almost any flavor of MPI to be used. Las máquinas virtuales no habilitadas para SR-IOV admiten únicamente versiones Intel MPI 5.x.On non-SR-IOV enabled VMs, only Intel MPI 5.x versions are supported. Las versiones posteriores (2017 y 2018) de la biblioteca en tiempo de ejecución de Intel MPI pueden ser o no compatibles con los controladores Azure Linux RDMA.Later versions (2017, 2018) of the Intel MPI runtime library may or may not be compatible with the Azure Linux RDMA drivers.

Imágenes de sistema operativo compatiblesSupported OS images

Azure Marketplace tiene muchas distribuciones de Linux que admiten la conectividad de RDMA:The Azure Marketplace has many Linux distributions that support RDMA connectivity:

  • HPC basada en CentOS: en las máquinas virtuales no habilitadas para SR-IOV, se admite una HPC basada en CentOS versión 6.5 o posterior, hasta la versión 7.5.CentOS-based HPC - For non-SR-IOV enabled VMs, CentOS-based version 6.5 HPC or a later version, up to 7.5 are suitable. En las máquinas virtuales de la serie H, se recomienda usar las versiones 7.1 a 7.5.For H-series VMs, versions 7.1 to 7.5 are recommended. Los controladores RDMA e Intel MPI 5.1 están instalados en la máquina virtual.RDMA drivers and Intel MPI 5.1 are installed on the VM. En las máquinas virtuales habilitadas para SR-IOV, HPC 7.6 basada en CentOS viene optimizada y precargada con los controladores de RDMA y con diversos paquetes de MPI instalados.For SR-IOV VMs, CentOS-HPC 7.6 comes optimized and pre-loaded with the RDMA drivers and various MPI packages installed. En otras imágenes de máquina virtual de RHEL/CentOS, agregue la extensión InfiniBandLinux para habilitar InfiniBand.For other RHEL/CentOS VM images, add the InfiniBandLinux extension to enable InfiniBand. Esta extensión de máquina virtual de Linux instala controladores Mellanox OFED (en máquinas virtuales de SR-IOV) para la conectividad RDMA.This Linux VM extension installs Mellanox OFED drivers (on SR-IOV VMs) for RDMA connectivity. El siguiente cmdlet de PowerShell instala la versión más reciente (versión 1.0) de la extensión InfiniBandDriverLinux en una máquina virtual compatible con RDMA existente.The following PowerShell cmdlet installs the latest version (version 1.0) of the InfiniBandDriverLinux extension on an existing RDMA-capable VM. La máquina virtual compatible con RDMA se denomina myVM y se implementa en el grupo de recursos denominado myResourceGroup en la región Oeste de EE. UU. del siguiente modo:The RDMA-capable VM is named myVM and is deployed in the resource group named myResourceGroup in the West US region as follows:

    Set-AzVMExtension -ResourceGroupName "myResourceGroup" -Location "westus" -VMName "myVM" -ExtensionName "InfiniBandDriverLinux" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverLinux" -TypeHandlerVersion "1.0"
    

    Como alternativa, se pueden incluir extensiones de máquina virtual en las plantillas de Azure Resource Manager para facilitar la implementación, con el siguiente elemento JSON:Alternatively, VM extensions can be included in Azure Resource Manager templates for easy deployment with the following JSON element:

    "properties":{
    "publisher": "Microsoft.HpcCompute",
    "type": "InfiniBandDriverLinux",
    "typeHandlerVersion": "1.0",
    } 
    

    El comando siguiente instala la versión más reciente de la extensión InfiniBandDriverLinux (1.0) en todas las máquinas virtuales compatibles con RDMA en un conjunto de escalado de máquinas virtuales denominado myVMSS que está implementado en el grupo de recursos denominado myResourceGroup:The following command installs the latest version 1.0 InfiniBandDriverLinux extension on all RDMA-capable VMs in an existing VM scale set named myVMSS deployed in the resource group named myResourceGroup:

    $VMSS = Get-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS"
    Add-AzVmssExtension -VirtualMachineScaleSet $VMSS -Name "InfiniBandDriverLinux" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverLinux" -TypeHandlerVersion "1.0"
    Update-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "MyVMSS" -VirtualMachineScaleSet $VMSS
    Update-AzVmssInstance -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS" -InstanceId "*"
    

    Nota

    En las imágenes de HPC basadas en CentOS, las actualizaciones del núcleo están deshabilitadas en el archivo de configuración yum .On the CentOS-based HPC images, kernel updates are disabled in the yum configuration file. Esto se debe a que los controladores Linux RDMA se distribuyen en forma de paquete RPM y sus actualizaciones de estos podrían no funcionar si se actualiza el kernel.This is because Linux RDMA drivers are distributed as an RPM package, and driver updates might not work if the kernel is updated.

  • SUSE Linux Enterprise Server: SLES 12 SP3 para HPC, SLES 12 SP3 para HPC (Premium), SLES 12 SP1 para HPC, SLES 12 SP1 para HPC (Premium), SLES 12 SP4 y SLES 15.SUSE Linux Enterprise Server - SLES 12 SP3 for HPC, SLES 12 SP3 for HPC (Premium), SLES 12 SP1 for HPC, SLES 12 SP1 for HPC (Premium), SLES 12 SP4 and SLES 15. Los controladores RDMA se instalan y se distribuyen los paquetes Intel MPI en la máquina virtual.RDMA drivers are installed and Intel MPI packages are distributed on the VM. Instale MPI mediante la ejecución del comando siguiente:Install MPI by running the following command:

    sudo rpm -v -i --nodeps /opt/intelMPI/intel_mpi_packages/*.rpm
    
  • Ubuntu: Ubuntu Server 16.04 LTS, 18.04 LTS.Ubuntu - Ubuntu Server 16.04 LTS, 18.04 LTS. Configure controladores RDMA en la máquina virtual y regístrese en Intel para descargar Intel MPI:Configure RDMA drivers on the VM and register with Intel to download Intel MPI:

    1. Instale dapl, rdmacm, ibverbs y mlx4.Install dapl, rdmacm, ibverbs, and mlx4

      sudo apt-get update
      
      sudo apt-get install libdapl2 libmlx4-1
      
      
    2. En /etc/waagent.conf, habilite RDMA quitando la marca de comentario de las siguientes líneas de configuración.In /etc/waagent.conf, enable RDMA by uncommenting the following configuration lines. Necesita acceso a la raíz para editar este archivo.You need root access to edit this file.

      OS.EnableRDMA=y
      
      OS.UpdateRdmaDriver=y
      
    3. Agregue o cambie la siguiente configuración de memoria en KB en el archivo /etc/security/limits.conf.Add or change the following memory settings in KB in the /etc/security/limits.conf file. Necesita acceso a la raíz para editar este archivo.You need root access to edit this file. Para realizar pruebas, puede establecer memlock en ilimitado.For testing purposes you can set memlock to unlimited. Por ejemplo: <User or group name> hard memlock unlimited.For example: <User or group name> hard memlock unlimited.

      <User or group name> hard    memlock <memory required for your application in KB>
      
      <User or group name> soft    memlock <memory required for your application in KB>
      
    4. Instale la biblioteca Intel MPI.Install Intel MPI Library. Compre y descargar la biblioteca de Intel o descargue la versión de evaluación gratuita.Either purchase and download the library from Intel or download the free evaluation version.

      wget http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/9278/l_mpi_p_5.1.3.223.tgz
      

      Solo se admiten los runtimes de Intel MPI 5.x.Only Intel MPI 5.x runtimes are supported.

      Para ver los pasos de instalación, vea la guía de instalación de la Biblioteca de Intel MPI.For installation steps, see the Intel MPI Library Installation Guide.

    5. Habilite ptrace para los procesos que no son de depurador no raíz (necesario para las versiones más recientes de Intel MPI).Enable ptrace for non-root non-debugger processes (needed for the most recent versions of Intel MPI).

      echo 0 | sudo tee /proc/sys/kernel/yama/ptrace_scope
      

    Para obtener más detalles sobre cómo habilitar InfiniBand y cómo configurar MPI, vea Habilitar InfiniBand.For more details on enabling InfiniBand, setting up MPI, see Enable InfiniBand.

Opciones de configuración del clústerCluster configuration options

Azure ofrece varias opciones para crear clústeres de máquinas virtuales de HPC de Linux que se pueden comunicar con la red RDMA, incluidos:Azure provides several options to create clusters of Linux HPC VMs that can communicate using the RDMA network, including:

  • Máquinas virtuales: implemente las máquinas virtuales de HPC compatibles con RDMA en el mismo conjunto de disponibilidad (cuando use el modelo de implementación de Azure Resource Manager).Virtual machines - Deploy the RDMA-capable HPC VMs in the same availability set (when you use the Azure Resource Manager deployment model). Si usa el modelo de implementación clásica, implemente las máquinas virtuales en el mismo servicio en la nube.If you use the classic deployment model, deploy the VMs in the same cloud service.

  • Conjuntos de escalado de máquinas virtuales: en un conjunto de escalado de máquinas virtuales, asegúrese de limitar la implementación a un único grupo de selección de ubicación.Virtual machine scale sets - In a virtual machine scale set, ensure that you limit the deployment to a single placement group. Por ejemplo, en una plantilla de Resource Manager, establezca la propiedad singlePlacementGroup en true.For example, in a Resource Manager template, set the singlePlacementGroup property to true.

  • MPI entre las máquinas virtuales: si es necesaria la comunicación de MPI entre las máquinas virtuales, asegúrese de que las máquinas virtuales estén en el mismo conjunto de disponibilidad o en el mismo conjunto de escalado de la máquina virtual.MPI among virtual machines - If MPI communication if required between virtual machines (VMs), ensure that the VMs are in the same availability set or the virtual machine same scale set.

  • Azure CycleCloud: cree un clúster de HPC en Azure CycleCloud para ejecutar trabajos MPI en nodos de Linux.Azure CycleCloud - Create an HPC cluster in Azure CycleCloud to run MPI jobs on Linux nodes.

  • Azure Batch: cree un grupo de Azure Batch para ejecutar cargas de trabajo MPI en nodos de proceso de Linux.Azure Batch - Create an Azure Batch pool to run MPI workloads on Linux compute nodes. Para obtener más información, consulte Uso de instancias compatibles con RDMA o habilitadas para GPU en grupos de Batch.For more information, see Use RDMA-capable or GPU-enabled instances in Batch pools. Consulte también el proyecto Batch Shipyard para ejecutar cargas de trabajo basadas en contenedores en Batch.Also see the Batch Shipyard project, for running container-based workloads on Batch.

  • Microsoft HPC Pack: HPC Pack admite varias distribuciones de Linux en nodos de proceso implementados en máquinas virtuales de Azure compatibles con RDMA, administradas por un nodo principal de Windows Server. - Microsoft HPC Pack - HPC Pack supports several Linux distributions to run on compute nodes deployed in RDMA-capable Azure VMs, managed by a Windows Server head node. Para ver una implementación de ejemplo, consulte Create HPC Pack Linux RDMA Cluster in Azure (Creación de un clúster RDMA de HPC Pack en Linux desde Azure).For an example deployment, see Create HPC Pack Linux RDMA Cluster in Azure.

Consideraciones sobre la redNetwork considerations

  • En las máquinas virtuales Linux compatibles con RDMA y no habilitadas para SR-IOV de Azure, eth1 se reserva para el tráfico de red RDMA.On non-SR-IOV, RDMA-enabled Linux VMs in Azure, eth1 is reserved for RDMA network traffic. No cambie ninguna configuración eth1 ni ninguna información del archivo de configuración que haga referencia a esta red.Do not change any eth1 settings or any information in the configuration file referring to this network.
  • En las máquinas virtuales habilitadas para SR-IOV (series HB y HC), ib0 está reservado para el tráfico de red de RDMA.On SR-IOV enabled VMs (HB and HC-series), ib0 is reserved for RDMA network traffic.
  • La red RDMA en Azure reserva el espacio de direcciones 172.16.0.0/16.The RDMA network in Azure reserves the address space 172.16.0.0/16. Para ejecutar aplicaciones MPI en instancias implementadas en una red virtual Azure, asegúrese de que el espacio de direcciones de la red virtual no se superpone a la red RDMA.To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.
  • Según la herramienta de administración de clúster que haya elegido, puede ser necesaria una configuración adicional del sistema para ejecutar trabajos MPI.Depending on your choice of cluster management tool, additional system configuration may be needed to run MPI jobs. Por ejemplo, en un clúster de máquinas virtuales, es posible que deba establecer confianza entre los nodo de clúster mediante la generación de claves SSH o mediante el establecimiento de inicios de sesión de SSH sin contraseña.For example, on a cluster of VMs, you may need to establish trust among the cluster nodes by generating SSH keys or by establishing passwordless SSH logins.

Otros tamañosOther sizes

Pasos siguientesNext steps