Размеры виртуальных машин с высокой производительностьюHigh performance computing VM sizes

Виртуальные машины Azure серии H предназначены для обеспечения производительности классов, масштабируемости MPI и экономичности для различных реальных рабочих нагрузок HPC.Azure H-series virtual machines (VMs) are designed to deliver leadership-class performance, MPI scalability, and cost efficiency for a variety of real-world HPC workloads.

Серия HBv2 Виртуальные машины оптимизированы для приложений, управляемых с помощью пропускной способности памяти, например "жидкие", "неограниченный" анализ элементов и симуляцию молекулярного.HBv2-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, finite element analysis, and reservoir simulation. HBv2 VMS 120 ядра процессора AMD ЕПИК 7742, 4 ГБ ОЗУ на ядро ЦП и без одновременной многопоточности.HBv2 VMs feature 120 AMD EPYC 7742 processor cores, 4 GB of RAM per CPU core, and no simultaneous multithreading. Каждая виртуальная машина HBv2 предоставляет до 340 ГБ/с для пропускной способности памяти и до 4 операций FP64 вычислений.Each HBv2 VM provides up to 340 GB/sec of memory bandwidth, and up to 4 teraFLOPS of FP64 compute.

HBv2 VMS 200 ГБ/с Mellanox HDR InfiniBand, а для виртуальных машин серии ХБ и HC — 100 ГБ/с Mellanox ЕДР InfiniBand.HBv2 VMs feature 200 Gb/sec Mellanox HDR InfiniBand, while both HB and HC-series VMs feature 100 Gb/sec Mellanox EDR InfiniBand. Каждый из этих типов виртуальных машин подключен в неблокирующем дереве FAT для обеспечения оптимальной и стабильной производительности RDMA.Each of these VM types are connected in a non-blocking fat tree for optimized and consistent RDMA performance. HBv2 виртуальные машины поддерживают адаптивную маршрутизацию и динамический подключенный транспорт (ДКТ, дополнительно к стандартным транспортам RC и обновления).HBv2 VMs support Adaptive Routing and the Dynamic Connected Transport (DCT, in additional to standard RC and UD transports). Эти функции улучшают производительность, масштабируемость и согласованность приложений, а их использование настоятельно рекомендуется.These features enhance application performance, scalability, and consistency, and usage of them is strongly recommended.

Серия ХБ Виртуальные машины оптимизированы для приложений, управляемых с помощью пропускной способности памяти, например для жидкости Dynamics, явного анализа конечных элементов и моделирования погоды.HB-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, explicit finite element analysis, and weather modeling. ХБ VMS 60 ядра процессора AMD ЕПИК 7551, 4 ГБ ОЗУ на ядро ЦП и без технологии hypering.HB VMs feature 60 AMD EPYC 7551 processor cores, 4 GB of RAM per CPU core, and no hyperthreading. Платформа AMD ЕПИК предоставляет более 260 ГБ/с для пропускной способности памяти.The AMD EPYC platform provides more than 260 GB/sec of memory bandwidth.

Серия HC Виртуальные машины оптимизированы для приложений, управляемых с помощью сжатых вычислений, например неявного анализа конечных элементов, молекулярное Dynamics и вычислительных химия.HC-series VMs are optimized for applications driven by dense computation, such as implicit finite element analysis, molecular dynamics, and computational chemistry. HC VMS 44 процессорных ядер Intel Xeon Platinum 8168, 8 ГБ ОЗУ на ядро ЦП и без технологии hypering.HC VMs feature 44 Intel Xeon Platinum 8168 processor cores, 8 GB of RAM per CPU core, and no hyperthreading. Платформа Intel Xeon Platinum поддерживает обширную экосистему программных средств Intel, например библиотеку Intel Math Kernel.The Intel Xeon Platinum platform supports Intel’s rich ecosystem of software tools such as the Intel Math Kernel Library.

Серия H Виртуальные машины оптимизированы для приложений, которые управляются высокой частотой ЦП или большими объемами памяти на базовые требования.H-series VMs are optimized for applications driven by high CPU frequencies or large memory per core requirements. Виртуальные машины серии H с 8 или 16 процессоров Intel Xeon 3 2667 v3, 7 или 14 ГБ ОЗУ на ядро ЦП и без технологии Hyper-Threading.H-series VMs feature 8 or 16 Intel Xeon E5 2667 v3 processor cores, 7 or 14 GB of RAM per CPU core, and no hyperthreading. Функции серии H 56 ГБ/с Mellanox FDR InfiniBand в неблокирующей конфигурации дерева FAT для обеспечения постоянной производительности RDMA.H-series features 56 Gb/sec Mellanox FDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. Виртуальные машины серии H поддерживают Intel MPI 5. x и MS-MPI.H-series VMs support Intel MPI 5.x and MS-MPI.

Примечание

Виртуальные машины A8 – A11 планируется выпустить в марте 2021 г.The A8 – A11 VMs are planned for retirement on 3/2021. Дополнительные сведения см. в разделе Руководство по миграции HPC.For more information, see HPC Migration Guide.

Экземпляры с поддержкой RDMARDMA-capable instances

Большинство размеров виртуальных машин HPC (HBv2, хб, HC, H16r, H16mr, A8 и A9) имеют сетевой интерфейс для подключения удаленного доступа к памяти (RDMA).Most of the HPC VM sizes (HBv2, HB, HC, H16r, H16mr, A8 and A9) feature a network interface for remote direct memory access (RDMA) connectivity. Выбранные размеры серии N , обозначенные "r" (ND40rs_v2, ND24rs, NC24rs_v3, NC24rs_v2 и NC24r), также поддерживают RDMA.Selected N-series sizes designated with 'r' (ND40rs_v2, ND24rs, NC24rs_v3, NC24rs_v2 and NC24r) are also RDMA-capable. Этот интерфейс является дополнением к стандартному сетевому интерфейсу Azure, доступному в других размерах виртуальных машин.This interface is in addition to the standard Azure network interface available in the other VM sizes.

Этот интерфейс позволяет экземплярам, поддерживающим RDMA, обмениваться данными по сети InfiniBand (с геочастотой), работать с тарифами HDR для HBv2, ЕДР rates for хб, HC, NDv2, частотой FDR для H16r, H16mr и другими виртуальными машинами серии N, поддерживающими RDMA, и частотой QDR для виртуальных машин A8 и A9.This interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at HDR rates for HBv2, EDR rates for HB, HC, NDv2, FDR rates for H16r, H16mr, and other RDMA-capable N-series virtual machines, and QDR rates for A8 and A9 VMs. Эти возможности RDMA позволяют увеличить масштабируемость и производительность определенных приложений с интерфейсом MPI.These RDMA capabilities can boost the scalability and performance of certain Message Passing Interface (MPI) applications.

Примечание

В Azure HPC существует два класса виртуальных машин в зависимости от того, включены ли они в SR-IOV для InfiniBand.In Azure HPC, there are two classes of VMs depending on whether they are SR-IOV enabled for InfiniBand. Сейчас на виртуальных машинах с поддержкой InfiniBand поддерживается SR-IOV: HBv2, хб, HC, NCv3 и NDv2.Currently, the SR-IOV for InfiniBand enabled VMs are: HBv2, HB, HC, NCv3 and NDv2. В настоящее время на остальных виртуальных машинах с поддержкой InfiniBand не поддерживается SR-IOV.Rest of the InfiniBand enabled VMs are not SR-IOV enabled currently. Для всех виртуальных машин с поддержкой RDMA поддерживается RDMA.RDMA over IB is supported for all RDMA-capable VMs. Переработка IP-адресов поддерживается только на виртуальных машинах с поддержкой SR-IOV.IP over IB is only supported on the SR-IOV enabled VMs.

  • Операционная система — Linux очень хорошо поддерживается для ВИРТУАЛЬНЫХ машин HPC; обычно используются дистрибутивов, такие как CentOS, RHEL, Ubuntu и SUSE.Operating System - Linux is very well supported for HPC VMs; distros such as CentOS, RHEL, Ubuntu, SUSE are commonly used. В отношении поддержки Windows Windows Server 2016 и более поздние версии поддерживаются на всех виртуальных машинах серии HPC.Regarding Windows support, Windows Server 2016 and newer versions are supported on all the HPC series VMs. Windows Server 2012 R2, Windows Server 2012 также поддерживаются на виртуальных машинах, не использующих SR-IOV (H16r, H16mr, A8 и A9).Windows Server 2012 R2, Windows Server 2012 are also supported on the non-SR-IOV enabled VMs (H16r, H16mr, A8 and A9). Обратите внимание, что Windows Server 2012 R2 не поддерживается на HBv2 и других виртуальных машинах с более чем 64 (виртуальными или физическими) ядрами.Note that Windows Server 2012 R2 is not supported on HBv2 and other VMs with more than 64 (virtual or physical) cores. Список поддерживаемых образов виртуальных машин в Marketplace и способ их настройки можно найти в разделе образы виртуальных машин.See VM Images for a list of supported VM Images on the Marketplace and how they can be configured appropriately.

  • Драйверы InfiniBand и RDMA . на виртуальных машинах с поддержкой InfiniBand для включения RDMA требуются соответствующие драйверы.InfiniBand and RDMA Drivers - On InfiniBand enabled VMs, the appropriate drivers are required to enable RDMA. В Linux для виртуальных машин с поддержкой SR-IOV и без SR-IOV образы виртуальных машин CentOS-HPC в Marketplace предварительно настроены с соответствующими драйверами.On Linux, for both SR-IOV and non-SR-IOV enabled VMs, the CentOS-HPC VM images in the Marketplace come pre-configured with the appropriate drivers. Образы виртуальных машин Ubuntu можно настроить с помощью правильных драйверов, выполнив приведенные здесь инструкции.The Ubuntu VM images can be configured with the right drivers using the instructions here. Дополнительные сведения о готовых к использованию образах ОС Linux см. в статье Настройка и оптимизация виртуальных машин для ОС Linux .See Configure and Optimize VMs for Linux OS for more details on ready-to-use VM Linux OS images.

    В Linux расширение виртуальной машины инфинибанддриверлинукс можно использовать для установки драйверов Mellanox офед и включения InfiniBand на виртуальных машинах серии H и N с поддержкой SR-IOV.On Linux, the InfiniBandDriverLinux VM extension can be used to install the Mellanox OFED drivers and enable InfiniBand on the SR-IOV enabled H- and N-series VMs. Узнайте больше о включении InfiniBand на виртуальных машинах с поддержкой RDMA на рабочих нагрузках HPC.Learn more about enabling InfiniBand on RDMA-capable VMs at HPC Workloads.

    В Windows расширение виртуальной машины инфинибанддривервиндовс устанавливает драйверы Windows Network Direct (на виртуальных машинах без SR-IOV) или драйверы Mellanox офед (на виртуальных машинах SR-IOV) для подключения RDMA.On Windows, the InfiniBandDriverWindows VM extension installs Windows Network Direct drivers (on non-SR-IOV VMs) or Mellanox OFED drivers (on SR-IOV VMs) for RDMA connectivity. В некоторых развертываниях экземпляров A8 и A9 расширение HpcVmDrivers добавляется автоматически.In certain deployments of A8 and A9 instances, the HpcVmDrivers extension is added automatically. Обратите внимание, что расширение виртуальной машины HpcVmDrivers является устаревшим. Он не будет обновлен.Note that the HpcVmDrivers VM extension is being deprecated; it will not be updated.

    Чтобы добавить в виртуальную машину расширение виртуальной машины, можно использовать командлеты Azure PowerShell.To add the VM extension to a VM, you can use Azure PowerShell cmdlets. Дополнительные сведения см. в статье Обзор расширений и компонентов виртуальной машины под управлением Windows.For more information, see Virtual machine extensions and features. Вы также можете работать с расширениями для виртуальных машин, развернутых в рамках классической модели развертывания.You can also work with extensions for VMs deployed in the classic deployment model.

  • MPI . размеры виртуальных машин с поддержкой SR-IOV в Azure (HBV2, хб, HC, NCv3, NDv2) позволяют использовать почти любую разновидность MPI с Mellanox офед.MPI - The SR-IOV enabled VM sizes on Azure (HBv2, HB, HC, NCv3, NDv2) allow almost any flavor of MPI to be used with Mellanox OFED. На виртуальных машинах, не использующих SR-IOV, поддерживаемые реализации MPI используют интерфейс Microsoft Network Direct (ND) для обмена данными между виртуальными машинами.On non-SR-IOV enabled VMs, supported MPI implementations use the Microsoft Network Direct (ND) interface to communicate between VMs. Таким образом, поддерживаются только версии Microsoft MPI (MS-MPI) 2012 R2 и более поздних версий и Intel MPI 5. x.Hence, only Microsoft MPI (MS-MPI) 2012 R2 or later and Intel MPI 5.x versions are supported. Более поздние версии (2017, 2018) библиотеки Intel MPI Runtime могут быть несовместимыми с драйверами Azure RDMA.Later versions (2017, 2018) of the Intel MPI runtime library may or may not be compatible with the Azure RDMA drivers. Дополнительные сведения о настройке MPI на виртуальных машинах HPC в Azure см. в статье Настройка MPI для HPC .See Setup MPI for HPC for more details on setting up MPI on HPC VMs on Azure.

  • Адресное пространство сети RDMA. Сеть RDMA в Azure резервирует адресное пространство 172.16.0.0/16.RDMA network address space - The RDMA network in Azure reserves the address space 172.16.0.0/16. Чтобы выполнять приложения MPI в экземплярах, развернутых в виртуальной сети Azure, убедитесь, что адресное пространство виртуальной сети не пересекается с сетью RDMA.To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.

Параметры конфигурации кластераCluster configuration options

Azure предоставляет несколько вариантов для создания кластеров виртуальных машин для Windows HPC, которые могут взаимодействовать с помощью сети RDMA.Azure provides several options to create clusters of Windows HPC VMs that can communicate using the RDMA network, including:

  • Виртуальные машины . развертывайте виртуальные машины HPC с поддержкой RDMA в одном масштабируемом наборе или группе доступности (при использовании модели развертывания Azure Resource Manager).Virtual machines - Deploy the RDMA-capable HPC VMs in the same scale set or availability set (when you use the Azure Resource Manager deployment model). Если вы используете классическую модель развертывания, разверните виртуальные машины в одну облачную службу.If you use the classic deployment model, deploy the VMs in the same cloud service.

  • Масштабируемые наборы виртуальных машин . в масштабируемом наборе виртуальных машин убедитесь, что развертывание выполняется в одну группу размещения для связи InfiniBand в масштабируемом наборе.Virtual machine scale sets - In a virtual machine scale set, ensure that you limit the deployment to a single placement group for InfiniBand communication within the scale set. Например, в шаблоне Resource Manager задайте значение true для свойства singlePlacementGroup.For example, in a Resource Manager template, set the singlePlacementGroup property to true. Обратите внимание, что максимальный размер масштабируемого набора, который можно установить с помощью свойства, ограничен singlePlacementGroup true на 100 виртуальных машинах по умолчанию.Note that the maximum scale set size that can be spun up with singlePlacementGroup property to true is capped at 100 VMs by default. Если потребность в масштабе задания HPC превышает 100 виртуальных машин в одном клиенте, вы можете запросить увеличение, бесплатно открыв запрос в службу поддержки клиентов .If your HPC job scale needs are higher than 100 VMs in a single tenant, you may request an increase, open an online customer support request at no charge. Ограничение на количество виртуальных машин в одном масштабируемом наборе можно увеличить до 300.The limit on the number of VMs in a single scale set can be increased to 300. Обратите внимание, что при развертывании виртуальных машин с использованием групп доступности максимальное ограничение составляет 200 виртуальных машин на группу доступности.Note that when deploying VMs using Availability Sets the maximum limit is at 200 VMs per Availability Set.

  • MPI между виртуальными машинами. Если между виртуальными машинами (например, с помощью MPI-соединения) требуется RDMA, убедитесь, что виртуальные машины находятся в одном масштабируемом наборе виртуальных машин или группе доступности.MPI among virtual machines - If RDMA (e.g. using MPI communication) is required between virtual machines (VMs), ensure that the VMs are in the same virtual machine scale set or availability set.

  • Azure циклеклауд . Создайте кластер HPC в Azure циклеклауд для запуска заданий MPI.Azure CycleCloud - Create an HPC cluster in Azure CycleCloud to run MPI jobs.

  • Пакетная служба Azure . Создайте пул пакетной службы Azure для выполнения рабочих нагрузок MPI.Azure Batch - Create an Azure Batch pool to run MPI workloads. Сведения об использовании экземпляров для ресурсоемких вычислений при запуске приложений MPI с использованием пакетной службы Azure см. в статье Использование задач с несколькими экземплярами для запуска приложений с интерфейсом передачи сообщений в пакетной службе.To use compute-intensive instances when running MPI applications with Azure Batch, see Use multi-instance tasks to run Message Passing Interface (MPI) applications in Azure Batch.

  • Пакет - Microsoft HPC Пакет HPC включает среду выполнения для MS-MPI, которая использует сеть Azure RDMA при развертывании на виртуальных машинах Linux с поддержкой RDMA.Microsoft HPC Pack - HPC Pack includes a runtime environment for MS-MPI that uses the Azure RDMA network when deployed on RDMA-capable Linux VMs. Примеры развертываний см. в разделе Настройка кластера RDMA Linux с пакетом HPC для запуска приложений MPI.For example deployments, see Set up a Linux RDMA cluster with HPC Pack to run MPI applications.

Рекомендации по развертываниюDeployment considerations

  • Подписка Azure. Чтобы развернуть большое число экземпляров для ресурсоемких вычислений, рекомендуем подписку с оплатой по мере использования или другие варианты покупки.Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Если вы используете бесплатную учетную запись Azure, вам доступно ограниченное количество вычислительных ядер Azure.If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • Цены и доступность. Виртуальные машины предлагаются только в ценовой категории уровня "Стандартный".Pricing and availability - These VM sizes are offered only in the Standard pricing tier. Проверьте доступность продуктов по регионам , чтобы узнать, в каких регионах Azure их можно использовать.Check Products available by region for availability in Azure regions.

  • Квота ядер. Вам может потребоваться увеличить стандартную квоту на число ядер в подписке Azure.Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. Кроме того, количество ядер, которые можно развернуть для некоторых семейств размеров виртуальных машин (включая серию H), может быть ограничено условиями вашей подписки.Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. Чтобы увеличить квоту, отправьте запрос в службу поддержки. Это бесплатная услуга.To request a quota increase, open an online customer support request at no charge. (Ограничения по умолчанию могут быть разными в зависимости от категории подписки).(Default limits may vary depending on your subscription category.)

    Примечание

    Если вам нужны ресурсы в очень большом объеме, обратитесь в службу поддержки Azure.Contact Azure Support if you have large-scale capacity needs. Квоты Azure — это ограничения по кредитам, а не гарантированная емкость.Azure quotas are credit limits, not capacity guarantees. Вне зависимости от квоты с вас будет взиматься плата только за используемые ядра.Regardless of your quota, you are only charged for cores that you use.

  • Виртуальная сетьвиртуальная сеть Azure не требуется для использования ресурсоемких экземпляров.Virtual network – An Azure virtual network is not required to use the compute-intensive instances. Но для нескольких развертываний вам потребуется по крайней мере облачная виртуальная сеть Azure или подключение типа "сеть — сеть", если нужен доступ к локальным ресурсам.However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. При необходимости создайте виртуальную сеть, чтобы развернуть экземпляры.When needed, create a new virtual network to deploy the instances. Добавление виртуальных машин для ресурсоемких вычислений в виртуальную сеть в территориальной группе не поддерживается.Adding compute-intensive VMs to a virtual network in an affinity group is not supported.

  • Изменение размера . из-за специального оборудования можно изменять только ресурсоемкие экземпляры в пределах одного семейства размеров (серии H или N).Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or N-series). Например, можно изменить только размер виртуальной машины серии H (один размер из серии H на другой размер из этой же серии).For example, you can only resize an H-series VM from one H-series size to another. Для некоторых виртуальных машин может потребоваться рассмотреть дополнительные рекомендации по поддержке драйвера InfiniBand и дисков NVMe.Additional considerations around InfiniBand driver support and NVMe disks may need to be considered for certain VMs.

Остальные размерыOther sizes

Дальнейшие действияNext steps