ハイ パフォーマンス コンピューティング VM のサイズHigh performance computing VM sizes

Azure H シリーズ仮想マシン (VM) は、実環境のさまざまな HPC ワークロードに対するリーダー クラスのパフォーマンス、MPI スケーラビリティ、およびコスト効率を提供するように設計されています。Azure H-series virtual machines (VMs) are designed to deliver leadership-class performance, MPI scalability, and cost efficiency for a variety of real-world HPC workloads.

HBv2 シリーズ VM は 200 Gb/秒の Mellanox HDR InfiniBand を、HB および HC シリーズ VM は、どちらも 100 Gb/秒の Mellanox EDR InfiniBand を備えています。HBv2-series VMs feature 200 Gb/sec Mellanox HDR InfiniBand, while both HB and HC-series VMs feature 100 Gb/sec Mellanox EDR InfiniBand. これらの VM の種類は、最適化された一貫性のある RDMA パフォーマンスを確保するために、ノンブロッキング ファット ツリー構造で接続されています。Each of these VM types are connected in a non-blocking fat tree for optimized and consistent RDMA performance. HBv2 VM では、アダプティブ ルーティングと動的接続トランスポート (DCT、標準 RC トランスポートと UD トランスポートに加えて) をサポートしています。HBv2 VMs support Adaptive Routing and the Dynamic Connected Transport (DCT, in additional to standard RC and UD transports). これらの機能により、アプリケーションのパフォーマンス、スケーラビリティ、および整合性が向上するため、それらを使用することを強くお勧めします。These features enhance application performance, scalability, and consistency, and usage of them is strongly recommended.

HB シリーズ VM は、流体力学、陽解法有限要素解析、気象モデリングなどの、メモリ帯域幅に基づいたアプリケーション向けに最適化されています。HB-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, explicit finite element analysis, and weather modeling. HB VM は 60 個の AMD EPYC 7551 プロセッサ コア、CPU コアあたり 4 GB の RAM を搭載し、ハイパースレッディングはありません。HB VMs feature 60 AMD EPYC 7551 processor cores, 4 GB of RAM per CPU core, and no hyperthreading. AMD EPYC プラットフォームは、260 GB/秒を超えるメモリ帯域幅を提供します。The AMD EPYC platform provides more than 260 GB/sec of memory bandwidth.

HC シリーズ VM は、陰解法有限要素解析、分子力学、計算化学などの、高密度計算に基づいたアプリケーション向けに最適化されています。HC-series VMs are optimized for applications driven by dense computation, such as implicit finite element analysis, molecular dynamics, and computational chemistry. HC VM は 44 個の Intel Xeon Platinum 8168 プロセッサ コア、CPU コアあたり 8 GB の RAM を搭載し、ハイパースレッディングはありません。HC VMs feature 44 Intel Xeon Platinum 8168 processor cores, 8 GB of RAM per CPU core, and no hyperthreading. Intel Xeon Platinum プラットフォームは、Intel Math Kernel Library などの Intel の豊富なソフトウェア ツールのエコシステムをサポートしています。The Intel Xeon Platinum platform supports Intel’s rich ecosystem of software tools such as the Intel Math Kernel Library.

H シリーズ VM は、高い CPU 周波数またはコアあたり大容量メモリの要件に基づいたアプリケーション向けに最適化されています。H-series VMs are optimized for applications driven by high CPU frequencies or large memory per core requirements. H シリーズ VM は 8 または 16 個の Intel Xeon E5 2667 v3 プロセッサ コア、CPU コアあたり 7 または 14 GB の RAM を搭載し、ハイパースレッディングはありません。H-series VMs feature 8 or 16 Intel Xeon E5 2667 v3 processor cores, 7 or 14 GB of RAM per CPU core, and no hyperthreading. H シリーズは、一貫した RDMA パフォーマンスを得るために、非ブロッキングのファット ツリー構成内に 56 Gb/秒の Mellanox FDR InfiniBand を搭載しています。H-series features 56 Gb/sec Mellanox FDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. H シリーズ VM は、Intel MPI 5.x と MS-MPI をサポートしています。H-series VMs support Intel MPI 5.x and MS-MPI.

注意

A8 - A11 VM は、2021 年 3 月で廃止される予定です。The A8 – A11 VMs are planned for retirement on 3/2021. 詳細については、「HPC マイグレーション ガイド」を参照してください。For more information, see HPC Migration Guide.

RDMA 対応のインスタンスRDMA-capable instances

ほとんどの HPC VM サイズ (HBv2、HB、HC、H16r、H16mr、A8 および A9) には、リモート ダイレクト メモリ アクセス (RDMA) 接続のためのネットワーク インターフェイスが備わっています。Most of the HPC VM sizes (HBv2, HB, HC, H16r, H16mr, A8 and A9) feature a network interface for remote direct memory access (RDMA) connectivity. 'r' で指定された、選択された N シリーズ サイズ (ND40rs_v2、ND24rs、NC24rs_v3、NC24rs_v2、NC24r) も RDMA に対応します。Selected N-series sizes designated with 'r' (ND40rs_v2, ND24rs, NC24rs_v3, NC24rs_v2 and NC24r) are also RDMA-capable. このインターフェイスは、標準の Azure ネットワーク インターフェイスに加えて、他の VM サイズでも利用可能です。This interface is in addition to the standard Azure network interface available in the other VM sizes.

このインターフェイスにより、RDMA 対応インスタンスは InfiniBand (IB) ネットワークを介して通信することができ、HBv2 では HDR のレートで、HB、HC、NDv2 では EDR のレートで、H16r、H16mr、および RDMA 対応 N シリーズの他の仮想マシンでは FDR のレートで、A8 と A9 の VM では QDR のレートで動作します。This interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at HDR rates for HBv2, EDR rates for HB, HC, NDv2, FDR rates for H16r, H16mr, and other RDMA-capable N-series virtual machines, and QDR rates for A8 and A9 VMs. これらの RDMA 機能により、特定の Message Passing Interface (MPI) アプリケーションのスケーラビリティとパフォーマンスが向上します。These RDMA capabilities can boost the scalability and performance of certain Message Passing Interface (MPI) applications. 速度の詳細については、このページの表の詳細情報を参照してください。For more information on speed, see the details in the tables on this page.

注意

Azure HPC では、InfiniBand に対して SR-IOV 対応であるかどうかに応じて、2 つのクラスの VM があります。In Azure HPC, there are two classes of VMs depending on whether they are SR-IOV enabled for InfiniBand. 現在のところ、InfiniBand の SR-IOV 対応の VM は、HBv2、HB、HC、NCv3、および NDv2。Currently, the SR-IOV for InfiniBand enabled VMs are: HBv2, HB, HC, NCv3 and NDv2. 現在、残りの InfiniBand 対応 VM は SR-IOV 対応ではありません。Rest of the InfiniBand enabled VMs are not SR-IOV enabled currently. RDMA over IB は、RDMA 対応のすべての VM でサポートされています。RDMA over IB is supported for all RDMA-capable VMs. IP over IB は、SR-IOV 対応の VM のみでサポートされています。IP over IB is only supported on the SR-IOV enabled VMs.

  • オペレーティング システム - Linux は HPC VM で適切にサポートされており、CentOS、RHEL、Ubuntu、SUSE などのディストリビューションが一般的に使用されています。Operating System - Linux is very well supported for HPC VMs; distros such as CentOS, RHEL, Ubuntu, SUSE are commonly used. Windows のサポートに関しては、すべての HPC シリーズ VM で Windows Server 2016 およびそれ以降のバージョンがサポートされています。Regarding Windows support, Windows Server 2016 and newer versions are supported on all the HPC series VMs. また、Windows Server 2012 R2、Windows Server 2012 は、SR-IOV に対応していない VM (H16r、H16mr、A8、および A9) でもサポートされています。Windows Server 2012 R2, Windows Server 2012 are also supported on the non-SR-IOV enabled VMs (H16r, H16mr, A8 and A9). Windows Server 2012 R2 は、HBv2 および 64 個を超える (仮想または物理) コアを持つその他の VM ではサポートされていないことに注意してください。Note that Windows Server 2012 R2 is not supported on HBv2 and other VMs with more than 64 (virtual or physical) cores.

  • InfiniBand および RDMA ドライバー - InfiniBand が有効になっている VM では、RDMA を有効にするための適切なドライバーが必要です。InfiniBand and RDMA Drivers - On InfiniBand enabled VMs, the appropriate drivers are required to enable RDMA. Linux では、Marketplace の CentOS-HPC VM イメージは、適切なドライバーを使用して事前構成されています。On Linux, the CentOS-HPC VM images in the Marketplace come pre-configured with the appropriate drivers. Ubuntu VM イメージは、こちらの手順に従って、適切なドライバーを使用して構成できます。The Ubuntu VM images can be configured with the right drivers using the instructions here. SR-IOV が有効になっている H シリーズと N シリーズの VM では、InfiniBandDriverLinux VM 拡張機能 を使用して、Mellanox OFED ドライバーをインストールし、InfiniBand を有効にすることができます。On SR-IOV enabled H- and N-series VMs, the InfiniBandDriverLinux VM extension can be used to install the Mellanox OFED drivers and enable InfiniBand. RDMA 対応 VM で InfiniBand を有効にする方法の詳細については、HPC ワークロードに関する記事を参照してください。Learn more about enabling InfiniBand on RDMA-capable VM sat HPC Workloads.

Windows では、InfiniBandDriverWindows VM 拡張機能は、RDMA 接続用に Windows Network Direct ドライバーを (SR-IOV に非対応の VM 上に) インストールするか、または Mellanox OFED ドライバーを (SR-IOV VM 上に) インストールします。On Windows, the InfiniBandDriverWindows VM extension installs Windows Network Direct drivers (on non-SR-IOV VMs) or Mellanox OFED drivers (on SR-IOV VMs) for RDMA connectivity. A8 インスタンスと A9 インスタンスの特定のデプロイでは、HpcVmDrivers 拡張機能は自動的に追加されます。In certain deployments of A8 and A9 instances, the HpcVmDrivers extension is added automatically. HpcVmDrivers VM 拡張機能は廃止される予定であり、更新されないことに注意してください。Note that the HpcVmDrivers VM extension is being deprecated; it will not be updated.

VM に VM 拡張機能を追加するには、Azure PowerShell コマンドレットを使用できます。To add the VM extension to a VM, you can use Azure PowerShell cmdlets. 詳しくは、仮想マシン拡張機能とその機能に関する記事をご覧ください。For more information, see Virtual machine extensions and features. クラシック デプロイ モデルにデプロイされている VM にも拡張機能を使用できます。You can also work with extensions for VMs deployed in the classic deployment model.

  • MPI - Azure の SR-IOV 対応 VM サイズ (HBv2、HB、HC、NCv3、NDv2) では、ほぼすべてのフレーバーの MPI を Mellanox OFED と一緒に使用できます。MPI - The SR-IOV enabled VM sizes on Azure (HBv2, HB, HC, NCv3, NDv2) allow almost any flavor of MPI to be used with Mellanox OFED. SR-IOV に対応していない VM の場合、サポートされている MPI 実装では、VM 間の通信に Microsoft Network Direct (ND) インターフェイスが使用されます。On non-SR-IOV enabled VMs, supported MPI implementations use the Microsoft Network Direct (ND) interface to communicate between VMs. そのため、Microsoft MPI (MS MPI) 2012 R2 以降と Intel MPI 5.x バージョンのみがサポートされています。Hence, only Microsoft MPI (MS-MPI) 2012 R2 or later and Intel MPI 5.x versions are supported. Intel MPI ランタイム ライブラリの以降のバージョン (2017、2018) は、Azure RDMA ドライバーと互換性がある場合とない場合があります。Later versions (2017, 2018) of the Intel MPI runtime library may or may not be compatible with the Azure RDMA drivers.

  • RDMA ネットワーク アドレス空間 - Azure の RDMA ネットワークでは、アドレス空間 172.16.0.0/16 は予約済みです。RDMA network address space - The RDMA network in Azure reserves the address space 172.16.0.0/16. Azure 仮想ネットワークにデプロイ済みのインスタンスで MPI アプリケーションを実行する場合、仮想ネットワークのアドレス空間が RDMA ネットワークと重複しないようにしてください。To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.

クラスター構成オプションCluster configuration options

Azure では、次のような、RDMA ネットワークを使用して通信できる Windows HPC VM のクラスターを作成するためのオプションがいくつか提供されます。Azure provides several options to create clusters of Windows HPC VMs that can communicate using the RDMA network, including:

  • 仮想マシン - 同じスケール セットまたは可用性セット内に RDMA 対応の HPC VM をデプロイします (Azure Resource Manager デプロイ モデルを使用する場合)。Virtual machines - Deploy the RDMA-capable HPC VMs in the same scale set or availability set (when you use the Azure Resource Manager deployment model). クラシック デプロイ モデルを使用する場合は、同じクラウド サービス内に VM をデプロイします。If you use the classic deployment model, deploy the VMs in the same cloud service.

  • Virtual Machine Scale Sets - 仮想マシン スケール セットで、スケール セット内の InfiniBand 通信に対して単一の配置グループにデプロイを制限するようにします。Virtual machine scale sets - In a virtual machine scale set, ensure that you limit the deployment to a single placement group for InfiniBand communication within the scale set. たとえば、Resource Manager テンプレートでは、singlePlacementGroup プロパティを true に設定します。For example, in a Resource Manager template, set the singlePlacementGroup property to true. singlePlacementGroup プロパティを true にして起動できるスケール セットの最大サイズは、既定で 100 VM に制限されることに注意してください。Note that the maximum scale set size that can be spun up with singlePlacementGroup property to true is capped at 100 VMs by default. HPC ジョブ スケールにおいて、1 つのテナントで 100 を超える VM が必要な場合は、増加を要求できます。オンライン カスタマー サポートに申請 (無料) してください。If your HPC job scale needs are higher than 100 VMs in a single tenant, you may request an increase, open an online customer support request at no charge. 1 つのスケール セットの VM 数の上限は 300 まで増やすことができます。The limit on the number of VMs in a single scale set can be increased to 300. 可用性セットを利用して VM をデプロイするとき、上限は可用性セットあたり 200 VM です。Note that when deploying VMs using Availability Sets the maximum limit is at 200 VMs per Availability Set.

  • 仮想マシン間の MPI - 仮想マシン (VM) 間で RDMA (MPI 通信の使用など) が必要な場合は、VM が同じ仮想マシン スケール セットまたは可用性セットに含まれていることを確認します。MPI among virtual machines - If RDMA (e.g. using MPI communication) is required between virtual machines (VMs), ensure that the VMs are in the same virtual machine scale set or availability set.

  • Azure CycleCloud - Azure CycleCloud 内に HPC クラスターを作成して、MPI ジョブを実行します。Azure CycleCloud - Create an HPC cluster in Azure CycleCloud to run MPI jobs.

  • Azure Batch - Azure Batch プールを作成して、MPI ワークロードを実行します。Azure Batch - Create an Azure Batch pool to run MPI workloads. Azure Batch で MPI アプリケーションを実行するときにコンピューティング集中型インスタンスを使用するには、「Azure Batch でのマルチインスタンス タスクを使用した Message Passing Interface (MPI) アプリケーションの実行」をご覧ください。To use compute-intensive instances when running MPI applications with Azure Batch, see Use multi-instance tasks to run Message Passing Interface (MPI) applications in Azure Batch.

  • Microsoft HPC Pack - HPC Pack には、RDMA 対応の Linux VM 上にデプロイした場合に Azure RDMA ネットワークを使用する MS-MPI 用のランタイム環境が含まれています。Microsoft HPC Pack - HPC Pack includes a runtime environment for MS-MPI that uses the Azure RDMA network when deployed on RDMA-capable Linux VMs. デプロイの例については、HPC Pack を使用して Linux RDMA クラスターをセットアップして MPI アプリケーションを実行する方法に関するページを参照してください。For example deployments, see Set up a Linux RDMA cluster with HPC Pack to run MPI applications.

デプロイに関する考慮事項Deployment considerations

  • Azure サブスクリプション – 多数のコンピューティング集中型インスタンスをデプロイするには、従量課金制サブスクリプションまたは他の購入オプションを検討してください。Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Azure 無料アカウントを使用している場合は、使用できる Azure コンピューティング コアの数に制限があります。If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • 価格と可用性 - これらの VM サイズは、Standard 価格レベルでのみ提供されます。Pricing and availability - These VM sizes are offered only in the Standard pricing tier. 各 Azure リージョンで利用できるかどうかについては、「 リージョン別の利用可能な製品 」を参照してください。Check Products available by region for availability in Azure regions.

  • コア クォータ – 場合によっては、Azure サブスクリプションのコア クォータを既定値から増やす必要があります。Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. サブスクリプションによっては、H シリーズを含む特定の VM サイズ ファミリにデプロイできるコア数が制限されることがあります。Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. クォータを増やすためのリクエストは、オンライン カスタマー サポートに申請 (無料) してください。To request a quota increase, open an online customer support request at no charge. (既定の制限は、サブスクリプション カテゴリによって異なる場合があります。)(Default limits may vary depending on your subscription category.)

    注意

    大規模な容量が必要な場合は、Azure サポートにお問い合わせください。Contact Azure Support if you have large-scale capacity needs. Azure のクォータは容量保証ではなくクレジット制限です。Azure quotas are credit limits, not capacity guarantees. クォータに関係なく、使用したコアに対してのみ課金されます。Regardless of your quota, you are only charged for cores that you use.

  • 仮想ネットワーク – コンピューティング集中型インスタンスを使用するために、Azure Virtual Network は不要です。Virtual network – An Azure virtual network is not required to use the compute-intensive instances. ただし、多くのデプロイでは、少なくともクラウド ベースの Azure Virtual Network またはサイト間接続 (オンプレミス リソースへのアクセスが必要な場合) が必要になります。However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. 必要に応じて、新しい仮想ネットワークを作成して、インスタンスをデプロイします。When needed, create a new virtual network to deploy the instances. アフィニティ グループ内の仮想ネットワークにコンピューティング集中型の VM を追加することはできません。Adding compute-intensive VMs to a virtual network in an affinity group is not supported.

  • サイズ変更 - 特殊なハードウェアが使用されるため、コンピューティング集中型インスタンスのサイズ変更は同じサイズのファミリ (H シリーズまたは N シリーズ) 内でのみ可能です。Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or N-series). たとえば、H シリーズの VM は H シリーズのあるサイズから別のサイズにのみ変更できます。For example, you can only resize an H-series VM from one H-series size to another. VM によっては、InfiniBand ドライバーのサポートと NVMe ディスクに関するその他の考慮事項に注意する必要があります。Additional considerations around InfiniBand driver support and NVMe disks may need to be considered for certain VMs.

その他のサイズOther sizes

次のステップNext steps