ハイ パフォーマンス コンピューティング仮想マシンのサイズHigh performance compute virtual machine sizes

Azure H シリーズ仮想マシン (VM) は、実環境のさまざまな HPC ワークロードに対するリーダー クラスのパフォーマンス、MPI スケーラビリティ、およびコスト効率を提供するように設計されています。Azure H-series virtual machines (VMs) are designed to deliver leadership-class performance, MPI scalability, and cost efficiency for a variety of real-world HPC workloads.

HB シリーズ VM は、流体力学、陽解法有限要素解析、気象モデリングなどの、メモリ帯域幅に基づいたアプリケーション向けに最適化されています。HB-series VMs are optimized for applications driven by memory bandwidth, such as fluid dynamics, explicit finite element analysis, and weather modeling. HB VM は 60 個の AMD EPYC 7551 プロセッサ コア、CPU コアあたり 4 GB の RAM を搭載し、ハイパースレッディングはありません。HB VMs feature 60 AMD EPYC 7551 processor cores, 4 GB of RAM per CPU core, and no hyperthreading. AMD EPYC プラットフォームは、260 GB/秒を超えるメモリ帯域幅を提供します。The AMD EPYC platform provides more than 260 GB/sec of memory bandwidth.

HC シリーズ VM は、陰解法有限要素解析、分子力学、計算化学などの、高密度計算に基づいたアプリケーション向けに最適化されています。HC-series VMs are optimized for applications driven by dense computation, such as implicit finite element analysis, molecular dynamics, and computational chemistry. HC VM は 44 個の Intel Xeon Platinum 8168 プロセッサ コア、CPU コアあたり 8 GB の RAM を搭載し、ハイパースレッディングはありません。HC VMs feature 44 Intel Xeon Platinum 8168 processor cores, 8 GB of RAM per CPU core, and no hyperthreading. Intel Xeon Platinum プラットフォームは、Intel Math Kernel Library などの Intel の豊富なソフトウェア ツールのエコシステムをサポートしています。The Intel Xeon Platinum platform supports Intel’s rich ecosystem of software tools such as the Intel Math Kernel Library.

HB VM と HC VM はどちらも、一貫した RDMA パフォーマンスを得るために、非ブロッキングのファット ツリー構成内に 100 Gb/秒の Mellanox EDR InfiniBand を搭載しています。Both HB and HC VMs feature 100 Gb/sec Mellanox EDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. HB および HC VM は、MPI のすべての種類やバージョンのほか RDMA 動詞もサポートされるように、標準の Mellanox/OFED ドライバーをサポートしています。HB and HC VMs support standard Mellanox/OFED drivers such that all MPI types and versions, as well as RDMA verbs, are supported as well.

H シリーズ VM は、高い CPU 周波数またはコアあたり大容量メモリの要件に基づいたアプリケーション向けに最適化されています。H-series VMs are optimized for applications driven by high CPU frequencies or large memory per core requirements. H シリーズ VM は 8 または 16 個の Intel Xeon E5 2667 v3 プロセッサ コア、CPU コアあたり 7 または 14 GB の RAM を搭載し、ハイパースレッディングはありません。H-series VMs feature 8 or 16 Intel Xeon E5 2667 v3 processor cores, 7 or 14 GB of RAM per CPU core, and no hyperthreading. H シリーズは、一貫した RDMA パフォーマンスを得るために、非ブロッキングのファット ツリー構成内に 56 Gb/秒の Mellanox FDR InfiniBand を搭載しています。H-series features 56 Gb/sec Mellanox FDR InfiniBand in a non-blocking fat tree configuration for consistent RDMA performance. H シリーズ VM は、Intel MPI 5.x と MS-MPI をサポートしています。H-series VMs support Intel MPI 5.x and MS-MPI.

HB シリーズHB-series

ACU: 199-216ACU: 199-216

Premium Storage: サポートされていますPremium Storage: Supported

Premium Storage Caching: サポートされていますPremium Storage Caching: Supported

SizeSize vCPUvCPU プロセッサProcessor メモリ (GB)Memory (GB) メモリ帯域幅 GB/秒Memory bandwidth GB/s ベース CPU 周波数 (GHz)Base CPU frequency (GHz) 全コア周波数 (GHz、ピーク)All-cores frequency (GHz, peak) シングルコア周波数 (GHz、ピーク)Single-core frequency (GHz, peak) RDMA パフォーマンス (GB/秒)RDMA performance (Gb/s) MPI のサポートMPI support 一時ストレージ (GB)Temp storage (GB) 最大データ ディスク数Max data disks 最大イーサネット NICMax Ethernet NICs
Standard_HB60rsStandard_HB60rs 6060 AMD EPYC 7551AMD EPYC 7551 240240 263263 2.02.0 2.552.55 2.552.55 100100 AllAll 700700 44 11

HC シリーズHC-series

ACU: 297-315ACU: 297-315

Premium Storage: サポートされていますPremium Storage: Supported

Premium Storage Caching: サポートされていますPremium Storage Caching: Supported

SizeSize vCPUvCPU プロセッサProcessor メモリ (GB)Memory (GB) メモリ帯域幅 GB/秒Memory bandwidth GB/s ベース CPU 周波数 (GHz)Base CPU frequency (GHz) 全コア周波数 (GHz、ピーク)All-cores frequency (GHz, peak) シングルコア周波数 (GHz、ピーク)Single-core frequency (GHz, peak) RDMA パフォーマンス (GB/秒)RDMA performance (Gb/s) MPI のサポートMPI support 一時ストレージ (GB)Temp storage (GB) 最大データ ディスク数Max data disks 最大イーサネット NICMax Ethernet NICs
Standard_HC44rsStandard_HC44rs 4444 Intel Xeon Platinum 8168Intel Xeon Platinum 8168 352352 191191 2.72.7 3.43.4 3.73.7 100100 AllAll 700700 44 11

H シリーズH-series

ACU: 290-300ACU: 290-300

Premium Storage: サポートされていませんPremium Storage: Not Supported

Premium Storage Caching: サポートされていませんPremium Storage Caching: Not Supported

SizeSize vCPUvCPU プロセッサProcessor メモリ (GB)Memory (GB) メモリ帯域幅 GB/秒Memory bandwidth GB/s ベース CPU 周波数 (GHz)Base CPU frequency (GHz) 全コア周波数 (GHz、ピーク)All-cores frequency (GHz, peak) シングルコア周波数 (GHz、ピーク)Single-core frequency (GHz, peak) RDMA パフォーマンス (GB/秒)RDMA performance (Gb/s) MPI のサポートMPI support 一時ストレージ (GB)Temp storage (GB) 最大データ ディスク数Max data disks 最大イーサネット NICMax Ethernet NICs
Standard_H8Standard_H8 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 5656 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x、MS-MPIIntel 5.x, MS-MPI 10001000 3232 22
Standard_H16Standard_H16 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x、MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H8mStandard_H8m 88 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 4040 3.23.2 3.33.3 3.63.6 - Intel 5.x、MS-MPIIntel 5.x, MS-MPI 10001000 3232 22
Standard_H16mStandard_H16m 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 - Intel 5.x、MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16r 1Standard_H16r 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 112112 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x、MS-MPIIntel 5.x, MS-MPI 20002000 6464 44
Standard_H16mr 1Standard_H16mr 1 1616 Intel Xeon E5 2667 v3Intel Xeon E5 2667 v3 224224 8080 3.23.2 3.33.3 3.63.6 5656 Intel 5.x、MS-MPIIntel 5.x, MS-MPI 20002000 6464 44

1 MPI アプリケーションの場合、専用の RDMA バックエンド ネットワークが FDR InfiniBand ネットワークによって有効になります。1 For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network.


サイズ表の定義Size table definitions

  • ストレージ容量は GiB (1024^3 バイト) 単位で示されています。Storage capacity is shown in units of GiB or 1024^3 bytes. GB (1000^3 バイト) 単位のディスクと GiB (1024^3 バイト) 単位のディスクを比較する場合は、GiB 単位の方が容量の数値が小さく見えることに注意してください。When comparing disks measured in GB (1000^3 bytes) to disks measured in GiB (1024^3) remember that capacity numbers given in GiB may appear smaller. たとえば、1023 GiB = 1098.4 GB です。For example, 1023 GiB = 1098.4 GB
  • ディスク スループットの測定単位は、1 秒あたりの入力/出力操作数 (IOPS) および MBps です (MBps = 10^6 バイト/秒)。Disk throughput is measured in input/output operations per second (IOPS) and MBps where MBps = 10^6 bytes/sec.
  • データ ディスクは、キャッシュを有効にしたモードでも無効化したモードでも動作します。Data disks can operate in cached or uncached modes. キャッシュを有効にしたデータ ディスクの操作では、ホスト キャッシュ モードは ReadOnly または ReadWrite に設定されています。For cached data disk operation, the host cache mode is set to ReadOnly or ReadWrite. キャッシュを無効にしたデータ ディスクの操作では、ホスト キャッシュ モードは Noneに設定されています。For uncached data disk operation, the host cache mode is set to None.
  • VM のパフォーマンスを最適にするには、データ ディスクの数を vCPU あたり 2 ディスクに制限する必要があります。If you want to get the best performance for your VMs, you should limit the number of data disks to 2 disks per vCPU.
  • 想定ネットワーク帯域幅は、すべての宛先について、すべての NIC で VM の種類ごとに割り当てられた最大集約帯域幅です。Expected network bandwidth is the maximum aggregated bandwidth allocated per VM type across all NICs, for all destinations. 上限は保証されませんが、目的のアプリケーションに適した VM の種類を選択するためのガイダンスを示しています。Upper limits are not guaranteed, but are intended to provide guidance for selecting the right VM type for the intended application. 実際のネットワークのパフォーマンスは、ネットワークの輻輳、アプリケーションの負荷、ネットワーク設定など、さまざまな要因に左右されます。Actual network performance will depend on a variety of factors including network congestion, application loads, and network settings. ネットワーク スループットの最適化については、Windows および Linux のネットワーク スループットの最適化に関する記事を参照してください。For information on optimizing network throughput, see Optimizing network throughput for Windows and Linux. Linux または Windows で想定ネットワーク パフォーマンスを実現するには、特定のバージョンを選択するか、VM を最適化することが必要になることがあります。To achieve the expected network performance on Linux or Windows, it may be necessary to select a specific version or optimize your VM. 詳細については、仮想マシンのスループットを確実にテストする方法に関する記事を参照してください。For more information, see How to reliably test for virtual machine throughput.

デプロイに関する考慮事項Deployment considerations

  • Azure サブスクリプション – 多数のコンピューティング集中型インスタンスをデプロイするには、従量課金制サブスクリプションまたは他の購入オプションを検討してください。Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Azure 無料アカウントを使用している場合は、使用できる Azure コンピューティング コアの数に制限があります。If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • 価格と可用性 - これらの VM サイズは、Standard 価格レベルでのみ提供されます。Pricing and availability - These VM sizes are offered only in the Standard pricing tier. 各 Azure リージョンで利用できるかどうかについては、「 リージョン別の利用可能な製品 」を参照してください。Check Products available by region for availability in Azure regions.

  • コア クォータ – 場合によっては、Azure サブスクリプションのコア クォータを既定値から増やす必要があります。Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. サブスクリプションによっては、H シリーズを含む特定の VM サイズ ファミリにデプロイできるコア数が制限されることがあります。Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. クォータを増やすためのリクエストは、オンライン カスタマー サポートに申請 (無料) してください。To request a quota increase, open an online customer support request at no charge. (既定の制限は、サブスクリプション カテゴリによって異なる場合があります。)(Default limits may vary depending on your subscription category.)

    注意

    大規模な容量が必要な場合は、Azure サポートにお問い合わせください。Contact Azure Support if you have large-scale capacity needs. Azure のクォータは容量保証ではなくクレジット制限です。Azure quotas are credit limits, not capacity guarantees. クォータに関係なく、使用したコアに対してのみ課金されます。Regardless of your quota, you are only charged for cores that you use.

  • 仮想ネットワーク – コンピューティング集中型インスタンスを使用するために、Azure Virtual Network は不要です。Virtual network – An Azure virtual network is not required to use the compute-intensive instances. ただし、多くのデプロイでは、少なくともクラウド ベースの Azure Virtual Network またはサイト間接続 (オンプレミス リソースへのアクセスが必要な場合) が必要になります。However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. 必要に応じて、新しい仮想ネットワークを作成して、インスタンスをデプロイします。When needed, create a new virtual network to deploy the instances. アフィニティ グループ内の仮想ネットワークにコンピューティング集中型の VM を追加することはできません。Adding compute-intensive VMs to a virtual network in an affinity group is not supported.

  • サイズ変更 – 特殊なハードウェアが使用されるため、コンピューティング集中型インスタンスのサイズ変更は同じサイズ ファミリ (H シリーズまたはコンピューティング集中型 A シリーズ) 内でのみ可能です。Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or compute-intensive A-series). たとえば、H シリーズの VM は H シリーズのあるサイズから別のサイズにのみ変更できます。For example, you can only resize an H-series VM from one H-series size to another. さらに、コンピューティング集中型以外のサイズからコンピューティング集中型サイズへのサイズ変更はサポートされていません。In addition, resizing from a non-compute-intensive size to a compute-intensive size is not supported.

RDMA 対応のインスタンスRDMA-capable instances

コンピューティング集中型インスタンス (A8、A9、H16r、H16mr、HB および HC) のサブセットには、リモート ダイレクト メモリ アクセス (RDMA) 接続のためのネットワーク インターフェイスが備わっています。A subset of the compute-intensive instances (A8, A9, H16r, H16mr, HB and HC) feature a network interface for remote direct memory access (RDMA) connectivity. NC24rs 構成 (NC24rs_v2 および NC24rs_v3) など、'r' で指定された一部の N シリーズのサイズも RDMA に対応します。Selected N-series sizes designated with 'r' such as the NC24rs configurations (NC24rs_v2 and NC24rs_v3) are also RDMA-capable. このインターフェイスは、標準の Azure ネットワーク インターフェイスと同様に、他の VM サイズでも利用可能です。This interface is in addition to the standard Azure network interface available to other VM sizes.

このインターフェイスにより、RDMA 対応インスタンスは InfiniBand (IB) ネットワークを介して通信することができ、HB、HC では EDR のレートで、H16r、H16mr、および RDMA 対応 N シリーズの仮想マシンでは FDR のレートで、A8 と A9 の仮想マシンでは QDR のレートで動作します。This interface allows the RDMA-capable instances to communicate over an InfiniBand (IB) network, operating at EDR rates for HB, HC, FDR rates for H16r, H16mr, and RDMA-capable N-series virtual machines, and QDR rates for A8 and A9 virtual machines. これらの RDMA 機能により、特定の Message Passing Interface (MPI) アプリケーションのスケーラビリティとパフォーマンスが向上します。These RDMA capabilities can boost the scalability and performance of certain Message Passing Interface (MPI) applications. 速度の詳細については、このページの表の詳細情報を参照してください。For more information on speed, see the details in the tables on this page.

注意

Azure では、IP over IB は、SR-IOV 対応の VM (InfiniBand の SR-IOV、現在は HB および HC) でのみサポートされています。In Azure, IP over IB is only supported on the SR-IOV enabled VMs (SR-IOV for InfiniBand, currently HB and HC). RDMA over IB は、RDMA 対応のすべてのインスタンスでサポートされています。RDMA over IB is supported for all RDMA-capable instances.

MPIMPI

Azure 上の SR-IOV に対応した VM のサイズでは、ほぼすべての種類の MPI を使用できます。The SR-IOV enabled VM sizes on Azure allow almost any flavor of MPI to be used. SR-IOV に対応していない VM では、Intel MPI 5.x バージョンのみがサポートされています。On non-SR-IOV enabled VMs, only Intel MPI 5.x versions are supported. Intel MPI ランタイム ライブラリの以降のバージョン (2017、2018) は、Azure Linux RDMA ドライバーと互換性がある場合と無い場合があります。Later versions (2017, 2018) of the Intel MPI runtime library may or may not be compatible with the Azure Linux RDMA drivers.

サポート対象の OS イメージSupported OS images

Azure Marketplace には、RDMA 接続をサポートする多くの Linux ディストリビューションがあります。The Azure Marketplace has many Linux distributions that support RDMA connectivity:

  • CentOS ベースの HPC - SR-IOV に対応していない VM の場合、CentOS ベースのバージョン 6.5 の HPC またはそれ以降 (7.5 まで) のバージョンが適しています。CentOS-based HPC - For non-SR-IOV enabled VMs, CentOS-based version 6.5 HPC or a later version, up to 7.5 are suitable. H シリーズの VM では、バージョン 7.1 から 7.5 をお勧めします。For H-series VMs, versions 7.1 to 7.5 are recommended. RDMA ドライバーおよび Intel MPI 5.1 は、VM にインストールされます。RDMA drivers and Intel MPI 5.1 are installed on the VM. SR-IOV 対応の VM では、CentOS HPC 7.6 は最適化され、RDMA ドライバーが事前に読み込まれ、さまざまな MPI パッケージがインストールされています。For SR-IOV VMs, CentOS-HPC 7.6 comes optimized and pre-loaded with the RDMA drivers and various MPI packages installed. その他の RHEL/CentOS VM イメージの場合、InfiniBandLinux 拡張機能を追加して InfiniBand を有効にします。For other RHEL/CentOS VM images, add the InfiniBandLinux extension to enable InfiniBand. この Linux VM 拡張機能は、RDMA 接続用に Mellanox OFED ドライバーを (SR-IOV 対応の VM 上に) インストールします。This Linux VM extension installs Mellanox OFED drivers (on SR-IOV VMs) for RDMA connectivity. 次の PowerShell コマンドレットは、InfiniBandDriverLinux 拡張機能の最新バージョン (バージョン 1.0) を既存の RDMA 対応の VM にインストールします。The following PowerShell cmdlet installs the latest version (version 1.0) of the InfiniBandDriverLinux extension on an existing RDMA-capable VM. RDMA 対応の VM は、名前が myVM で、次のように West US リージョンの myResourceGroup という名前のリソース グループにデプロイされます。The RDMA-capable VM is named myVM and is deployed in the resource group named myResourceGroup in the West US region as follows:

    Set-AzVMExtension -ResourceGroupName "myResourceGroup" -Location "westus" -VMName "myVM" -ExtensionName "InfiniBandDriverLinux" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverLinux" -TypeHandlerVersion "1.0"
    

    また、次の JSON 要素を使用して、簡単にデプロイするために VM 拡張機能を Azure Resource Manager テンプレートに含めることができます。Alternatively, VM extensions can be included in Azure Resource Manager templates for easy deployment with the following JSON element:

    "properties":{
    "publisher": "Microsoft.HpcCompute",
    "type": "InfiniBandDriverLinux",
    "typeHandlerVersion": "1.0",
    } 
    

    次のコマンドでは、myResourceGroup という名前のリソース グループにデプロイされた myVMSS という名前の既存の VM スケール セットのすべての RDMA 対応 VM に、最新バージョンの 1.0 の InfiniBandDriverLinux 拡張機能をインストールします。The following command installs the latest version 1.0 InfiniBandDriverLinux extension on all RDMA-capable VMs in an existing VM scale set named myVMSS deployed in the resource group named myResourceGroup:

    $VMSS = Get-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS"
    Add-AzVmssExtension -VirtualMachineScaleSet $VMSS -Name "InfiniBandDriverLinux" -Publisher "Microsoft.HpcCompute" -Type "InfiniBandDriverLinux" -TypeHandlerVersion "1.0"
    Update-AzVmss -ResourceGroupName "myResourceGroup" -VMScaleSetName "MyVMSS" -VirtualMachineScaleSet $VMSS
    Update-AzVmssInstance -ResourceGroupName "myResourceGroup" -VMScaleSetName "myVMSS" -InstanceId "*"
    

    注意

    CentOS ベースの HPC イメージでは、 yum 構成ファイルでのカーネルの更新は無効にされています。On the CentOS-based HPC images, kernel updates are disabled in the yum configuration file. これは、Linux RDMA ドライバーが RPM パッケージとして配布されており、カーネルが更新された場合にドライバーの更新プログラムが機能しない可能性があるためです。This is because Linux RDMA drivers are distributed as an RPM package, and driver updates might not work if the kernel is updated.

  • SUSE Linux Enterprise Server - SLES 12 SP3 for HPC、SLES 12 SP3 for HPC (Premium)、SLES 12 SP1 for HPC、SLES 12 SP1 for HPC (Premium)、SLES 12 SP4 および SLES 15。SUSE Linux Enterprise Server - SLES 12 SP3 for HPC, SLES 12 SP3 for HPC (Premium), SLES 12 SP1 for HPC, SLES 12 SP1 for HPC (Premium), SLES 12 SP4 and SLES 15. RDMA ドライバーがインストールされ、Intel MPI パッケージが VM に配布されます。RDMA drivers are installed and Intel MPI packages are distributed on the VM. 次のコマンドを実行して MPI をインストールします。Install MPI by running the following command:

    sudo rpm -v -i --nodeps /opt/intelMPI/intel_mpi_packages/*.rpm
    
  • Ubuntu - Ubuntu Server 16.04 LTS、18.04 LTS。Ubuntu - Ubuntu Server 16.04 LTS, 18.04 LTS. VM で RDMA ドライバーを構成し、Intel に登録して Intel MPI をダウンロードします。Configure RDMA drivers on the VM and register with Intel to download Intel MPI:

    1. dapl、rdmacm、ibverbs、mlx4 をインストールしますInstall dapl, rdmacm, ibverbs, and mlx4

      sudo apt-get update
      
      sudo apt-get install libdapl2 libmlx4-1
      
      
    2. /etc/waagent.conf で、次の構成行のコメントを解除して RDMA を有効にします。In /etc/waagent.conf, enable RDMA by uncommenting the following configuration lines. このファイルを編集するにはルート アクセスが必要です。You need root access to edit this file.

      OS.EnableRDMA=y
      
      OS.UpdateRdmaDriver=y
      
    3. /etc/security/limits.conf ファイルで次のメモリ設定 (KB単位) を追加または変更します。Add or change the following memory settings in KB in the /etc/security/limits.conf file. このファイルを編集するにはルート アクセスが必要です。You need root access to edit this file. テスト目的で、memlock を無制限に設定することができます。For testing purposes you can set memlock to unlimited. (例: <User or group name> hard memlock unlimited)。For example: <User or group name> hard memlock unlimited.

      <User or group name> hard    memlock <memory required for your application in KB>
      
      <User or group name> soft    memlock <memory required for your application in KB>
      
    4. Intel MPI ライブラリをインストールします。Install Intel MPI Library. Intel からライブラリを購入してダウンロードするか、無料評価版をダウンロードします。Either purchase and download the library from Intel or download the free evaluation version.

      wget http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/9278/l_mpi_p_5.1.3.223.tgz
      

      Intel MPI 5.x ランタイムのみがサポートされています。Only Intel MPI 5.x runtimes are supported.

      インストール手順については、Intel MPI ライブラリのインストール ガイドをご覧ください。For installation steps, see the Intel MPI Library Installation Guide.

    5. (Intel MPI の最新バージョンに必要な) non-root non-debugger プロセスに対して ptrace を有効にします。Enable ptrace for non-root non-debugger processes (needed for the most recent versions of Intel MPI).

      echo 0 | sudo tee /proc/sys/kernel/yama/ptrace_scope
      

    InfiniBand の有効化と MPI の設定の詳細については、Infiniband の有効化に関するページを参照してください。For more details on enabling InfiniBand, setting up MPI, see Enable InfiniBand.

クラスター構成オプションCluster configuration options

Azure には、次に示すような、RDMA ネットワークを使用して通信できる Linux HPC VM のクラスターを作成するためのオプションがいくつか用意されています。Azure provides several options to create clusters of Linux HPC VMs that can communicate using the RDMA network, including:

  • 仮想マシン - 同じ可用性セット内に RDMA 対応の HPC VM をデプロイします (Azure Resource Manager デプロイ モデルを使用する場合)。Virtual machines - Deploy the RDMA-capable HPC VMs in the same availability set (when you use the Azure Resource Manager deployment model). クラシック デプロイ モデルを使用する場合は、同じクラウド サービス内に VM をデプロイします。If you use the classic deployment model, deploy the VMs in the same cloud service.

  • Virtual Machine Scale Sets - 仮想マシン スケール セットで、単一の配置グループにデプロイを制限するようにします。Virtual machine scale sets - In a virtual machine scale set, ensure that you limit the deployment to a single placement group. たとえば、Resource Manager テンプレートでは、singlePlacementGroup プロパティを true に設定します。For example, in a Resource Manager template, set the singlePlacementGroup property to true.

  • 仮想マシン間の MPI - 仮想マシン (VM) 間で MPI 通信が必要な場合は、VM が同じ可用性セットまたは仮想マシン スケール セットに含まれていることを確認します。MPI among virtual machines - If MPI communication if required between virtual machines (VMs), ensure that the VMs are in the same availability set or the virtual machine same scale set.

  • Azure CycleCloud - Azure CycleCloud 内に HPC クラスターを作成して、Linux ノード上で MPI ジョブを実行します。Azure CycleCloud - Create an HPC cluster in Azure CycleCloud to run MPI jobs on Linux nodes.

  • Azure Batch - Azure Batch プールを作成して、Linux コンピューティング ノード上で MPI ワークロードを実行します。Azure Batch - Create an Azure Batch pool to run MPI workloads on Linux compute nodes. 詳細については、「Batch プールでの RDMA 対応または GPU 対応インスタンスの使用」を参照してください。For more information, see Use RDMA-capable or GPU-enabled instances in Batch pools. また、Batch でのコンテナー ベースのワークロードの実行について Batch Shipyard プロジェクトも参照してください。Also see the Batch Shipyard project, for running container-based workloads on Batch.

  • Microsoft HPC Pack - HPC Pack は、Windows Server ヘッド ノードによって管理される、RDMA 対応の Azure VM にデプロイされたコンピューティング ノード上での複数の Linux ディストリビューションの実行をサポートします。Microsoft HPC Pack - HPC Pack supports several Linux distributions to run on compute nodes deployed in RDMA-capable Azure VMs, managed by a Windows Server head node. デプロイの例については、Azure での HPC Pack Linux RDMA クラスターの作成に関するページを参照してください。For an example deployment, see Create HPC Pack Linux RDMA Cluster in Azure.

ネットワークに関する考慮事項Network considerations

  • SR-IOV に対応していない、Azure の RDMA 対応 Linux VM の場合、eth1 は RDMA のネットワーク トラフィック用に予約されています。On non-SR-IOV, RDMA-enabled Linux VMs in Azure, eth1 is reserved for RDMA network traffic. eth1 設定や、このネットワークを参照する構成ファイル内の情報を変更しないでください。Do not change any eth1 settings or any information in the configuration file referring to this network.
  • SR-IOV に対応した VM (HB および HC シリーズ) では、ib0 は RDMA のネットワーク トラフィック用に予約されています。On SR-IOV enabled VMs (HB and HC-series), ib0 is reserved for RDMA network traffic.
  • Azure の RDMA ネットワークでは、アドレス空間 172.16.0.0/16 は予約済みです。The RDMA network in Azure reserves the address space 172.16.0.0/16. Azure 仮想ネットワークにデプロイ済みのインスタンスで MPI アプリケーションを実行する場合、仮想ネットワークのアドレス空間が RDMA ネットワークと重複しないようにしてください。To run MPI applications on instances deployed in an Azure virtual network, make sure that the virtual network address space does not overlap the RDMA network.
  • クラスター管理ツールの選択によっては、MPI ジョブを実行するために追加のシステム構成が必要になることがあります。Depending on your choice of cluster management tool, additional system configuration may be needed to run MPI jobs. たとえば、VM のクラスター上では、SSH キーを生成するか、またはパスワードなしの SSH ログインを確立することによって、クラスター ノード間の信頼を確立することが必要になる場合があります。For example, on a cluster of VMs, you may need to establish trust among the cluster nodes by generating SSH keys or by establishing passwordless SSH logins.

その他のサイズOther sizes

次の手順Next steps