HBv2 系列虛擬機器大小

適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集

已在 HBv2 系列大小 VM 上執行上幾次效能測試。 以下是此效能測試的部分結果。

工作負載 HBv2
STREAM Triad 350 GB/秒 (每 CCX 21-23 GB/秒)
高效能 Linpack (HPL) 4 TeraFLOPS (Rpeak, FP64),8 TeraFLOPS (Rmax, FP32)
RDMA 延遲 & 頻寬 1.2 微秒,190.1 Gb/秒
本機 NVMe SSD 上的 FIO 2.7 GB/秒讀取、1.1 GB/秒寫入;102k IOPS 讀取、115 IOPS 寫入
8 * Azure 進階 SSD 上的 IOR (P40 受控磁碟,RAID0)** 1.3 GB/秒讀取、2.5 GB/寫入;101k IOPS 讀取、105k IOPS 寫入

MPI 延遲

執行 OSU 微基準套件的 MPI 延遲測試。 範例指令碼位於 GitHub

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Screenshot of MPI latency.

MPI 頻寬

執行 OSU 微基準套件的 MPI 頻寬測試。 範例指令碼位於 GitHub

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot of MPI bandwidth.

Mellanox Perftest

Mellanox Perftest 套件有許多 InfiniBand 測試,例如延遲 (ib_send_lat) 和頻寬 (ib_send_bw)。 範例命令如下所示。

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

下一步