HBv2 系列虛擬機器大小
適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集
已在 HBv2 系列大小 VM 上執行上幾次效能測試。 以下是此效能測試的部分結果。
工作負載 | HBv2 |
---|---|
STREAM Triad | 350 GB/秒 (每 CCX 21-23 GB/秒) |
高效能 Linpack (HPL) | 4 TeraFLOPS (Rpeak, FP64),8 TeraFLOPS (Rmax, FP32) |
RDMA 延遲 & 頻寬 | 1.2 微秒,190.1 Gb/秒 |
本機 NVMe SSD 上的 FIO | 2.7 GB/秒讀取、1.1 GB/秒寫入;102k IOPS 讀取、115 IOPS 寫入 |
8 * Azure 進階 SSD 上的 IOR (P40 受控磁碟,RAID0)** | 1.3 GB/秒讀取、2.5 GB/寫入;101k IOPS 讀取、105k IOPS 寫入 |
MPI 延遲
執行 OSU 微基準套件的 MPI 延遲測試。 範例指令碼位於 GitHub。
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI 頻寬
執行 OSU 微基準套件的 MPI 頻寬測試。 範例指令碼位於 GitHub。
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Mellanox Perftest 套件有許多 InfiniBand 測試,例如延遲 (ib_send_lat) 和頻寬 (ib_send_bw)。 範例命令如下所示。
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
下一步
- 請參閱 Azure 計算技術社群部落格的最新公告、HPC 工作負載範例和效能結果。
- 如需執行中 HPC 工作負載的較高層級架構檢視,請參閱 Azure 上的高效能運算 (HPC)。