HBv3 sorozatú virtuális gép teljesítménye

A következőkre vonatkozik: ✔️ Linux rendszerű virtuális gépek ✔️ Windows rendszerű virtuális gépek Rugalmas méretezési ✔️ csoportok ✔️ Egységes méretezési csoportok

A gyakori HPC-mikrobenchjelekkel kapcsolatos teljesítménybeli elvárások a következők:

Workload HBv3
STREAM triád 330-350 GB/s (630 GB/s-ig felerősítve)
Nagy teljesítményű Linpack (HPL) 4 TF (Rpeak, FP64), 8 TF (Rpeak, FP32) a 120 magos virtuális gép méretéhez
RDMA-késés és sávszélesség 1,2 mikroszekundum (1 bájt), 192 GB/s (egyirányú)
FIO helyi NVMe SSD-ken (RAID0) 7 GB/s olvasás, 3 GB/s írás; 186k IOPS-olvasások, 201k IOPS-írások

Folyamat rögzítése

A folyamat rögzítése jól működik a HBv3 sorozatú virtuális gépeken, mert a mögöttes szilíciumot a vendég virtuális gép számára tesszük elérhetővé. Határozottan javasoljuk a folyamat rögzítését az optimális teljesítmény és konzisztencia érdekében.

MPI-késés

Az OSU microbenchmark csomag MPI-késési tesztje az ábrán látható módon végrehajtható. A mintaszkriptek a GitHubon találhatók.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

MPI-sávszélesség

Az OSU microbenchmark csomag MPI-sávszélesség-tesztje alább végrehajtható. A mintaszkriptek a GitHubon találhatók.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Mellanox Perftest

A Mellanox Perftest csomag számos InfiniBand-teszttel rendelkezik, például késéssel (ib_send_lat) és sávszélességtel (ib_send_bw). Alább látható egy példaparancs.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

További lépések