Aracılığıyla paylaş


HBv3 serisi sanal makine performansı

Şunlar için geçerlidir: ✔️ Linux VM'leri ✔️ Windows VM'leri ✔️ Esnek ölçek kümeleri ✔️ Tekdüzen ölçek kümeleri

Yaygın HPC mikrobenchmark'larını kullanan performans beklentileri şunlardır:

İş Yükü HBv3
STREAM Triad 330-350 GB/sn (630 GB/sn'ye kadar artırılabilir)
Yüksek Performanslı Linpack (HPL) 120 çekirdekli VM boyutu için 4 TF (Rpeak, FP64), 8 TF (Rpeak, FP32)
RDMA gecikme süresi ve bant genişliği 1,2 mikrosaniye (1 bayt), 192 GB/sn (tek yönlü)
Yerel NVMe SSD'lerinde FIO (RAID0) 7 GB/sn okuma, 3 GB/sn yazma; 186k IOPS okuması, 201k IOPS yazmaları

İşlem sabitleme

Temel alınan silikonu konuk VM'de olduğu gibi kullanıma sunduğumuzdan işlem sabitleme HBv3 serisi VM'lerde iyi çalışır. En iyi performans ve tutarlılık için işlem sabitlemeyi kesinlikle öneririz.

MPI gecikme süresi

OSU mikrobenchmark paketinden MPI gecikme süresi testi gösterildiği gibi yürütülebilir. Örnek betikler GitHub'da bulunur.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

MPI bant genişliği

OSU microbenchmark paketinden MPI bant genişliği testi aşağıdakilere göre yürütülebilir. Örnek betikler GitHub'da bulunur.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Mellanox Perftest

Mellanox Perftest paketinde gecikme süresi (ib_send_lat) ve bant genişliği (ib_send_bw) gibi birçok InfiniBand testi vardır. Aşağıda örnek bir komut verilmiştir.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Sonraki adımlar