HBv3 serisi sanal makine performansı
Şunlar için geçerlidir: ✔️ Linux VM'leri ✔️ Windows VM'leri ✔️ Esnek ölçek kümeleri ✔️ Tekdüzen ölçek kümeleri
Yaygın HPC mikrobenchmark'larını kullanan performans beklentileri şunlardır:
İş Yükü | HBv3 |
---|---|
STREAM Triad | 330-350 GB/sn (630 GB/sn'ye kadar artırılabilir) |
Yüksek Performanslı Linpack (HPL) | 120 çekirdekli VM boyutu için 4 TF (Rpeak, FP64), 8 TF (Rpeak, FP32) |
RDMA gecikme süresi ve bant genişliği | 1,2 mikrosaniye (1 bayt), 192 GB/sn (tek yönlü) |
Yerel NVMe SSD'lerinde FIO (RAID0) | 7 GB/sn okuma, 3 GB/sn yazma; 186k IOPS okuması, 201k IOPS yazmaları |
İşlem sabitleme
Temel alınan silikonu konuk VM'de olduğu gibi kullanıma sunduğumuzdan işlem sabitleme HBv3 serisi VM'lerde iyi çalışır. En iyi performans ve tutarlılık için işlem sabitlemeyi kesinlikle öneririz.
MPI gecikme süresi
OSU mikrobenchmark paketinden MPI gecikme süresi testi gösterildiği gibi yürütülebilir. Örnek betikler GitHub'da bulunur.
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI bant genişliği
OSU microbenchmark paketinden MPI bant genişliği testi aşağıdakilere göre yürütülebilir. Örnek betikler GitHub'da bulunur.
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Mellanox Perftest paketinde gecikme süresi (ib_send_lat) ve bant genişliği (ib_send_bw) gibi birçok InfiniBand testi vardır. Aşağıda örnek bir komut verilmiştir.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Sonraki adımlar
- MPI uygulamalarını ölçeklendirme hakkında bilgi edinin.
- TechCommunity makalesindeki HBv3 VM'lerinde HPC uygulamalarının performans ve ölçeklenebilirlik sonuçlarını gözden geçirin.
- Azure compute Tech Community Bloglarında en son duyurular, HPC iş yükü örnekleri ve performans sonuçları hakkında bilgi edinin.
- Çalışan HPC iş yüklerinin daha üst düzey mimari görünümü için bkz . Azure'da Yüksek Performanslı Bilgi İşlem (HPC).