Grootte van virtuele machines in HC-serie

Er zijn verschillende prestatie tests uitgevoerd op de grootte van de HC-serie. Hier volgen enkele van de resultaten van deze prestatie tests.

Workload HB
Triad STREAMen 190 GB/s (Intel MLC AVX-512)
High-Performance Linpackuitvoer (HPL) 3520 GigaFLOPS (Rpeak), 2970 GigaFLOPS (Rmax)
Band breedte & RDMA-latentie 1,05 micro seconden, 96,8 GB/s
FIO op lokale NVMe-SSD 1,3 GB/s Lees bewerkingen, 900 MB/s
IOR op 4 Azure Premium-SSD (P30 Managed Disks, RAID0) * * 780 MB/s Lees bewerkingen, 780 MB/schrijf bewerkingen

MPI-latentie

MPI-latentie test van de OSU microbench Mark-suite wordt uitgevoerd. Voorbeeld scripts bevinden zich op github

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

MPI-latentie op Azure HC.

MPI-band breedte

De MPI-bandbreedte test van de OSU microbench Mark-suite wordt uitgevoerd. Voorbeeld scripts bevinden zich op github

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

MPI-band breedte op Azure HC.

Mellanox perftest

Het Mellanox perftest-pakket heeft veel InfiniBand-tests zoals latentie (ib_send_lat) en band breedte (ib_send_bw). Hieronder vindt u een voor beeld van een opdracht.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Volgende stappen