Rozmiary maszyn wirtualnych z serii HC

Kilka testów wydajności zostało uruchomionych w rozmiarach z serii HC. Poniżej przedstawiono niektóre wyniki tego testu wydajnościowego.

Obciążenie HB
Triad strumienia 190 GB/s (Intel MLC AVX-512)
High-Performance Linpack (HPL) 3520 GigaFLOPS (Rpeak), 2970 GigaFLOPS (RMAX)
Opóźnienie RDMA & przepustowość 1,05 mikrosekund, 96,8 GB/s
FIO na lokalnym dysku SSD interfejsu NVMe 1,3 GB/s odczyty, 900 MB/s zapisów
IOR na 4 SSD w warstwie Premium platformy Azure (P30 Managed Disks, RAID0) * * 780 MB/s odczyty, 780 MB/zapisy

Opóźnienie MPI

Test opóźnienia MPI z zestawu OSU mikrotestu jest uruchamiany. Przykładowe skrypty są w serwisie GitHub

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

MPI opóźnienie na platformie Azure HC.

MPI przepustowość

Test przepustowości MPI z zestawu OSU mikrotestu jest uruchamiany. Przykładowe skrypty są w serwisie GitHub

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

MPI przepustowość na platformie Azure HC.

Perftest Mellanox

Pakiet Mellanox Perftest ma wiele testów InfiniBand, takich jak opóźnienie (ib_send_lat) i przepustowość (ib_send_bw). Przykładowe polecenie jest poniżej.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Następne kroki