Rozmiary maszyn wirtualnych z serii HBv2

Dotyczy: ✔️ Maszyny wirtualne z systemem Linux Windows maszyn wirtualnych ✔️ — elastyczne zestawy ✔️ ✔️ skalowania

Na maszynach wirtualnych o rozmiarze HBv2 uruchomiono kilka testów wydajnościowych. Poniżej przedstawiono niektóre wyniki tego testu wydajnościowego.

Obciążenie HBv2
STREAM Triad 350 GB/s (21–23 GB/s na CCX)
High-Performance Linpack (HPL) 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32)
Przepustowość opóźnienia & RDMA 1,2 mikrosekundy, 190 Gb/s
FiO na lokalnym dysku SSD NVMe Odczyty 2,7 GB/s, zapisy 1,1 GB/s; Odczyty operacji we/wy na sekundę 102 tys. operacji we/wy na sekundę, 115 operacji we/wy na sekundę
IOR na 8 * Azure Premium SSD (P40 Dyski zarządzane, RAID0)** Odczyty 1,3 GB/s, 2,5 GB/zapisy; Odczyty operacji we/wy na sekundę 101 tys. operacji we/wy na sekundę, 105 tys. operacji we/wy na sekundę

Opóźnienie interfejsu MPI

Test opóźnienia MPI z pakietu mikrobenchmark jednostki OSU jest uruchamiany. Przykładowe skrypty znajdują się na GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

MPI latency on Azure HB.

Przepustowość MPI

Test przepustowości MPI z zestawu mikrobenchmarku jednostki OSU jest uruchamiany. Przykładowe skrypty znajdują się na GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

MPI bandwidth on Azure HB.

Mellanox Perftest

Pakiet Mellanox Perftest zawiera wiele testów InfiniBand, takich jak opóźnienie (ib_send_lat) i przepustowość (ib_send_bw). Poniżej znajduje się przykładowe polecenie.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Następne kroki