HBv3 系列虚拟机性能
适用于:✔️ Linux VM ✔️ Windows VM ✔️ 灵活规模集 ✔️ 统一规模集
使用常见 HPC 微基准测试程序的性能预期如下:
工作负荷 | HBv3 |
---|---|
STREAM Triad | 330-350 GB/s(放大到 630 GB/s) |
高性能 Linpack (HPL) | 用于 120 核心 VM 大小的 4 TF(Rpeak,FP64),8 TF(Rpeak,FP32) |
RDMA 延迟和带宽 | 1.2 微秒(1 字节),192 GB/秒(单向) |
本地 NVMe SSD 上的 FIO (RAID0) | 7 GB/秒的读取速度,3 GB/秒的写入速度;186,000 的 IOPS 读取速度,201,000 的 IOPS 写入速度 |
进程固定
进程固定适用于 HBv3 系列 VM,因为我们会将底层硅按原样公开给来宾 VM。 强烈建议使用进程固定来实现最佳性能和一致性。
MPI 延迟
可执行 OSU 微基准测试程序套件中的 MPI 延迟测试,如下所示。 示例脚本位于 GitHub 上。
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI 带宽
可按如下所示执行 OSU 微基准测试程序套件中的 MPI 带宽测试。 示例脚本位于 GitHub 上。
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Mellanox Perftest 包具有许多 InfiniBand 测试,如延迟 (ib_send_lat) 和带宽 (ib_send_bw)。 下面是一个示例命令。
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
后续步骤
- 了解有关缩放 MPI 应用程序的信息。
- 有关 HBv3 VM 上 HPC 应用程序的性能和可伸缩性结果,请参阅技术社区文章。
- 在 Azure 计算技术社区博客上阅读最新公告、HPC 工作负载示例和性能结果。