HBv3 系列虚拟机概述

适用于:✔️ Linux VM ✔️ Windows VM ✔️ 灵活规模集 ✔️ 统一规模集

HBv3 系列服务器具有 2 个 64 核 EPYC 7V73X CPU,总共 128 个物理“Zen3”内核,并采用 AMD 3D V-Cache 技术。 HBv3 上禁用了同时多线程处理技术 (SMT)。 这 128 个内核分为 16 个部分(每个套接字 8 个),每个部分包含 8 个处理器内核,可对 96 MB L3 缓存进行统一访问。 Azure HBv3 服务器还运行以下 AMD BIOS 设置:

Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled

因此,服务器启动时有 4 个 NUMA 域(每个插槽各有 2 个)。 每个域的大小为 32 个核心。 每个 NUMA 可以直接访问以 3,200 MT/秒速度运行的 4 个物理 DRAM 通道。

为了给 Azure 虚拟机监控程序提供运行空间而又不干扰 VM,我们为每台服务器预留 8 个物理内核。

VM 拓扑

下图显示了服务器的拓扑。 我们以对称方式在两个 CPU 插槽上保留这 8 个虚拟机监控程序主机核心(黄色),前 2 个核心来自每个 NUMA 域上特定的 Core Complex Dies (CCD),其余核心用于 HBv3 系列 VM(绿色)。

HBv3 系列服务器的拓扑

CCD 边界不等效于 NUMA 边界。 在 HBv3 上,一组四 (4) 个连续的 CCD 配置为一个 NUMA 域,无论是在主机服务器级别上还是在来宾 VM 中。 因此,所有 HBv3 VM 大小都会公开 4 个 NUMA 域,这些域显示在 OS 和应用程序中,如下所示。 4 个统一的 NUMA 域,每个域具有不同数量的内核,具体取决于特定的 HBv3 VM 大小

HBv3 系列 VM 的拓扑

每种大小的 HBv3 VM 与 AMD EPYC 7003 系列中其他 CPU 的物理布局、功能和性能相似,如下所示:

HBv3 系列 VM 大小 NUMA 域 每个 NUMA 域的核心 与 AMD EPYC 相似
Standard_HB120rs_v3 4 30 双插槽 EPYC 7773X
Standard_HB120-96rs_v3 4 24 双插槽 EPYC 7643
Standard_HB120-64rs_v3 4 16 双插槽 EPYC 7573X
Standard_HB120-32rs_v3 4 8 双插槽 EPYC 7373X
Standard_HB120-16rs_v3 4 4 双插槽 EPYC 72F3

注意

受约束的核心 VM 大小仅减少向 VM 公开的物理核心数。 所有全局共享资产(RAM、内存带宽、L3 缓存、GMI 和 xGMI 连接、InfiniBand、Azure 以太网、本地 SSD)保持不变。 这允许客户选择最适合给定的一组工作负荷或软件授权需求的 VM 大小。

每种大小的 HBv3 VM 的虚拟 NUMA 映射会映射到基础物理 NUMA 拓扑。 硬件拓扑没有潜在的误导性抽象。

使用 lstopo 输出的各种 HBV3 VM 大小的确切拓扑如下所示:

lstopo-no-graphics --no-io --no-legend --of txt

单击以查看 Standard_HB120rs_v3 的 lstopo 输出

HBv3-120 VM 的 lstopo 输出

单击以查看 Standard_HB120rs-96_v3 的 lstopo 输出

HBv3-96 VM 的 lstopo 输出

单击以查看 Standard_HB120rs-64_v3 的 lstopo 输出

HBv3-64 VM 的 lstopo 输出

单击以查看 Standard_HB120rs-32_v3 的 lstopo 输出

HBv3-32 VM 的 lstopo 输出

单击以查看 Standard_HB120rs-16_v3 的 lstopo 输出

HBv3-16 VM 的 lstopo 输出

InfiniBand 网络

HBv3 VM 还具有 Nvidia Mellanox HDR InfiniBand 网络适配器 (ConnectX-6),其运行速度高达 200 Gb/秒。NIC 通过 SRIOV 传递到 VM,从而使网络流量可以绕过虚拟机监控程序。 因此,客户会在 HBv3 VM 上加载标准的 Mellanox OFED 驱动程序,因为它们会成为裸机环境。

HBv3 VM 支持自适应路由、动态连接的传输(DCT 以及标准 RC 和 UD 传输),以及基于硬件的 MPI 集合到 ConnectX-6 适配器的机载处理器的卸载。 这些功能增强了应用性能、可伸缩性和一致性,我们建议使用。

临时存储

HBv3 VM 具有 3 台物理本地 SSD 设备。 一台设备已预先格式化以用作页面文件,并将在你的 VM 中显示为通用的“SSD”设备。

另外两台较大的 SSD 通过 NVMeDirect 作为未格式化的块 NVMe 设备提供。 由于块 NVMe 设备会绕过虚拟机监控程序,因此它具有更高的带宽、更高的 IOPS 和更低的每 IOP 延迟。

当在条带阵列中配对时,NVMe SSD 可提供高达 7 GB/秒的读取速度和 3 GB/秒的写入速度,以及高达 186,000 IOPS(读取)和 201,000 IOPS(写入)的深度队列深度。

硬件规格

硬件规格 HBv3 系列 VM
核心数 120、96、64、32 或 16(已禁用 SMT)
CPU AMD EPYC 7V73X
CPU 频率(非 AVX) 3.0 GHz(所有内核)、3.5 GHz(多达 10 个内核)
内存 448 GB(每个内核的 RAM 依赖于 VM 大小)
本地磁盘 2 个 960 GB NVMe(块)、480 GB SSD(页面文件)
Infiniband 200 Gb/秒 Mellanox ConnectX-6 HDR InfiniBand
网络 50 Gb/秒以太网(40 Gb/秒可用)Azure 第二代 SmartNIC

硬件规格

硬件规格 HBv3 系列 VM
最大 MPI 作业大小 36,000 个核心(单个虚拟机规模集中有 300 个 VM,且 singlePlacementGroup=true)
MPI 支持 HPC-X、Intel MPI、OpenMPI、MVAPICH2、MPICH
其他框架 UCX、libfabric、PGAS
Azure 存储支持 标准磁盘和高级磁盘(最多 32 个磁盘)
SRIOV RDMA 的操作系统支持 RHEL 7.9+、Ubuntu 18.04+、SLES 15.4、WinServer 2016+
推荐的性能操作系统 Windows Server 2019+
Orchestrator 支持 Azure CycleCloud、Azure Batch、AKS;群集配置选项

注意

在 HBv3 和大于 64(虚拟或物理)核的其他 VM 上,不支持 Windows Server 2012 R2。 有关更多详细信息,请参阅 Windows Server 上 Hyper-V 支持的 Windows 来宾操作系统

重要

本文档引用临近或处于生命周期终止 (EOL) 日期的 Linux 发行版本。 请考虑更新到最新版本。

后续步骤