计算目标是指定的计算资源或环境,用来运行训练脚本或托管服务部署。 此位置可以是你的本地计算机,也可以是基于云的计算资源。 如果使用计算目标,以后无需更改代码即可轻松更改计算环境。
Azure 机器学习支持不同的计算目标。 在典型的模型开发生命周期中,你可以:
- 首先,基于少量数据进行开发和试验。 在此阶段,请使用本地环境(如本地计算机或基于云的虚拟机 (VM))作为计算目标。
- 通过使用其中一种训练计算目标,纵向扩展到更多的数据或进行分布式训练。
- 模型准备就绪后,将其部署到具有这些部署计算目标之一的 Web 托管环境。
将用于计算目标的计算资源附加到 工作区。 工作区的用户共享本地计算机以外的计算资源。
训练计算目标
纵向扩展大型数据集的训练或执行 分布式训练时,请使用 Azure 机器学习计算创建每次提交作业时自动缩放的单节点或多节点群集。 你也可以附加自己的计算资源,不过,为不同方案提供的支持可能会有所不同。
可以将计算目标从一个训练作业重用到下一个训练作业。 例如,将远程 VM 附加到你的工作区后,可以将其重复用于多个作业。
对于机器学习管道,请对每个计算目标使用适当的管道步骤。
可为大多数作业的训练计算目标使用下述任一资源。 但并非所有资源都可用于自动化机器学习、机器学习管道或设计器。 Azure Databricks 可以用作本地运行和机器学习管道的培训资源,但不能用作其他培训的远程目标。
| 训练目标 | 自动化机器学习 | 机器学习管道 | Azure 机器学习设计器 |
|---|---|---|---|
| Azure 机器学习计算群集 | 是 | 是 | 是 |
| Azure 机器学习无服务器计算 | 是 | 是 | 是 |
| Azure 机器学习计算实例 | 是(通过 SDK) | 是 | 是 |
| Azure 机器学习 Kubernetes | 是 | 是 | |
| 远程 VM | 是 | 是 | |
| Apache Spark 池(预览版) | 是(仅限 SDK 本地模式) | 是 | |
| Azure Databricks | 是(仅限 SDK 本地模式) | 是 | |
| Azure Data Lake Analytics | 是 | ||
| Azure HDInsight | 是 | ||
| Azure Batch | 是 |
| 训练目标 | 自动化机器学习 | 机器学习管道 | Azure 机器学习设计器 |
|---|---|---|---|
| 本地计算机 | 是 | ||
| Azure 机器学习计算群集 | 是 | 是 | 是 |
| Azure 机器学习计算实例 | 是(通过 SDK) | 是 | 是 |
| Azure 机器学习 Kubernetes | 是 | 是 | |
| 远程 VM | 是 | 是 | |
| Apache Spark 池(预览版) | 是(仅限 SDK 本地模式) | 是 | |
| Azure Data Lake Analytics | 是 | ||
| Azure HDInsight | 是 | ||
| Azure Batch | 是 |
推理的计算目标
执行推理时,Azure 机器学习会创建一个 Docker 容器,用于托管模型和使用模型所需的关联资源。 在计算目标中使用此容器。
用于托管模型的计算目标会影响已部署的终结点的成本和可用性。 使用此表选择合适的计算目标。
| 计算目标 | 用途 | GPU 支持 | 说明 |
|---|---|---|---|
| Azure 机器学习终结点 | 实时推理 批量推理 |
是 | 用于无服务器计算上的实时(托管联机终结点)和批量评分(批处理终结点)的完全托管计算。 |
| Azure 机器学习 Kubernetes | 实时推理 批量推理 |
是 | 在本地、云和边缘 Kubernetes 群集上运行推理工作负载。 |
| 计算目标 | 用途 | GPU 支持 | 说明 |
|---|---|---|---|
| 本地 Web 服务 | 测试/调试 | 用于有限的测试和故障排除。 硬件加速依赖于本地系统中库的使用情况。 | |
| Azure 机器学习 Kubernetes | 实时推理 | 是 | 在云中运行推理工作负载。 |
| Azure 容器实例 | 实时推理 建议仅用于开发/测试目的。 |
用于需要小于 48 GB RAM 的基于 CPU 的小规模工作负载。 不需要你管理群集。 只适合小于 1 GB 的模型。 在设计器中受支持。 |
注意
选择群集 SKU 时,请先纵向扩展,然后横向扩展。从具有模型所需的 150% RAM 的计算机开始,分析结果,并找到具有所需性能的计算机。 了解这一点后,增加计算机数量以满足并发推理的需求。
Azure 机器学习计算(托管)
Azure 机器学习可以创建和管理托管计算资源。 此类型的计算针对机器学习工作负载进行了优化。 Azure 机器学习计算群集、无服务器计算和计算实例是仅有的托管计算。
无需创建无服务器计算。 可以通过以下方法创建 Azure 机器学习计算实例或计算群集:
- Azure 机器学习工作室
- Python SDK 和 Azure CLI:
- Azure 资源管理器模板。 有关示例模板,请参阅创建 Azure 机器学习计算群集。
注意
不必创建计算群集,使用无服务器计算将计算生命周期管理工作交给 Azure 机器学习。
创建这些计算资源时,它们会自动成为工作区的一部分,与其他类型的计算目标不同。
| 功能 | 计算群集 | 计算实例 |
|---|---|---|
| 单节点或多节点群集 | ✓ | 单节点群集 |
| 每次提交作业时自动缩放 | ✓ | |
| 自动化群集管理和作业计划 | ✓ | ✓ |
| 为 CPU 和 GPU 资源提供支持 | ✓ | ✓ |
注意
若要避免在计算空闲时产生费用,请执行以下操作:
支持的 VM 系列和大小
重要
如果你的计算实例或计算群集基于上述任何系列,请使用另一个 VM 大小重新创建。
以下系列已于 2024 年 8 月 31 日停用:
这些系列于 2025 年 9 月 30 日停用:
在 Azure 机器学习中选择托管计算资源的节点大小规格时,可以选择 Azure 中所提供的 VM 大小。 Azure 针对不同工作负载为 Linux 和 Windows 提供了一系列大小。 有关详细信息,请参阅 VM 类型和大小。
选择 VM 大小时有几个例外和限制:
- Azure 机器学习不支持某些 VM 系列。
- 某些 VM 系列(例如 GPU 和其他特殊 SKU)可能最初不会显示在可用 VM 的列表中。 但是,在请求配额更改后,你仍可使用它们。 若要详细了解如何请求配额,请参阅请求增加配额和限制。
请查看下表,详细了解支持的系列。
| 支持的 VM 系列 | 类别 | 支持的服务 |
|---|---|---|
| DDSv4 | 常规用途 | 计算群集和实例 |
| Dv2 | 常规用途 | 计算群集和实例 |
| Dv3 | 常规用途 | 计算群集和实例 |
| DSv2 | 常规用途 | 计算群集和实例 |
| DSv3 | 常规用途 | 计算群集和实例 |
| Ev3 | 内存优化 | 计算群集和实例 |
| ESv3 | 内存优化 | 计算群集和实例 |
| FSv2 | 计算优化 | 计算群集和实例 |
| M | 内存优化 | 计算群集和实例 |
| NCv3 | GPU | 计算群集和实例 |
虽然 Azure 机器学习支持这些 VM 系列,但它们可能并非在所有 Azure 区域中均可用。 若要检查 VM 系列是否可用,请参阅可用产品(按区域)。
注意
Azure 机器学习不支持 Azure 计算支持的所有 VM 大小。 若要列出特定计算 VM 类型支持的可用 VM 大小,请使用以下方法之一:
如果使用支持 GPU 的计算目标,请务必确保在训练环境中安装正确的 CUDA 驱动程序。 根据下表来确定要使用的正确的 CUDA 版本:
| GPU 体系结构 | Azure VM 系列 | 支持的 CUDA 版本 |
|---|---|---|
| Volta | NCv3 | 9.0+ |
除了确保 CUDA 版本和硬件兼容以外,还请确保 CUDA 版本与你正在使用的机器学习框架的版本兼容:
- 对于 PyTorch,请访问 PyTorch 以前的版本页来检查兼容性。
- 对于 TensorFlow,请访问 TensorFlow 的源代码构建页面来检查兼容性。
计算隔离
Azure 机器学习计算提供已隔离到特定硬件类型并专用于单个客户的 VM 大小。 独立 VM 大小最适合为满足合规性和监管要求等原因而需要与其他客户的工作负载高度隔离的工作负载。 使用独立规格时,您的VM是在特定服务器实例上运行的唯一VM。
当前的独立 VM 产品/服务包括:
- Standard_M128ms
- Standard_F72s_v2
- Standard_NC24s_v3
- Standard_NC24rs_v3(支持 RDMA)
有关隔离的详细信息,请参阅 Azure 公有云中的隔离。
非托管计算
Azure 机器学习不管理“非托管”计算目标。 请在 Azure 机器学习外部创建此类型的计算目标,然后将其附加到工作区。 可能需要采取额外的步骤来维护非托管计算资源或提高机器学习工作负载的性能。
Azure 机器学习支持以下非托管计算类型:
- 远程虚拟机
- Azure HDInsight
- Azure Databricks
- Azure Data Lake Analytics
有关详细信息,请参阅管理计算资源。