适用于:Azure CLI ml 扩展 v2 (当前)
Python SDK azure-ai-ml v2 (当前)
本文介绍如何使用批处理终结点将 MLflow 模型部署到 Azure 机器学习,以便进行批量推理。 将 MLflow 模型部署到批处理终结点时,Azure 机器学习将完成以下任务:
- 提供 MLflow 基础映像或策展环境,其中包含运行机器学习批处理作业所需的依赖项。
- 创建包含评分脚本的批处理作业管道,该脚本可用于使用并行化处理数据。
有关支持的输入文件类型以及 MLflow 模型工作原理的详细信息,请参阅 部署到批处理推理的注意事项。
先决条件
Azure 订阅。 如果没有 Azure 订阅,请在开始前创建 试用版 。
Azure 机器学习工作区。 若要创建工作区,请参阅 “管理 Azure 机器学习工作区”。
Azure 机器学习工作区中的以下权限:
- 对于创建或管理批处理终结点和部署:使用已分配有
Microsoft.MachineLearningServices/workspaces/batchEndpoints/*
权限的“所有者”角色、“参与者”角色或自定义角色。 - 对于在工作区资源组中创建 Azure 资源管理器部署:使用在部署了工作区的资源组中已分配有
Microsoft.Resources/deployments/write
权限的“所有者”角色、“参与者”角色或自定义角色。
- 对于创建或管理批处理终结点和部署:使用已分配有
Azure 机器学习 CLI 或适用于 Python 的 Azure 机器学习 SDK:
连接到工作区
工作区是 Azure 机器学习的顶级资源。 它提供了一个集中的位置,用于处理你在使用 Azure 机器学习时创建的所有项目。 在本部分,你将连接到要在其中执行部署任务的工作区。
在以下命令中,输入你的订阅 ID、工作区名称、资源组名称以及位置:
az account set --subscription <subscription>
az configure --defaults workspace=<workspace> group=<resource-group> location=<location>
浏览示例
本文中的示例演示如何将 MLflow 模型部署到批处理终结点以执行批量预测。 MLflow 模型基于 UCI 心脏病数据集。 数据库包含 76 个属性,但本示例仅使用其中的 14 个属性。 该模型尝试根据从 0(有心脏病)到 1(没有心脏病)的整数值来预测患者是否有心脏病。
已使用 XGBBoost
分类器训练该模型。 所有必要的预处理操作都已打包为 scikit-learn
管道,因此该模型可以充当一个端到端的管道来完成从原始数据处理到做出预测的任务。
本文中的示例基于 azureml-examples 存储库中包含的代码示例。 要在本地运行命令而无需复制或粘贴 YAML 和其他文件,请使用以下命令克隆存储库并转到你的编码语言所对应的文件夹:
git clone https://github.com/Azure/azureml-examples --depth 1
cd azureml-examples/cli
本示例的文件位于以下文件夹中:
cd endpoints/batch/deploy-models/heart-classifier-mlflow
在 Jupyter Notebook 中继续操作
可以使用公共 Jupyter Notebook 来学习本示例。 在克隆的存储库中,打开 mlflow-for-batch-tabular.ipynb 笔记本。
部署 MLflow 模型
在本部分,你会将 MLflow 模型部署到批处理终结点,以便可以基于新数据运行批量推理。 在继续部署之前,需要确保你的模型已注册,并且工作区中有一个可用的计算群集。
注册模型
批处理终结点只能部署已注册的模型。 在本文中,你将使用存储库中模型的本地副本。 因此,只需将模型发布到工作区中的注册表即可。
注意
如果部署的模型已注册,可以继续执行 “创建计算群集 ”部分。
运行以下命令注册模型:
MODEL_NAME='heart-classifier-mlflow'
az ml model create --name $MODEL_NAME --type "mlflow_model" --path "model"
创建计算群集
需要确保批处理部署可以在某些可用的基础结构(计算)上运行。 批处理部署可以在工作区中已存在的任何机器学习计算上运行。 多个批处理部署可以共享同一计算基础结构。
在本文中,你将使用名为 cpu-cluster 的机器学习计算群集。 以下示例将验证工作区中是否存在计算,或创建新的计算。
创建计算群集:
az ml compute create -n batch-cluster --type amlcompute --min-instances 0 --max-instances 5
创建批处理终结点
若要创建终结点,需要指定名称和说明。 终结点名称将显示在与终结点关联的 URI 中,因此在 Azure 区域中必须是唯一的。 例如,在 WestUS2 区域中,只能存在一个名为 mybatchendpoint
的批处理终结点。
将终结点名称放在变量中,以便稍后轻松引用:
创建终结点:
若要创建新的终结点,请如以下代码所示创建
YAML
配置:endpoint.yml
$schema: https://azuremlschemas.azureedge.net/latest/batchEndpoint.schema.json name: heart-classifier-batch description: A heart condition classifier for batch inference auth_mode: aad_token
使用以下命令创建终结点:
az ml batch-endpoint create -n $ENDPOINT_NAME -f endpoint.yml
创建批处理部署
当你创建部署时,MLflow 模型不要求你指定环境或评分脚本。 系统将自动为你创建环境或评分脚本。 但是,如果你要自定义部署执行推理的方式,则可以指定环境或评分脚本。
若要在创建的终结点下创建新部署,请如以下代码所示创建
YAML
配置。 可以检查 完整的批处理终结点 YAML 架构 ,了解其他属性。deployment-simple/deployment.yml
$schema: https://azuremlschemas.azureedge.net/latest/modelBatchDeployment.schema.json endpoint_name: heart-classifier-batch name: classifier-xgboost-mlflow description: A heart condition classifier based on XGBoost type: model model: azureml:heart-classifier-mlflow@latest compute: azureml:batch-cluster resources: instance_count: 2 settings: max_concurrency_per_instance: 2 mini_batch_size: 2 output_action: append_row output_file_name: predictions.csv retry_settings: max_retries: 3 timeout: 300 error_threshold: -1 logging_level: info
使用以下命令创建部署:
az ml batch-deployment create --file deployment-simple/deployment.yml --endpoint-name $ENDPOINT_NAME --set-default
重要
根据模型在单个批上运行推理所需的时间,在部署中配置 timeout
值。 批大小越大,timeout
值越长。 请记住,mini_batch_size
值表示批中的文件数,而不是样本数。 使用表格数据时,每个文件可能包含多个行,这将增加批处理终结点处理每个文件所需的时间。 在这种情况下,请使用更大的 timeout
值来避免超时错误。
调用终结点
尽管可以在终结点内部调用特定部署,但通常需要调用终结点本身,并支持终结点决定使用哪个部署。 此类部署称为“默认”部署。 这种方法允许更改默认部署,因而可以更改处理部署的模型,而无需更改与调用终结点的用户之间的协定。
使用以下说明更新默认部署:
DEPLOYMENT_NAME="classifier-xgboost-mlflow"
az ml batch-endpoint update --name $ENDPOINT_NAME --set defaults.deployment_name=$DEPLOYMENT_NAME
该批处理终结点现在可供使用。
测试部署
若要测试终结点,请使用此存储库中可与模型配合使用的未标记数据示例。 批处理终结点只能处理云中可从机器学习工作区访问的数据。 本示例将示例数据上传到机器学习数据存储中。 你将创建可用于调用终结点进行评分的数据资产。 请注意,批处理终结点接受可存放在多种类型的位置的数据。
首先创建数据资产。 该数据资产由包含多个 CSV 文件的文件夹组成,我们希望使用批处理终结点并行处理这些文件。 如果数据已注册为数据资产,或者想要使用不同的输入类型,则可以跳过此步骤。
在 YAML 中创建数据资产定义:
heart-dataset-unlabeled.yml
$schema: https://azuremlschemas.azureedge.net/latest/data.schema.json name: heart-dataset-unlabeled description: An unlabeled dataset for heart classification. type: uri_folder path: data
创建数据资产:
az ml data create -f heart-dataset-unlabeled.yml
上传数据后,调用终结点。
提示
在以下命令中,请注意
invoke
操作中未指定部署名称。 终结点会自动将作业路由到默认部署,因为终结点只有一个部署。 可通过指明自变量/参数deployment_name
将特定部署指定为目标。命令返回后立即启动批处理作业。 在作业完成前可监视作业状态:
分析输出
输出预测在 predictions.csv 文件中生成,如部署配置中所示。 该作业将生成名为 score 的输出,此文件就位于其中。 每个批处理作业仅生成一个文件。
文件的结构如下所示:
会将每个数据点对应的一行发送到模型。 对于表格数据,predictions.csv 文件包含每个已处理文件中每一行对应的一行。 对于其他数据类型(图像、音频、文本),此文件包含每个已处理文件对应的一行。
该文件包含以下列(按指定顺序列出):
row
(可选):输入数据文件中的相应行索引。 仅当输入数据为表格格式时,此列才适用。 预测将按照这些列在输入文件中的显示顺序返回。 可以按照行号来匹配相应的预测。prediction
:与输入数据关联的预测。 此值“按原样”返回,因为它是由模型的predict().
函数提供的。file_name
:从中读取数据的文件的名称。 在表格数据中,可以使用此字段来判断哪个预测属于每项输入数据。
可以使用作业名称下载作业的结果。
如需下载预测,请使用以下命令:
az ml job download --name $JOB_NAME --output-name score --download-path ./
下载文件后,可以使用你偏好的编辑工具将其打开。 以下示例使用 Pandas
数据帧加载预测。
import pandas as pd
score = pd.read_csv(
"named-outputs/score/predictions.csv", names=["row", "prediction", "file"]
)
输出将显示一个表格:
行 | 预测 | 文件 |
---|---|---|
0 | 0 | heart-unlabeled-0.csv |
1 | 1 | heart-unlabeled-0.csv |
2 | 0 | heart-unlabeled-0.csv |
... | ... | ... |
307 | 0 | heart-unlabeled-3.csv |
提示
请注意,在此示例中,输入数据包含 CSV 格式的表格数据。 有四个不同的输入文件:heart-unlabeled-0.csv、heart-unlabeled-1.csv、heart-unlabeled-2.csv 和 heart-unlabeled-3.csv。
查看有关批量推理的注意事项
机器学习支持将 MLflow 模型部署到批处理终结点,而无需指定评分脚本。 使用这种方法可以方便地部署需要处理大量数据(类似于批处理)的模型。 机器学习使用 MLflow 模型规范中的信息来协调推理过程。
浏览工作器上的工作分布
对于结构化和非结构化数据,批处理终结点都在文件级别分发工作。 因此,此功能仅支持 URI 文件和URI 文件夹 。 每个辅助角色一次处理 Mini batch size
个文件。 对于表格数据,在分发工作时,批处理终结点不会考虑每个文件中的行数。
警告
在推理期间无法浏览嵌套的文件夹结构。 如果你使用文件夹对数据进行分区,请务必在继续之前平展结构。
批处理部署将为每个文件调用 MLflow 模型的 predict
函数一次。 对于包含多行的 CSV 文件,此操作可能会给基础计算带来内存压力。 该行为会增加模型为单个文件评分所需的时间,特别是对于大型语言模型等高开销模型。 如果日志中出现多个内存不足异常或超时条目,请考虑将数据拆分为包含较少行的较小文件,或在模型/评分脚本内的行级别实现批处理。
查看支持的文件类型
在未指定环境或评分脚本的情况下部署 MLflow 模型时,批量推理支持以下数据类型。 若要处理不同的文件类型或以不同的方式执行推理,您可以通过使用评分脚本自定义 MLflow 模型部署来创建部署。
文件扩展名 | 作为模型输入返回的类型 | 签名要求 |
---|---|---|
.csv ,.parquet ,.pqt |
pd.DataFrame |
ColSpec 。 如果未提供,则不会强制执行列类型化。 |
.png ,.jpg ,.jpeg ,.tiff ,.bmp ,.gif |
np.ndarray |
TensorSpec 。 输入将重新塑形,以匹配张量形状(如果可用)。 如果没有可用的签名,则推断类型为 np.uint8 的张量。 有关详细信息,请参阅 处理图像的 MLflow 模型的注意事项。 |
警告
在输入数据中包含任何不受支持的文件都会导致作业失败。 在这种情况下,你会看到如下所示的错误:“错误: azureml: 处理输入文件时出错:‘/mnt/batch/tasks/.../a-given-file.avro’。不支持文件类型‘avro’”。
了解 MLflow 模型的签名强制要求
批处理部署作业在使用可用的 MLflow 模型签名读取数据时,会强制要求提供输入的数据类型。 因此,数据输入应该符合模型签名中指定的类型。 如果无法按预期分析数据,则作业将会失败,并出现如下所示的错误:“错误: azureml: 处理输入文件时出错:‘/mnt/batch/tasks/.../a-given-file.csv’。异常: 以 10 为基数的 int() 的文本无效:‘value’。”
提示
MLflow 模型中的签名是可选的,但我们强烈建议使用。 它们为提前检测数据兼容性问题提供了一种便捷的方法。 有关如何使用签名记录模型的详细信息,请参阅 使用自定义签名、环境或示例的日志模型。
可以通过打开与 MLflow 模型关联的 MLmodel
文件来检查模型的模型签名。 有关签名如何在 MLflow 中工作的详细信息,请参阅 MLflow 中的签名。
了解风格支持
批处理部署仅支持使用 pyfunc
风格部署 MLflow 模型。 若要部署其他风格,请参阅 使用评分脚本自定义模型部署。
使用评分脚本自定义模型部署
可以在不指示部署定义中的评分脚本的情况下将 MLflow 模型部署到批处理终结点。 但是,你可以选择指定此文件(通常称为批处理驱动程序)来自定义推理执行。
对于以下方案,你通常会选择此工作流:
- 处理 MLflow 部署的批处理部署不支持的文件类型。
- 自定义模型的运行方式,例如使用特定的风格通过
mlflow.<flavor>.load()
函数加载模型。 - 在评分例程中完成模型本身未完成的预处理或后处理。
- 调整无法使用表格数据很好地呈现的模型(例如表示图像的张量图)的呈现方式。
- 允许模型逐区块读取数据,因为内存限制导致模型无法一次性处理每个文件。
重要
若要为 MLflow 模型部署指定评分脚本,需要指定运行部署的环境。
使用评分脚本
使用以下步骤通过自定义评分脚本部署 MLflow 模型:
标识放置 MLflow 模型的文件夹。
在 Azure 机器学习门户中,浏览到 模型。
选择要部署的模型,然后选择“工件”选项卡。
记下显示的文件夹。 注册模型时指明了此文件夹。
创建评分脚本。 请注意上述文件夹名称
model
在init()
函数中的显示方式。deployment-custom/code/batch_driver.py
# Copyright (c) Microsoft. All rights reserved.
# Licensed under the MIT license.
import os
import glob
import mlflow
import pandas as pd
import logging
def init():
global model
global model_input_types
global model_output_names
# AZUREML_MODEL_DIR is an environment variable created during deployment
# It is the path to the model folder
# Please provide your model's folder name if there's one
model_path = glob.glob(os.environ["AZUREML_MODEL_DIR"] + "/*/")[0]
# Load the model, it's input types and output names
model = mlflow.pyfunc.load(model_path)
if model.metadata and model.metadata.signature:
if model.metadata.signature.inputs:
model_input_types = dict(
zip(
model.metadata.signature.inputs.input_names(),
model.metadata.signature.inputs.pandas_types(),
)
)
if model.metadata.signature.outputs:
if model.metadata.signature.outputs.has_input_names():
model_output_names = model.metadata.signature.outputs.input_names()
elif len(model.metadata.signature.outputs.input_names()) == 1:
model_output_names = ["prediction"]
else:
logging.warning(
"Model doesn't contain a signature. Input data types won't be enforced."
)
def run(mini_batch):
print(f"run method start: {__file__}, run({len(mini_batch)} files)")
data = pd.concat(
map(
lambda fp: pd.read_csv(fp).assign(filename=os.path.basename(fp)), mini_batch
)
)
if model_input_types:
data = data.astype(model_input_types)
# Predict over the input data, minus the column filename which is not part of the model.
pred = model.predict(data.drop("filename", axis=1))
if pred is not pd.DataFrame:
if not model_output_names:
model_output_names = ["pred_col" + str(i) for i in range(pred.shape[1])]
pred = pd.DataFrame(pred, columns=model_output_names)
return pd.concat([data, pred], axis=1)
创建一个可以执行评分脚本的环境。 由于本示例中的模型是 MLflow,因此模型包中还指定了 conda 要求。 有关 MLflow 模型和包含的文件的详细信息,请参阅 MLmodel 格式。
在此步骤中,你将使用文件中的 conda 依赖项来生成环境。 此外,需要包含批处理部署所需的
azureml-core
包。提示
如果你的模型已在模型注册表中注册,则可以下载并复制与该模型关联的
conda.yml
文件。 在 Azure 机器学习工作室 中的 工件 下的 >中可以找到该文件。>。 在根文件夹中选择conda.yml
文件,然后选择“下载”或复制其内容。重要
此示例使用在
/heart-classifier-mlflow/environment/conda.yaml
中指定的 Conda 环境。 此文件是通过合并原始 MLflow conda 依赖项文件并添加azureml-core
包创建的。 不能直接从模型使用conda.yml
文件。配置部署:
若要在创建的终结点下创建新部署,请如以下代码片段所示创建
YAML
配置。 可以检查 完整的批处理终结点 YAML 架构 ,了解其他属性。deployment-custom/deployment.yml
$schema: https://azuremlschemas.azureedge.net/latest/batchDeployment.schema.json endpoint_name: heart-classifier-batch name: classifier-xgboost-custom description: A heart condition classifier based on XGBoost type: model model: azureml:heart-classifier-mlflow@latest environment: name: batch-mlflow-xgboost image: mcr.microsoft.com/azureml/openmpi4.1.0-ubuntu20.04:latest conda_file: environment/conda.yaml code_configuration: code: code scoring_script: batch_driver.py compute: azureml:batch-cluster resources: instance_count: 2 settings: max_concurrency_per_instance: 2 mini_batch_size: 2 output_action: append_row output_file_name: predictions.csv retry_settings: max_retries: 3 timeout: 300 error_threshold: -1 logging_level: info
创建部署:
该批处理终结点现在可供使用。
清理资源
完成本练习后,请删除不再需要的资源。
运行以下代码以删除批处理终结点和所有基础部署:
az ml batch-endpoint delete --name $ENDPOINT_NAME --yes
此命令不会删除批处理评分作业。