Compartir a través de

从 Azure 数据工厂运行批处理终结点

适用于:Azure CLI ml 扩展 v2(当前版本)Python SDK azure-ai-ml v2(当前版本)

大数据需要可以启用协调和操作过程以将这些巨大的原始数据存储优化为可操作的业务见解的服务。 Azure 数据工厂托管云服务可以处理这些复杂的混合提取-转换-加载 (ETL)、提取-加载-转换 (ELT) 和数据集成项目。

Azure 数据工厂允许创建管道来协调多个数据转换并将其作为单个单元进行管理。 批处理终结点是成为此类处理工作流中的一个步骤的极好候选项。

本文介绍如何凭借 Web 调用活动和 REST API 在 Azure 数据工厂活动中使用批处理终结点。

提示

在 Fabric 中使用数据管道时,可以使用 Azure 机器学习活动直接调用批处理终结点。 建议尽可能地使用 Fabric 进行数据编排,以利用最新功能。 Azure 数据工厂中的 Azure 机器学习活动只能处理 Azure 机器学习 V1 中的资产。

先决条件

对批处理终结点进行身份验证

Azure 数据工厂可以使用 Web 调用活动来调用批处理终结点的 REST API。 批处理终结点支持 Microsoft Entra ID 进行授权,因此对 API 发出的请求需要适当的身份验证处理。 有关详细信息,请参阅 Azure 数据工厂和 Azure Synapse Analytics 中的 Web 活动

可以使用服务主体或托管标识对批处理终结点进行身份验证。 建议使用托管标识,因为它简化了机密的使用。

可以使用 Azure 数据工厂托管标识来与批处理终结点通信。 在这种情况下,只需确保已使用托管标识部署 Azure 数据工厂资源。

  1. 如果你没有 Azure 数据工厂资源,或者已经在没有托管标识的情况下部署了一个数据工厂资源,请按照以下过程创建托管标识:系统分配的托管标识

    注意

    部署 Azure 数据工厂后,无法更改其中的资源标识。 如果在创建某个资源后需要更改其标识,则需要重新创建该资源。

  2. 部署后,为创建的资源的托管标识授予对 Azure 机器学习工作区的访问权限。 参阅授予访问权限。 在此示例中,服务主体需要:

    • 工作区中读取批处理部署并对其执行操作的权限。
    • 在数据存储中读取/写入的权限。
    • 读取指定为数据输入的任何云位置(存储帐户)的权限。

关于管道

在此示例中,你将在 Azure 数据工厂中创建一个管道,该管道可以针对某些数据调用给定的批处理终结点。 该管道将使用 REST 来与 Azure 机器学习批处理终结点通信。 有关如何使用批处理终结点的 REST API 的详细信息,请阅读为批处理终结点创建作业和输入数据

该管道如下所示:

显示你正在创建的管道的概要结构的示意图。

该管道包含以下活动:

  • 运行批处理终结点:一个 Web 活动,使用批处理终结点 URI 来调用该终结点。 它将传递数据所在的输入数据 URI 和预期输出文件。

  • 等待作业:这是一个循环活动,用于检查已创建作业的状态并等待其完成,完成后将显示为“已完成”或“失败”。 此活动会轮流使用以下活动:

    • 检查状态:一个 Web 活动,用于查询作为“运行批处理终结点”活动的响应返回的作业资源的状态。
    • 等待:一个等待活动,用于控制作业状态的轮询频率。 我们将默认值设置为 120(2 分钟)。

该管道要求配置以下参数:

参数 说明 示例值
endpoint_uri 终结点评分 URI https://<endpoint_name>.<region>.inference.studio.ml.azure.cn/jobs
poll_interval 在检查作业状态是否为完成之前等待的秒数。 默认为 120 120
endpoint_input_uri 终结点的输入数据。 支持多个数据输入类型。 确保用于执行作业的托管标识有权访问基础位置。 或者,如果使用数据存储,请确保其中指示了凭据。 azureml://datastores/.../paths/.../data/
endpoint_input_type 要提供的输入数据的类型。 目前,批处理终结点支持文件夹 (UriFolder) 和文件 (UriFile)。 默认为 UriFolder UriFolder
endpoint_output_uri 终结点的输出数据文件。 它必须是附加到机器学习工作区的数据存储中的输出文件的路径。 不支持其他类型的 URI。 可以使用名为 workspaceblobstore 的默认 Azure 机器学习数据存储。 azureml://datastores/workspaceblobstore/paths/batch/predictions.csv

警告

请记住,endpoint_output_uri 应是尚不存在的文件的路径。 否则,作业将失败,并显示“路径已存在”错误。

创建管道

若要在现有 Azure 数据工厂中创建此管道并调用批处理终结点,请执行以下步骤:

  1. 确保运行批处理终结点的计算有权装载由 Azure 数据工厂作为输入提供的数据。 调用终结点的实体仍会授予访问权限。

    在本例中,该实体是 Azure 数据工厂。 但是,运行批处理终结点的计算需要有权装载 Azure 数据工厂提供的存储帐户。 有关详细信息,请参阅访问存储服务

  2. 打开 Azure 数据工厂工作室。 选择铅笔图标打开“创作”窗格,然后在“工厂资源”下选择加号图标

  3. 选择“管道”>“从管道模板导入”

  4. 选择一个 .zip 文件

  5. 门户中会显示管道预览。 选择“使用此模板” 。

    创建的管道名为“Run-BatchEndpoint”

  6. 配置批处理部署的参数:


警告

在向批处理终结点提交作业之前,请确保为其配置了默认部署。 创建的管道将调用终结点。 需要创建并配置默认部署。

提示

为了获得最佳可重用性,请使用创建的管道作为模板,并使用执行管道活动从其他 Azure 数据工厂管道内部调用它。 在这种情况下,请不要在内部管道中配置参数,而要将它们作为参数从外部管道传递,如下图所示:

从另一个管道调用时生成管道的预期管道参数的屏幕截图。

该管道现在可供使用。

限制

使用 Azure 机器学习批处理部署时,请考虑以下限制:

数据输入

  • 仅支持 Azure 机器学习数据存储或 Azure 存储帐户(Azure Blob 存储、Azure Data Lake Storage Gen2)作为输入。 如果输入数据位于另一个源中,请在执行批处理作业之前使用 Azure 数据工厂复制活动将数据接收到兼容存储中。
  • 批处理终结点作业无法浏览嵌套的文件夹。 它们不适用于嵌套的文件夹结构。 如果你的数据分布在多个文件夹中,则必须平展结构。
  • 确保部署中提供的评分脚本能够处理预期会馈送到作业中的数据。 如果模型为 MLflow,请参阅在批处理部署中部署 MLflow 模型了解支持的文件类型的限制。

数据输出

  • 仅支持已注册的 Azure 机器学习数据存储。 建议注册由 Azure 数据工厂在 Azure 机器学习中用作数据存储的存储帐户。 这样,就可以写回到你正在读取的同一存储帐户。
  • 输出只支持 Azure Blob 存储帐户。 例如,批处理部署作业不支持 Azure Data Lake Storage Gen2 作为输出。 如果需要将数据输出到其他位置或接收器,请在运行批处理作业后使用 Azure 数据工厂复制活动。