Azure 数据工厂和 Azure Synapse Analytics 中的复制活动

适用于: Azure 数据工厂 Azure Synapse Analytics

提示

试用 Microsoft Fabric 中的数据工厂,这是一种适用于企业的一站式分析解决方案。 Microsoft Fabric 涵盖从数据移动到数据科学、实时分析、商业智能和报告的所有内容。 了解如何免费开始新的试用

在 Azure 数据工厂和 Synapse 管道中,可使用复制活动在本地与云数据存储之间复制数据。 复制数据后,可以使用其他活动进一步转换和分析数据。 还可使用复制活动发布有关商业智能 (BI) 和应用程序消耗的转换和分析结果。

The role of the Copy activity

复制活动在集成运行时上执行。 对于不同的数据复制方案,可以使用不同类型的集成运行时:

  • 在可以使用任何 IP 通过 Internet 公开访问的两个数据存储之间复制数据时,可对复制活动使用 Azure 集成运行时。 此集成运行时较为安全可靠、可缩放并全局可用
  • 向/从本地数据存储或位于具有访问控制的网络(如 Azure 虚拟网络)中的数据存储复制数据时,需要安装自承载集成运行时。

集成运行时需要与每个源数据存储和接收器数据存储相关联。 有关复制活动如何确定要使用的集成运行时的信息,请参阅确定要使用哪个 IR

若要将数据从源复制到接收器,运行复制活动的服务将执行以下步骤:

  1. 读取源数据存储中的数据。
  2. 执行序列化/反序列化、压缩/解压缩、列映射等。 此服务基于输入数据集、输出数据集和复制活动的配置执行这些操作。
  3. 将数据写入接收器/目标数据存储。

Copy activity overview

注意

如果在复制活动的源数据存储或接收器数据存储中使用了自承载集成运行时,则必须可从托管集成运行时的服务器同时访问源和接收器,这样复制活动才能成功。

支持的数据存储和格式

类别 数据存储 支持用作源 支持用作接收器 Azure IR 支持 自承载 IR 支持
Azure Azure Blob 存储
  Azure AI 搜索索引
  Azure Cosmos DB for NoSQL
  Azure Cosmos DB for MongoDB
  Azure 数据资源管理器
  Azure Data Lake Storage Gen2
  Azure Database for MariaDB
  Azure Database for MySQL
  Azure Database for PostgreSQL
  Azure Databricks Delta Lake
  Azure 文件
  Azure SQL 数据库
  Azure SQL 托管实例
  Azure Synapse Analytics
  Azure 表存储
Database Amazon RDS for Oracle
  Amazon RDS for SQL Server
  Amazon Redshift
  DB2
  Drill
  Google BigQuery
  Greenplum
  HBase
  Hive
  Apache Impala
  Informix
  MariaDB
  Microsoft Access
  MySQL
  Netezza
  Oracle
  Phoenix
  PostgreSQL
  Presto
  通过 Open Hub 实现的 SAP Business Warehouse
  通过 MDX 实现的 SAP Business Warehouse
  SAP HANA 仅支持使用 ODBC 连接器和 SAP HANA ODBC 驱动程序的接收器
  SAP 表
  Snowflake
  Spark
  SQL Server
  Sybase
  Teradata
  Vertica
NoSQL Cassandra
  Couchbase(预览)
  MongoDB
  MongoDB Atlas
File Amazon S3
  Amazon S3 兼容存储
  文件系统
  FTP
  Google Cloud Storage
  HDFS
  Oracle 云存储
  SFTP
通用协议 泛型 HTTP
  泛型 OData
  泛型 ODBC
  泛型 REST
服务和应用 Amazon Marketplace Web Service
  Concur(预览)
  Dataverse
  Dynamics 365
  Dynamics AX
  Dynamics CRM
  Google AdWords
  HubSpot
  Jira
  Magento(预览)
  Marketo(预览)
  Microsoft 365
  Oracle Eloqua(预览)
  Oracle Responsys(预览)
  Oracle 服务云(预览)
  PayPal(预览)
  QuickBooks(预览)
  Salesforce
  Salesforce 服务云
  Salesforce Marketing Cloud
  SAP Cloud for Customer (C4C)
  SAP ECC
  ServiceNow
SharePoint Online 列表
  Shopify(预览)
  Square(预览)
  Web 表(HTML 表)
  Xero
  Zoho(预览)

注意

如果连接器标记为“预览”,可以试用它并给我们反馈。 若要在解决方案中使用预览版连接器的依赖项,请联系 Azure 支持

支持的文件格式

Azure 数据工厂支持以下文件格式。 请参阅每一篇介绍基于格式的设置的文章。

可以使用复制活动在两个基于文件的数据存储之间按原样复制文件,在这种情况下,无需任何序列化或反序列化即可高效复制数据。 此外,还可以分析或生成给定格式的文件。例如,可以执行以下操作:

  • 从 SQL Server 数据库复制数据,并将数据以 Parquet 格式写入 Azure Data Lake Storage Gen2。
  • 从本地文件系统中复制文本 (CSV) 格式文件,并将其以 Avro 格式写入 Azure Blob 存储。
  • 从本地文件系统复制压缩文件,动态解压缩,然后将提取的文件写入 Azure Data Lake Storage Gen2。
  • 从 Azure Blob 存储复制 Gzip 压缩文本 (CSV) 格式的数据,并将其写入 Azure SQL 数据库。
  • 需要序列化/反序列化或压缩/解压缩的其他许多活动。

支持的区域

支持复制活动的服务已在 Azure Integration Runtime 位置中所列的区域和地理位置全球发布。 全局可用拓扑可确保高效的数据移动,此类移动通常避免跨区域跃点。 请参阅产品(按区域)查看特定区域中数据工厂、Synapse 工作区和数据移动的可用性。

配置

若要使用管道执行复制活动,可以使用以下工具或 SDK 之一:

通常,若要使用 Azure 数据工厂或 Synapse 管道中的复制活动,需要执行以下操作:

  1. 创建用于源数据存储和接收器数据存储的链接服务。 在本文的支持的数据存储和格式部分可以找到支持的连接器列表。 有关配置信息和支持的属性,请参阅连接器文章的“链接服务属性”部分。
  2. 为源和接收器创建数据集。 有关配置信息和支持的属性,请参阅源和接收器连接器文章的“数据集属性”部分。
  3. 创建包含复制活动的管道。 接下来的部分将提供示例。

语法

以下复制活动模板包含受支持属性的完整列表。 指定适合你的方案的属性。

"activities":[
    {
        "name": "CopyActivityTemplate",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<source dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<sink dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                <properties>
            },
            "sink": {
                "type": "<sink type>"
                <properties>
            },
            "translator":
            {
                "type": "TabularTranslator",
                "columnMappings": "<column mapping>"
            },
            "dataIntegrationUnits": <number>,
            "parallelCopies": <number>,
            "enableStaging": true/false,
            "stagingSettings": {
                <properties>
            },
            "enableSkipIncompatibleRow": true/false,
            "redirectIncompatibleRowSettings": {
                <properties>
            }
        }
    }
]

语法详细信息

属性 说明 必需?
type 对于复制活动,请设置为 Copy
inputs 指定创建的指向源数据的数据集。 复制活动仅支持单个输入。
outputs 指定创建的指向接收器数据的数据集。 复制活动仅支持单个输出。
typeProperties 指定用于配置复制活动的属性。
source 指定复制源类型以及用于检索数据的相应属性。
有关详细信息,请参阅受支持的数据存储和格式中所列的连接器文章中的“复制活动属性”部分。
接收器 指定复制接收器类型以及用于写入数据的相应属性。
有关详细信息,请参阅受支持的数据存储和格式中所列的连接器文章中的“复制活动属性”部分。
转换器 指定从源到接收器的显式列映射。 当默认复制行为无法满足需求时,此属性适用。
有关详细信息,请参阅复制活动中的架构映射
dataIntegrationUnits 指定一个度量值,用于表示 Azure Integration Runtime 在复制数据时的算力。 这些单位以前称为云数据移动单位 (DMU)。
有关详细信息,请参阅数据集成单位
parallelCopies 指定从源读取数据和向接收器写入数据时想要复制活动使用的并行度。
有关详细信息,请参阅并行复制
保护区 指定在数据复制期间是否保留元数据/ACL。
有关详细信息,请参阅保留元数据
enableStaging
stagingSettings
指定是否将临时数据分阶段存储在 Blob 存储中,而不是将数据直接从源复制到接收器。
有关有用的方案和配置详细信息,请参阅分阶段复制
enableSkipIncompatibleRow
redirectIncompatibleRowSettings
选择将数据从源复制到接收器时如何处理不兼容的行。
有关详细信息,请参阅容错

监视

可以编程方式直观地监视在 Azure 数据工厂和 Synapse 管道中运行的复制活动。 有关详细信息,请参阅监视复制活动

增量复制

通过数据工厂和 Synapse 管道,可以递增方式将增量数据从源数据存储复制到接收器数据存储。 有关详细信息,请参阅教程:以增量方式复制数据

性能和优化

复制活动监视体验向你显示每个活动运行的复制性能统计信息。 复制活动性能和可伸缩性指南介绍通过复制活动影响数据移动性能的关键因素。 其中还列出了在测试期间观测到的性能值,并介绍了如何优化复制活动的性能。

从上次失败的运行恢复

在基于文件的存储之间以二进制格式按原样复制大量文件,并选择将文件夹/文件层次结构从源保存到接收器(例如,将数据从 Amazon S3 迁移到 Azure Data Lake Storage Gen2)时,复制活动支持从上次失败的运行中恢复。 这适用于以下基于文件的连接器:Amazon S3Amazon S3 兼容存储Azure BlobAzure Data Lake Storage Gen2Azure 文件存储文件系统FTPGoogle 云存储HDFSOracle 云存储SFTP

可以通过下述两种方式利用复制活动恢复功能:

  • 活动级别重试: 可以设置复制活动的重试计数。 在管道执行过程中,如果此复制活动运行失败,则下一次自动重试将从上一次试用的故障点开始。

  • 从失败的活动重新运行: 管道执行完成后,还可以通过 ADF UI 监视视图或编程方式触发从失败的活动重新运行的操作。 如果失败的活动是复制活动,则该管道将不仅从此活动重新运行,而且也会从上一个运行的故障点恢复。

    Copy resume

要注意的几点:

  • 恢复发生在文件级别。 如果复制活动在复制文件时失败,则在下一次运行时,会重新复制此特定文件。
  • 若要正常使用恢复功能,请不要在两次重新运行之间更改复制活动设置。
  • 从 Amazon S3、Azure Blob、Azure Data Lake Storage Gen2 和 Google Cloud Storage 复制数据时,复制活动可以从任意数量的已复制文件恢复。 虽然就其他作为源的基于文件的连接器来说,目前复制活动只支持从有限数量的文件中恢复(通常是在数万个文件的范围内,因文件路径的长度而异),但超出此数量的文件将在重新运行期间重新复制。

对于二进制文件复制以外的其他情况,将从头开始重新运行复制活动。

保留元数据和数据

在将数据从源复制到接收器时,在进行 Data Lake 迁移这样的情况下,还可以选择使用复制活动来保存元数据和 ACL 以及数据。 有关详细信息,请参阅保留元数据

将元数据标记添加到基于文件的接收器

当接收器基于 Azure 存储(Azure 数据湖存储或 Azure Blob 存储)时,我们可以选择向文件添加一些元数据。 这些元数据将作为键值对显示为文件属性的一部分。 对于所有类型的基于文件的接收器,可以使用管道参数、系统变量、函数和变量添加涉及动态内容的元数据。 除此之外,对于基于二进制文件的接收器,还可以选择使用关键字 $$LASTMODIFIED 添加(源文件的)“上次修改”日期/时间,以及将自定义值作为元数据添加到接收器文件中。

架构和数据类型映射

有关复制活动如何将源数据映射到接收器的信息,请参阅架构和数据类型映射

在复制过程中添加其他列

除了将数据从源数据存储复制到接收器外,还可以进行配置,以便添加要一起复制到接收器的其他数据列。 例如:

  • 从基于文件的源复制时,将相对文件路径存储为一个附加列,用以跟踪数据来自哪个文件。
  • 将指定的源列复制为另一列。
  • 添加包含 ADF 表达式的列,以附加 ADF 系统变量(例如管道名称/管道 ID),或存储来自上游活动输出的其他动态值。
  • 添加一个包含静态值的列以满足下游消耗需求。

可以在“复制活动源”选项卡上找到以下配置。也可以照常使用定义的列名在复制活动架构映射中映射这些附加列。

Add additional columns in copy activity

提示

此功能适用于最新的数据集模型。 如果在 UI 中未看到此选项,请尝试创建一个新数据集。

若要以编程方式对其进行配置,请在复制活动源中添加 additionalColumns 属性:

属性 描述 必需
additionalColumns 添加要复制到接收器的其他数据列。

additionalColumns 数组下的每个对象都表示一个额外的列。 name 定义列名称,value 表示该列的数据值。

允许的数据值为:
- $$FILEPATH - 一个保留变量,指示将源文件的相对路径存储在数据集中指定的文件夹路径。 应用于基于文件的源。
- $$COLUMN:<source_column_name> - 保留变量模式指示将指定的源列复制为另一个列
- Expression
- 静态值

示例:

"activities":[
    {
        "name": "CopyWithAdditionalColumns",
        "type": "Copy",
        "inputs": [...],
        "outputs": [...],
        "typeProperties": {
            "source": {
                "type": "<source type>",
                "additionalColumns": [
                    {
                        "name": "filePath",
                        "value": "$$FILEPATH"
                    },
                    {
                        "name": "newColName",
                        "value": "$$COLUMN:SourceColumnA"
                    },
                    {
                        "name": "pipelineName",
                        "value": {
                            "value": "@pipeline().Pipeline",
                            "type": "Expression"
                        }
                    },
                    {
                        "name": "staticValue",
                        "value": "sampleValue"
                    }
                ],
                ...
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

提示

配置其他列后,请记得在“映射”选项卡中将其映射到你的目标接收器。

自动创建接收器表

将数据复制到 SQL 数据库/Azure Synapse Analytics 时,如果目标表不存在,则复制活动支持基于源数据自动创建该表。 它旨在帮助快速开始加载数据并评估 SQL 数据库/Azure Synapse Analytics。 进行数据引入之后,可以根据需要查看和调整接收器表架构。

将数据从任何源复制到以下接收器数据存储时,支持此功能。 可以在“ADF 创作 UI”–“复制活动接收器”–“表选项”–“自动创建表”上,或通过复制活动接收器有效负载中的 属性找到该选项。

Create sink tables

容错

默认情况下,如果源数据行与接收器数据行不兼容,复制活动将停止复制数据,并返回失败结果。 要使复制成功,可将复制活动配置为跳过并记录不兼容的行,仅复制兼容的数据。 有关详细信息,请参阅复制活动容错

数据一致性验证

当你将数据从源存储移动到目标存储时,复制活动提供一个选项来供你执行额外的数据一致性验证,以确保数据不仅成功地从源存储复制到目标存储,而且验证了源存储和目标存储之间的一致性。 在数据移动过程中发现不一致的文件后,可以中止复制活动,或者通过启用容错设置跳过不一致的文件来继续复制其余文件。 通过在复制活动中启用会话日志设置,可以获取跳过的文件名称。 有关详细信息,请参阅复制活动中的数据一致性验证

会话日志

你可以记录复制的文件名,这样就可以通过检查复制活动会话日志来进一步确保数据不仅成功地从源存储复制到目标存储,而且在源存储和目标存储之间一致。 有关详细信息,请参阅复制活动中的会话日志

请参阅以下快速入门、教程和示例: