使用 Azure 数据工厂在 Azure Synapse Analytics 中复制和转换数据

适用于: Azure 数据工厂

本文概述了如何使用 Azure 数据工厂中的复制活动从/向 Azure Synapse Analytics 复制数据,以及如何使用数据流转换 Azure Data Lake Storage Gen2 中的数据。 若要了解 Azure 数据工厂,请阅读介绍性文章

支持的功能

以下活动支持此 Azure Synapse Analytics 连接器:

对于复制活动,此 Azure Synapse Analytics 连接器支持以下功能:

  • 将 SQL 身份验证和 Azure Active Directory (Azure AD) 应用程序令牌身份验证与服务主体或 Azure 资源的托管标识配合使用来复制数据。
  • 作为源,使用 SQL 查询或存储过程检索数据。 还可选择从 Azure Synapse Analytics 源进行并行复制。有关详细信息,请参阅从 Azure Synapse Analytics 进行并行复制部分。
  • 作为接收器,使用 COPY 语句PolyBase 或者批量插入加载数据。 我们建议使用 COPY 语句或 PolyBase 以获得更好的复制性能。 连接器还支持使用 DISTRIBUTION = ROUND_ROBIN 基于源架构自动创建目标表(如果不存在)。

重要

如果使用 Azure Integration Runtime 复制数据,请配置服务器级防火墙规则,确保 Azure 服务可以访问逻辑 SQL 服务器。 如果使用自承载集成运行时复制数据,请将防火墙配置为允许合适的 IP 范围。 此范围包括用于连接 Azure Synapse Analytics 的计算机的 IP。

入门

提示

若要实现最佳性能,请使用 PolyBase 或 COPY 语句将数据载入 Azure Synapse Analytics。 使用 PolyBase 将数据加载到 Azure Synapse Analytics使用 COPY 语句将数据加载到 Azure Synapse Analytics 部分包含详细信息。 有关带有用例的演练,请参阅在不到 15 分钟的时间里通过 Azure 数据工厂将 1 TB 的数据载入 Azure Synapse Analytics

若要使用管道执行复制活动,可以使用以下工具或 SDK 之一:

使用 UI 创建 Azure Synapse Analytics 链接服务

使用以下步骤在 Azure 门户 UI 中创建 Azure Synapse Analytics 链接服务。

  1. 浏览到 Azure 数据工厂中的“管理”选项卡并选择“链接服务”,然后单击“新建”:

    屏幕截图,显示如何使用 Azure 数据工厂 UI 创建新的链接服务。

  2. 搜索 Synapse 并选择 Azure Synapse Analytics 连接器。

    Azure Synapse Analytics 连接器的屏幕截图。

  3. 配置服务详细信息,测试连接,然后创建新的链接服务。

    Azure Synapse Analytics 链接服务的配置屏幕截图。

连接器配置详细信息

对于特定于 Azure Synapse Analytics 连接器的数据工厂实体,以下部分提供了有关用于定义这些实体的属性的详细信息。

链接服务属性

Azure Synapse Analytics 链接服务支持以下属性:

属性 说明 必需
type type 属性必须设置为 AzureSqlDW
connectionString connectionString 属性指定连接到 Azure Synapse Analytics 实例所需的信息。
将此字段标记为 SecureString 以安全存储它。 还可以将密码/服务主体密钥放在 Azure 密钥保管库中,如果是 SQL 身份验证,则从连接字符串中拉取 password 配置。 有关更多详细信息,请参阅表下方的 JSON 示例和将凭据存储在 Azure 密钥保管库中一文。
servicePrincipalId 指定应用程序的客户端 ID。 是,将 Azure AD 身份验证与服务主体配合使用时是必需的。
servicePrincipalKey 指定应用程序的密钥。 将此字段标记为 SecureString 以安全地存储它,或引用存储在 Azure Key Vault 中的机密 是,将 Azure AD 身份验证与服务主体配合使用时是必需的。
tenant 指定应用程序的租户信息(域名或租户 ID)。 可将鼠标悬停在 Azure 门户右上角进行检索。 是,将 Azure AD 身份验证与服务主体配合使用时是必需的。
azureCloudType 对于服务主体身份验证,请指定 Azure AD 应用程序注册到的 Azure 云环境的类型。
允许的值为“AzureChina”。 默认情况下,使用数据工厂的云环境。
connectVia 用于连接到数据存储的集成运行时。 可使用 Azure 集成运行时或自承载集成运行时(如果数据存储位于专用网络)。 如果未指定,则使用默认 Azure Integration Runtime。

有关各种身份验证类型,请参阅关于先决条件和 JSON 示例的以下各部分:

提示

如果遇到错误(错误代码为“UserErrorFailedToConnectToSqlServer”,且消息如“数据库的会话限制为 XXX 且已达到。”),请将 Pooling=false 添加到连接字符串中,然后重试。

SQL 身份验证

使用 SQL 身份验证的链接服务示例

{
    "name": "AzureSqlDWLinkedService",
    "properties": {
        "type": "AzureSqlDW",
        "typeProperties": {
            "connectionString": "Server=tcp:<servername>.database.chinacloudapi.cn,1433;Database=<databasename>;User ID=<username>@<servername>;Password=<password>;Trusted_Connection=False;Encrypt=True;Connection Timeout=30"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Azure 密钥保管库中的密码:

{
    "name": "AzureSqlDWLinkedService",
    "properties": {
        "type": "AzureSqlDW",
        "typeProperties": {
            "connectionString": "Server=tcp:<servername>.database.chinacloudapi.cn,1433;Database=<databasename>;User ID=<username>@<servername>;Trusted_Connection=False;Encrypt=True;Connection Timeout=30",
            "password": {
                "type": "AzureKeyVaultSecret",
                "store": {
                    "referenceName": "<Azure Key Vault linked service name>",
                    "type": "LinkedServiceReference"
                },
                "secretName": "<secretName>"
            }
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

服务主体身份验证

若要使用基于服务主体的 Azure AD 应用程序令牌身份验证,请执行以下步骤:

  1. 从 Azure 门户 创建 Azure Active Directory 应用程序 。 记下应用程序名称,以及以下定义链接服务的值:

    • 应用程序 ID
    • 应用程序密钥
    • 租户 ID
  2. 为 Azure 门户中的服务器预配 Azure Active Directory 管理员(如果尚未这样做)。 Azure AD 管理员可以是 Azure AD 用户或 Azure AD 组。 如果授予包含托管标识的组管理员角色,则可跳过步骤 3 和步骤 4。 管理员将拥有对数据库的完全访问权限。

  3. 为服务主体 创建包含的数据库用户 。 使用 SSMS 等工具连接到要从中复制数据或要将数据复制到其中的数据仓库,其 Azure AD 标识至少具有 ALTER ANY USER 权限。 运行以下 T-SQL:

    CREATE USER [your_application_name] FROM EXTERNAL PROVIDER;
    
  4. 像通常对 SQL 用户或其他用户所做的那样 向服务主体授予所需的权限。 运行以下代码,或者参考此处的更多选项。 如果要使用 PolyBase 加载数据,请了解所需的数据库权限

    EXEC sp_addrolemember db_owner, [your application name];
    
  5. 在 Azure 数据工厂中配置 Azure Synapse Analytics 链接服务。

使用服务主体身份验证的链接服务示例

{
    "name": "AzureSqlDWLinkedService",
    "properties": {
        "type": "AzureSqlDW",
        "typeProperties": {
            "connectionString": "Server=tcp:<servername>.database.chinacloudapi.cn,1433;Database=<databasename>;Connection Timeout=30",
            "servicePrincipalId": "<service principal id>",
            "servicePrincipalKey": {
                "type": "SecureString",
                "value": "<service principal key>"
            },
            "tenant": "<tenant info, e.g. microsoft.partner.onmschina.cn>"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Azure 资源的托管标识身份验证

可将数据工厂与代表资源的 Azure 资源托管标识相关联。 可将此托管标识用于 Azure Synapse Analytics 身份验证。 指定资源可使用此标识从/向数据仓库访问和复制数据。

若要使用托管标识身份验证,请执行以下步骤:

  1. 为 Azure 门户上的服务器预配 Azure Active Directory 管理员(如果尚未这样做)。 Azure AD 管理员可以是 Azure AD 用户或 Azure AD 组。 如果授予包含托管标识的组管理员角色,则可跳过步骤 3 和步骤 4。 管理员将拥有对数据库的完全访问权限。

  2. 为托管标识创建包含的数据库用户。 使用 SSMS 等工具连接到要从中复制数据或要将数据复制到其中的数据仓库,其 Azure AD 标识至少具有 ALTER ANY USER 权限。 运行以下 T-SQL。

    CREATE USER [your_resource_name] FROM EXTERNAL PROVIDER;
    
  3. 授予托管标识所需的权限,就像通常为 SQL 用户和其他用户所做的那样。 运行以下代码,或者参考此处的更多选项。 如果要使用 PolyBase 加载数据,请了解所需的数据库权限

    EXEC sp_addrolemember db_owner, [your_resource_name];
    
  4. 配置 Azure Synapse Analytics 链接服务

示例:

{
    "name": "AzureSqlDWLinkedService",
    "properties": {
        "type": "AzureSqlDW",
        "typeProperties": {
            "connectionString": "Server=tcp:<servername>.database.chinacloudapi.cn,1433;Database=<databasename>;Connection Timeout=30"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

数据集属性

有关可用于定义数据集的各部分和属性的完整列表,请参阅数据集一文。

Azure Synapse Analytics 数据集支持以下属性:

属性 说明 必需
type 数据集的 type 属性必须设置为 AzureSqlDWTable
schema 架构的名称。 对于源为“No”,对于接收器为“Yes”
表/视图的名称。 对于源为“No”,对于接收器为“Yes”
tableName 具有架构的表/视图的名称。 此属性支持后向兼容性。 对于新的工作负荷,请使用 schematable 对于源为“No”,对于接收器为“Yes”

数据集属性示例

{
    "name": "AzureSQLDWDataset",
    "properties":
    {
        "type": "AzureSqlDWTable",
        "linkedServiceName": {
            "referenceName": "<Azure Synapse Analytics linked service name>",
            "type": "LinkedServiceReference"
        },
        "schema": [ < physical schema, optional, retrievable during authoring > ],
        "typeProperties": {
            "schema": "<schema_name>",
            "table": "<table_name>"
        }
    }
}

复制活动属性

有关可用于定义活动的各部分和属性的完整列表,请参阅管道一文。 本部分提供 Azure Synapse Analytics 源和接收器支持的属性列表。

Azure Synapse Analytics 用作源

提示

若要使用数据分区从 Azure Synapse Analytics 高效加载数据,请参阅从 Azure Synapse Analytics 进行并行复制以了解详细信息。

若要从 Azure Synapse Analytics 复制数据,请将复制活动源中的 type 属性设置为 SqlDWSource。 复制活动 source 节支持以下属性:

属性 说明 必需
type 复制活动源的 type 属性必须设置为 SqlDWSource
sqlReaderQuery 使用自定义 SQL 查询读取数据。 示例:select * from MyTable
sqlReaderStoredProcedureName 从源表读取数据的存储过程的名称。 最后一个 SQL 语句必须是存储过程中的 SELECT 语句。
storedProcedureParameters 存储过程的参数。
允许的值为名称或值对。 参数的名称和大小写必须与存储过程参数的名称和大小写匹配。
isolationLevel 指定 SQL 源的事务锁定行为。 允许的值为:ReadCommitted、ReadUncommitted、RepeatableRead、Serializable、Snapshot 。 如果未指定,则使用数据库的默认隔离级别。 有关详细信息,请参阅 system.data.isolationlevel
partitionOptions 指定用于从 Azure Synapse Analytics 加载数据的数据分区选项。
允许值包括:None(默认值)、PhysicalPartitionsOfTable 和 DynamicRange 。
启用分区选项(且选项不是 None)时,用于从 Azure Synapse Analytics 并行加载数据的并行度由复制活动上的 parallelCopies 设置控制。
partitionSettings 指定数据分区的设置组。
当分区选项不是 None 时适用。
partitionSettings 下:
partitionColumnName 以整数类型、日期类型或日期/时间类型(intsmallintbigintdatesmalldatetimedatetimedatetime2datetimeoffset)指定源列的名称,范围分区将使用它进行并行复制。 如果未指定,系统会自动检测表的索引或主键并将其用作分区列。
当分区选项是 DynamicRange 时适用。 如果使用查询来检索源数据,请在 WHERE 子句中挂接 ?AdfDynamicRangePartitionCondition 。 有关示例,请参阅从 SQL 数据库进行并行复制部分。
partitionUpperBound 分区范围拆分的分区列的最大值。 此值用于决定分区步幅,不用于筛选表中的行。 将对表或查询结果中的所有行进行分区和复制。 如果未指定,复制活动会自动检测该值。
当分区选项是 DynamicRange 时适用。 有关示例,请参阅从 SQL 数据库进行并行复制部分。
partitionLowerBound 分区范围拆分的分区列的最小值。 此值用于决定分区步幅,不用于筛选表中的行。 将对表或查询结果中的所有行进行分区和复制。 如果未指定,复制活动会自动检测该值。
当分区选项是 DynamicRange 时适用。 有关示例,请参阅从 SQL 数据库进行并行复制部分。

请注意以下几点:

  • 在源中使用存储过程检索数据时,请注意,如果存储过程旨在当传入不同的参数值时返回不同的架构,则从 UI 导入架构时,或通过自动创建表的功能将数据复制到 SQL 数据库时,可能会遇到故障或出现意外的结果。

示例:使用 SQL 查询

"activities":[
    {
        "name": "CopyFromAzureSQLDW",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<Azure Synapse Analytics input dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<output dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "SqlDWSource",
                "sqlReaderQuery": "SELECT * FROM MyTable"
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

示例:使用存储过程

"activities":[
    {
        "name": "CopyFromAzureSQLDW",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<Azure Synapse Analytics input dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<output dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "SqlDWSource",
                "sqlReaderStoredProcedureName": "CopyTestSrcStoredProcedureWithParameters",
                "storedProcedureParameters": {
                    "stringData": { "value": "str3" },
                    "identifier": { "value": "$$Text.Format('{0:yyyy}', <datetime parameter>)", "type": "Int"}
                }
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

示例存储过程:

CREATE PROCEDURE CopyTestSrcStoredProcedureWithParameters
(
    @stringData varchar(20),
    @identifier int
)
AS
SET NOCOUNT ON;
BEGIN
    select *
    from dbo.UnitTestSrcTable
    where dbo.UnitTestSrcTable.stringData != stringData
    and dbo.UnitTestSrcTable.identifier != identifier
END
GO

Azure Synapse Analytics 用作接收器

Azure 数据工厂支持通过三种方式将数据加载到 Azure Synapse Analytics。

加载数据最快且最具扩展性的方法是通过 COPY 语句PolyBase

要将数据复制到 Azure Synapse Analytics,请将复制活动中的接收器类型设置为 SqlDWSink。 复制活动 sink 节支持以下属性:

属性 说明 必需
type 复制活动接收器的 type 属性必须设置为 SqlDWSink
allowPolyBase 指示是否使用 PolyBase 将数据加载到 Azure Synapse Analytics。 allowCopyCommandallowPolyBase 不能同时为 true。

有关约束和详细信息,请参阅使用 PolyBase 将数据加载到 Azure Synapse Analytics 部分。

允许的值为 TrueFalse(默认值)。
不是。
使用 PolyBase 时适用。
polyBaseSettings allowPolybase 属性设置为 true 时可以指定的一组属性。 不是。
使用 PolyBase 时适用。
allowCopyCommand 指示是否使用 COPY 语句将数据加载到 Azure Synapse Analytics。 allowCopyCommandallowPolyBase 不能同时为 true。

有关约束和详细信息,请参阅使用 COPY 语句将数据加载到 Azure Synapse Analytics 部分。

允许的值为 TrueFalse(默认值)。
不是。
使用 COPY 时适用。
copyCommandSettings allowCopyCommand 属性设置为 TRUE 时可以指定的一组属性。 不是。
使用 COPY 时适用。
writeBatchSize 每批 要插入到 SQL 表中的行数。

允许的值为 integer(行数)。 默认情况下,该服务根据行大小动态确定适当的批大小。
否。
使用批量插入时适用。
writeBatchTimeout 超时前等待批量插入操作完成的时间。

允许的值为 timespan。 示例:"00:30:00"(30 分钟)。
不是。
使用批量插入时适用。
preCopyScript 指定在每次运行中将数据写入到 Azure Synapse Analytics 之前要由复制活动运行的 SQL 查询。 使用此属性清理预加载的数据。
tableOption 指定是否根据源架构自动创建接收器表(如果不存在)。 允许的值为:none(默认值)、autoCreate
disableMetricsCollection 该服务收集指标(如 Azure Synapse Analytics DWU),用于进行复制性能优化和提供建议,从而引入了额外的主数据库访问权限。 如果你担心此行为,请指定 true 将其关闭。 否(默认值为 false
maxConcurrentConnections 活动运行期间与数据存储建立的并发连接的上限。 仅在要限制并发连接时指定一个值。

Azure Synapse Analytics 接收器示例

"sink": {
    "type": "SqlDWSink",
    "allowPolyBase": true,
    "polyBaseSettings":
    {
        "rejectType": "percentage",
        "rejectValue": 10.0,
        "rejectSampleValue": 100,
        "useTypeDefault": true
    }
}

从 Azure Synapse Analytics 进行并行复制

复制活动中的 Azure Synapse Analytics 连接器提供内置的数据分区,用于并行复制数据。 可以在复制活动的“源”表中找到数据分区选项。

分区选项的屏幕截图

启用分区复制时,复制活动将对 Azure Synapse Analytics 源运行并行查询,以按分区加载数据。 可通过复制活动中的 parallelCopies 设置控制并行度。 例如,如果将 parallelCopies 设置为 4,则该服务会根据指定的分区选项和设置并行生成并运行 4 个查询,每个查询从 Azure Synapse Analytics 检索一部分数据。

建议同时启用并行复制和数据分区,尤其是从 Azure Synapse Analytics 加载大量数据时。 下面是适用于不同方案的建议配置。 将数据复制到基于文件的数据存储中时,建议将数据作为多个文件写入文件夹(仅指定文件夹名称),在这种情况下,性能优于写入单个文件。

方案 建议的设置
从包含物理分区的大型表进行完整加载。 分区选项:表的物理分区。

在执行期间,该服务将自动检测物理分区并按分区复制数据。

若要检查表是否有物理分区,可参考此查询
从不包含物理分区但包含用于数据分区的整数或日期时间列的大型表进行完整加载。 分区选项:动态范围分区。
分区列(可选):指定用于对数据进行分区的列。 如果未指定,将使用索引或主键列。
分区上限和分区下限(可选) :指定是否要确定分区步幅。 这不适用于筛选表中的行,表中的所有行都将进行分区和复制。 如果未指定,复制活动会自动检测这些值。

例如,如果分区列“ID”的值范围为 1 至 100,其下限设置为 20、上限设置为 80,并行复制设置为 4,则该服务会按 4 个分区检索数据,ID 范围分别为 <=20、[21, 50]、[51, 80] 和 >=81。
使用自定义查询从不包含物理分区但包含用于数据分区的整数或日期/日期时间列的表加载大量数据。 分区选项:动态范围分区。
查询SELECT * FROM <TableName> WHERE ?AdfDynamicRangePartitionCondition AND <your_additional_where_clause>
分区列:指定用于对数据进行分区的列。
分区上限和分区下限(可选) :指定是否要确定分区步幅。 这不适用于筛选表中的行,查询结果中的所有行都将进行分区和复制。 如果未指定,复制活动会自动检测该值。

在执行期间,该服务会将 ?AdfRangePartitionColumnName 替换为每个分区的实际列名称和值范围,并发送到 Azure Synapse Analytics。
例如,如果分区列“ID”的值范围为 1 至 100,其下限设置为 20、上限设置为 80,并行复制设置为 4,则该服务会按 4 个分区检索数据,ID 范围分别为 <=20、[21, 50]、[51, 80] 和 >=81。

下面是针对不同场景的更多示例查询:
1.查询整个表:
SELECT * FROM <TableName> WHERE ?AdfDynamicRangePartitionCondition
2.使用列选择和附加的 where 子句筛选器从表中查询:
SELECT <column_list> FROM <TableName> WHERE ?AdfDynamicRangePartitionCondition AND <your_additional_where_clause>
3.使用子查询进行查询:
SELECT <column_list> FROM (<your_sub_query>) AS T WHERE ?AdfDynamicRangePartitionCondition AND <your_additional_where_clause>
4.在子查询中使用分区查询:
SELECT <column_list> FROM (SELECT <your_sub_query_column_list> FROM <TableName> WHERE ?AdfDynamicRangePartitionCondition) AS T

使用分区选项加载数据的最佳做法:

  1. 选择独特的列作为分区列(如主键或唯一键),以避免数据倾斜。
  2. 如果表具有内置分区,请使用名为“表的物理分区”分区选项来提升性能。
  3. 如果使用 Azure Integration Runtime 复制数据,则可设置较大的“数据集成单元 (DIU)”(>4) 以利用更多计算资源。 检查此处适用的方案。
  4. 复制并行度”可控制分区数量,将此数字设置得太大有时会损害性能,建议将此数字设置按以下公式计算的值:(DIU 或自承载 IR 节点数)*(2 到 4)。
  5. 请注意:Azure Synapse Analytics 一次最多可执行 32 个查询,将“复制并行度”设置得太大可能会导致 Synapse 限制问题。

示例:从包含物理分区的大型表进行完整加载

"source": {
    "type": "SqlDWSource",
    "partitionOption": "PhysicalPartitionsOfTable"
}

示例:使用动态范围分区进行查询

"source": {
    "type": "SqlDWSource",
    "query": "SELECT * FROM <TableName> WHERE ?AdfDynamicRangePartitionCondition AND <your_additional_where_clause>",
    "partitionOption": "DynamicRange",
    "partitionSettings": {
        "partitionColumnName": "<partition_column_name>",
        "partitionUpperBound": "<upper_value_of_partition_column (optional) to decide the partition stride, not as data filter>",
        "partitionLowerBound": "<lower_value_of_partition_column (optional) to decide the partition stride, not as data filter>"
    }
}

检查物理分区的示例查询

SELECT DISTINCT s.name AS SchemaName, t.name AS TableName, c.name AS ColumnName, CASE WHEN c.name IS NULL THEN 'no' ELSE 'yes' END AS HasPartition
FROM sys.tables AS t
LEFT JOIN sys.objects AS o ON t.object_id = o.object_id
LEFT JOIN sys.schemas AS s ON o.schema_id = s.schema_id
LEFT JOIN sys.indexes AS i ON t.object_id = i.object_id
LEFT JOIN sys.index_columns AS ic ON ic.partition_ordinal > 0 AND ic.index_id = i.index_id AND ic.object_id = t.object_id
LEFT JOIN sys.columns AS c ON c.object_id = ic.object_id AND c.column_id = ic.column_id
LEFT JOIN sys.types AS y ON c.system_type_id = y.system_type_id
WHERE s.name='[your schema]' AND t.name = '[your table name]'

如果表具有物理分区,则会看到“HasPartition”为“是”。

使用 COPY 语句将数据加载到 Azure Synapse Analytics

使用 COPY 语句是一种简单且灵活的方法,以高吞吐量将数据加载到 Azure Synapse Analytics。 若要了解更多详细信息,请查看使用 COPY 语句大容量加载数据

  • 如果源数据位于 Azure Blob 或 Azure Data Lake Storage Gen2 中,并且格式与 COPY 语句兼容,则可以使用复制活动直接调用 COPY 语句,使 Azure Synapse Analytics 从源中拉取数据 。 有关详细信息,请参阅 使用 COPY 语句直接复制
  • 如果 COPY 语句最初不支持源数据存储和格式,请改用 使用 COPY 语句暂存复制 功能。 暂存复制功能也能提供更高的吞吐量。 它自动将数据转换为与 COPY 语句兼容的格式,将数据存储在 Azure Blob 存储中,然后调用 COPY 语句将数据加载到 Azure Synapse Analytics。

提示

在 Azure Integration Runtime 中使用 COPY 语句时,有效的数据集成单元 (DIU) 数始终为 2。 优化 DIU 不会影响性能,因为从存储加载数据的功能由 Azure Synapse 引擎提供支持。

使用 COPY 语句直接复制

Azure Synapse Analytics COPY 语句直接支持 Azure Blob 和 Azure Data Lake Storage Gen2。 如果你的源数据满足本部分中所述的条件,请使用 COPY 语句从源数据存储直接复制到 Azure Synapse Analytics。 否则,请使用使用 COPY 语句的暂存复制。 该服务会检查设置,如果不满足条件,复制活动运行将会失败。

  1. 源链接服务和格式 使用以下类型和身份验证方法:

    支持的源数据存储类型 支持的格式 支持的源身份验证类型
    Azure Blob 带分隔符的文本 帐户密钥身份验证、共享访问签名身份验证、服务主体身份验证、托管标识身份验证
      Parquet 帐户密钥身份验证、共享访问签名身份验证
      ORC 帐户密钥身份验证、共享访问签名身份验证
    Azure Data Lake Storage Gen2 带分隔符的文本
    Parquet
    ORC
    帐户密钥身份验证、服务主体身份验证、托管标识身份验证

    重要

  2. 格式设置如下:

    1. 对于“Parquet”:compression 可以为“无压缩”、“Snappy”或 GZip
    2. 对于“ORC”:compression 可以是“无压缩”、“zlib”或“Snappy”。
    3. 对于带分隔符的文本:
      1. rowDelimiter 显式设置为 单字符 或“\r\n”,不支持默认值。
      2. nullValue 保留默认值或设置为 空字符串 ("")。
      3. encodingName 保留默认值或设置为 utf-8 或 utf-16
      4. escapeChar 必须与 quoteChar 相同,且不能为空。
      5. skipLineCount 保留默认值或设置为 0。
      6. compression 可以为“无压缩”或 GZip
  3. 如果源是文件夹,则必须将复制活动中的 recursive 设置为 true,并且 wildcardFilename 需要为 **.*

  4. wildcardFolderPathwildcardFilename**.* 除外)、modifiedDateTimeStartmodifiedDateTimeEndprefixenablePartitionDiscoveryadditionalColumns 均未指定。

复制活动中的 allowCopyCommand 下支持以下 COPY 语句设置:

属性 说明 必需
defaultValues 为 Azure Synapse Analytics 中的每个目标列指定默认值。 属性中的默认值将覆盖数据仓库中设置的 DEFAULT 约束,标识列不能有默认值。
additionalOptions 将直接在 COPY 语句的“With”子句中传递给 Azure Synapse Analytics COPY 语句的其他选项。 根据需要将值括在引号中,以符合 COPY 语句要求。
"activities":[
    {
        "name": "CopyFromAzureBlobToSQLDataWarehouseViaCOPY",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "ParquetDataset",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "AzureSQLDWDataset",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "ParquetSource",
                "storeSettings":{
                    "type": "AzureBlobStorageReadSettings",
                    "recursive": true
                }
            },
            "sink": {
                "type": "SqlDWSink",
                "allowCopyCommand": true,
                "copyCommandSettings": {
                    "defaultValues": [
                        {
                            "columnName": "col_string",
                            "defaultValue": "DefaultStringValue"
                        }
                    ],
                    "additionalOptions": {
                        "MAXERRORS": "10000",
                        "DATEFORMAT": "'ymd'"
                    }
                }
            },
            "enableSkipIncompatibleRow": true
        }
    }
]

使用 COPY 语句的暂存复制

如果源数据不与 COPY 语句本机兼容,请通过临时暂存 Azure Blob 或 Azure Data Lake Storage Gen2(不能为 Azure 高级存储)来启用数据复制。 在这种情况下,该服务会自动转换数据,以满足 COPY 语句的数据格式要求。 然后,它会调用 COPY 语句,将数据加载到 Azure Synapse Analytics。 最后,它会从存储中清理临时数据。 若要详细了解如何通过暂存方式复制数据,请参阅暂存复制

若要使用此功能,请创建 Azure Blob 存储链接服务Azure Data Lake Storage Gen2 链接服务,使用帐户密钥或系统托管标识身份验证,Azure 存储帐户用作临时存储。

重要

重要

如果你的暂存 Azure 存储配置了托管专用终结点并启用了存储防火墙,则必须使用托管标识身份验证并向 Synapse SQL Server 授予存储 Blob 数据读取器权限,以确保它可以在 COPY 语句加载期间访问暂存文件。

"activities":[
    {
        "name": "CopyFromSQLServerToSQLDataWarehouseViaCOPYstatement",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "SQLServerDataset",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "AzureSQLDWDataset",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "SqlSource",
            },
            "sink": {
                "type": "SqlDWSink",
                "allowCopyCommand": true
            },
            "stagingSettings": {
                "linkedServiceName": {
                    "referenceName": "MyStagingStorage",
                    "type": "LinkedServiceReference"
                }
            }
        }
    }
]

使用 PolyBase 将数据加载到 Azure Synapse Analytics

使用 PolyBase 是以高吞吐量将大量数据载入 Azure Synapse Analytics 的有效方法。 使用 PolyBase 而非默认 BULKINSERT 机制可以实现吞吐量的巨大增加。

  • 如果源数据位于 Azure Blob、Azure Data Lake Storage Gen2 中,且格式与 PolyBase 兼容,则可使用复制活动直接调用 PolyBase,让 Azure Synapse Analytics 从源拉取数据 。 有关详细信息,请参阅 使用 PolyBase 直接复制
  • 如果 PolyBase 最初不支持源数据存储和格式,请改用 使用 PolyBase 的暂存复制 功能。 暂存复制功能也能提供更高的吞吐量。 它自动将数据转换为与 PolyBase 兼容的格式,将数据存储在 Azure Blob 存储中,然后调用 PolyBase 将数据加载到 Azure Synapse Analytics。

提示

详细了解有关如何使用 PolyBase 的最佳做法。 将 PolyBase 与 Azure Integration Runtime 一起使用时,Synapse 的直接或分段存储的有效数据集成单元 (DIU) 数始终为 2。 优化 DIU 不会影响性能,因为从存储加载数据的功能由 Synapse 引擎提供支持。

在复制活动中的 polyBaseSettings 下支持以下 PolyBase 设置:

属性 说明 必需
rejectValue 指定在查询失败之前可以拒绝的行数或百分比。

有关 PolyBase 的拒绝选项的详细信息,请参阅 CREATE EXTERNAL TABLE (Transact-SQL) 的“参数”部分。

允许的值为 0(默认值)、1、2 等。
rejectType 指定 rejectValue 选项是文本值还是百分比。

允许的值为 Value(默认值)和 Percentage
rejectSampleValue 确定在 PolyBase 重新计算被拒绝行的百分比之前要检索的行数。

允许的值为 1、2 等。
如果 rejectTypepercentage,则为“是”
useTypeDefault 指定在 PolyBase 从文本文件中检索数据时如何处理带分隔符的文本文件中的缺失值。

有关此属性的详细信息,请参阅创建外部文件格式 (Transact SQL) 中的参数部分。

允许的值为 TrueFalse(默认值)。

使用 PolyBase 直接复制

Azure Synapse Analytics PolyBase 直接支持 Azure Blob 和 Azure Data Lake Storage Gen2。 如果源数据满足本部分所述的条件,请使用 PolyBase 从源数据存储直接复制到 Azure Synapse Analytics。 否则,请改用使用 PolyBase 的暂存复制

如果不满足要求,服务会检查设置,并自动回退到 BULKINSERT 机制以进行数据移动。

  1. 源链接的服务 使用以下类型和身份验证方法:

    支持的源数据存储类型 支持的源身份验证类型
    Azure Blob 帐户密钥身份验证、托管标识身份验证
    Azure Data Lake Storage Gen2 帐户密钥身份验证、托管标识身份验证

    重要

  2. 源数据格式为 Parquet、ORC 或带分隔符的文本,具有以下配置 :

    1. 文件夹路径不包含通配符筛选器。
    2. 文件名为空或指向单个文件。 如果在复制活动中指定通配符文件名,该通配符只能是 **.*
    3. rowDelimiterdefault\n\r\n\r
    4. nullValue 保留为默认值或设置为“空字符串”(“”),并将 treatEmptyAsNull 保留为默认值或设置为 true。
    5. encodingName 保留为默认值或设置为 utf-8
    6. quoteCharescapeCharskipLineCount 未指定。 PolyBase 支持跳过标头行,可将其配置为 firstRowAsHeader
    7. compression 可以为“无压缩”、 GZip 或“Deflate”。
  3. 如果源是文件夹,则必须将复制活动中的 recursive 设置为 true。

  4. 未指定 wildcardFolderPathwildcardFilenamemodifiedDateTimeStartmodifiedDateTimeEndprefixenablePartitionDiscoveryadditionalColumns

备注

如果源是一个文件夹,请注意,PolyBase 将从该文件夹及其所有子文件夹中检索文件,并且它不会从文件名以下划线 (_) 或句点 (.) 开头的文件中检索数据,如此处 - LOCATION 参数所述。

"activities":[
    {
        "name": "CopyFromAzureBlobToSQLDataWarehouseViaPolyBase",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "ParquetDataset",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "AzureSQLDWDataset",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "ParquetSource",
                "storeSettings":{
                    "type": "AzureBlobStorageReadSettings",
                    "recursive": true
                }
            },
            "sink": {
                "type": "SqlDWSink",
                "allowPolyBase": true
            }
        }
    }
]

使用 PolyBase 的暂存复制

如果源数据不与 PolyBase 本机兼容,请通过临时暂存 Azure Blob 或 Azure Data Lake Storage Gen2(不能为 Azure 高级存储)来启用数据复制。 在这种情况下,该服务会自动转换数据,以满足 PolyBase 的数据格式要求。 然后,它调用 PolyBase 将数据加载到 Azure Synapse Analytics。 最后,它会从存储中清理临时数据。 若要详细了解如何通过暂存方式复制数据,请参阅暂存复制

若要使用此功能,请创建 Azure Blob 存储链接服务Azure Data Lake Storage Gen2 链接服务,这两个服务使用帐户密钥或托管标识身份验证来引用 Azure 存储帐户作为临时存储。

重要

重要

如果你的暂存 Azure 存储配置了托管专用终结点并启用了存储防火墙,则必须使用托管标识身份验证并向 Synapse SQL Server 授予存储 Blob 数据读取器权限,以确保它可以在 PolyBase 加载期间访问暂存文件。

"activities":[
    {
        "name": "CopyFromSQLServerToSQLDataWarehouseViaPolyBase",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "SQLServerDataset",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "AzureSQLDWDataset",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "SqlSource",
            },
            "sink": {
                "type": "SqlDWSink",
                "allowPolyBase": true
            },
            "enableStaging": true,
            "stagingSettings": {
                "linkedServiceName": {
                    "referenceName": "MyStagingStorage",
                    "type": "LinkedServiceReference"
                }
            }
        }
    }
]

有关使用 PolyBase 的最佳做法

除了 Azure Synapse Analytics 的最佳做法中提到的做法以外,以下部分还提供了其他最佳做法。

所需数据库权限

若要使用 PolyBase,将数据加载到 Azure Synapse Analytics 的用户必须对目标数据库拥有“CONTROL”权限。 一种实现方法是将该用户添加为 db_owner 角色的成员。 在 Azure Synapse Analytics 概述中了解如何执行此操作。

行大小和数据类型限制

PolyBase 负载限制为小于 1 MB 的行。 不能用它加载到 VARCHR(MAX)、NVARCHAR 或 VARBINARY(MAX)。 有关详细信息,请参阅 Azure Synapse Analytics 服务容量限制

如果数据源中的行大于 1 MB,可能需要将源表垂直拆分为多个小型表。 确保每行的最大大小不超过该限制。 然后,可以使用 PolyBase 加载这些小型表,并在 Azure Synapse Analytics 中将它们合并在一起。

或者,对于具有此类较大列的数据,可以通过关闭“允许 PolyBase”设置,来使用非 PolyBase 加载数据。

Azure Synapse Analytics 资源类

若要实现最佳吞吐量,请将更大的资源类分配给通过 PolyBase 将数据加载到 Azure Synapse Analytics 的用户。

排查 PolyBase 问题

加载到“小数”列

如果源数据为文本格式,或者位于其他与 PolyBase 不兼容的存储(使用暂存复制和 PolyBase)中,并且包含需加载到 Azure Synapse Analytics“小数”列中的空值,则可能出现以下错误:

ErrorCode=FailedDbOperation, ......HadoopSqlException: Error converting data type VARCHAR to DECIMAL.....Detailed Message=Empty string can't be converted to DECIMAL.....

解决方法是在复制活动接收器 -> PolyBase 设置中取消选择“使用类型默认”选项(设为 false)。 “USE_TYPE_DEFAULT”是一项 PolyBase 本地设置,它指定 PolyBase 从文本文件中检索数据时,如何处理带分隔符的文本文件中的缺失值。

查看 Azure Synapse Analytics 中的 tableName 属性

下表举例说明如何在 JSON 数据集中指定 tableName 属性。 其中显示了架构和表名称的多个组合。

DB 架构 表名称 tableName JSON 属性
dbo MyTable MyTable 或 dbo.MyTable 或 [dbo].[MyTable]
dbo1 MyTable dbo1.MyTable 或 [dbo1].[MyTable]
dbo My.Table [My.Table] 或 [dbo].[My.Table]
dbo1 My.Table [dbo1].[My.Table]

如果看到以下错误,问题可能与为 tableName 属性指定的值有关。 有关为 tableName JSON 属性指定值的正确方法,请参阅上表。

Type=System.Data.SqlClient.SqlException,Message=Invalid object name 'stg.Account_test'.,Source=.Net SqlClient Data Provider

具有默认值的列

目前,PolyBase 功能只接受与目标表中数量相同的列。 例如,某个表包含四列,其中一列定义了默认值。 输入数据仍需包含四列。 包含三列的输入数据集生成类似于以下消息的错误:

All columns of the table must be specified in the INSERT BULK statement.

NULL 值是特殊形式的默认值。 如果列可为 null,则该列的 Blob 中的输入数据可能为空。 但输入数据集中不能缺少该数据。 PolyBase 在 Azure Synapse Analytics 中插入 NULL 来表示缺少的值。

外部文件访问失败

如果收到以下错误,请确保你使用的是托管标识身份验证,并已向 Azure Synapse 工作区的托管标识授予存储 Blob 数据读取者权限。

Job failed due to reason: at Sink '[SinkName]': shaded.msdataflow.com.microsoft.sqlserver.jdbc.SQLServerException: External file access failed due to internal error: 'Error occurred while accessing HDFS: Java exception raised on call to HdfsBridge_IsDirExist. Java exception message:\r\nHdfsBridge::isDirExist 

映射数据流属性

在映射数据流中转换数据时,可以从 Azure Synapse Analytics 读取表和写入到表中。 有关详细信息,请参阅映射数据流中的源转换接收器转换

源转换

特定于 Azure Synapse Analytics 的设置可在源转换的“源选项”选项卡中找到。

输入 选择将源指向某个表(等效于 Select * from <table-name>),还是输入自定义 SQL 查询。

启用暂存 强烈建议你在 Azure Synapse Analytics 源的生产工作负载中使用此选项。 使用管道中的 Azure Synapse Analytics 源执行数据流活动时,系统会提示输入暂存位置存储帐户,并将使用该帐户进行暂存数据加载。 它是从 Azure Synapse Analytics 加载数据的最快机制。

查询:如果在“输入”字段中选择“查询”,请为源输入 SQL 查询。 此设置会替代在数据集中选择的任何表。 此处不支持 Order By 子句,但你可以设置完整的 SELECT FROM 语句。 还可以使用用户定义的表函数。 select * from udfGetData() 是 SQL 中可返回表的 UDF。 此查询将生成可以在数据流中使用的源表。 使用查询也是减少进行测试或查找的行的好方法。

SQL 示例:Select * from MyTable where customerId > 1000 and customerId < 2000

批大小:输入批大小,以将大型数据分成多个读取操作。 在数据流中,会使用此设置来设置 Spark 分栏式缓存。 这是选项字段,如果留空,它将使用 Spark 默认值。

隔离级别: 映射数据流中 SQL 源的默认设置为“读取未提交的内容”。 你可以将此处的隔离级别更改为以下值之一:

  • 读取已提交的内容
  • 读取未提交的内容
  • 可重复的读取
  • 可序列化
  • 无(忽略隔离级别)

隔离级别

接收器转换

特定于 Azure Synapse Analytics 的设置可在接收器转换的“设置”选项卡中找到。

更新方法: 确定数据库目标上允许哪些操作。 默认设置为仅允许插入。 若要更新、更新插入或删除行,需要进行 alter-row 转换才能标记这些操作的行。 对于更新、更新插入和删除操作,必须设置一个或多个键列,以确定要更改的行。

表操作: 确定在写入之前是否从目标表重新创建或删除所有行。

  • 无:不会对表进行任何操作。
  • 重新创建:将删除表并重新创建表。 如果以动态方式创建表,则是必需的。
  • 截断:将删除目标表中的所有行。

启用暂存: 这样,就可以使用 copy 命令加载到 Azure Synapse Analytics SQL 池。建议对大多数 Synpase 接收器使用此功能。 暂存存储是在执行数据流活动中配置的。

批大小:控制每个 Bucket 中写入的行数。 较大的批大小可提高压缩比并改进内存优化,但在缓存数据时可能会导致内存不足异常。

预处理和后处理 SQL 脚本:输入将在数据写入接收器数据库之前(预处理)和之后(后处理)执行的多行 SQL 脚本

预处理和后处理 SQL 脚本

行处理时出错

写入到 Azure Synapse Analytics 时,某些数据行可能会由于目标设置的约束而出错。 一些常见错误包括:

  • 字符串或二进制数据在表中会被截断
  • 无法在列中插入 NULL 值
  • 在将值转换成数据类型时失败

默认情况下,遇到第一个错误时,数据流运行会失败。 你可以选择“出错时继续”,确保即使各行存在错误,也可以完成数据流。 该服务提供了不同的选项来处理这些错误行。

事务提交:选择是在单个事务中写入数据,还是分批写入数据。 单个事务将提供更好的性能,且事务完成之前,其他人将看不到任何写入的数据。 批处理事务的性能较差,但适用于大型数据集。

输出已拒绝的数据:如果已启用,则可将错误行输出到 Azure Blob 存储或所选 Azure Data Lake Storage Gen2 帐户中的 csv 文件。 这会写入包含三个附加列的错误行:SQL 操作(例如插入或更新)、数据流错误代码,以及有关行的错误消息。

出错时报告成功:如果已启用,则即使发现了错误行,也会将数据流标记为成功。

显示行处理出错的屏幕截图

查找活动属性

若要了解有关属性的详细信息,请查看 Lookup 活动

GetMetadata 活动属性

若要了解有关属性的详细信息,请查看 GetMetadata 活动

Azure Synapse Analytics 的数据类型映射

从/向 Azure Synapse Analytics 复制数据时,以下映射用于从 Azure Synapse Analytics 数据类型映射到 Azure 数据工厂临时数据类型。 若要了解复制活动如何将源架构和数据类型映射到接收器,请参阅架构和数据类型映射

提示

请参阅 Azure Synapse Analytics 中的表数据类型一文,了解 Azure Synapse Analytics 支持的数据类型以及针对不支持的数据类型的解决方法。

Azure Synapse Analytics 数据类型 数据工厂临时数据类型
bigint Int64
binary Byte[]
bit Boolean
char String, Char[]
date DateTime
datetime DateTime
datetime2 DateTime
Datetimeoffset DateTimeOffset
小数 小数
FILESTREAM attribute (varbinary(max)) Byte[]
Float Double
image Byte[]
int Int32
money 小数
nchar String, Char[]
numeric 小数
nvarchar String, Char[]
real Single
rowversion Byte[]
smalldatetime DateTime
smallint Int16
smallmoney 小数
time TimeSpan
tinyint Byte
uniqueidentifier Guid
varbinary Byte[]
varchar String, Char[]

后续步骤

有关复制活动支持作为源和接收器的数据存储的列表,请参阅支持的数据存储和格式