Azure 数据工厂和 Synapse 管道支持的计算环境
适用于:Azure 数据工厂 Azure Synapse Analytics
本文介绍可用于处理或转换数据的不同计算环境。 同时还详细介绍了在配置用于链接这些计算环境的链接服务时支持的不同配置(按需和自带)。
下表提供了支持的计算环境以及可以在其上运行的活动的列表。
HDInsight 计算环境
请参阅下表,详细了解按需和 BYOC(自带计算)环境中的配置支持的存储链接服务类型。
计算链接服务中 | 属性名称 | 说明 | Blob | ADLS Gen2 | Azure SQL DB |
---|---|---|---|---|---|
按需 | linkedServiceName | 由按需群集用于存储和处理数据的 Azure 存储链接服务。 | 是 | 是 | 否 |
additionalLinkedServiceNames | 指定 HDInsight 链接服务的其他存储帐户,使服务能够代你注册这些帐户。 | 是 | 否 | 否 | |
hcatalogLinkedServiceName | 指向 HCatalog 数据库的 Azure SQL 链接服务的名称。 将 Azure SQL 数据库用作元存储以创建按需 HDInsight 群集。 | 否 | No | 是 | |
BYOC | linkedServiceName | Azure 存储链接服务引用。 | 是 | 是 | 否 |
additionalLinkedServiceNames | 指定 HDInsight 链接服务的其他存储帐户,使服务能够代你注册这些帐户。 | 否 | No | 否 | |
hcatalogLinkedServiceName | 指向 HCatalog 数据库的 Azure SQL 链接服务的引用。 | 否 | No | 否 |
Azure HDInsight 按需链接服务
在这种类型的配置中,计算环境完全由服务管理。 作业提交到进程数据前,该服务会自动创建计算环境,作业完成后则自动将其删除。 可以为按需计算环境创建并配置链接服务,以及控制作业执行、群集管理和引导操作的粒度设置。
注意
按需配置目前仅支持 Azure HDInsight 群集。 Azure Databricks 还支持使用作业群集的按需作业。 有关详细信息,请参阅 Azure Databricks 链接服务。
服务可自动创建按需 HDInsight 群集,以处理数据。 群集创建在与该群集相关联的存储帐户(JSON 中的 linkedServiceName 属性)所在的同一区域中。 存储帐户 must
是通用的标准 Azure 存储帐户。
请注意以下关于按需 HDInsight 链接服务的重要事项:
- 按需 HDInsight 群集在 Azure 订阅下创建。 当群集启动并运行时,你可以在 Azure 门户中查看群集。
- 在按需 HDInsight 群集上运行的作业日志将复制到与 HDInsight 群集相关联的存储帐户。 在链接的服务定义中定义的 clusterUserName、clusterPassword、clusterSshUserName、clusterSshPassword 用于登录到群集,以便在群集的生命周期内进行深入故障排除。
- 仅对 HDInsight 群集启动并运行作业的时间进行收费。
- 可以对 Azure HDInsight 按需链接服务使用脚本操作。
重要
按需预配 Azure HDInsight 群集通常需要 20 分钟或更长时间。
示例
以下 JSON 定义基于 Linux 的按需 HDInsight 链接服务。 服务自动创建基于 Linux 的 HDInsight 群集来处理所需的活动。
{
"name": "HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterType": "hadoop",
"clusterSize": 1,
"timeToLive": "00:15:00",
"hostSubscriptionId": "<subscription ID>",
"servicePrincipalId": "<service principal ID>",
"servicePrincipalKey": {
"value": "<service principal key>",
"type": "SecureString"
},
"tenant": "<tenent id>",
"clusterResourceGroup": "<resource group name>",
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
重要
HDInsight 群集在 JSON 中指定的 Blob 存储 (linkedServiceName).内创建默认容器。 HDInsight 不会在删除群集时删除此容器。 此行为是设计使然。 使用按需 HDInsight 链接服务时,除非有现有的实时群集 (timeToLive),否则每当需要处理切片时会创建 HDInsight 群集;并在处理完成后删除该群集。
随着运行的活动越来越多,Azure Blob 存储中会出现大量的容器。 如果不需要使用它们对作业进行故障排除,则可能需要删除它们以降低存储成本。 这些容器的名称遵循 adf**yourfactoryorworkspacename**-**linkedservicename**-datetimestamp
模式。 使用 Microsoft Azure 存储资源管理器等工具删除 Azure Blob 存储中的容器。
属性
属性 | 描述 | 必需 |
---|---|---|
type | 类型属性应设置为 HDInsightOnDemand。 | 是 |
clusterSize | 群集中辅助进程/数据节点的数量。 HDInsight 群集创建时具有 2 个头节点以及一定数量的辅助进程节点(此节点的数量是为此属性所指定的数量)。 这些节点的大小为拥有 4 个核心的 Standard_D3,因此一个具有 4 个工作器节点的群集拥有 24 个核心(工作器节点有 4*4 = 16 个核心,头节点有 2*4 = 8 个核心)。 请参阅使用 Hadoop、Spark、Kafka 等在 HDInsight 中设置群集,了解详细信息。 | 是 |
linkedServiceName | 由按需群集用于存储和处理数据的 Azure 存储链接服务。 HDInsight 群集在创建时与此 Azure 存储帐户位于同一区域。 Azure HDInsight 会限制可在其支持的每个 Azure 区域中使用的核心总数。 确保在 Azure 区域中有足够的内核配额来满足所需的 clusterSize。 有关详细信息,请参阅使用 Hadoop、Spark、Kafka 等在 HDInsight 中设置群集 目前,无法创建使用 Azure Data Lake Storage(第 2 代)作为存储的按需 HDInsight 群集。 若要将 HDInsight 处理的结果数据存储在 Azure Data Lake Storage(第 2 代)中,请使用“复制活动”将数据从 Azure Blob 存储复制到 Azure Data Lake Storage(第 2 代)中。 |
是 |
clusterResourceGroup | 在此资源组中创建 HDInsight 群集。 | 是 |
timetolive | 按需 HDInsight 群集允许的空闲时间。 指定当活动运行完成后,如果群集中没有其他的活动作业,按需 HDInsight 群集保持活动状态的时间。 允许的最小值为 5 分钟 (00: 05:00)。 例如,如果一个活动运行需要 6 分钟,而 timetolive 的设置是 5 分钟,则当 6 分钟的活动运行处理结束后,群集将保持 5 分钟的活动状态。 如果在这 6 分钟的时间内执行其他的活动运行,则由同一群集进行处理。 创建按需 HDInsight 群集是一项开销非常大的操作(可能会花费一定的时间),因此请根据需要使用此设置,以通过重复使用一个按需 HDInsight 群集来提高服务的性能。 如果将 timetolive 值设置为 0,则将会在活动运行处理完后立即删除群集。 然而,如果设置了较高的值,则群集可以保持空闲状态,以方便你登录进行某些故障排除工作,但这可能会导致成本高昂。 因此,根据具体需要设置适当的值非常重要。 如果 timetolive 属性值设置适当,多个管道则可共享按需 HDInsight 群集实例。 |
是 |
clusterType | 要创建的 HDInsight 群集的类型。 允许的值是“hadoop”和“spark”。 如果未指定,默认值为 hadoop。 无法按需创建启用企业安全性套餐的群集,请改用现有群集/自带计算。 | 否 |
版本 | HDInsight 群集的版本。 如果未指定较高的值,则使用当前 HDInsight 定义的默认版本。 | 否 |
hostSubscriptionId | 用于创建 HDInsight 群集的 Azure 订阅 ID。 如果未指定,则使用 Azure 登录上下文的订阅 ID。 | 否 |
clusterNamePrefix | HDI 群集名称的前缀,时间戳自动追加到群集名称的末尾 | 否 |
sparkVersion | 群集类型为“Spark”时的 spark 版本 | 否 |
additionalLinkedServiceNames | 指定 HDInsight 链接服务的其他存储帐户,使服务能够代你注册这些帐户。 这些存储帐户必须与 HDInsight 群集位于同一区域中,该群集是在与 linkedServiceName 指定的存储帐户相同的区域中创建的。 | 否 |
osType | 操作系统的类型。 允许值包括:Linux 和 Windows(仅适用于 HDInsight 3.3)。 默认值为 Linux。 | 否 |
hcatalogLinkedServiceName | 指向 HCatalog 数据库的 Azure SQL 链接服务的名称。 将 Azure SQL 数据库用作元存储来创建按需 HDInsight 群集。 | 否 |
connectVia | 用于将活动分发到此 HDInsight 链接服务的集成运行时。 对于按需的 HDInsight 链接服务,它仅支持 Azure 集成运行时。 如果未指定,则使用默认 Azure Integration Runtime。 | 否 |
clusterUserName | 用于访问群集的用户名。 | 否 |
clusterPassword | 用于访问群集的安全字符串类型密码。 | 否 |
clusterSshUserName | 用于通过 SSH 远程连接到群集节点的用户名(适用于 Linux)。 | 否 |
clusterSshPassword | 用于通过 SSH 远程连接到群集节点的安全字符串类型密码(适用于 Linux)。 | 否 |
scriptActions | 在按需创建群集期间指定 HDInsight 群集自定义的脚本。 目前,UI 创作工具仅支持指定 1 个脚本操作,但你可以通过 JSON 解决此限制(在 JSON 中指定多个脚本操作)。 |
否 |
重要
HDInsight 支持多个可部署的 Hadoop 群集版本。 每个版本选项创建 Hortonworks 数据平台 (HDP) 分发的特定版本和该分发内包含的一组组件。 支持的 HDInsight 版本列表会不断更新,以提供最新的 Hadoop 生态系统组件和修补程序。 请确保始终参考支持的 HDInsight 版本和操作系统类型的最新信息,以确保使用的是受支持的 HDInsight 版本。
重要
目前,HDInsight 链接服务不支持 HBase、交互式查询 (Hive LLAP)、Storm。
- additionalLinkedServiceNames JSON 示例
"additionalLinkedServiceNames": [{
"referenceName": "MyStorageLinkedService2",
"type": "LinkedServiceReference"
}]
服务主体身份验证
按需 HDInsight 链接服务要求进行服务主体身份验证,以代表你创建 HDInsight 群集。 要使用服务主体身份验证,请在 Microsoft Entra ID 中注册应用程序实体,并向其授予在其中创建 HDInsight 群集的订阅或资源组的“参与者”角色。 如需了解详细步骤,请参阅使用门户创建可访问资源的 Microsoft Entra ID 应用程序和服务主体。 记下下面的值,这些值用于定义链接服务:
- 应用程序 ID
- 应用程序密钥
- 租户 ID
通过指定以下属性使用服务主体身份验证:
属性 | 描述 | 必选 |
---|---|---|
servicePrincipalId | 指定应用程序的客户端 ID。 | 是 |
servicePrincipalKey | 指定应用程序的密钥。 | 是 |
tenant | 指定应用程序的租户信息(域名或租户 ID)。 可将鼠标悬停在 Azure 门户右上角进行检索。 | 是 |
高级属性
也可以为按需 HDInsight 群集的粒度配置指定以下属性。
属性 | 描述 | 必选 |
---|---|---|
coreConfiguration | 为待创建的 HDInsight 群集指定核心配置参数(如在 core-site.xml 中)。 | 否 |
hBaseConfiguration | 为 HDInsight 群集指定 HBase 配置参数 (hbase-site.xml)。 | 否 |
hdfsConfiguration | 为 HDInsight 群集指定 HDFS 配置参数 (hdfs-site.xml)。 | 否 |
hiveConfiguration | 为 HDInsight 群集指定 hive 配置参数 (hive-site.xml)。 | 否 |
mapReduceConfiguration | 为 HDInsight 群集指定 MapReduce 配置参数 (mapred-site.xml)。 | 否 |
oozieConfiguration | 为 HDInsight 群集指定 Oozie 配置参数 (oozie-site.xml)。 | 否 |
stormConfiguration | 为 HDInsight 群集指定 Storm 配置参数 (storm-site.xml)。 | 否 |
yarnConfiguration | 为 HDInsight 群集指定 Yarn 配置参数 (yarn-site.xml)。 | 否 |
- 示例 - 具有高级属性的按需 HDInsight 群集配置
{
"name": " HDInsightOnDemandLinkedService",
"properties": {
"type": "HDInsightOnDemand",
"typeProperties": {
"clusterSize": 16,
"timeToLive": "01:30:00",
"hostSubscriptionId": "<subscription ID>",
"servicePrincipalId": "<service principal ID>",
"servicePrincipalKey": {
"value": "<service principal key>",
"type": "SecureString"
},
"tenant": "<tenent id>",
"clusterResourceGroup": "<resource group name>",
"version": "3.6",
"osType": "Linux",
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
},
"coreConfiguration": {
"templeton.mapper.memory.mb": "5000"
},
"hiveConfiguration": {
"templeton.mapper.memory.mb": "5000"
},
"mapReduceConfiguration": {
"mapreduce.reduce.java.opts": "-Xmx4000m",
"mapreduce.map.java.opts": "-Xmx4000m",
"mapreduce.map.memory.mb": "5000",
"mapreduce.reduce.memory.mb": "5000",
"mapreduce.job.reduce.slowstart.completedmaps": "0.8"
},
"yarnConfiguration": {
"yarn.app.mapreduce.am.resource.mb": "5000",
"mapreduce.map.memory.mb": "5000"
},
"additionalLinkedServiceNames": [{
"referenceName": "MyStorageLinkedService2",
"type": "LinkedServiceReference"
}]
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
节点大小
可使用以下属性指定头节点、数据节点和 Zookeeper 节点的大小:
属性 | 描述 | 必选 |
---|---|---|
headNodeSize | 指定头节点的大小。 默认值为:Standard_D3。 有关详细信息,请参阅指定节点大小部分。 | 否 |
dataNodeSize | 指定数据节点的大小。 默认值为:Standard_D3。 | 否 |
zookeeperNodeSize | 指定 ZooKeeper 节点的大小。 默认值为:Standard_D3。 | 否 |
- 指定节点大小 若要了解需要为在上面的部分中提到的属性指定的字符串值,请参阅虚拟机的大小。 这些值需要符合文章中所引用的 CMDLET 和 API。 如文章中所示,大尺寸(默认)的数据节点拥有 7 GB 的内存,这可能无法满足具体方案的需求。
如果想要创建 D4 大小的头节点和辅助进程节点,请将 Standard_D4 指定为 headNodeSize 和 dataNodeSize 属性的值。
"headNodeSize": "Standard_D4",
"dataNodeSize": "Standard_D4",
如果为这些属性指定了错误的值,则可能会收到以下错误:未能创建群集。 异常:无法完成群集创建操作。 操作失败,代码为 '400'。 群集保持为 'Error' 状态。 消息:'PreClusterCreationValidationFailure'。 收到此错误时,请确保使用的是虚拟机的大小一文中的表中的 CMDLET 和 API 名称。
自带计算环境
在这种类型的配置中,用户可将现有的计算环境注册为链接服务。 计算环境由用户进行管理,服务使用它执行活动。
此类型的配置支持以下计算环境:
- Azure HDInsight
- Azure Batch
- Azure SQL DB、Azure Synapse Analytics、SQL Server
Azure HDInsight 链接服务
可以创建 Azure HDInsight 链接服务,以向数据工厂或 Synapse 工作区注册你自己的 HDInsight 群集。
示例
{
"name": "HDInsightLinkedService",
"properties": {
"type": "HDInsight",
"typeProperties": {
"clusterUri": " https://<hdinsightclustername>.azurehdinsight.cn/",
"userName": "username",
"password": {
"value": "passwordvalue",
"type": "SecureString"
},
"linkedServiceName": {
"referenceName": "AzureStorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
属性
属性 | 描述 | 必需 |
---|---|---|
type | 类型属性应设置为 HDInsight。 | 是 |
clusterUri | HDInsight 群集的 URI。 | 是 |
username | 指定用于连接到现有 HDInsight 群集的用户的名称。 | 是 |
password | 指定用户帐户的密码。 | 是 |
linkedServiceName | Azure 存储链接服务(指 HDInsight 群集使用的 Azure Blob 存储)的名称。 目前,不能为此属性指定 Azure Data Lake Storage(第 2 代)链接服务。 如果 HDInsight 群集有权访问 Data Lake Store,则可从 Hive/Pig 脚本访问 Azure Data Lake Storage(第 2 代)中的数据。 |
是 |
isEspEnabled | 如果 HDInsight 群集启用了企业安全性套餐,请指定“true”。 默认值为“false”。 | 否 |
connectVia | 用于将活动分发到此链接服务的集成运行时。 可以使用 Azure 集成运行时或自托管集成运行时。 如果未指定,则使用默认 Azure Integration Runtime。 对于启用了企业安全性套餐 (ESP) 的 HDInsight 群集,请使用自承载集成运行时,该运行时具有群集的视线,或者应该与 ESP HDInsight 群集部署在同一虚拟网络内。 |
否 |
重要
HDInsight 支持多个可部署的 Hadoop 群集版本。 每个版本选项创建 Hortonworks 数据平台 (HDP) 分发的特定版本和该分发内包含的一组组件。 支持的 HDInsight 版本列表会不断更新,以提供最新的 Hadoop 生态系统组件和修补程序。 请确保始终参考支持的 HDInsight 版本和操作系统类型的最新信息,以确保使用的是受支持的 HDInsight 版本。
重要
目前,HDInsight 链接服务不支持 HBase、交互式查询 (Hive LLAP)、Storm。
Azure Batch 链接服务
注意
建议使用 Azure Az PowerShell 模块与 Azure 交互。 请参阅安装 Azure PowerShell 以开始使用。 若要了解如何迁移到 Az PowerShell 模块,请参阅 将 Azure PowerShell 从 AzureRM 迁移到 Az。
可以创建 Azure Batch 链接服务,以向数据工厂或 Synapse 工作区注册虚拟机 (VM) 的 Batch 池。 你可以使用 Azure Batch 运行自定义活动。
如果不熟悉 Azure Batch 服务,请参阅以下文章:
- Azure Batch 基础知识 - Azure Batch 服务的概述。
- New-AzBatchAccount cmdlet 以创建 Azure Batch 帐户(或)Azure 门户以使用 Azure 门户创建 Azure Batch 帐户。 请参阅 Using PowerShell to manage Azure Batch Account(使用 Azure PowerShell 管理 Azure Batch 帐户)一文,了解有关使用此 cmdlet 的详细说明。
- New-AzBatchPool cmdlet 以创建 Azure Batch 池。
重要
创建新的 Azure Batch 池时,必须使用“VirtualMachineConfiguration”,而不是“CloudServiceConfiguration”。 有关更多详细信息,请参阅 Azure Batch 池迁移指南。
示例
{
"name": "AzureBatchLinkedService",
"properties": {
"type": "AzureBatch",
"typeProperties": {
"accountName": "batchaccount",
"accessKey": {
"type": "SecureString",
"value": "access key"
},
"batchUri": "https://batchaccount.region.batch.azure.cn",
"poolName": "poolname",
"linkedServiceName": {
"referenceName": "StorageLinkedService",
"type": "LinkedServiceReference"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
属性
属性 | 描述 | 必需 |
---|---|---|
type | 类型属性应设置为 AzureBatch。 | 是 |
accountName | Azure Batch 帐户的名称。 | 是 |
accessKey | Azure Batch 帐户的访问密钥。 | 是 |
batchUri | 指向 Azure Batch 帐户的 URL,格式为 https://batchaccountname.region.batch.azure.cn。 | 是 |
poolName | 虚拟机的池名称。 | 是 |
linkedServiceName | 与此 Azure Batch 链接服务相关联的 Azure 存储链接服务的名称。 此链接服务用于暂存运行活动所需的文件。 | 是 |
connectVia | 用于将活动分发到此链接服务的集成运行时。 可以使用 Azure 集成运行时或自托管集成运行时。 如果未指定,则使用默认 Azure Integration Runtime。 | 否 |
Azure 机器学习链接服务
可以创建 Azure 机器学习链接服务,将 Azure 机器学习工作区连接到数据工厂或 Synapse 工作区。
注意
目前,Azure 机器学习链接服务仅支持服务主体身份验证。
示例
{
"name": "AzureMLServiceLinkedService",
"properties": {
"type": "AzureMLService",
"typeProperties": {
"subscriptionId": "subscriptionId",
"resourceGroupName": "resourceGroupName",
"mlWorkspaceName": "mlWorkspaceName",
"servicePrincipalId": "service principal id",
"servicePrincipalKey": {
"value": "service principal key",
"type": "SecureString"
},
"tenant": "tenant ID"
},
"connectVia": {
"referenceName": "<name of Integration Runtime?",
"type": "IntegrationRuntimeReference"
}
}
}
属性
属性 | 描述 | 必需 |
---|---|---|
类型 | 类型属性应设置为:AzureMLService。 | 是 |
subscriptionId | Azure 订阅 ID | 是 |
resourceGroupName | name | 是 |
mlWorkspaceName | Azure 机器学习工作区名称 | 是 |
servicePrincipalId | 指定应用程序的客户端 ID。 | 是 |
servicePrincipalKey | 指定应用程序的密钥。 | 是 |
tenant | 指定应用程序的租户信息(域名或租户 ID)。 可将鼠标悬停在 Azure 门户右上角进行检索。 | 如果已指定 updateResourceEndpoint,则为必需 |
connectVia | 用于将活动分发到此链接服务的集成运行时。 可以使用 Azure 集成运行时或自托管集成运行时。 如果未指定,则使用默认 Azure Integration Runtime。 | 否 |
Azure Databricks 链接服务
可以通过创建 Azure Databricks 链接服务来注册 Databricks 工作区,该工作区将用于运行 Databricks 工作负载(Notebook、JAR、Python)。
重要
Databricks 链接服务支持实例池和系统分配的托管标识身份验证。
示例 - 在 Databricks 中使用新的作业群集
{
"name": "AzureDatabricks_LS",
"properties": {
"type": "AzureDatabricks",
"typeProperties": {
"domain": "https://adb-xxxxxxxxx.xx.databricks.azure.cn",
"newClusterNodeType": "Standard_D3_v2",
"newClusterNumOfWorker": "1:10",
"newClusterVersion": "4.0.x-scala2.11",
"accessToken": {
"type": "SecureString",
"value": "YourAccessToken"
}
}
}
}
示例 - 在 Databricks 中使用现有的交互式群集
{
"name": " AzureDataBricksLinkedService",
"properties": {
"type": " AzureDatabricks",
"typeProperties": {
"domain": "https://adb-xxxxxxxxx.xx.databricks.azure.cn",
"accessToken": {
"type": "SecureString",
"value": "YourAccessToken"
},
"existingClusterId": "{clusterId}"
}
}
属性
属性 | 描述 | 必需 |
---|---|---|
name | 链接服务的名称 | 是 |
type | 类型属性应设置为:Azure Databricks。 | 是 |
域 | 根据 Databricks 工作区的区域相应地指定 Azure 区域。 示例: https://adb-xxxxxxxxx.xx.databricks.azure.cn | 是 |
accessToken | 该服务通过 Azure Databricks 进行身份验证时,必须使用访问令牌。 需从 Databricks 工作区生成访问令牌。 此处提供了查找访问令牌的更多详细步骤 | 否 |
MSI | 使用服务的托管标识(由系统分配)向 Azure Databricks 进行身份验证。 使用“MSI”身份验证时,不需要访问令牌。 可在此处找到有关托管标识身份验证的更多详细信息 | 否 |
existingClusterId | 现有群集的群集 ID,用于在其上运行所有作业。 该群集应该是已创建的交互式群集。 如果群集停止响应,则可能需要手动重启该群集。 Databricks 建议在新群集上运行作业,以提高可靠性。 可以通过 Databricks 工作区 ->“群集”->“交互式群集名称”->“配置”->“标记”找到交互式群集的群集 ID。 更多详细信息 | 否 |
instancePoolId | Databricks 工作区中现有池的实例池 ID。 | 否 |
newClusterVersion | 群集的 Spark 版本。 它会在 Databricks 中创建作业群集。 | 否 |
newClusterNumOfWorker | 此群集应该拥有的工作节点的数目。 群集有一个 Spark 驱动程序和 num_workers 个执行器,总共有 num_workers + 1 个 Spark 节点。 字符串格式的 Int32,例如“1”是指 numOfWorker 为 1,“1:10”是指自动缩放的范围为 1 到 10。 | 否 |
newClusterNodeType | 此字段通过单个值对提供给此群集中的每个 Spark 节点的资源进行编码。 例如,可以针对内存或计算密集型工作负载对 Spark 节点进行预配和优化。 此字段是新群集必需的 | 否 |
newClusterSparkConf | 一组可选的、用户指定的 Spark 配置键值对。 用户还可以分别通过 spark.driver.extraJavaOptions 和 spark.executor.extraJavaOptions 将包含额外 JVM 选项的字符串传递给驱动程序和执行器。 | 否 |
newClusterInitScripts | 新群集的一组可选的、用户定义的初始化脚本。 可以在工作区文件(建议)中或通过 DBFS 路径(旧版)指定初始化脚本。 | 否 |
Azure SQL 数据库链接服务
创建 Azure SQL 链接服务,并将其与存储过程活动配合使用,以从管道调用存储过程。 请参阅 Azure SQL 连接器一文,以了解此链接服务的详细信息。
Azure Synapse Analytics 链接服务
创建 Azure Synapse Analytics 链接服务,并将其与存储过程活动配合使用,以从管道调用存储过程。 请参阅 Azure Synapse Analytics 连接器一文,以详细了解此链接服务。
SQL Server 链接服务
创建 SQL Server 链接服务,并将其与存储过程活动配合使用,以从管道调用存储过程。 请参阅 SQL Server 连接器一文,以了解此链接服务的详细信息。
Azure Synapse Analytics(项目)链接服务
创建 Azure Synapse Analytics(项目)链接服务并将其与 Synapse Notebook 活动和 Synapse Spark 作业定义活动配合使用。
示例
{
"name": "AzureSynapseArtifacts",
"type": "Microsoft.DataFactory/factories/linkedservice",
"properties": {
"properties": {
"a":{
"type": "String"
}
},
"annotations": [],
"type": "AzureSynapseArtifacts",
"typeProperties": {
"endpoint": "@{linkedService().a}",
"authentication": "MSI",
"workspaceResourceId": ""
},
"ConnectVia":{
"referenceName": "integrationRuntime1",
"type": "IntergrationRuntimeReference"
}
}
}
属性
属性 | 说明 | 必需 |
---|---|---|
name | 链接服务的名称 | 是 |
description | 链接服务的说明 | 否 |
annotations | 链接服务的注释 | 否 |
type | type 属性应该设置为 AzureSynapseArtifacts | 是 |
endpoint | Azure Synapse Analytics URL | 是 |
身份验证 | 默认设置为系统分配的托管标识 | 是 |
workspaceResourceId | 工作区资源 ID | 是 |
connectVia | 用于连接到数据存储的集成运行时。 可以使用 Azure 集成运行时。 如果未指定,则使用默认 Azure Integration Runtime。 自承载集成运行时目前不受支持。 | 是 |
Azure 函数链接服务
创建 Azure 函数链接服务,并将其与 Azure 函数活动一起使用,以在管道中运行 Azure Functions。 Azure 函数的返回类型必须是有效的 JObject
。 (请记住:JArray 不是 JObject
。)除了 JObject
之外的任何返回类型都将失败,并且会引发用户错误响应内容不是有效的 JObject。
属性 | 说明 | 必需 |
---|---|---|
type | type 属性必须设置为:AzureFunction | 是 |
函数应用 URL | Azure 函数应用的 URL。 格式为 https://<accountname>.chinacloudsites.cn 。 在 Azure 门户中查看函数应用时,此 URL 是 URL 部分下的值 |
是 |
函数密钥 | Azure 函数的访问密钥。 单击相应函数的“管理”部分,并复制“函数密钥”或“主机密钥”。 在此处了解详细信息:Azure Functions HTTP 触发器和绑定 | 是 |
相关内容
有关支持的转换活动列表,请参阅转换数据。