本文介绍如何设置 Lakehouse Federation,以便对不受 Azure Databricks 管理的 Salesforce Data Cloud 数据运行联合查询。 若要详细了解 Lakehouse Federation,请参阅“什么是 Lakehouse Federation?”。
若要使用 Lakehouse Federation 连接到 Salesforce Data Cloud 数据库,必须在 Azure Databricks Unity Catalog 元存储中创建以下内容:
- 与 Salesforce Data Cloud 数据库的连接。
- 镜像 Unity Catalog 中的 Salesforce Data Cloud 数据库外部目录,以便你可使用 Unity Catalog 查询语法和数据治理工具来管理 Azure Databricks 用户对数据库的访问。
工作区要求:
- 已为 Unity Catalog 启用工作区。
计算要求:
- 涵盖计算资源到目标数据库系统的网络连接。 请参阅 Lakehouse Federation 网络建议。
- Azure Databricks 计算必须使用 Databricks Runtime 15.2 或更高版本以及 标准 或 专用 访问模式。
- SQL 仓库必须是专业版,且必须使用 2024.30 或更高版本。
所需的权限:
- 若要创建连接,你必须是元存储管理员或对附加到工作区的 Unity Catalog 元存储具有
CREATE CONNECTION
权限的用户。 - 若要创建外部目录,必须对元存储具有
CREATE CATALOG
权限,并且是连接的所有者或对连接具有CREATE FOREIGN CATALOG
特权。
后面每个基于任务的部分都指定了其他权限要求。
Salesforce 连接的应用允许外部应用程序使用 API 和标准协议与 Salesforce 集成。 本部分介绍如何使用 SSO 创建连接的应用,以允许 Databricks 使用 Salesforce 进行身份验证。
注意
有关更详细的说明,请参阅 Salesforce Data Cloud 文档中的创建连接应用。
若要创建与 Salesforce 连接的应用,请执行以下操作:
在 Data Cloud 的右上角,单击“设置”。
在“平台工具”下,单击“应用”>“应用管理器”。
单击“新建连接的应用”。
输入姓名和联系人电子邮件地址。
启用 OAuth 设置:
输入回叫 URL,格式如下:
https://<databricks_instance_url>/login/oauth/salesforce.html
。 例如:https://cust-success.cloud.databricks.com/login/oauth/salesforce.html
。(可选)如果计划在下一步中使用 SQL 创建 Azure Databricks 连接和外部目录,则 Salesforce Connected 应用程序还需要支持重定向 URI
https://login.salesforce.com/services/oauth2/success
。 如果计划使用目录资源管理器创建 Azure Databricks 连接和外部目录,则无需如此。 Databricks 建议使用目录资源管理器,因为它需要的手动步骤比其他方法更少。添加以下 作用域:
- 访问所有 Data Cloud API 资源 (cdp_api)
- 通过 API 管理用户数据 (api)
- 对 Data Cloud 数据执行 ANSI SQL 查询 (cdp_query_api)
- 随时执行请求(refresh_token、offline_access)
单击“ 保存”。
单击“继续” 。
在“连接的应用程序概述”页面上,单击“管理使用者详细信息”。 系统将提示你进行身份验证。
身份验证成功后,页面会显示使用者密钥和使用者机密。 保存这些值。 创建 Azure Databricks 连接时需要使用。
连接指定用于访问外部数据库系统的路径和凭据。 若要创建连接,可以使用目录资源管理器,或者使用 Azure Databricks 笔记本或 Databricks SQL 查询编辑器中的 CREATE CONNECTION
SQL 命令。
注意
你还可以使用 Databricks REST API 或 Databricks CLI 来创建连接。 请参阅 POST /api/2.1/unity-catalog/connections 和 Unity Catalog 命令。
所需的权限:具有 CREATE CONNECTION
特权的元存储管理员或用户。
在 Azure Databricks 工作区中,单击
“目录”。
在目录窗格顶部,单击
“添加”或“加号”图标,然后从菜单中选择“添加连接”。
或者,在“快速访问”页中,单击“外部数据 >”按钮,转到“连接”选项卡,然后单击“创建连接。
在“设置连接”向导的“连接基本信息”页面上,输入用户友好的连接名称。
选择 Salesforce Data Cloud 的连接类型。
(可选)添加注释。
在 身份验证 页上,输入 Salesforce Data Cloud 的以下连接属性:
- (可选)选择“是沙盒”。
- 客户端 ID:Salesforce 连接的应用使用者密钥。
- 客户端密码:Salesforce 连接的应用使用者机密。
-
客户端范围:
cdp_api api cdp_query_api refresh_token offline_access
单击“使用 Salesforce 登录”。
(OAuth) 系统会提示使用 SSO 凭据登录到 Salesforce Data Cloud。
成功登录后,将定向回 Databricks“设置连接”向导。 已将“使用 Salesforce 登录”按钮替换为
Successfully authorized
消息。单击“创建连接”。
在 “目录基本信息 ”页上,输入外国目录的名称。 外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。
输入 Salesforce 数据空间。
(可选)单击“测试连接”以确认它是否正常工作。
单击“创建目录”。
在 “访问 ”页上,选择用户可以在其中访问所创建的目录的工作区。 您可以选择所有工作区均具有访问权限,或单击分配到工作区,选择工作区,然后单击分配。
更改能够管理对目录中所有对象的访问的 所有者 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
授予对目录的“特权”。 单击“授权”:
指定将有权访问目录中对象的 主体 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
选择“特权预设”以对每个主体授权。 默认情况下,向所有帐户用户授予
BROWSE
。- 从下拉菜单中选择 “数据读取者 ”,以授予
read
对目录中对象的权限。 - 从下拉菜单中选择 “数据编辑器”,以向
read
和modify
授予目录中对象的权限。 - 手动选择要授予的权限。
- 从下拉菜单中选择 “数据读取者 ”,以授予
单击授权。
单击 “下一步” 。
在“元数据”页上,指定标记键值对。 有关详细信息,请参阅 将标记应用于 Unity 目录安全对象。
(可选)添加注释。
单击“ 保存”。
Databricks 建议使用目录资源管理器创建连接和外部目录,因为它需要的手动步骤比其他方法更少。
如果计划使用 SQL 创建 Azure Databricks 连接和外部目录,则 Salesforce Connected 应用程序需要支持重定向 URI https://login.salesforce.com/services/oauth2/success
。 如果使用目录资源管理器,则无需如此。
生成 PKCE 代码验证器和代码质询代码。 可以使用联机工具(例如 https://tonyxu-io.github.io/pkce-generator/)或运行以下 Python 脚本执行此操作:
%python import base64 import re import os import hashlib code_verifier = base64.urlsafe_b64encode(os.urandom(40)).decode('utf-8') code_verifier = re.sub('[^a-zA-Z0-9]+', '', code_verifier) code_challenge = hashlib.sha256(code_verifier.encode('utf-8')).digest() code_challenge = base64.urlsafe_b64encode(code_challenge).decode('utf-8') code_challenge = code_challenge.replace('=', '') print(f"pkce_verifier = \"{code_verifier}\"") print(f"code_challenge = \"{code_challenge}\"")
访问以下 URL 并使用 Salesforce 凭据进行身份验证,以获取
authorization_code
(用你的参数替换<client_id>
和<code_challenge>
)。https://login.salesforce.com/services/oauth2/authorize ?client_id=<client_id> &redirect_uri=https://login.salesforce.com/services/oauth2/success &response_type=code &code_challenge=<code_challenge>
URL 编码的授权代码在重定向 URL 中可见。
在笔记本或 Databricks SQL 查询编辑器中运行以下命令:
CREATE CONNECTION '<Connection name>' TYPE salesforce_data_cloud OPTIONS ( client_id '<Consumer key from Salesforce Connected App>', client_secret '<Consumer secret from Salesforce Connected App>', pkce_verifier '<pkce_verifier from the last step>', authorization_code '<URL decoded `authorization_code`, should end with == instead of %3D%3D>', oauth_redirect_uri "https://login.salesforce.com/services/oauth2/success", oauth_scope "cdp_api api cdp_query_api refresh_token offline access", is_sandbox "false" );
Databricks 建议对凭据等敏感值使用 Azure Databricks 机密而不是纯文本字符串。 例如:
CREATE CONNECTION '<Connection name>' TYPE salesforce_data_cloud OPTIONS ( client_id secret ('<Secret scope>','<Secret key client id>'), client_secret secret ('<Secret scope>','<Secret key client secret>'), pkce_verifier '<pkce_verifier from the last step>', authorization_code '<URL decoded `authorization_code`, should end with == instead of %3D%3D>', oauth_redirect_uri "https://login.salesforce.com/services/oauth2/success", oauth_scope "cdp_api api cdp_query_api refresh_token offline access", is_sandbox "false" );
有关设置机密的详细信息,请参阅机密管理。
注意
如果使用 UI 创建与数据源的连接,则包含外部目录创建,你可以跳过此步骤。
外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。 若要创建外部目录,请使用与已定义的数据源的连接。
要创建外部目录,可以使用目录资源管理器,或在 Azure Databricks 笔记本或 SQL 查询编辑器中使用 CREATE FOREIGN CATALOG
SQL 命令。 你还可以使用 Databricks REST API 或 Databricks CLI 来创建目录。 请参阅 POST /api/2.1/unity-catalog/catalogs 和 Unity Catalog 命令。
所需的权限:对元存储具有 CREATE CATALOG
权限,并且具有连接的所有权或对连接具有 CREATE FOREIGN CATALOG
权限。
在 Azure Databricks 工作区中,单击
“目录”以打开目录资源管理器。
单击右上角的“创建目录”。
输入 Salesforce Data Cloud 目录的以下属性。
- 目录名称:目录的用户友好名称。
-
类型:
Foreign
。 - 连接名称:将用于创建目录的连接的名称。
- 数据空间:Salesforce 数据空间。
单击“创建”。
在笔记本或 SQL 查询编辑器中运行以下 SQL 命令。 括号中的项是可选的。
CREATE FOREIGN CATALOG [IF NOT EXISTS] '<catalog-name>' USING CONNECTION '<connection-name>'
OPTIONS (dataspace '<dataspace>');
请替换以下值:
-
<catalog-name>
: -
<connection-name>
: -
<dataspace>
:Salesforce 数据空间。 例如default
。
支持以下下推:
- 筛选器
- 投影
- 限制
- 聚合
- 抵消
- 强制转换
- Contains、Startswith、Endswith
从 Salesforce Data Cloud 读取到 Spark 时,数据类型将映射如下:
Salesforce Data Cloud 类型 | Spark 类型 |
---|---|
布尔 | BooleanType |
日期 | 日期类型 |
日期/时间 | 时间戳类型 |
电子邮件、电话、文本、URL | 字符串类型 |
数字、百分比 | DecimalType(38,18) |
- 每个 Databricks 目录仅支持一个 Salesforce 数据空间。
- 在 Databricks Runtime 16.1 及更早版本中,不支持区分大小写的表和架构名称。 这包括 Salesforce Data Cloud 上的名称(以大写字母表示)。 例如,
MyTable
不支持。
Lakehouse Federation 不支持与 Salesforce Sales Cloud 的只读连接,但 LakeFlow Connect 允许将数据从 Salesforce Sales Cloud 引入 Databricks 湖屋。