本文介绍如何设置 Azure Databricks Lakehouse Federation,以便对不受 Azure Databricks 管理的 SQL Server 数据运行联合查询。 若要详细了解 Lakehouse Federation,请参阅“什么是 Lakehouse Federation?”。
若要使用 Lakehouse Federation 连接到 SQL Server 数据库,必须在 Azure Databricks Unity Catalog 元存储中创建以下内容:
- 与 SQL Server 数据库的连接。
- 用于镜像 Unity Catalog 中的 SQL Server 数据库的外部目录,可让你使用 Unity Catalog 查询语法和数据治理工具来管理 Azure Databricks 用户对数据库的访问。
Lakehouse Federation 支持 SQL Server、Azure SQL 数据库和 Azure SQL 托管实例。
工作区要求:
- 已为 Unity Catalog 启用工作区。
计算要求:
- 涵盖计算资源到目标数据库系统的网络连接。 请参阅 Lakehouse Federation 网络建议。
- Azure Databricks 计算必须使用 Databricks Runtime 13.3 LTS 或更高版本以及 标准 或 专用 访问模式。
- SQL 仓库必须是专业版,并且必须使用 2023.40 或更高版本。
所需的权限:
- 若要创建连接,你必须是元存储管理员或对附加到工作区的 Unity Catalog 元存储具有
CREATE CONNECTION
权限的用户。 - 若要创建外部目录,必须对元存储具有
CREATE CATALOG
权限,并且是连接的所有者或对连接具有CREATE FOREIGN CATALOG
特权。
后面每个基于任务的部分都指定了其他权限要求。
- 如果你打算使用 OAuth 进行身份验证,请在适用于 Azure Databricks 的 Microsoft Entra ID 中注册应用。 有关详细信息,请参阅以下部分。
如果你要使用 OAuth 进行身份验证,请在创建 SQL Server 连接之前执行此步骤。 要改用用户名和密码进行身份验证,请跳过本部分。
登录到 Azure 门户。
在左侧导航栏中,单击“Microsoft Entra ID”。
单击“应用注册”。
单击“新建注册”。 输入新应用的名称,并将重定向 URI 设置为
https://<workspace-url>/login/oauth/azure.html
。单击“注册”。
在“Essentials”框中,复制并存储“应用程序(客户端) ID”。 你将使用此值来配置应用程序。
单击“证书和机密”。
在“客户端密码”选项卡上,单击“新建客户端密码” 。
输入机密说明和过期时间(默认设置为 180 天)。
单击“添加” 。
复制客户端密码的生成值。
单击“API 权限”。
单击“添加权限”。
选择“Azure SQL 数据库”,然后单击“委托权限”下的“user_impersonation”。
单击“添加权限”。
连接指定用于访问外部数据库系统的路径和凭据。 若要创建连接,可以使用目录资源管理器,或者使用 Azure Databricks 笔记本或 Databricks SQL 查询编辑器中的 CREATE CONNECTION
SQL 命令。
注意
你还可以使用 Databricks REST API 或 Databricks CLI 来创建连接。 请参阅 POST /api/2.1/unity-catalog/connections 和 Unity Catalog 命令。
所需的权限:具有 CREATE CONNECTION
特权的元存储管理员或用户。
在 Azure Databricks 工作区中,单击
“目录”。
在“目录”窗格顶部,单击
“添加”图标,然后从菜单中选择“添加连接”。
也可在“快速访问”页中单击“外部数据”按钮,转到“连接”选项卡,然后单击“创建连接”。
在“设置连接”向导的“连接基本信息”页面上,输入用户友好的连接名称。
选择 SQL Server 的“连接类型”。
选择 OAuth 或用户名和密码的身份验证类型(基本身份验证)。
(可选)添加注释。
单击 “下一步” 。
在 “身份验证 ”页上,输入 SQL Server 实例的以下连接属性。 特定于所选身份验证方法的属性前面是括号中的
Auth type
。- 主机:你的 SQL Server。
- (基本身份验证)端口
- (基本身份验证)trustServerCertificate:默认为
false
。 设置为true
时,传输层使用 SSL 加密通道并绕过证书链来验证信任。 除非有绕过信任验证的具体需求,否则请将此设置保留为默认值。 - (基本身份验证)用户
- (基本身份验证)密码
- (OAuth) 授权终结点:你的 Azure Entra 授权终结点,采用 格式
https://login.chinacloudapi.cn/<tenant-id>/oauth2/v2.0/authorize
。 - (OAuth) 创建的应用的“客户端 ID”值。
- (OAuth) 创建的客户端机密的“客户端机密”值。
- (OAuth) OAuth 范围:输入以下值,不进行任何修改:
https://database.chinacloudapi.cn/.default offline_access
。 - (OAuth)单击 “使用 Azure Entra ID 登录”。 输入 Azure 用户名和密码。 重定向到 “身份验证 ”页后,授权代码将填充到 UI 中。
单击“ 创建连接”。
(基本身份验证)在 连接详细信息 页上,指定以下内容:
- 信任服务器证书:默认情况下会取消选中此证书。 选中后,传输层使用 SSL 加密通道,并绕过证书链来验证信任。 除非有绕过信任验证的具体需求,否则请将此设置保留为默认值。
- 应用程序意向:连接到服务器时的应用程序工作负荷类型。
单击 “下一步” 。
在 “目录基本信息 ”页上,输入外国目录的名称。 外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。
单击“创建目录”。
在 “访问 ”页上,选择用户可以在其中访问所创建的目录的工作区。 您可以选择所有工作区均具有访问权限,或单击分配到工作区,选择工作区,然后单击分配。
更改能够管理对目录中所有对象的访问的 所有者 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
授予对目录的“特权”。 单击“授权”:
指定将有权访问目录中对象的 主体 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
选择“特权预设”以对每个主体授权。 默认情况下,向所有帐户用户授予
BROWSE
。- 从下拉菜单中选择 “数据读取者 ”,以授予
read
对目录中对象的权限。 - 从下拉菜单中选择 “数据编辑器”,以向
read
和modify
授予目录中对象的权限。 - 手动选择要授予的权限。
- 从下拉菜单中选择 “数据读取者 ”,以授予
单击授权。
单击 “下一步” 。
在“元数据”页上,指定标记键值对。 有关详细信息,请参阅 将标记应用于 Unity 目录安全对象。
(可选)添加注释。
单击“ 保存”。
注意
(OAuth) 必须可从 Azure Databricks 控制平面 IP 访问 Azure Entra ID OAuth 终结点。 请参阅 Azure Databricks 区域。
在笔记本或 Databricks SQL 查询编辑器中运行以下命令。
CREATE CONNECTION <connection-name> TYPE sqlserver
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
建议对凭据等敏感值使用 Azure Databricks 机密而不是纯文本字符串。 例如:
CREATE CONNECTION <connection-name> TYPE sqlserver
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
有关设置机密的详细信息,请参阅机密管理。
注意
如果使用 UI 创建与数据源的连接,则包含外部目录创建,你可以跳过此步骤。
外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。 若要创建外部目录,请使用与已定义的数据源的连接。
要创建外部目录,可以使用目录资源管理器,或在 Azure Databricks 笔记本或 SQL 查询编辑器中使用 CREATE FOREIGN CATALOG
SQL 命令。 你还可以使用 Databricks REST API 或 Databricks CLI 来创建目录。 请参阅 POST /api/2.1/unity-catalog/catalogs 和 Unity Catalog 命令。
所需的权限:对元存储具有 CREATE CATALOG
权限,并且具有连接的所有权或对连接具有 CREATE FOREIGN CATALOG
权限。
在 Azure Databricks 工作区中,单击
“目录”以打开目录资源管理器。
在“目录”窗格顶部,单击
“添加”图标,然后从菜单中选择“添加目录”。
也可在“快速访问”页中单击“目录”按钮,然后单击“创建目录”按钮。
按照创建目录中的说明创建外部目录。
在笔记本或 SQL 查询编辑器中运行以下 SQL 命令。 括号中的项是可选的。 替换占位符值替:
-
<catalog-name>
:Azure Databricks 中目录的名称。 -
<connection-name>
:指定数据源、路径和访问凭据的连接对象。 -
<database-name>
:要在 Azure Databricks 中镜像为目录的数据库的名称。
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
所有计算均支持以下下推:
- 筛选器
- 投影
- 限制
- 函数:部分,仅适用于筛选器表达式。 (字符串函数、数学函数、数据、时间和时间戳函数以及其他杂项函数,例如 Alias、Cast、SortOrder)
Databricks Runtime 13.3 LTS 及更高版本和 SQL 仓库计算支持下列下推:
- 聚合
- 以下布尔运算符:=、<、<=、>、>=、<=>
- 以下数学函数(在禁用了 ANSI 时不受支持):+、-、*、%、/
- 以下各类运算符:^、|、~
- 排序,与限制一起使用时
不支持以下下推:
- 联接
- Windows 函数
从 SQL Server 读取到 Spark 时,数据类型映射如下所示:
SQL Server 类型 | Spark 类型 |
---|---|
bigint(无符号)、decimal、money、numeric、smallmoney | 十进制类型 |
smallint、tinyint | ShortType |
整数 (int) | 整数类型 |
bigint(如果有符号) | LongType |
真实 | 浮点类型 |
漂浮 | DoubleType |
char、nchar、uniqueidentifier | 字符类型 (CharType) |
nvarchar、varchar | VarcharType |
text、xml | 字符串类型 |
binary、geography、geometry、image、timestamp、udt、varbinary | 二进制类型 |
比特 | BooleanType |
日期 | 日期类型 |
datetime、datetime、smalldatetime、time | TimestampType/TimestampNTZType |
*从 SQL Server 读取时,如果为 datetimes
(默认),则 SQL Server TimestampType
将映射到 Spark preferTimestampNTZ = false
。 如果为 datetimes
,则 SQL Server TimestampNTZType
将映射到 preferTimestampNTZ = true
。