Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
本页介绍如何设置 Lakehouse 联邦,以在不由 Azure Databricks 管理的 Oracle 数据上运行联合查询。 若要了解有关 Lakehouse 联合的更多信息,请参阅 什么是 Lakehouse 联合?
若要通过 Lakehouse Federation 连接到 Oracle 数据库,必须在 Azure Databricks 的 Unity Catalog 元存储中创建以下内容(2023 年 11 月 9 日之后创建的工作区已自动配置 Unity Catalog 元存储):
- 与 Oracle 数据库的连接。
- 外部目录,它在 Unity Catalog 中映射您的 Oracle 数据库,这样您可以使用 Unity Catalog 查询语法和数据治理工具来管理对数据库的 Azure Databricks 用户访问权限。
局限性
Lakehouse 联邦仅支持与 Oracle 云的传输层安全协议(TLS)连接。 与其他 Oracle 数据库的连接使用本机网络加密 (NNE)。
连接到版本为 11.2.0.3.0 及更高的实例时存在一个已知问题,这些实例没有时区值
Etc/UTC(错误:ORA-01882: timezone region not found)。- 解决方法:使用
spark.databricks.connector.oracle.timezoneAsRegion的配置,这直接映射到oracle.jdbc.timezoneAsRegionJDBC 驱动程序属性。 - 警告:解决方法可能会导致错误的夏令时(DST)行为。 如需帮助,请联系 Oracle 支持人员。
- 解决方法:使用
许可证
Oracle 驱动程序和其他必要的 Oracle JAR 文件受无点击许可协议 FDHUT 的约束。
开始之前
在开始之前,请确认你满足本部分中的要求。
Databricks 要求
工作区要求:
- 已为 Unity Catalog 启用工作区。 2023年11月9日之后创建的工作区会自动启用Unity Catalog,包括自动配置元存储。 若您的工作区在自动启用功能推出之前创建且尚未启用 Unity Catalog,则需要手动创建元存储。 请参阅 Unity Catalog 的自动启用。
计算要求:
- 从计算资源到目标数据库系统的网络连接。 请参阅 Lakehouse Federation 网络建议。
- Azure Databricks计算必须使用 Databricks Runtime 16.1 或更高版本和 Standard 或 Dedicated 访问模式。
- SQL 仓库必须是 Pro 或无服务器仓库,且必须使用 2024.50 或更高版本。
所需的权限:
- 若要创建连接,你必须是元存储管理员或对附加到工作区的 Unity Catalog 元存储具有
CREATE CONNECTION权限的用户。 在自动为 Unity 目录启用的工作区中,工作区管理员默认具有CREATE CONNECTION权限。 - 若要创建外部目录,必须对元存储具有
CREATE CATALOG权限,并且是连接的所有者或对连接具有CREATE FOREIGN CATALOG特权。 在自动为 Unity 目录启用的工作区中,工作区管理员默认具有CREATE CATALOG权限。
后面每个基于任务的部分都指定了其他权限要求。
Oracle 要求
对于使用本机网络加密的连接,您必须启用至少ACCEPTED级别的服务器端NNE。 请参阅 Oracle 文档中 的“配置网络数据加密 ”。 这不适用于改用 TLS 的 Oracle 云连接。
创建Azure Databricks连接
连接指定用于访问外部数据库系统的路径和凭据。 若要创建连接,可以在Azure Databricks笔记本或 Databricks SQL 查询编辑器中使用目录资源管理器或 CREATE CONNECTION SQL 命令。
注意
你还可以使用 Databricks REST API 或 Databricks CLI 来创建连接。 请参阅 POST /api/2.1/unity-catalog/connections 和 Unity Catalog 命令。
所需的权限:具有 CREATE CONNECTION 特权的元存储管理员或用户。
目录浏览器
在Azure Databricks工作区中,单击
Catalog。
在左窗格中,展开“外部数据”菜单,然后选择“连接”。
单击“创建连接”。
在“设置连接”向导的“连接基本信息”页面上,输入用户友好的连接名称。
选择 Oracle 的连接类型。
(可选)添加注释。
单击 “下一步” 。
在 “身份验证 ”页上,为 Oracle 实例输入以下内容:
-
主机:例如
oracle-demo.123456.rds.amazonaws.com -
端口:例如
1521 -
用户:例如
oracle_user -
密码:例如
password123 -
加密协议:
Native Network Encryption(默认)或Transport Layer Security
-
主机:例如
单击“创建连接”。
在 “目录基本信息 ”页上,输入外国目录的名称。 外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity 目录查询和管理对该数据库中数据的访问。
(可选)单击“测试连接”以确认它是否正常工作。
单击“创建目录”。
在 “访问 ”页上,选择用户可以在其中访问所创建的目录的工作区。 您可以选择所有工作区均具有访问权限,或单击分配到工作区,选择工作区,然后单击分配。
更改能够管理对目录中所有对象的访问的 所有者 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
授予对目录的“特权”。 单击“授权”:
指定将有权访问目录中对象的 主体 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
选择“特权预设”以对每个主体授权。 默认情况下,向所有帐户用户授予
BROWSE。- 从下拉菜单中选择 “数据读取者 ”,以授予
read对目录中对象的权限。 - 从下拉菜单中选择 “数据编辑器”,以向
read和modify授予目录中对象的权限。 - 手动选择要授予的权限。
- 从下拉菜单中选择 “数据读取者 ”,以授予
单击授权。
单击 “下一步” 。
在“元数据”页上,指定标记键值对。 有关详细信息,请参阅 将标记应用于 Unity 目录安全对象。
(可选)添加注释。
单击“ 保存”。
SQL
在笔记本或 Databricks SQL 查询编辑器中运行以下命令:
CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>',
encryption_protocol '<protocol>' -- optional
);
Databricks 建议对凭据等敏感值使用 Azure Databricks secrets 而不是纯文本字符串。 例如:
CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>'),
encryption_protocol '<protocol>' -- optional
)
如果必须在笔记本 SQL 命令中使用纯文本字符串,避免截断字符串的方法是通过将特殊字符(如使用 $)转义为 \。 例如:\$。
有关设置机密的详细信息,请参阅机密管理。
创建外国目录
注意
如果使用 UI 创建与数据源的连接,则包含外部目录创建,你可以跳过此步骤。
外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity 目录查询和管理对该数据库中数据的访问。 若要创建外部目录,请使用与已定义的数据源的连接。
若要创建外部目录,可以在Azure Databricks笔记本或 SQL 查询编辑器中使用目录资源管理器或 CREATE FOREIGN CATALOG SQL 命令。 你还可以使用 Databricks REST API 或 Databricks CLI 来创建目录。 请参阅 POST /api/2.1/unity-catalog/catalogs 和 Unity Catalog 命令。
必要的权限:CREATE CATALOG 对元数据存储拥有权限,并且拥有连接的所有权或对连接具有 CREATE FOREIGN CATALOG 权限。
目录浏览器
在Azure Databricks工作区中,单击
Catalog打开目录资源管理器。
在“目录”窗格顶部,单击
“添加”图标,然后从菜单中选择“添加目录”。也可在“快速访问”页中单击“目录”按钮,然后单击“创建目录”按钮。
按照创建目录中的说明创建外部目录。
SQL
在笔记本或 SQL 查询编辑器中运行以下 SQL 命令。 括号中的项是可选的。 替换占位符的值
-
<catalog-name>:Azure Databricks中目录的名称。 -
<connection-name>:指定数据源、路径和访问凭据的连接对象。 -
<service-name>:要在Azure Databricks中作为目录镜像的服务名称。
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (service_name '<service-name>');
支持的下推
下表列出了 Oracle 支持的下推操作以及每个操作所需的计算。
| 下推 | 支持的计算 |
|---|---|
| 聚合 |
|
| 强制转换 |
|
| 包含、以...开始、以...结束 |
|
| 筛选器 |
|
| 限制 |
|
| 抵消 |
|
| 预测结果 |
|
| 联接 |
|
数据类型映射
从 Oracle 读取到 Spark 时,数据类型映射如下所示:
| Oracle 类型 | Spark 类型 |
|---|---|
| 带有时区的时间戳、带有本地时区的时间戳 | 时间戳类型 |
| 日期、TIMESTAMP | 时间戳类型/时间戳NTZ类型* |
| NUMBER、FLOAT | DecimalType** |
| BINARY_FLOAT | 浮点类型 |
| 二进制双精度 | DoubleType |
| CHAR、NCHAR、VARCHAR2、NVARCHAR2 | 字符串类型 |
* DATE 和 TIMESTAMP 在 spark.sql.timestampType = TIMESTAMP_NTZ。
** 不指定精度的 NUMBER 将映射到 DecimalType(38, 10),因为 Spark 中不支持纯浮点十进制。