在 Oracle 上运行联合查询

本页介绍如何设置 Lakehouse 联邦,以对未由 Azure Databricks 管理的 Oracle 数据运行联邦查询。 若要了解有关 Lakehouse 联合的更多信息,请参阅 什么是 Lakehouse 联合?

若要使用 Lakehouse Federation 连接到 Oracle 数据库,必须在 Azure Databricks Unity Catalog 元存储中创建以下内容:

  • 与 Oracle 数据库的连接
  • 一个外部目录,它镜像 Unity Catalog 中的 Oracle 数据库,以便你可使用 Unity Catalog 查询语法和数据治理工具来管理 Azure Databricks 用户对数据库的访问。

Limitations

  • Lakehouse 联合身份验证仅支持到 Oracle 云的传输层安全性(TLS)连接。 与其他 Oracle 数据库的连接使用本机网络加密 (NNE)。

  • 连接到实例 11.2.0.3.0 及更高版本时存在一个已知问题,该实例没有时区值 Etc/UTC (错误: ) ORA-01882: timezone region not found

    • 解决方法:使用 spark.databricks.connector.oracle.timezoneAsRegion 直接映射到 JDBC 驱动程序属性的配置 oracle.jdbc.timezoneAsRegion
    • 警告:解决方法可能会导致错误的夏令时(DST)行为。 如需帮助,请联系 Oracle 支持人员。

License

Oracle 驱动程序和其他必要的 Oracle jar 受无点击 FDHUT 许可证的约束。

在您开始之前

在开始之前,请确认你满足本部分中的要求。

Databricks requirements

Workspace requirements:

  • 已为 Unity Catalog 启用工作区。

Compute requirements:

  • 计算资源与目标数据库系统之间的网络连接。 请参阅 Lakehouse Federation 网络建议
  • Azure Databricks 计算必须使用 Databricks Runtime 16.1 或更高版本以及 标准专用 访问模式。
  • SQL 仓库必须是 Pro 或无服务器仓库,且必须使用 2024.50 或更高版本。

Permissions required:

  • 若要创建连接,你必须是元存储管理员或对附加到工作区的 Unity Catalog 元存储具有 CREATE CONNECTION 权限的用户。
  • 若要创建外部目录,你必须对元存储具有 CREATE CATALOG 权限,并且是连接的所有者或对连接具有 CREATE FOREIGN CATALOG 特权。

后面的每个基于任务的部分中都指定了其他权限要求。

Oracle requirements

对于使用本机网络加密的连接,必须至少启用服务器端 NNE(ACCEPTED 级别)。 请参阅 Oracle 文档中 的“配置网络数据加密 ”。 这不适用于改用 TLS 的 Oracle 云连接。

创建 Azure Databricks 连接

连接指定用于访问外部数据库系统的路径和凭据。 若要创建连接,可以使用目录资源管理器,或者使用 Azure Databricks 笔记本或 Databricks SQL 查询编辑器中的 CREATE CONNECTION SQL 命令。

Note

你还可以使用 Databricks REST API 或 Databricks CLI 来创建连接。 请参阅 POST /api/2.1/unity-catalog/connectionsUnity Catalog 命令

所需的权限:具有 CREATE CONNECTION 特权的元存储管理员或用户。

Catalog Explorer

  1. 在 Azure Databricks 工作区中,单击 “数据”图标。目录
  2. 在左窗格中,展开“外部数据”菜单,然后选择“连接”。
  3. 单击“ 创建连接”。
  4. 在“设置连接”向导的“连接基本信息”页上,输入一个用户友好的“连接名称”
  5. 选择 Oracle连接类型
  6. (可选)添加注释。
  7. Click Next.
  8. “身份验证 ”页上,为 Oracle 实例输入以下内容:
    • 主机:例如 oracle-demo.123456.rds.amazonaws.com
    • 端口:例如 1521
    • 用户:例如 oracle_user
    • 密码:例如 password123
    • 加密协议Native Network Encryption (默认)或 Transport Layer Security
  9. 单击“ 创建连接”。
  10. “目录基本信息 ”页上,输入外国目录的名称。 外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。
  11. (可选)单击“测试连接”以确认它是否正常工作。
  12. 单击“创建目录”。
  13. “访问 ”页上,选择用户可以在其中访问所创建的目录的工作区。 您可以选择所有工作区均具有访问权限,或单击分配到工作区,选择工作区,然后单击分配
  14. 更改能够管理对目录中所有对象的访问的 所有者 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
  15. 授予对目录的“特权”。 Click Grant:
    1. 指定将有权访问目录中对象的 主体 。 开始在文本框中键入主体,然后单击返回的结果中的主体。
    2. 选择要授予每个主体的“特权预设”。 默认情况下,向所有帐户用户授予 BROWSE
      • 从下拉菜单中选择 “数据读取者 ”,以授予 read 对目录中对象的权限。
      • 从下拉菜单中选择 “数据编辑器”,以向 readmodify 授予目录中对象的权限。
      • 手动选择要授予的权限。
    3. Click Grant.
  16. Click Next.
  17. 在“元数据”页上,指定标记键值对。 有关详细信息,请参阅 将标记应用于 Unity 目录安全对象
  18. (可选)添加注释。
  19. Click Save.

SQL

在笔记本或 Databricks SQL 查询编辑器中运行以下命令:

CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
  host '<hostname>',
  port '<port>',
  user '<user>',
  password '<password>',
  encryption_protocol '<protocol>' -- optional
);

Databricks 建议对凭据等敏感值使用 Azure Databricks 机密,而不是纯文本字符串。 For example:

CREATE CONNECTION <connection-name> TYPE oracle
OPTIONS (
  host '<hostname>',
  port '<port>',
  user secret ('<secret-scope>','<secret-key-user>'),
  password secret ('<secret-scope>','<secret-key-password>'),
  encryption_protocol '<protocol>' -- optional
)

如果必须在笔记本 SQL 命令中使用纯文本字符串,请通过使用 $ 转义特殊字符(例如 \)来避免字符串被截断。 例如: \$

有关设置机密的详细信息,请参阅机密管理

创建外部目录

Note

如果使用 UI 创建与数据源的连接,则包含外部目录创建,你可以跳过此步骤。

外部目录镜像外部数据系统中的数据库,以便可以使用 Azure Databricks 和 Unity Catalog 查询和管理对该数据库中数据的访问。 若要创建外部目录,请使用与已定义的数据源的连接。

要创建外部目录,可以使用目录资源管理器,或在 Azure Databricks 笔记本或 SQL 查询编辑器中使用 CREATE FOREIGN CATALOG SQL 命令。 你还可以使用 Databricks REST API 或 Databricks CLI 来创建目录。 请参阅 POST /api/2.1/unity-catalog/catalogsUnity Catalog 命令

所需的权限:对元存储的 CREATE CATALOG 权限以及连接的所有权或对连接的 CREATE FOREIGN CATALOG 特权。

Catalog Explorer

  1. 在 Azure Databricks 工作区中,单击“目录”以打开目录资源管理器。数据图标。

  2. 在“目录”窗格顶部,单击 “添加”或加号图标图标,然后从菜单中选择“添加目录”

    也可在“快速访问”页中单击“目录”按钮,然后单击“创建目录”按钮。

  3. 按照说明在 “创建目录”中创建外部目录。

SQL

在笔记本或 SQL 查询编辑器中运行以下 SQL 命令。 括号中的项是可选的。 替换占位符的值:

  • <catalog-name>:Azure Databricks 中目录的名称。
  • <connection-name>:指定数据源、路径和访问凭据的连接对象
  • <service-name>:要在 Azure Databricks 中镜像为目录的服务名称。
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (service_name '<service-name>');

Supported pushdowns

支持以下下推:

  • Filters
  • Projections
  • Limit
  • Aggregates
  • Offset
  • Cast
  • Contains、Startswith、Endswith

数据类型映射

从 Oracle 读取到 Spark 时,数据类型映射如下所示:

Oracle type Spark type
TIMESTAMP WITH TIMEZONE,TIMESTAMP WITH LOCAL TIMEZONE TimestampType
DATE, TIMESTAMP TimestampType/TimestampNTZType*
NUMBER, FLOAT DecimalType**
BINARY FLOAT FloatType
BINARY DOUBLE DoubleType
CHAR、NCHAR、VARCHAR2、NVARCHAR2 StringType

* 如果 ,则 DATE 和 TIMESTAMP 映射到 Spark TimestampType(默认值)。 如果为 spark.sql.timestampType = TIMESTAMP_NTZ,则会映射到 TimestampNTZType。

** 不指定精度的 NUMBER 将映射到 DecimalType(38, 10),因为 Spark 中不支持纯浮点十进制。