Dela via


Läsa Databricks-tabeller från Delta-klienter

Den här sidan innehåller en översikt över hur du använder Unity REST API för att få åtkomst till hanterade och externa Unity Catalog-tabeller från externa Delta-klienter. Information om hur du skapar externa Delta-tabeller från externa klienter finns i Skapa externa Delta-tabeller från externa klienter.

Använd Iceberg REST-katalog för att läsa tabeller som är registrerade i Unity Catalog på Azure Databricks från stödda Iceberg-klienter, inklusive Apache Spark och DuckDB.

En fullständig lista över integreringar som stöds finns i Unity Catalog-integreringar.

Tips

Information om hur du läser Azure Databricks-data med Microsoft Fabric finns i Använda Microsoft Fabric för att läsa data som är registrerade i Unity Catalog.

Läsa och skriva med Unity REST API

Unity REST API ger externa klienter läsåtkomst till tabeller som är registrerade i Unity Catalog. Vissa klienter har också stöd för att skapa tabeller och skriva till befintliga tabeller.

Konfigurera åtkomst med hjälp av slutpunkten /api/2.1/unity-catalog.

Krav

Azure Databricks stöder Unity REST API-åtkomst till tabeller som en del av Unity Catalog. Du måste ha Unity Catalog aktiverat på din arbetsyta för att kunna använda dessa slutpunkter. Följande tabelltyper är berättigade till Unity REST API-läsningar:

  • Tabeller hanterade av Unity Catalog.
  • Externa tabeller i Unity Catalog.

Du måste utföra följande konfigurationssteg för att konfigurera åtkomst till att läsa Databricks-objekt från Delta-klienter med hjälp av Unity REST API:

Läsa Delta-tabeller med Apache Spark

Följande är ett exempel på inställningarna för att konfigurera Apache Spark för att läsa hanterade och externa Delta-tabeller i Unity Catalog:

"spark.sql.extensions": "io.delta.sql.DeltaSparkSessionExtension",
"spark.sql.catalog.spark_catalog": "io.unitycatalog.spark.UCSingleCatalog",
"spark.sql.catalog.<uc-catalog-name>": "io.unitycatalog.spark.UCSingleCatalog",
"spark.sql.catalog.<uc-catalog-name>.uri": "<workspace-url>/api/2.1/unity-catalog",
"spark.sql.catalog.<uc-catalog-name>.token":"<token>",
"spark.sql.defaultCatalog":"<uc-catalog-name>"

Ersätt följande variabler:

  • <uc-catalog-name>: Namnet på katalogen i Unity Catalog som innehåller dina tabeller.
  • <workspace-url>: URL för Azure Databricks-arbetsytan.
  • <token>: PAT-token för den huvudansvariga som konfigurerar integrationen.

Viktig

Specifika konfigurationer varierar beroende på vilken typ av molnobjektlagring som säkerhetskopierar katalogen. Se dokumenten för OSS Unity Catalog för ytterligare konfigurationer.