Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här sidan innehåller en översikt över hur du använder Unity REST API för att få åtkomst till hanterade och externa Unity Catalog-tabeller från externa Delta-klienter. Information om hur du skapar externa Delta-tabeller från externa klienter finns i Skapa externa Delta-tabeller från externa klienter.
Använd Iceberg REST-katalog för att läsa tabeller som är registrerade i Unity Catalog på Azure Databricks från stödda Iceberg-klienter, inklusive Apache Spark och DuckDB.
En fullständig lista över integreringar som stöds finns i Unity Catalog-integreringar.
Tips
Information om hur du läser Azure Databricks-data med Microsoft Fabric finns i Använda Microsoft Fabric för att läsa data som är registrerade i Unity Catalog.
Läsa och skriva med Unity REST API
Unity REST API ger externa klienter läsåtkomst till tabeller som är registrerade i Unity Catalog. Vissa klienter har också stöd för att skapa tabeller och skriva till befintliga tabeller.
Konfigurera åtkomst med hjälp av slutpunkten /api/2.1/unity-catalog.
Krav
Azure Databricks stöder Unity REST API-åtkomst till tabeller som en del av Unity Catalog. Du måste ha Unity Catalog aktiverat på din arbetsyta för att kunna använda dessa slutpunkter. Följande tabelltyper är berättigade till Unity REST API-läsningar:
- Tabeller hanterade av Unity Catalog.
- Externa tabeller i Unity Catalog.
Du måste utföra följande konfigurationssteg för att konfigurera åtkomst till att läsa Databricks-objekt från Delta-klienter med hjälp av Unity REST API:
- Aktivera extern dataåtkomst för ditt metaarkiv. Se Aktivera åtkomst till externa data i metaarkivet.
- Ge huvudkontot som konfigurerar integreringen behörigheten
EXTERNAL USE SCHEMAför schemat som innehåller objekten. Se Bevilja en huvudbehörighet för Unity Catalog. - Autentisera med en personlig Databricks-åtkomsttoken. Se Auktorisera åtkomst till Azure Databricks-resurser.
Läsa Delta-tabeller med Apache Spark
Följande är ett exempel på inställningarna för att konfigurera Apache Spark för att läsa hanterade och externa Delta-tabeller i Unity Catalog:
"spark.sql.extensions": "io.delta.sql.DeltaSparkSessionExtension",
"spark.sql.catalog.spark_catalog": "io.unitycatalog.spark.UCSingleCatalog",
"spark.sql.catalog.<uc-catalog-name>": "io.unitycatalog.spark.UCSingleCatalog",
"spark.sql.catalog.<uc-catalog-name>.uri": "<workspace-url>/api/2.1/unity-catalog",
"spark.sql.catalog.<uc-catalog-name>.token":"<token>",
"spark.sql.defaultCatalog":"<uc-catalog-name>"
Ersätt följande variabler:
-
<uc-catalog-name>: Namnet på katalogen i Unity Catalog som innehåller dina tabeller. -
<workspace-url>: URL för Azure Databricks-arbetsytan. -
<token>: PAT-token för den huvudansvariga som konfigurerar integrationen.
Viktig
Specifika konfigurationer varierar beroende på vilken typ av molnobjektlagring som säkerhetskopierar katalogen. Se dokumenten för OSS Unity Catalog för ytterligare konfigurationer.