Dela via


Läsa data som delas med Databricks-till-Databricks Delta-delning (för mottagare)

Den här sidan beskriver hur du läser data som delas med dig med databricks-till-Databricks Delta Sharing-protokollet , där Databricks hanterar en säker anslutning för datadelning. Till skillnad från Delta Sharing-protokollet, som är avsett för öppen delning, kräver Databricks-till-Databricks-protokollet inte någon autentiseringsfil (tokenbaserad säkerhet).

Databricks-till-Databricks-delning kräver att du som mottagare uppfyller båda följande krav:

  • Du har åtkomst till en Databricks-arbetsyta som är aktiverad för Unity Catalog.
  • Providern använder Databricks-till-Databricks Delta Sharing-protokollet , inte det öppna delningsprotokollet, som ger dig en autentiseringsfil.

Om något av kraven inte uppfylls, se Läsa data som delas med Delta Sharing öppen delning med bärartoken (för mottagare).

Hur gör jag för att göra delade data tillgängliga för mitt team?

Om du vill läsa data och anteckningsböcker som har delats med dig med hjälp av Databricks-till-Databricks-protokollet måste du vara användare på en Databricks-arbetsyta som har aktiverat Unity Catalog. En medlem i ditt team ger dataleverantören en unik identifierare för ditt Unity Catalog-metaarkiv, och dataleverantören använder den identifieraren för att skapa en säker delningsanslutning till din organisation. Delade data blir sedan tillgängliga för läsåtkomst på din arbetsyta. Uppdateringar som dataprovidern gör i delade tabeller, vyer, volymer och partitioner återspeglas i din arbetsyta nästan i realtid.

Note

Kolumnändringar, till exempel att lägga till, byta namn på eller ta bort, kanske inte visas i Katalogutforskaren på upp till en minut. På samma sätt cachelagras nya delningar och uppdateringar av delningar, inklusive att lägga till nya tabeller, i en minut före de blir tillgängliga för dig att visa och fråga om dem.

Så här läser du data som har delats med dig:

  1. En användare i ditt team hittar resursen – containern för tabeller, vyer, volymer och notebook-filer som har delats med dig – och använder resursen för att skapa en katalog – den översta containern för alla data i Databricks Unity Catalog.
  2. En användare i ditt team beviljar eller nekar åtkomst till katalogen och objekten i katalogen (scheman, tabeller, vyer och volymer) till medlemmar i ditt team.
  3. Du läser data i tabeller, vyer och volymer som du har fått åtkomst till, precis som alla andra datatillgångar i Databricks som du har skrivskyddad (SELECT eller READ VOLUME) åtkomst till.
  4. Du kan förhandsgranska och klona anteckningsböcker i delningen så länge du har behörigheten USE CATALOG i katalogen.

Behörigheter som krävs

För att kunna lista och visa information om alla providers och providerresurser måste du vara metaarkivadministratör eller ha behörigheten USE PROVIDER . Andra användare har endast åtkomst till de leverantörer och resurser som de äger.

Om du vill skapa en katalog från en providerresurs måste du vara metaarkivadministratör, en användare som har både behörigheterna CREATE CATALOG och USE PROVIDER för unity-katalogmetaarkivet eller en användare som har både CREATE CATALOG behörighet och ägarskap för providerobjektet.

Möjligheten att bevilja skrivskyddad åtkomst till scheman (databaser), tabeller, vyer och volymer i katalogen som skapats från resursen följer den typiska behörighetshierarkin i Unity Catalog. Möjligheten att visa notebook-filer i katalogen som skapats från resursen kräver behörigheten USE CATALOG för katalogen. Se Hantera behörigheter för scheman, tabeller och volymer i en Delta Sharing-katalog.

Visa leverantörer och resurser

Om du vill börja läsa de data som har delats med dig av en dataprovider måste du känna till namnet på providern och dela objekt som lagras i Unity Catalog-metaarkivet när providern har delat data med dig.

Providerobjektet representerar Unity Catalog-metaarkivet, molnplattformen och regionen för den organisation som delade data med dig.

Resursobjektet representerar de tabeller, volymer och vyer som providern har delat med dig.

Visa alla leverantörer som har delat data med dig

Om du vill visa en lista över tillgängliga dataprovidrar kan du använda Catalog Explorer, Databricks Unity Catalog CLI eller SHOW PROVIDERS SQL-kommandot i en Azure Databricks-anteckningsbok eller Databricks SQL-frågeredigeraren.

Behörigheter som krävs: Du måste vara administratör för metaarkivet eller ha behörigheten USE PROVIDER . Andra användare har endast åtkomst till de leverantörer och providerresurser som de äger.

Mer information finns i Visa leverantörer.

Visa leverantörsinformation

Om du vill visa information om en provider kan du använda Catalog Explorer, Databricks Unity Catalog CLI eller DESCRIBE PROVIDER SQL-kommandot i en Azure Databricks-notebook-fil eller Databricks SQL-frågeredigeraren.

Behörigheter som krävs: Du måste vara metaarkivadministratör, ha behörighet eller USE PROVIDER äga providerobjektet.

Mer information finns i Visa providerinformation.

Visa andelar

Om du vill visa de resurser som en provider har delat med dig kan du använda Catalog Explorer, Databricks Unity Catalog CLI eller SHOW SHARES IN PROVIDER SQL-kommandot i en Azure Databricks-notebook-fil eller Databricks SQL-frågeredigeraren.

Behörigheter som krävs: Du måste vara metaarkivadministratör, ha behörighet eller USE PROVIDER äga providerobjektet.

Mer information finns i Visa resurser som en provider har delat med dig.

Komma åt data i en delad tabell eller volym

Så här läser du data i en delad tabell eller volym:

  1. En privilegierad användare måste skapa en katalog från resursen som innehåller tabellen eller volymen. Detta kan vara en metaarkivadministratör, en användare som har både behörigheterna CREATE CATALOG och USE PROVIDER för ditt Unity Catalog-metaarkiv eller en användare som har både CREATE CATALOG behörighet och ägarskap för providerobjektet.
  2. Den användaren eller en användare med samma behörighet måste ge dig åtkomst till den delade tabellen eller volymen.
  3. Du kan komma åt tabellen eller volymen på samma sätt som andra datatillgånger som är registrerade i unity-katalogens metaarkiv.

Skapa en katalog från en delning

Om du vill göra data i en resurs tillgängliga för ditt team måste du skapa en katalog från resursen eller montera resursen i en befintlig delad katalog. Om du vill skapa en katalog från en resurs kan du använda Catalog Explorer, Databricks Unity Catalog CLI eller SQL-kommandon i en Azure Databricks-notebook-fil eller Databricks SQL-frågeredigeraren. Om du vill montera resursen i en befintlig delad katalog kan du använda Katalogutforskaren.

Behörigheter som krävs för att skapa en katalog: En metaarkivadministratör, en användare som har både behörigheterna CREATE CATALOG och USE PROVIDER för ditt Unity Catalog-metaarkiv eller en användare som har både CREATE CATALOG behörighet och ägarskap för providerobjektet.

Behörigheter som krävs för att montera resursen i en befintlig katalog: En användare måste ha USE PROVIDER behörighet eller ha ägarskap för providerobjektet och måste också äga den befintliga delade katalogen eller ha både MANAGE och USE CATALOG behörigheter i den befintliga delade katalogen.

Note

Om resursen innehåller vyer måste du använda ett katalognamn som skiljer sig från namnet på katalogen som innehåller vyn i providerns metaarkiv.

Katalogutforskaren

  1. På din Azure Databricks-arbetsyta klickar du på dataikonen.Katalog för att öppna Katalogutforskaren.

  2. Längst upp i fönstret Katalog klickar du på kugghjulsikonen. kugghjulsikonen och väljer Deltadelning.

    Du kan också från sidan Snabbåtkomst klicka på Delta Sharing>-knappen.

  3. På fliken Delat med mig letar du upp och väljer providern.

  4. Hitta önskad resurs och klicka på Montera för att katalogisera på resursraden.

  5. Välj Skapa en ny katalog eller Montera i en befintlig katalog för att lägga till datatillgången i en befintlig katalog.

  6. Ange ett namn på den nya katalogen eller välj vilken befintlig katalog som resursen ska läggas till i.

  7. Klicka på Skapa eller Montera.

När du öppnar Katalogutforskaren kan du också klicka på + > Skapa katalog i det övre högra hörnet för att skapa en delad katalog. Se Skapa kataloger.

SQL

Kör följande kommando i en notebook-fil eller Databricks SQL-frågeredigeraren.

CREATE CATALOG [IF NOT EXISTS] <catalog-name>
USING SHARE <provider-name>.<share-name>;

CLI

databricks catalogs create <catalog-name> /
--provider-name <provider-name> /
--share-name <share-name>

Katalogen som skapats från en delning har en katalogtyp av Deltadelning. Du kan visa typen på sidan kataloginformation i Katalogutforskaren eller genom att köra kommandot DESCRIBE CATALOG SQL i en notebook- eller Databricks SQL-fråga. Alla delade kataloger visas under > i fönstret Katalogutforskaren till vänster.

En deltadelningskatalog kan hanteras på samma sätt som vanliga kataloger i ett Unity Catalog-metaarkiv. Du kan visa, uppdatera och ta bort en deltadelningskatalog genom att använda Catalog Explorer, Databricks CLI samt SHOW CATALOGS, DESCRIBE CATALOG, ALTER CATALOG och DROP CATALOG SQL-kommandon.

Namnområdesstrukturen på 3 nivåer under en deltadelningskatalog som skapats från en resurs är densamma som den under en vanlig katalog i Unity Catalog: catalog.schema.table eller catalog.schema.volume.

Tabell- och volymdata under en delad katalog är endast-läsbart, vilket innebär att du kan utföra läsoperationer som:

  • DESCRIBE, SHOWoch SELECT för tabeller.
  • DESCRIBE VOLUME, LIST <volume-path>, SELECT * FROM <format>.'<volume_path>'och COPY INTO för volymer.

Notebook-filer i en delad katalog kan förhandsgranskas och klonas av alla användare med USE CATALOG i katalogen.

Modeller i en delad katalog kan läsas och läsas in för slutsatsdragning av alla användare med följande behörigheter: EXECUTE behörighet för den registrerade modellen samt USE SCHEMAUSE CATALOG behörigheter för schemat och katalogen som innehåller modellen.

Hantera behörigheter för scheman, tabeller och volymer i en Delta Sharing-katalog

Som standard är katalogskaparen ägare till alla dataobjekt under en deltadelningskatalog och kan hantera behörigheter för någon av dem.

Behörigheter ärvs neråt, även om vissa arbetsytor fortfarande använder den gamla säkerhetsmodellen som inte stödde arv. Se Arvsmodell. Alla användare som beviljats behörigheten SELECT i katalogen har behörighet för SELECT alla scheman och tabeller i katalogen om inte behörigheten återkallas. På samma sätt har alla användare som beviljats READ VOLUME behörigheten i katalogen behörighet för READ VOLUME alla volymer i katalogen om inte behörigheten återkallas. Du kan inte bevilja behörigheter som ger skriv- eller uppdateringsåtkomst till en deltadelningskatalog eller objekt i en deltadelningskatalog.

Katalogägaren kan delegera ägarskapet för dataobjekt till andra användare eller grupper, vilket ger dessa användare möjlighet att hantera objektbehörigheter och livscykeln.

Detaljerad information om hur du hanterar behörigheter för dataobjekt med hjälp av Unity Catalog finns i Hantera privilegier i Unity Catalog.

Läsa data i en delad tabell

Du kan läsa data i en delad tabell med något av de verktyg som är tillgängliga för dig som Azure Databricks-användare: Catalog Explorer, notebook-filer, SQL-frågor, Databricks CLI och Databricks REST-API:er. Du måste ha behörigheten SELECT i tabellen.

Läsa data i en delad utlandstabell eller ett externt schema

Important

Den här funktionen finns i Beta.

Du kan läsa data i en delad extern tabell eller ett externt schema med något av de verktyg som är tillgängliga för dig som Azure Databricks-användare: Catalog Explorer, notebook-filer, SQL-frågor, Databricks CLI och Databricks REST API:er. Du måste ha privilegiet SELECT på den delade externa tabellen eller det delade externa schemat.

Det finns ytterligare kostnader vid åtkomst till en delad sekundärtabell eller ett externt schema. För information om hur delningskostnader beräknas, se Hur uppstår och kontrolleras Delta Sharing-kostnader?.

Läsa data på en delad volym

Du kan läsa data i en delad volym med något av de verktyg som är tillgängliga för dig som Azure Databricks-användare: Catalog Explorer, notebook-filer, SQL-frågor, Databricks CLI och Databricks REST-API:er. Du måste ha behörigheten READ VOLUME på volymen.

Läsa datatillgångar som skyddas av ABAC-principer

Important

Den här funktionen finns i Beta.

Attributbaserad åtkomstkontroll (ABAC) är en datastyrningsmodell som ger flexibel, skalbar och centraliserad åtkomstkontroll i Azure Databricks.

Kontoadministratörer på mottagarsidan måste ange växlingsknappen Attributbaserad åtkomstkontroll för deltadelning till från kontokonsolens förhandsversioner för att läsa delade tabeller som skyddas av ABAC-principer. Detta säkerställer att frågeresultaten är korrekta. Annars finns det en risk att data inte styrs korrekt.

Du kan skapa ABAC-principer för delade tabeller och scheman och kataloger som skapats från en resurs. Se Skapa och hantera principer för attributbaserad åtkomstkontroll (ABAC).

Läsa in en delad modell för slutsatsdragning

Mer information om hur du läser in en delad modell och använder den för batchinferens finns i Läsa in modellversion efter alias för slutsatsdragningsarbetsbelastningar.

Fråga efter en tabells historikdata

Om historiken delas tillsammans med tabellen kan du fråga tabelldata från och med en version eller tidsstämpel. Kräver Databricks Runtime 12.2 LTS eller senare.

Till exempel:

SELECT * FROM vaccine.vaccine_us.vaccine_us_distribution VERSION AS OF 3;
SELECT * FROM vaccine.vaccine_us.vaccine_us_distribution TIMESTAMP AS OF "2023-01-01 00:00:00";

Om ändringsdataflödet (CDF) dessutom är aktiverat för tabellen kan du göra frågor i CDF. Både version och tidsstämpel stöds:

SELECT * FROM table_changes('vaccine.vaccine_us.vaccine_us_distribution', 0, 3);
SELECT * FROM table_changes('vaccine.vaccine_us.vaccine_us_distribution', "2023-01-01 00:00:00", "2022-02-01 00:00:00");

Mer information om ändringsdataflöde finns i Använda Delta Lake-ändringsdataflöde i Azure Databricks.

Ställa frågor mot en tabell med Apache Spark Structured Streaming

Om en tabell delas med historik kan du använda den som källa för Spark Structured Streaming. Kräver Databricks Runtime 12.2 LTS eller senare.

Alternativ som stöds:

  • ignoreDeletes: Ignorera transaktioner som tar bort data.
  • ignoreChanges: Bearbeta uppdateringar igen om filer skrevs om i källtabellen på grund av en dataförändringsåtgärd som UPDATE, MERGE INTO, DELETE (inom partitioner) eller OVERWRITE. Oförändrade rader kan fortfarande genereras. Därför bör nedströmskonsumenterna kunna hantera dubbletter. Raderingar sprids inte vidare. ignoreChanges inkluderar ignoreDeletes. Om du använder ignoreChangesstörs därför inte dataströmmen av borttagningar eller uppdateringar av källtabellen.
  • startingVersion: Den delade tabellversion som ska startas från. Alla tabelländringar från och med den här versionen (inklusive) kommer att läsas av strömningskällan.
  • startingTimestamp: Tidsstämpeln som ska startas från. Alla tabelländringar som har genomförts vid eller efter tidsstämpeln (inklusive) kommer att läsas av strömningens källa. Exempel: "2023-01-01 00:00:00.0"
  • maxFilesPerTrigger: Antalet nya filer som ska beaktas i varje mikrobatch.
  • maxBytesPerTrigger: Mängden data som bearbetas i varje mikrobatch. Det här alternativet anger ett "mjukt maxvärde", vilket innebär att en batch bearbetar ungefär den här mängden data och kan bearbeta mer än gränsen för att få strömningsfrågan att gå framåt i de fall då den minsta indataenheten är större än den här gränsen.
  • readChangeFeed: Stream läser ändringsdataflödet för den delade tabellen.

Alternativ som inte stöds:

  • Trigger.availableNow

Exempel på strukturerade strömningsfrågor

Scala
spark.readStream.format("deltaSharing")
.option("startingVersion", 0)
.option("ignoreChanges", true)
.option("maxFilesPerTrigger", 10)
.table("vaccine.vaccine_us.vaccine_us_distribution")
Python
spark.readStream.format("deltaSharing")\
.option("startingVersion", 0)\
.option("ignoreDeletes", true)\
.option("maxBytesPerTrigger", 10000)\
.table("vaccine.vaccine_us.vaccine_us_distribution")

Om ändringsdataflöde (CDF) är aktiverat med tabellen kan du strömma läsningen av CDF.

spark.readStream.format("deltaSharing")
.option("readChangeFeed", "true")
.table("vaccine.vaccine_us.vaccine_us_distribution")

Använda radfilter och kolumnmasker

Information om hur du använder radfilter och kolumnmasker på tabeller och sekundärtabeller som delas av dataprovidern finns i Tillämpa radfilter och kolumnmasker manuellt. Du kan inte använda kolumnmasker för strömmande tabeller eller materialiserade vyer.

Läs tabeller med borttagningsvektorer eller kolumnmappning aktiverat

Important

Den här funktionen finns i offentlig förhandsversion.

Borttagningsvektorer är en funktion för lagringsoptimering som leverantören kan aktivera i delade Delta-tabeller. Se Vad är borttagningsvektorer?.

Azure Databricks stöder även kolumnmappning för Delta-tabeller. Se Byt namn på och ta bort kolumner med Delta Lake-kolumnmappning.

Om providern har delat en tabell med borttagningsvektorer eller kolumnmappning aktiverat kan du utföra batchläsningar i tabellen med hjälp av ett SQL-lager eller ett kluster som kör Databricks Runtime 14.1 eller senare. CDF- och strömningsfrågor kräver Databricks Runtime 14.2 eller senare.

Du kan utföra batchfrågor som de är, eftersom de automatiskt kan lösas responseFormat baserat på tabellfunktionerna i den delade tabellen.

Om du vill läsa en cdf (change data feed) eller utföra strömmande frågor på delade tabeller med borttagningsvektorer eller kolumnmappning aktiverat måste du ange det ytterligare alternativet responseFormat=delta.

I följande exempel visas frågor om batch, CDF och strömning:

import org.apache.spark.sql.SparkSession

// Batch query
spark.read.format("deltaSharing").table(<tableName>)

// CDF query
spark.read.format("deltaSharing")
  .option("readChangeFeed", "true")
  .option("responseFormat", "delta")
  .option("startingVersion", 1)
  .table(<tableName>)

// Streaming query
spark.readStream.format("deltaSharing").option("responseFormat", "delta").table(<tableName>)

Läsa delade hanterade Iceberg-tabeller

Important

Den här funktionen finns i offentlig förhandsversion.

Läsning av delade hanterade isbergstabeller är detsamma som att läsa delade tabeller, med följande undantag:

Stöd för öppen delning:

Anvisningarna i den här artikeln fokuserar på att läsa delade data med hjälp av Azure Databricks-användargränssnitt, särskilt Unity Catalog-syntax och gränssnitt. På grund av begränsningen av avancerat stöd för Delta-funktioner i deltadelningsanslutningar, stöds inte frågor mot delade hanterade Iceberg-tabeller med Python, Tableau och Power BI.

Ändra dataflöde:

Ändringsdataflöde stöds inte för hanterade isbergstabeller.

Begränsningar för Azure Databricks Iceberg:

Begränsningar för isbergstabeller och hanterade isbergstabeller gäller. Se Begränsningar för isbergstabeller.

Läsa delade vyer

Att läsa delade vyer är detsamma som att läsa delade tabeller, med följande undantag:

Visa delningsbegränsningar:

  • Du kan inte dela vyer som refererar till delade tabeller eller delade vyer.
  • Delade vyer stöder endast en delmängd av inbyggda funktioner och operatorer i Databricks. Se Funktioner som stöds i delade vyer för Databricks-till-Databricks.
  • Mottagare kan inte fråga fler än 20 delade vyer i en fråga i Databricks-till-Databricks-delning. Delade vyer kan inte komma från fler än fem olika provider-andelar.

Namngivningskrav:

Katalognamnet som du använder för den delade katalogen som innehåller vyn kan inte vara samma som någon providerkatalog som innehåller en tabell som refereras av vyn. Om den delade vyn till exempel finns i katalogen test och en av providerns tabeller som refereras i den vyn finns i providerns test katalog resulterar frågan i ett namnområdeskonfliktfel. Se Skapa en katalog från en delning.

Tidsgräns för frågeresultat:

Om du inte har direkt åtkomst till underliggande data, utför Azure Databricks omedelbar materialisering när du kör frågor mot vyn. När den här materialiseringen tar längre tid än 5 minuter överskrider frågan tidsgränsen. Växla till serverlös beräkning för att undvika den här begränsningen.

Historik och strömning:

Du kan inte göra sökningar i historiken eller använda en vy som en strömningskälla.

Visa stöd för öppen delning:

Anvisningarna i den här artikeln fokuserar på att läsa delade data med hjälp av Azure Databricks-användargränssnitt, särskilt Unity Catalog-syntax och gränssnitt. Du kan också köra frågor mot delade vyer med hjälp av Apache Spark-, Python- och BI-verktyg som Tableau och Power BI.

Costs:

För information om hur delningskostnader beräknas, se Hur uppstår och kontrolleras Delta Sharing-kostnader?.

Läsa delade strömmande tabeller och materialiserade vyer

Läsning av delade direktuppspelningstabeller och materialiserade vyer är detsamma som att läsa delade tabeller, med följande undantag:

Stöd för öppen delning:

Anvisningarna i den här artikeln fokuserar på att läsa delade data med hjälp av Azure Databricks-användargränssnitt, särskilt Unity Catalog-syntax och gränssnitt. Du kan också köra frågor mot delade strömningstabeller och materialiserade vyer med hjälp av Apache Spark-, Python- och BI-verktyg som Tableau och Power BI.

SQL-begränsningar:

  • Funktionen current_recipient stöds inte.
  • Kommandot DESCRIBE EXTENDED stöds inte.

Kolumnmappning:

Om du använder klassisk beräkning när du tar emot en resurs från ett annat Azure Databricks-konto måste du ange responseFormat följande när du frågar efter en materialiserad vy eller strömmande tabeller med kolumnmappning.

spark.read.option("responseFormat", "delta").table("catalog_name.schema_name.mv_name")

Om du använder klassisk beräkning när du delar på samma Azure Databricks-konto eller serverlös beräkning i alla scenarion kan du fråga utan begränsningar.

Costs:

För information om hur delningskostnader beräknas, se Hur uppstår och kontrolleras Delta Sharing-kostnader?.

Materialiserade vyspecifika undantag

History:

Du kan inte fråga om historien.

Refresh:

Du kan inte komma åt uppdateringsstatusen och uppdateringsschemat för den materialiserade vyn.

Skapa visnings- och strömningstabeller:

Du kan inte skapa strömmande tabeller i delade materialiserade vyer.

Specifika undantag för direktuppspelningstabell

History:

Frågehistoriken är tillgänglig vid följande Databricks-till-Databricks-delningar:

  • Du använder serverlös beräkning när du delar med ett annat Azure Databricks-konto.

  • Du använder serverlös eller klassisk beräkning när du delar på samma Azure Databricks-konto.

Mer information om olika beräkningar finns i Beräkning.

Refresh:

Du kan inte komma åt uppdateringsstatusen och uppdateringsschemat för den strömmande tabellen.

Läsa delade anteckningsböcker

Om du vill förhandsgranska och klona delade notebook-filer kan du använda Katalogutforskaren.

Lagringsbegränsning: Om ditt lagringsutrymme använder privata slutpunkter kan du inte läsa delade notebook-filer.

Behörigheter som krävs: Katalogägare eller användare med behörigheten USE CATALOG för katalogen som skapats från resursen.

  1. På din Azure Databricks-arbetsyta klickar du på dataikonen.Katalog.

  2. I den vänstra rutan expanderar du menyn Katalog , letar upp och väljer katalogen som skapats från resursen.

  3. På fliken Andra tillgångar visas alla delade notebook-filer.

  4. Klicka på namnet på en delad notebook-fil för att förhandsgranska den.

  5. (Valfritt) Klicka på knappen Klona för att importera den delade notebook-filen till din arbetsyta.

    1. I dialogrutan Klona till kan du ange ett Nytt namn och sedan välja den arbetsytemapp som du vill klona notebook-filen till.
    2. Klicka på Klona.
    3. När anteckningsfilen har klonats visas en dialogruta som informerar dig om att kloningen har lyckats. Klicka på Visa i anteckningsboksredigeraren i dialogrutan för att visa den i anteckningsboksredigeraren.

    Se Databricks notebooks.

Demontera en resurs

Demontera en resurs för att ta bort datatillgången från katalogen.

Behörigheter som krävs: Användare med behörigheterna USE CATALOG och MANAGE i den delade katalogen.

  1. På din Azure Databricks-arbetsyta klickar du på dataikonen.Katalog för att öppna Katalogutforskaren.

  2. Längst upp i fönstret Katalog klickar du på kugghjulsikonen. kugghjulsikonen och väljer Deltadelning.

    Du kan också från sidan Snabbåtkomst klicka på Delta Sharing>-knappen.

  3. På fliken Delat med mig letar du upp och väljer providern.

  4. Klicka på Kebabmenyikonen. På delaraden.

  5. Klicka på Avmontera resurs.

  6. Klicka på Mata ut.