Dela via


bundle kommandogrupp

Note

Den här informationen gäller för Databricks CLI-versionerna 0.205 och senare. Databricks CLI finns i offentlig förhandsversion.

Databricks CLI-användning omfattas av Databricks-licensen och Databricks sekretessmeddelande, inklusive eventuella användningsdatabestämmelser.

Kommandogruppen bundle i Databricks CLI innehåller kommandon för att hantera Databricks-tillgångspaket. Med Databricks-tillgångspaket kan du uttrycka projekt som kod och programmatiskt verifiera, distribuera och köra Azure Databricks-arbetsflöden som Azure Databricks-jobb, Lakeflow Deklarativa pipelines och MLOps Stacks. Se Vad är Databricks-tillgångspaket?.

Note

Paketkommandon använder inställningarna i databricks.yml för autentisering när de körs inifrån paketmappen. Om du vill köra paketkommandon med olika autentisering inifrån paketmappen anger du en konfigurationsprofil med --profile flaggan (eller -p) och anger inte en --target.

Du kan också köra kommandon som inte behöver samma autentisering som paketet utanför paketmappen.

distribuera databricks-paket

Distribuera ett paket till fjärrarbetsytan.

databricks bundle deploy [flags]

Paketmål och identitet

Om du vill distribuera paketet till ett specifikt mål anger du -t alternativet (eller --target) tillsammans med målets namn enligt beskrivningen i paketkonfigurationsfilerna. Om inga kommandoalternativ anges används standardmålet som deklarerats i paketkonfigurationsfilerna. Till exempel för ett mål som deklarerats med namnet dev:

databricks bundle deploy -t dev

Ett paket kan distribueras till flera arbetsytor, till exempel arbetsytor för utveckling, mellanlagring och produktion. I grunden är egenskapen root_path det som avgör ett pakets unika identitet, och som standard är ~/.bundle/${bundle.name}/${bundle.target}. Därför består ett pakets identitet som standard av identiteten för distribueraren, paketets namn och paketets målnamn. Om dessa är identiska i olika paket stör distributionen av dessa paket varandra.

Dessutom spårar en paketdistribution de resurser som skapas på målarbetsytan med deras ID:n som ett tillstånd som lagras i arbetsytans filsystem. Resursnamn används inte för att korrelera mellan en paketdistribution och en resursinstans, så:

  • Om det inte finns någon resurs i paketkonfigurationen på målarbetsytan skapas den.
  • Om det finns en resurs i paketkonfigurationen på målarbetsytan uppdateras den på arbetsytan.
  • Om en resurs tas bort från paketkonfigurationen tas den bort från målarbetsytan om den tidigare distribuerades.
  • En resursassociation med ett paket kan bara glömmas om du ändrar paketnamnet, paketmålet eller arbetsytan. Du kan köra bundle validate för att generera en sammanfattning som innehåller dessa värden.

Alternativ

--auto-approve

    Hoppa över interaktiva godkännanden som kan krävas för distribution.

-c, --cluster-id string

    Åsidosätt klustret i distributionen med det angivna kluster-ID:t.

--fail-on-active-runs

    Det går inte att köra jobb eller pipelines i distributionen.

--force

    Tvinga fram verifiering av Git-grenen.

--force-lock

    Framtvinga förvärv av distributionslås.

Globala flaggor

Exempel

I följande exempel distribueras ett paket med ett specifikt kluster-ID:

databricks bundle deploy --cluster-id 0123-456789-abcdef

distribution av databricks-paket

Distributionsrelaterade kommandon.

databricks bundle deployment [command]

Tillgängliga kommandon

  • bind – Binda en paketdefinierad resurs till en befintlig resurs på fjärrarbetsytan.
  • unbind – Ta bort en paketdefinierad resurs från dess fjärrresurs.

distributionsbindning för databricks-paket

Länka paketdefinierade resurser till befintliga resurser på Azure Databricks-arbetsytan så att de hanteras av Databricks-tillgångspaket. Om du binder en resurs uppdateras den befintliga Azure Databricks-resursen på arbetsytan baserat på konfigurationen som definierats i paketet som den är bunden till efter nästa bundle deploy.

databricks bundle deployment bind KEY RESOURCE_ID [flags]

Bindning återskapar inte data. Om till exempel en pipeline med data i en katalog hade bindning tillämpats kan du distribuera till pipelinen utan att förlora befintliga data. Dessutom behöver du inte omkomplera den materialiserade vyn, till exempel så att pipelines inte behöver köras igen.

Bindningskommandot ska användas med --target flaggan. Du kan till exempel binda produktionsdistributionen till din produktionspipeline med hjälp av databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929

Tip

Det är en bra idé att bekräfta resursen i arbetsytan innan du kör bind.

Bindning stöds för följande resurser:

Argumentpunkter

KEY

    Resursnyckeln som ska bindas

RESOURCE_ID

    ID:t för den befintliga resursen som ska bindas till

Alternativ

--auto-approve

    Godkänn bindningen automatiskt i stället för att fråga

--force-lock

    Framtvinga förvärv av distributionslås.

Globala flaggor

Exempel

Följande kommando binder resursen hello_job till dess fjärrmotsvarighet på arbetsytan. Kommandot visar en skillnad och gör det möjligt för dig att neka resursbindningen, men om det bekräftas, tillämpas alla uppdateringar av jobbdefinitionen i paketet på motsvarande fjärrjobb när paketet distribueras nästa gång.

databricks bundle deployment bind hello_job 6565621249

distribution av databricks-paket utan bindning

Ta bort länken mellan resursen i ett paket och dess fjärrmotsvarighet på en arbetsyta.

databricks bundle deployment unbind KEY [flags]

Argumentpunkter

KEY

    Resursnyckeln som ska avbindas

Alternativ

--force-lock

    Framtvinga förvärv av distributionslås.

Globala flaggor

Exempel

I följande exempel avbinds resursen hello_job :

databricks bundle deployment unbind hello_job

databricks-paket förstör

Warning

Om du förstör ett paket tas ett pakets tidigare distribuerade jobb, pipelines och artefakter bort permanent. Det går inte att ångra den här åtgärden.

Ta bort jobb, pipelines, andra resurser och artefakter som tidigare har distribuerats.

databricks bundle destroy [flags]

Note

En paketidentitet består av paketnamnet, paketmålet och arbetsytan. Om du har ändrat något av dessa och sedan försöker förstöra ett paket före distributionen uppstår ett fel.

Som standardinställning uppmanas du att bekräfta permanent radering av tidigare utplacerade jobb, pipelines och artefakter. Om du vill hoppa över dessa frågor och utföra automatisk permanent borttagning lägger du till --auto-approve alternativet i bundle destroy kommandot .

Alternativ

--auto-approve

    Hoppa över interaktiva godkännanden för att ta bort resurser och filer

--force-lock

    Framtvinga förvärv av distributionslås.

Globala flaggor

Exempel

Följande kommando tar bort alla tidigare distribuerade resurser och artefakter som definieras i paketkonfigurationsfilerna:

databricks bundle destroy

databricks-paket genererar

Generera paketkonfiguration för en resurs som redan finns på databricks-arbetsytan. Följande resurser stöds: app, instrumentpanel, jobb, pipeline.

Som standard genererar det här kommandot en *.yml fil för resursen resources i mappen i paketprojektet och laddar även ned filer, till exempel notebook-filer, som refereras till i konfigurationen.

Important

Kommandot bundle generate tillhandahålls som en bekvämlighet för att generera resurskonfiguration automatiskt. Men när resurskonfigurationen ingår i paketet och distribueras skapar den en ny resurs och uppdaterar inte den befintliga resursen om den inte bundle deployment bind först har använts. Se distributionsbindningen för databricks-paket.

databricks bundle generate [command]

Tillgängliga kommandon

  • app – Generera paketkonfiguration för en Databricks-app.
  • dashboard – Generera konfiguration för en instrumentpanel.
  • job – Generera paketkonfiguration för ett jobb.
  • pipeline – Generera paketkonfiguration för en pipeline.

Alternativ

--key string

    Resursnyckel som ska användas för den genererade konfigurationen

Globala flaggor

databricks-paket genererar app

Generera paketkonfiguration för en befintlig Databricks-app på arbetsytan.

databricks bundle generate app [flags]

Alternativ

-d, --config-dir string

    Katalogsökväg där konfigurationen av utdatapaketet lagras (standard "resurser")

--existing-app-name string

    Appnamn för att generera konfiguration för

-f, --force

    Tvinga överskrivning av befintliga filer i utdatakatalogen

-s, --source-dir string

    Katalogsökväg där appfilerna ska lagras (standard "src/app")

Globala flaggor

Exempel

I följande exempel genereras konfiguration för en befintlig app med namnet my-app. Du kan hämta appnamnet från fliken Compute>Apps i arbetsytans användargränssnitt.

databricks bundle generate app --existing-app-name my-app

Följande kommando genererar en ny hello_world.app.yml fil i paketprojektmappen resources och laddar ned appens kodfiler, till exempel appens kommandokonfigurationsfil app.yaml och huvudfilen app.py. Som standard kopieras kodfilerna till paketets src mapp.

databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
  apps:
    hello_world:
      name: hello-world
      description: A basic starter application.
      source_code_path: ../src/app

databricks-paket genererar instrumentpanel

Generera konfiguration för en befintlig instrumentpanel på arbetsytan.

databricks bundle generate dashboard [flags]

Tip

Om du vill uppdatera .lvdash.json filen när du redan har distribuerat en instrumentpanel använder --resource du alternativet när du kör bundle generate dashboard för att generera filen för den befintliga instrumentpanelsresursen. Använd alternativen --force och --watch för att kontinuerligt avsöka och hämta uppdateringar till en instrumentpanel.

Alternativ

-s, --dashboard-dir string

    Katalog för att skriva instrumentpanelens representation till (standard "src")

--existing-id string

    ID för instrumentpanelen för att generera konfiguration för

--existing-path string

    Arbetsytans sökväg till instrumentpanelen för att generera konfiguration för

-f, --force

    Tvinga överskrivning av befintliga filer i utdatakatalogen

--resource string

    Resursnyckel för instrumentpanelen för att hålla utkik efter ändringar

-d, --resource-dir string

    Katalog som konfigurationen ska skrivas till (standard "resurser")

--watch

    Håll utkik efter ändringar på instrumentpanelen och uppdatera konfigurationen

Globala flaggor

Exempel

I följande exempel genereras konfigurationen av ett befintligt instrumentpanels-ID:

databricks bundle generate dashboard --existing-id abc123

Du kan också generera konfiguration för en befintlig instrumentpanel efter arbetsytesökväg. Kopiera arbetsytans sökväg för en instrumentpanel från arbetsytans användargränssnitt.

Följande kommando genererar till exempel en ny baby_gender_by_county.dashboard.yml fil i paketprojektmappen resources som innehåller YAML nedan och laddar ned baby_gender_by_county.lvdash.json filen till projektmappen src .

databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
  dashboards:
    baby_gender_by_county:
      display_name: 'Baby gender by county'
      warehouse_id: aae11o8e6fe9zz79
      file_path: ../src/baby_gender_by_county.lvdash.json

databricks-paket genererar jobb

Generera paketkonfiguration för ett jobb.

Note

För närvarande stöds endast jobb med notebook-uppgifter med det här kommandot.

databricks bundle generate job [flags]

Alternativ

-d, --config-dir string

    Dir-sökväg där utdatakonfigurationen lagras (standard "resurser")

--existing-job-id int

    Jobb-ID för jobbet som ska generera konfiguration för

-f, --force

    Tvinga överskrivning av befintliga filer i utdatakatalogen

-s, --source-dir string

    Dir-sökväg där de nedladdade filerna lagras (standard "src")

Globala flaggor

Exempel

I följande exempel genereras en ny hello_job.yml fil i paketprojektmappen resources som innehåller YAML nedan och laddar ned simple_notebook.py till projektmappen src .

databricks bundle generate job --existing-job-id 6565621249
# This is the contents of the resulting hello_job.yml file.
resources:
  jobs:
    hello_job:
      name: 'Hello Job'
      tasks:
        - task_key: run_notebook
          email_notifications: {}
          notebook_task:
            notebook_path: ../src/simple_notebook.py
            source: WORKSPACE
          run_if: ALL_SUCCESS
      max_concurrent_runs: 1

databricks-paket genererar pipeline

Generera paketkonfiguration för en pipeline.

databricks bundle generate pipeline [flags]

Alternativ

-d, --config-dir string

    Dir-sökväg där utdatakonfigurationen lagras (standard "resurser")

--existing-pipeline-id string

    ID för pipelinen som ska generera konfiguration för

-f, --force

    Tvinga överskrivning av befintliga filer i utdatakatalogen

-s, --source-dir string

    Dir-sökväg där de nedladdade filerna lagras (standard "src")

Globala flaggor

Exempel

I följande exempel genereras konfiguration för en befintlig pipeline:

databricks bundle generate pipeline --existing-pipeline-id abc-123-def

databricks bundle init

Initiera ett nytt paket med hjälp av en paketmall. Mallar kan konfigureras för att fråga användaren om värden. Se Projektmallar för Databricks Asset Bundle.

databricks bundle init [TEMPLATE_PATH] [flags]

Argumentpunkter

TEMPLATE_PATH

    Mall som ska användas för initiering (valfritt)

Alternativ

--branch string

    Git-gren som ska användas för mallinitiering

--config-file string

    JSON-fil som innehåller nyckelvärdepar med indatapar som krävs för mallinitiering.

--output-dir string

    Katalog som den initierade mallen ska skrivas till.

--tag string

    Git-tagg som ska användas för mallinitiering

--template-dir string

    Katalogsökväg i en Git-lagringsplats som innehåller mallen.

Globala flaggor

Exempel

Följande exempel frågar med en lista över standardpaketmallar som du kan välja mellan:

databricks bundle init

I följande exempel initieras ett paket med python-standardmallen:

databricks bundle init default-python

Om du vill skapa ett Databricks-tillgångspaket med en anpassad Databricks-mall för tillgångspaket anger du den anpassade mallsökvägen:

databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"

I följande exempel initieras ett paket från en Git-lagringsplats:

databricks bundle init https://github.com/my/repository

I följande exempel initieras med en specifik gren:

databricks bundle init --branch main

databricks-paket öppet

Gå till en paketresurs på arbetsytan och ange den resurs som ska öppnas. Om en resursnyckel inte har angetts matar det här kommandot ut en lista över paketets resurser som du vill välja bland.

databricks bundle open [flags]

Alternativ

--force-pull

    Hoppa över lokal cache och läs in tillståndet från fjärrarbetsytan

Globala flaggor

Exempel

I följande exempel startas en webbläsare och navigerar till baby_gender_by_county instrumentpanelen i paketet på Databricks-arbetsytan som är konfigurerad för paketet:

databricks bundle open baby_gender_by_county

databricks-paketplan

Visa distributionsplanen för den aktuella paketkonfigurationen.

Det här kommandot skapar paketet och visar de åtgärder som ska utföras på resurser som skulle distribueras, utan att göra några ändringar. På så sätt kan du förhandsgranska ändringar innan du kör bundle deploy.

databricks bundle plan [flags]

Alternativ

-c, --cluster-id string

    Åsidosätt klustret i distributionen med det angivna kluster-ID:t.

--force

    Tvinga fram verifiering av Git-grenen.

Globala flaggor

Exempel

I följande exempel matas distributionsplanen ut för ett paket som skapar ett Python-hjul och definierar ett jobb och en pipeline:

databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline

databricks-paketkörning

Kör ett jobb, en pipeline eller ett skript. Om du inte anger en resurs kommer kommandot att visa definierade jobb, pipelines och skript från vilka du kan välja. Du kan också ange jobbet eller pipelinenyckeln eller skriptnamnet som deklarerats i paketkonfigurationsfilerna.

databricks bundle run [flags] [KEY]

Verifiera en pipeline

Om du vill utföra en pipelineverifieringskörning använder du --validate-only alternativet, som du ser i följande exempel:

databricks bundle run --validate-only my_pipeline

Överför jobbparametrar

Om du vill skicka jobbparametrar använder du --params alternativet följt av kommaavgränsade nyckel/värde-par, där nyckeln är parameternamnet. Följande kommando anger till exempel parametern med namnet messageHelloWorld för jobbet hello_job:

databricks bundle run --params message=HelloWorld hello_job

Note

Som du ser i följande exempel kan du skicka parametrar till jobbaktiviteter med hjälp av jobbaktivitetsalternativen --params , men alternativet är den rekommenderade metoden för att skicka jobbparametrar. Ett fel uppstår om jobbparametrar anges för ett jobb som inte har definierat jobbparametrar eller om aktivitetsparametrar har angetts för ett jobb som har definierat jobbparametrar.

Du kan också ange nyckelord eller positionsargument. Om det angivna jobbet använder jobbparametrar eller om jobbet har en notebook-uppgift med parametrar mappas flaggnamnen till parameternamnen:

databricks bundle run hello_job -- --key1 value1 --key2 value2

Eller om det angivna jobbet inte använder jobbparametrar och jobbet har en Python-filaktivitet eller en Python-hjulaktivitet:

databricks bundle run my_job -- value1 value2 value3

Ett exempel på en jobbdefinition med parametrar finns i Jobb med parametrar.

Köra skript

Om du vill köra skript som integreringstester med ett pakets konfigurerade autentiseringsuppgifter kan du antingen köra skript infogade eller köra ett skript som definierats i paketkonfigurationen. Skript körs med samma autentiseringskontext som konfigurerats i paketet.

  • Lägg till ett dubbelt bindestreck (--) efter bundle run för att köra skript inline. Följande kommando matar till exempel ut den aktuella användarens aktuella arbetskatalog:

    databricks bundle run -- python3 -c 'import os; print(os.getcwd())'
    
  • Du kan också definiera ett skript i mappningen scripts i paketkonfigurationen och sedan använda bundle run för att köra skriptet:

    scripts:
      my_script:
        content: python3 -c 'import os; print(os.getcwd())'
    
    databricks bundle run my_script
    

    Mer information om scripts konfiguration finns i skript och skript.

Information om paketautentisering skickas till underordnade processer med hjälp av miljövariabler. Se Enhetlig autentisering för Databricks.

Argumentpunkter

KEY

    Den unika identifieraren för resursen som ska köras (valfritt)

Alternativ

--no-wait

    Vänta inte tills körningen har slutförts.

--restart

    Starta om körningen om den redan körs.

Globala flaggor

Jobbflaggor

Följande flaggor är parameterflaggor på jobbnivå. Se Konfigurera jobbparametrar.

--params stringToString

    kommaavgränsade k=v-par för jobbpar (standard [])

Jobbaktivitetsflaggor

Följande flaggor är parameterflaggor på aktivitetsnivå. Se Konfigurera aktivitetsparametrar. Databricks rekommenderar att du använder parametrar på jobbnivå (--params) över parametrar på aktivitetsnivå.

--dbt-commands strings

    En lista över kommandon som ska köras för jobb med DBT-uppgifter.

--jar-params strings

    En lista över parametrar för jobb med Spark JAR-uppgifter.

--notebook-params stringToString

    En mappning från nycklar till värden för jobb med notebook-uppgifter. (standard [])

--pipeline-params stringToString

    En mappning från nycklar till värden för jobb med pipelineaktiviteter. (standard [])

--python-named-params stringToString

    En karta från nycklar till värden för jobb med Python-hjuluppgifter. (standard [])

--python-params strings

    En lista över parametrar för jobb med Python-uppgifter.

--spark-submit-params strings

    En lista med parametrar för jobb med Spark-sändningsuppgifter.

--sql-params stringToString

    En mappning från nycklar till värden för jobb med SQL-uppgifter. (standard [])

Pipelineflaggor

Följande flaggor är pipelineflaggor.

--full-refresh strings

    Lista över tabeller som ska återställas och omkompanslutas.

--full-refresh-all

    Utför en fullständig grafåterställning och kompilera om.

--refresh strings

    Lista över tabeller som ska uppdateras.

--refresh-all

    Utför en fullständig grafuppdatering.

--validate-only

    Utför en uppdatering för att verifiera grafens korrekthet.

Exempel

I följande exempel körs ett jobb hello_job i standardmålet:

databricks bundle run hello_job

I följande exempel körs ett jobb hello_job inom kontexten för ett mål som deklarerats med namnet dev:

databricks bundle run -t dev hello_job

I följande exempel avbryts och startas om en befintlig jobbkörning:

databricks bundle run --restart hello_job

I följande exempel körs en pipeline med fullständig uppdatering:

databricks bundle run my_pipeline --full-refresh-all

I följande exempel körs ett kommando i paketkontexten:

databricks bundle run -- echo "hello, world"

databricks-paketschema

Visa JSON-schema för paketkonfigurationen.

databricks bundle schema [flags]

Alternativ

Globala flaggor

Exempel

I följande exempel matas JSON-schemat ut för paketkonfigurationen:

databricks bundle schema

Om du vill mata ut paketkonfigurationsschemat som en JSON-fil kör bundle schema du kommandot och omdirigerar utdata till en JSON-fil. Du kan till exempel generera en fil med namnet bundle_config_schema.json i den aktuella katalogen:

databricks bundle schema > bundle_config_schema.json

sammanfattning av databricks-paket

Mata ut en sammanfattning av ett pakets identitet och resurser, inklusive djupa länkar för resurser så att du enkelt kan navigera till resursen på Databricks-arbetsytan.

databricks bundle summary [flags]

Tip

Du kan också använda bundle open för att navigera till en resurs på Databricks-arbetsytan. Se databricks-paketet öppet.

Alternativ

--force-pull

    Hoppa över lokal cache och läs in tillståndet från fjärrarbetsytan

Globala flaggor

Exempel

I följande exempel visas en sammanfattning av ett pakets distribuerade resurser:

databricks bundle summary

Följande utdata är sammanfattningen av ett paket med namnet my_pipeline_bundle som definierar ett jobb och en pipeline:

Name: my_pipeline_bundle
Target: dev
Workspace:
  Host: https://myworkspace.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
  Jobs:
    my_project_job:
      Name: [dev someone] my_project_job
      URL:  https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
  Pipelines:
    my_project_pipeline:
      Name: [dev someone] my_project_pipeline
      URL:  https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999

databricks-paketsynkronisering

Utför en enkelriktad synkronisering av ett pakets filändringar i en lokal filsystemkatalog till en katalog på en fjärransluten Azure Databricks-arbetsyta.

Note

bundle sync kommandon kan inte synkronisera filändringar från en katalog i en fjärransluten Azure Databricks-arbetsyta, tillbaka till en katalog i ett lokalt filsystem.

databricks bundle sync [flags]

databricks bundle sync kommandon fungerar på samma sätt som databricks sync kommandon och tillhandahålls som en produktivitets bekvämlighet. Information om kommandoanvändning finns i sync kommandot .

Alternativ

--dry-run

    Simulera synkroniseringskörning utan att göra faktiska ändringar

--full

    Utföra fullständig synkronisering (standardvärdet är inkrementellt)

--interval duration

    Avsökningsintervall för filsystem (för --watch) (standard 1s)

--output type

    Typ av utdataformat

--watch

    Titta efter ändringar i det lokala filsystemet

Globala flaggor

Exempel

I följande exempel utförs en torrkörningssynkronisering:

databricks bundle sync --dry-run

I följande exempel bevakas ändringar och synkroniseringar automatiskt:

databricks bundle sync --watch

I följande exempel utförs en fullständig synkronisering:

databricks bundle sync --full

verifiera databricks-paket

Verifiera att paketkonfigurationsfilerna är syntaktiskt korrekta.

databricks bundle validate [flags]

Som standard returnerar det här kommandot en sammanfattning av paketidentiteten:

Name: MyBundle
Target: dev
Workspace:
  Host: https://my-host.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/MyBundle/dev

Validation OK!

Note

Kommandot bundle validate matar ut varningar om resursegenskaper definieras i paketkonfigurationsfilerna som inte finns i motsvarande objekts schema.

Om du bara vill mata ut en sammanfattning av paketets identitet och resurser använder du samlingssammanfattning.

Alternativ

Globala flaggor

Exempel

I följande exempel verifieras paketkonfigurationen:

databricks bundle validate

Globala flaggor

--debug

  Om felsökningsloggning ska aktiveras.

-h eller --help

    Visa hjälp för Databricks CLI eller den relaterade kommandogruppen eller det relaterade kommandot.

--log-file sträng

    En sträng som representerar filen som utdataloggarna ska skrivas till. Om den här flaggan inte anges är standardvärdet att skriva utdataloggar till stderr.

--log-format format

    Loggformattypen, text eller json. Standardvärdet är text.

--log-level sträng

    En sträng som representerar loggformatnivån. Om det inte anges inaktiveras loggformatnivån.

-o, --output typ

    Kommandots utdatatyp, text eller json. Standardvärdet är text.

-p, --profile sträng

    Namnet på profilen i ~/.databrickscfg-filen som ska användas för att köra kommandot. Om den här flaggan inte anges används den namngivna DEFAULT profilen om den finns.

--progress-format format

    Formatet för att visa förloppsloggar: default, append, inplaceeller json

-t, --target sträng

    Om tillämpligt, paketmålet som ska användas

--var strings

    ange värden för variabler som definierats i paketkonfigurationen. Exempel: --var="foo=bar"