Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Självstudierna i det här avsnittet introducerar kärnfunktioner och leder dig genom grunderna i att använda Azure Databricks-plattformen.
Information om träningsresurser online finns i Hämta kostnadsfri Databricks-utbildning.
Om du inte har något Azure Databricks-konto registrerar du dig för en kostnadsfri utvärderingsversion.
| Handledning | Beskrivning | 
|---|---|
| Fråga efter och visualisera data | Använd en Databricks-notebook-fil för att köra frågor mot exempeldata som lagras i Unity Catalog med hjälp av SQL, Python, Scala och R och visualisera sedan frågeresultatet i notebook-filen. | 
| Importera och visualisera CSV-data från en notebook-fil | Använd en Databricks-notebook-fil för att importera data från en CSV-fil som innehåller babynamnsdata från https://health.data.ny.govtill Unity Catalog-volymen med Python, Scala och R. Du lär dig också att ändra ett kolumnnamn, visualisera data och spara i en tabell. | 
| Skapa en tabell | Skapa en tabell och bevilja behörigheter i Databricks med hjälp av datastyrningsmodellen för Unity Catalog. | 
| Skapa en ETL-pipeline med hjälp av Lakeflow Deklarativa Pipelines | Skapa och distribuera en ETL-pipeline (extrahera, transformera och läsa in) för dataorkestrering med Lakeflow Deklarativa Pipelines och Auto Loader. | 
| Skapa en ETL-pipeline med Apache Spark | Utveckla och distribuera din första ETL-pipeline (extrahera, transformera och läsa in) för dataorkestrering med Apache Spark™. | 
| Träna och distribuera en ML-modell | Skapa en klassificeringsmodell för maskininlärning med hjälp av scikit-learn-biblioteket på Databricks för att förutsäga om ett vin anses vara av "hög kvalitet". Den här självstudien illustrerar också användningen av MLflow för att spåra modellutvecklingsprocessen och Hyperopt för att automatisera justering av hyperparametrar. | 
| Interagera med LLM:er och AI-agentprototyper utan kod | Använd AI Playground för att köra frågor mot stora språkmodeller (LLM) och jämföra resultat sida vid sida, skapa en ai-agent med verktygsanrop och exportera din agent till kod. | 
| Handledning | Detaljer | 
|---|---|
| Fråga efter och visualisera data | Använd en Databricks-notebook-fil för att köra frågor mot exempeldata som lagras i Unity Catalog med hjälp av SQL, Python, Scala och R och visualisera sedan frågeresultatet i notebook-filen. | 
| Importera och visualisera CSV-data från en notebook-fil | Använd en Databricks-notebook-fil för att importera data från en CSV-fil som innehåller babynamnsdata från https://health.data.ny.govtill Unity Catalog-volymen med Python, Scala och R. Du lär dig också att ändra ett kolumnnamn, visualisera data och spara i en tabell. | 
| Skapa en tabell | Skapa en tabell och bevilja behörigheter i Databricks med hjälp av datastyrningsmodellen för Unity Catalog. | 
| Skapa en ETL-pipeline med hjälp av Lakeflow Deklarativa Pipelines | Skapa och distribuera en ETL-pipeline (extrahera, transformera och läsa in) för dataorkestrering med Lakeflow Deklarativa Pipelines och Auto Loader. | 
| Skapa en ETL-pipeline med Apache Spark | Utveckla och distribuera din första ETL-pipeline (extrahera, transformera och läsa in) för dataorkestrering med Apache Spark™. | 
| Träna och distribuera en ML-modell | Skapa en klassificeringsmodell för maskininlärning med hjälp av scikit-learn-biblioteket på Databricks för att förutsäga om ett vin anses vara av "hög kvalitet". Den här självstudien illustrerar också användningen av MLflow för att spåra modellutvecklingsprocessen och Hyperopt för att automatisera justering av hyperparametrar. | 
| Interagera med LLM:er och AI-agentprototyper utan kod | Använd AI Playground för att köra frågor mot stora språkmodeller (LLM) och jämföra resultat sida vid sida, skapa en ai-agent med verktygsanrop och exportera din agent till kod. | 
| Anslut till Azure Data Lake Storage | Anslut från Azure Databricks till Azure Data Lake Storage med hjälp av OAuth 2.0 med en service principal för Microsoft Entra ID. | 
Få hjälp
- Om du har frågor om hur du konfigurerar Azure Databricks och behöver livehjälp kan du skicka ett e-postmeddelande onboarding-help@databricks.comtill .
- Om din organisation inte har någon Azure Databricks-supportprenumeration, eller om du inte är en auktoriserad kontakt för företagets supportprenumeration, kan du få svar från Databricks Community.