Dela via


Kom igång: Fråga LLM-modeller och prototypa AI-agenter utan att skriva kod

Den här självstudien om 5 minuter utan kod introducerar generativ AI på Azure Databricks. Du använder AI Playground för att göra följande:

  • Fråga efter stora språkmodeller (LLM) och jämför resultat sida vid sida
  • Prototypa en AI-agent för verktygsanvändning
  • Exportera din agent till kod
  • Valfritt: Prototypa en chatbot för frågesvar med generering förstärkt med hämtning (RAG)

Innan du börjar

Se till att din arbetsyta har åtkomst till följande:

Steg 1: Fråga LLM:er med AI Playground

Använd AI Playground för att fråga LLM:er i ett chattgränssnitt.

  1. Välj Playground på din arbetsyta.
  2. Skriv en fråga som "Vad är RAG?".

Lägg till en ny LLM för att jämföra svar sida vid sida:

  1. I det övre högra hörnet väljer du + för att lägga till en modell som jämförelse.
  2. I det nya fönstret väljer du en annan modell med listruteväljaren.
  3. Markera kryssrutorna Synkronisera för att synkronisera frågorna.
  4. Prova en ny fråga, till exempel "Vad är ett sammansatt AI-system?" för att se de två svaren sida vid sida.

AI-lekplats Fortsätt att testa och jämföra olika LLM:er så att du kan välja den bästa som ska användas för att skapa en AI-agent.

Steg 2: Prototypa en AI-agent med verktygsanrop

Verktyg gör det möjligt för LLM:er att göra mer än att generera språk. Verktyg kan köra frågor mot externa data, köra kod och vidta andra åtgärder. AI Playground ger dig en möjlighet att bygga agentprogram som kan använda verktyg utan att behöva koda.

  1. Från Playground väljer du en modell märkt Verktyg aktiverad.

    Välj ett verktyg som använder LLM

  2. Välj Verktyg>+ Lägg till verktyg och välj den inbyggda Unity Catalog-funktionen, system.ai.python_exec.

    Med den här funktionen kan din agent köra godtycklig Python-kod.

    Välj ett värdbaserat funktionsverktyg

  3. Ställ en fråga som handlar om att generera eller köra Python-kod. Du kan prova olika varianter av din uppmaningsformulering. Om du lägger till flera verktyg väljer LLM lämpligt verktyg för att generera ett svar.

    Skapa en prototyp för LLM med värdbaserat funktionsverktyg

Steg 3: Exportera din agent till kod

När du har testat din agent i AI Playground väljer du Exportera för att exportera din agent till en Python-notebook-fil.

Python-notebook-filen innehåller kod som definierar agenten och distribuerar den till en modell som betjänar slutpunkten.

Valfritt: Prototyp av en RAG-robot med frågesvar

Om du har konfigurerat ett vektorsökningsindex på din arbetsyta kan du skapa en robot för frågesvar. Den här typen av agent använder dokument i ett vektorsökningsindex för att besvara frågor baserat på dessa dokument.

  1. Klicka på Verktyg>+ Lägg till verktyg. Välj sedan ditt Vector Search-index.

    Välj ett vektorsökningsverktyg

  2. Ställ en fråga som rör dina dokument. Agenten kan använda vektorindexet för att söka efter relevant information och kommer att citera alla dokument som används i svaret.

    Skapa en prototyp för LLM med vektorsökningsverktyget

Information om hur du konfigurerar ett vektorsökningsindex finns i Skapa ett vektorsökningsindex

Nästa steg