Delen via


Aan de slag: Query's uitvoeren op LLM's en AI-agenten prototypen zonder code te schrijven.

In deze zelfstudie van 5 minuten zonder code maakt u kennis met generatieve AI in Azure Databricks. U gebruikt de AI Playground om het volgende te doen:

  • Query's uitvoeren op grote taalmodellen (LLM's) en resultaten naast elkaar vergelijken
  • Een prototype maken van een AI-agent voor het aanroepen van hulpprogramma's
  • Uw agent exporteren naar code
  • Optioneel: Prototype maken van een vraag-antwoord chatbot met behulp van retrieval-augmented generation (RAG)

Voordat u begint

Zorg ervoor dat uw werkruimte toegang heeft tot het volgende:

Stap 1: Queryen van LLM's met AI Playground

Gebruik de AI Playground om query's uit te voeren op LLM's in een chatinterface.

  1. Selecteer Playground in uw werkruimte.
  2. Typ een vraag zoals 'Wat is RAG?'.

Voeg een nieuwe LLM toe om antwoorden naast elkaar te vergelijken:

  1. Selecteer + rechtsboven om een model voor vergelijking toe te voegen.
  2. Selecteer in het nieuwe deelvenster een ander model met behulp van de vervolgkeuzelijstkiezer.
  3. Schakel de selectievakjes Synchroniseren in om de query's te synchroniseren.
  4. Probeer een nieuwe prompt, zoals 'Wat is een samengesteld AI-systeem?' om de twee antwoorden naast elkaar te zien.

AI-speeltuin Blijf testen en vergelijken met verschillende LLM's om u te helpen bepalen wat het beste is om een AI-agent te bouwen.

Stap 2: Een prototype maken van een AI-agent voor het aanroepen van een hulpprogramma

Met hulpprogramma's kunnen LLM's meer doen dan taal genereren. Hulpprogramma's kunnen externe gegevens opvragen, code uitvoeren en andere acties uitvoeren. AI Playground biedt u een optie zonder code voor het prototype van agents voor het aanroepen van hulpprogramma's:

  1. Kies in Playground een model met het label Tools ingeschakeld.

    Selecteer een LLM voor het aanroepen van tools

  2. Selecteer Hulpprogramma's>+ Hulpprogramma toevoegen en selecteer de ingebouwde Unity Catalog-functie, system.ai.python_exec.

    Met deze functie kan uw agent willekeurige Python-code uitvoeren.

    Een gehost functiehulpprogramma selecteren

  3. Stel een vraag waarbij Python-code wordt gegenereerd of uitgevoerd. U kunt verschillende variaties op uw promptformulering proberen. Als u meerdere hulpprogramma's toevoegt, selecteert de LLM het juiste hulpprogramma om een antwoord te genereren.

    Prototype de LLM met het hulpprogramma met gehoste functie

Stap 3: uw agent exporteren naar code

Nadat u uw agent in AI Playground hebt getest, selecteert u Exporteren om uw agent te exporteren naar een Python-notebook.

Het Python-notebook bevat code waarmee de agent wordt gedefinieerd en geïmplementeerd in een model dat het eindpunt bedient.

Optioneel: Prototype maken van een RAG-vraag-antwoordbot

Als u een vectorzoekindex hebt ingesteld in uw werkruimte, kunt u een prototype maken van een vraag-antwoordbot. Dit type agent gebruikt documenten in een vectorzoekindex om vragen op basis van deze documenten te beantwoorden.

  1. Klik op Hulpprogramma's>+ hulpprogramma toevoegen. Selecteer vervolgens uw Vector Search-index.

    Een vectorzoekprogramma selecteren

  2. Stel een vraag met betrekking tot uw documenten. De agent kan de vectorindex gebruiken om relevante informatie op te zoeken en alle documenten die in het antwoord worden gebruikt, te citeren.

    Prototype van de LLM met vectorzoekprogramma

Zie Een vectorzoekindex maken om een vectorzoekindex in te stellen.

Volgende stappen