Delen via


Quickstart: Aan de slag met Azure AI Foundry (Hub-projecten)

Opmerking

Er is een alternatieve quickstart voor Foundry-projecten beschikbaar: Quickstart: Aan de slag met Azure AI Foundry (Foundry-projecten).

Met deze snelle startgids stelt u uw lokale omgeving in voor hubprojecten, implementeert u een model en bouwt u een eenvoudig getraceerd/evalueerbaar chatscript.

Vereiste voorwaarden

  • Azure-abonnement.
  • Bestaand hubproject (of maak er een). Zo niet, overweeg dan om een quickstart voor een Foundry-project te gebruiken.

Uw ontwikkelomgeving instellen

  1. Vereisten installeren (Python, Azure CLI, aanmelding).
  2. Pakketten installeren:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Verschillende projecttypen hebben verschillende versies van azure-ai-projects nodig. Bewaar elk project in een eigen geïsoleerde omgeving om conflicten te voorkomen.

Een model implementeren

  1. Portal: Meld u aan, open het hubproject.
  2. Modelcatalogus: selecteer gpt-4o-mini.
  3. Gebruik dit model > accepteren standaardimplementatienaam > Implementeren.
  4. Na succes: Openen in speeltuin om te verifiëren.

Uw chat-app bouwen

Maak chat.py met voorbeeldcode:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Voeg de projectconnectiestring in van de projectoverzichtspagina (kopieer en vervang de tijdelijke aanduiding in de code).

Ren:

python chat.py

Prompt-sjablonering toevoegen

Voeg get_chat_response toe met behulp van een mustache-sjabloon (zie chat-template.py voorbeeld) en roep vervolgens aan met gebruikers-/contextberichten.

Voer opnieuw uit om een sjabloonantwoord weer te geven.

De hulpbronnen opschonen

Verwijder de implementatie of het project wanneer u klaar bent om kosten te voorkomen.

Volgende stap

Quickstart: Aan de slag met Azure AI Foundry (Foundry-projecten).