Dela via


Uppgradera från GitHub-modeller till Azure AI Foundry-modeller

I den här artikeln lär du dig att utveckla ett generativt AI-program genom att börja från GitHub Models och sedan uppgradera din upplevelse genom att distribuera en Azure AI Services-resurs med Azure AI Foundry Models.

GitHub-modeller är användbara när du vill hitta och experimentera med AI-modeller kostnadsfritt när du utvecklar ett generativt AI-program. När du är redo att ta programmet till produktion uppgraderar du upplevelsen genom att distribuera en Azure AI Services-resurs i en Azure-prenumeration och börja använda Foundry Models. Du behöver inte ändra något annat i koden.

Lekplatsen och den kostnadsfria API-användningen för GitHub-modeller begränsas av begäranden per minut, begäranden per dag, token per begäran och samtidiga begäranden. Om du drabbas av en begränsning av antalet begäranden måste du vänta tills den gräns du nådde återställs innan du kan göra fler begäranden.

Förutsättningar

För att slutföra denna handledning behöver du:

Uppgradera till Azure AI Foundry-modeller

Hastighetsbegränsningarna för lekplatsen och den kostnadsfria API-användningen hjälper dig att experimentera med modeller och utveckla ditt AI-program. När du är redo att ta programmet till produktion använder du en nyckel och slutpunkt från ett betalt Azure-konto. Du behöver inte ändra något annat i koden.

Så här hämtar du nyckeln och slutpunkten:

  1. Gå till GitHub-modeller och välj en modell som ska landa på dess lekplats. Den här artikeln använder Mistral Large 24.11.

  2. Skriv in vissa frågor eller använd några av de föreslagna uppmaningarna för att interagera med modellen på lekplatsen.

  3. Välj Använd den här modellen från lekplatsen. Den här åtgärden öppnar ett fönster för att komma igång med modeller i din kodbas.

  4. I steget "Konfigurera autentisering" väljer du Hämta Azure AI-nyckel i avsnittet "Azure AI".

    En skärmbild som visar hur du hämtar Azure AI-produktionsnyckeln från lekplatsen för en GitHub-modell.

  5. Om du redan är inloggad på ditt Azure-konto hoppar du över det här steget. Men om du inte har något Azure-konto eller om du inte är inloggad på ditt konto följer du dessa steg:

    1. Om du inte har något Azure-konto väljer du Skapa mitt konto och följer stegen för att skapa ett.

    2. Om du har ett Azure-konto kan du också välja Logga in igen. Om ditt befintliga konto är ett kostnadsfritt konto måste du först uppgradera till en standardplan.

    3. Gå tillbaka till modellens lekplats och välj Hämta Azure AI-nyckel igen.

    4. Logga in på ditt Azure-konto.

  6. Du tas till Azure AI Foundry > GitHub och sidan laddas med detaljerna om din modell. Det kan ta en eller två minuter att läsa in din modellinformation i Azure AI Foundry.

  7. För Foundry-modeller från partner och community måste du prenumerera på Azure Marketplace. Det här kravet gäller till exempel Mistral-Large-2411. Välj Godkänn och fortsätt för att acceptera villkoren.

  8. Välj knappen Distribuera för att distribuera modellen till ditt konto.

  9. När distributionen är klar hamnar du på projektets översiktssida , där du kan se Azure AI Foundry-projektets slutpunkt.

  10. Om du vill hämta den specifika modellens slutpunkts-URL och API-nyckel går du till fliken Modeller + slutpunkter i den vänstra rutan i Azure AI Foundry-portalen och väljer den distribuerade modellen. Slutpunktens mål-URI och API-nyckel visas på distributionens informationssida. Använd dessa värden i koden för att använda modellen i produktionsmiljön.

    Skärmbild som visar hur du hämtar url:en och nyckeln som är associerad med distributionen.

Använda den nya slutpunkten

Om du vill använda din distribuerade modell med kod behöver du modellens slutpunkts-URL och nyckel, som du såg i föregående avsnitt. Du kan använda någon av de SDK:er som stöds för att hämta förutsägelser från slutpunkten. Följande SDK:er stöds officiellt:

  • OpenAI SDK
  • Azure OpenAI SDK
  • Azure AI-slutsatsdragnings-SDK

Mer information och exempel finns i språk som stöds och SDK:er. I följande exempel visas hur du använder Azure AI Inference SDK med den nyligen distribuerade modellen:

Installera paketet azure-ai-inference med hjälp av pakethanteraren, till exempel pip:

pip install azure-ai-inference

Sedan kan du använda paketet för att konsumera modellen. I följande exempel visas hur du skapar en klient för att hantera chattavslut:

import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)

Utforska våra exempel och läs API-referensdokumentationen för att komma igång.

Generera din första chattavslutning:

from azure.ai.inference.models import SystemMessage, UserMessage

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
    ],
    model="mistral-large"
)

print(response.choices[0].message.content)

Använd parametern model="<deployment-name> för att dirigera din begäran till den här distributionen. Distributioner fungerar som ett alias för en viss modell under vissa konfigurationer.

Viktigt!

Till skillnad från GitHub-modeller där alla modeller redan har konfigurerats kan du med Azure AI Services-resursen styra vilka modeller som är tillgängliga i slutpunkten och under vilken konfiguration. Lägg till så många modeller som du planerar att använda innan du anger dem i parametern model . Lär dig hur du lägger till fler modeller i resursen.

Utforska ytterligare funktioner

Azure AI Foundry Models stöder extra funktioner som inte är tillgängliga i GitHub-modeller, inklusive:

Felsökning

Mer hjälp finns i avsnittet Vanliga frågor och svar.