Dela via


Ändpunkter för Azure AI Foundry-modeller

Med Azure AI Foundry Models kan du komma åt de mest kraftfulla modellerna från ledande modellleverantörer via en enda slutpunkt och en uppsättning autentiseringsuppgifter. Med den här funktionen kan du växla mellan modeller och använda dem i ditt program utan att ändra någon kod.

Den här artikeln beskriver hur Azure AI Foundry-tjänsterna (tidigare kallade Azure AI Services) organiserar modeller och hur du använder slutpunkten för slutsatsdragning för att komma åt dem.

Utrullningar

Azure AI Foundry använder distributioner för att göra modeller tillgängliga. Distributioner ger en modell ett namn och anger specifika konfigurationer. Du kan komma åt en modell med dess distributionsnamn i dina begäranden.

En distribution omfattar:

  • Ett modellnamn
  • En modellversion
  • En etablering eller kapacitetstyp1
  • En innehållsfiltreringskonfiguration1
  • En hastighetsbegränsningskonfiguration1

1 Dessa konfigurationer kan ändras beroende på den valda modellen.

En Azure AI Foundry-resurs kan ha många modelldistributioner. Du betalar bara för slutsatsdragning som utförs på modelldistributioner. Distributioner är Azure-resurser, så de omfattas av Azure-principer.

Mer information om hur du skapar distributioner finns i Lägga till och konfigurera modelldistributioner.

Slutpunkter

Azure AI Foundry-tjänster tillhandahåller flera slutpunkter beroende på vilken typ av arbete du vill utföra:

Slutpunkt för Azure AI-slutsatsdragning

Med Slutpunkten för Azure AI-slutsatsdragning, vanligtvis i formuläret https://<resource-name>.services.ai.azure.com/models, kan du använda en enda slutpunkt med samma autentisering och schema för att generera slutsatsdragning för de distribuerade modellerna i resursen. Alla Foundry-modeller stöder den här funktionen. Den här slutpunkten följer API:et för Azure AI-modellinferens, som stöder följande metoder:

  • Text inbäddningar
  • Bildinbäddningar
  • Chatten har slutförts

Routing

Slutpunkten för slutsatsdragning dirigerar begäranden till en specifik distribution genom att matcha parametern name i begäran till namnet på distributionen. Den här konfigurationen innebär att distributioner fungerar som ett alias för en modell under vissa konfigurationer. Med den här flexibiliteten kan du distribuera en modell flera gånger i tjänsten, men med olika konfigurationer om det behövs.

En bild som visar hur routning fungerar för en modell genom att ange modellnamnet i parametern

Om du till exempel skapar en distribution med namnet Mistral-largekan du anropa distributionen på följande sätt:

Installera paketet azure-ai-inference med hjälp av pakethanteraren, till exempel pip:

pip install azure-ai-inference

Sedan kan du använda paketet för att konsumera modellen. I följande exempel visas hur du skapar en klient för att hantera chattavslut:

import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)

Utforska våra exempel och läs API-referensdokumentationen för att komma igång.

För en chattmodell kan du skapa en begäran på följande sätt:

from azure.ai.inference.models import SystemMessage, UserMessage

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
    ],
    model="mistral-large"
)

print(response.choices[0].message.content)

Om du anger ett modellnamn som inte matchar någon modelldistribution får du ett felmeddelande om att modellen inte finns. Du styr vilka modeller som är tillgängliga för användare genom att skapa modelldistributioner. Mer information finns i lägga till och konfigurera modelldistributioner.

Slutpunkt för Azure OpenAI-slutsatsdragning

Azure OpenAI-API:et exponerar alla funktioner i OpenAI-modeller och stöder fler funktioner som assistenter, trådar, filer och batchinferens. Du kan också komma åt icke-OpenAI-modeller via den här vägen.

Azure OpenAI-slutpunkter, vanligtvis i formuläret https://<resource-name>.openai.azure.com, fungerar på distributionsnivå och varje distribution har en egen associerad URL. Du kan dock använda samma autentiseringsmekanism för att använda distributionerna. Mer information finns på referenssidan för Azure OpenAI API.

En bild som visar hur Azure OpenAI-distributioner innehåller en enda URL för varje distribution.

Varje distribution har en URL som skapas genom att sammanlänka Azure OpenAI-bas-URL :en och vägen /deployments/<model-deployment-name>.

Installera paketet openai med hjälp av pakethanteraren, till exempel pip:

pip install openai --upgrade

Sedan kan du använda paketet för att konsumera modellen. I följande exempel visas hur du skapar en klient för att hantera chattavslut:

import os
from openai import AzureOpenAI
    
client = AzureOpenAI(
    azure_endpoint = "https://<resource>.services.ai.azure.com"
    api_key=os.getenv("AZURE_INFERENCE_CREDENTIAL"),  
    api_version="2024-10-21",
)
response = client.chat.completions.create(
    model="deepseek-v3-0324", # Replace with your model dpeloyment name.
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Riemann's conjecture in 1 paragraph"}
    ]
)

print(response.model_dump_json(indent=2)

Mer information om hur du använder Azure OpenAI-slutpunkten finnsi dokumentationen om Azure OpenAI i Azure AI Foundry Models.

Nyckellös autentisering

Modeller som distribueras till Azure AI Foundry Models i Azure AI-tjänster stöder nyckellös auktorisering med hjälp av Microsoft Entra-ID. Nyckellös auktorisering förbättrar säkerheten, förenklar användarupplevelsen, minskar driftkomplexiteten och ger robust efterlevnadsstöd för modern utveckling. Det gör nyckellös auktorisering till ett starkt val för organisationer som använder säkra och skalbara identitetshanteringslösningar.

Om du vill använda nyckellös autentisering konfigurerar du resursen och beviljar åtkomst till användare för att utföra slutsatsdragning. När du har konfigurerat resursen och beviljat åtkomst autentiserar du på följande sätt:

azure-ai-inference Installera paketet med hjälp av en pakethanterare som pip:

pip install azure-ai-inference

Använd sedan paketet för att förbruka modellen. I följande exempel visas hur du konfigurerar en klient för att utföra chatt-kompletteringar med Microsoft Entra-ID.

import os
from azure.ai.inference import ChatCompletionsClient
from azure.identity import DefaultAzureCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=DefaultAzureCredential(),
    credential_scopes=["https://cognitiveservices.azure.com/.default"],
)

Begränsningar

  • Du kan inte använda Azure OpenAI Batch med slutpunkten Foundry Models. Du måste använda url:en för dedikerad distribution enligt beskrivningen i Batch API-stöd i Azure OpenAI-dokumentationen.
  • Realtids-API stöds inte i slutpunkten för slutsatsdragning. Använd den dedikerade distributions-URL:en.