Delen via


Azure OpenAI-modellen implementeren met Azure AI Foundry

In dit artikel leert u hoe u implementaties maakt voor Azure OpenAI in Azure AI Foundry-modellen met behulp van de Azure AI Foundry-portal.

Azure OpenAI in Foundry Models biedt een diverse set modellen met verschillende mogelijkheden en prijspunten. Wanneer u Azure OpenAI-modellen implementeert in de Azure AI Foundry-portal, kunt u de implementaties gebruiken met behulp van een promptstroom of een ander hulpprogramma. De beschikbaarheid van modellen verschilt per regio. Zie Azure OpenAI-modellen voor meer informatie over de details van elk model.

Als u een Azure OpenAI-model wilt wijzigen en ermee wilt werken in de Azure AI Foundry-speeltuin , moet u eerst een Basis Azure OpenAI-model implementeren in uw project. Nadat u het model hebt geïmplementeerd en beschikbaar hebt gemaakt in uw project, kunt u het REST API-eindpunt gebruiken as-is of verder aanpassen met uw eigen gegevens en andere onderdelen, zoals insluitingen en indexen.

Vereiste voorwaarden

Een Azure OpenAI-model implementeren vanuit de modelcatalogus

Volg de stappen in deze sectie om een Azure OpenAI-model te implementeren, zoals gpt-4o-mini, naar een realtime-eindpunt vanuit de modelcatalogus van de Azure AI Foundry-portal:

  1. Meld u aan bij Azure AI Foundry.
  2. Als u nog niet in uw project bent, selecteert u het.
  3. Selecteer modelcatalogus in het linkerdeelvenster.
  1. Selecteer Azure OpenAI in het filter Verzamelingen.

    Een schermopname die laat zien hoe u filtert op Azure OpenAI-modellen in de catalogus.

  2. Selecteer een model, zoals gpt-4o-mini in de Azure OpenAI-verzameling.

  3. Selecteer Dit model gebruiken om het implementatievenster te openen.

  4. Selecteer de resource waarnaar u het model wilt implementeren. Als u geen resource hebt, maakt u er een.

  5. Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.

  6. Selecteer Implementeren.

  7. Ga naar de pagina met implementatiedetails. Selecteer Openen in speeltuin.

  8. Selecteer Code weergeven om codevoorbeelden op te halen die u kunt gebruiken om het geïmplementeerde model in uw toepassing te gebruiken.

Een Azure OpenAI-model implementeren vanuit uw project

U kunt de implementatie ook starten vanuit uw project in de Azure AI Foundry-portal.

Aanbeveling

Omdat u het linkerdeelvenster in de Azure AI Foundry-portal kunt aanpassen, ziet u mogelijk andere items dan in deze stappen wordt weergegeven. Als u niet ziet wat u zoekt, selecteert u ... Meer onder aan het linkerdeelvenster.

  1. Ga naar uw project in de Azure AI Foundry-portal.
  2. Ga in de linkerzijbalk van uw project naar Mijn assets>modellen en eindpunten.
  3. Selecteer + Model implementeren>Basismodel implementeren.
  4. Zoek en selecteer een model, zoals gpt-4o-mini in de lijst met modellen.
  5. Selecteer Bevestigen om het implementatievenster te openen.
  6. Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.
  7. Selecteer Implementeren.
  8. Ga naar de pagina met implementatiedetails. Selecteer Openen in speeltuin.
  9. Selecteer Code weergeven om codevoorbeelden op te halen die u kunt gebruiken om het geïmplementeerde model in uw toepassing te gebruiken.

Inferentie uitvoeren op het Azure OpenAI-model

Als u deductie wilt uitvoeren op het geïmplementeerde model, gebruikt u de speeltuin of codevoorbeelden. De speeltuin is een webinterface waarmee u in realtime met het model kunt werken. Gebruik de speeltuin om het model met verschillende prompts te testen en de antwoorden van het model te bekijken.

Zie de quickstart Aan de slag met chatten met Azure OpenAI in Azure AI Foundry Models voor meer voorbeelden van het gebruik van het geïmplementeerde model in uw toepassing.

Regionale beschikbaarheid en quotumlimieten van een model

Het standaardquotum voor Azure OpenAI-modellen varieert per model en regio. Bepaalde modellen zijn mogelijk alleen beschikbaar in sommige regio's. Zie Azure OpenAI-quota en -limieten voor meer informatie over beschikbaarheids- en quotumlimieten.

Quotum voor het implementeren en deducteren van een model

Voor Azure OpenAI-modellen verbruikt het implementeren en deductiequotum dat Azure aan uw abonnement toewijst per regio, per model in eenheden tokens per minuut (TPM). Wanneer u zich registreert voor Azure AI Foundry, ontvangt u een standaardquotum voor de meeste beschikbare modellen. Vervolgens wijst u TPM toe aan elke implementatie terwijl u deze maakt, waardoor het beschikbare quotum voor dat model wordt verminderd. U kunt implementaties blijven maken en deze TPM's toewijzen totdat u de quotumlimiet hebt bereikt.

Wanneer u uw quotumlimiet bereikt, kunt u alleen nieuwe implementaties van dat model maken als u:

Zie Azure AI Foundry-quotum en Azure OpenAI-quotum beheren voor meer informatie over quotum.