Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
In dit artikel leert u hoe u implementaties maakt voor Azure OpenAI in Azure AI Foundry-modellen met behulp van de Azure AI Foundry-portal.
Azure OpenAI in Foundry Models biedt een diverse set modellen met verschillende mogelijkheden en prijspunten. Wanneer u Azure OpenAI-modellen implementeert in de Azure AI Foundry-portal, kunt u de implementaties gebruiken met behulp van een promptstroom of een ander hulpprogramma. De beschikbaarheid van modellen verschilt per regio. Zie Azure OpenAI-modellen voor meer informatie over de details van elk model.
Als u een Azure OpenAI-model wilt wijzigen en ermee wilt werken in de Azure AI Foundry-speeltuin , moet u eerst een Basis Azure OpenAI-model implementeren in uw project. Nadat u het model hebt geïmplementeerd en beschikbaar hebt gemaakt in uw project, kunt u het REST API-eindpunt gebruiken as-is of verder aanpassen met uw eigen gegevens en andere onderdelen, zoals insluitingen en indexen.
Vereiste voorwaarden
Een Azure-abonnement met een geldige betalingswijze. Gratis of proefversie van Azure-abonnementen werkt niet. Als u geen Azure-abonnement hebt, maakt u eerst een betaald Azure-account .
Een Azure OpenAI-model implementeren vanuit de modelcatalogus
Volg de stappen in deze sectie om een Azure OpenAI-model te implementeren, zoals gpt-4o-mini, naar een realtime-eindpunt vanuit de modelcatalogus van de Azure AI Foundry-portal:
- Meld u aan bij Azure AI Foundry.
- Als u nog niet in uw project bent, selecteert u het.
- Selecteer modelcatalogus in het linkerdeelvenster.
Selecteer Azure OpenAI in het filter Verzamelingen.
Selecteer een model, zoals
gpt-4o-miniin de Azure OpenAI-verzameling.Selecteer Dit model gebruiken om het implementatievenster te openen.
Selecteer de resource waarnaar u het model wilt implementeren. Als u geen resource hebt, maakt u er een.
Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.
Selecteer Implementeren.
Ga naar de pagina met implementatiedetails. Selecteer Openen in speeltuin.
Selecteer Code weergeven om codevoorbeelden op te halen die u kunt gebruiken om het geïmplementeerde model in uw toepassing te gebruiken.
Een Azure OpenAI-model implementeren vanuit uw project
U kunt de implementatie ook starten vanuit uw project in de Azure AI Foundry-portal.
Aanbeveling
Omdat u het linkerdeelvenster in de Azure AI Foundry-portal kunt aanpassen, ziet u mogelijk andere items dan in deze stappen wordt weergegeven. Als u niet ziet wat u zoekt, selecteert u ... Meer onder aan het linkerdeelvenster.
- Ga naar uw project in de Azure AI Foundry-portal.
- Ga in de linkerzijbalk van uw project naar Mijn assets>modellen en eindpunten.
- Selecteer + Model implementeren>Basismodel implementeren.
- Zoek en selecteer een model, zoals
gpt-4o-miniin de lijst met modellen. - Selecteer Bevestigen om het implementatievenster te openen.
- Geef de implementatienaam op en wijzig andere standaardinstellingen, afhankelijk van uw vereisten.
- Selecteer Implementeren.
- Ga naar de pagina met implementatiedetails. Selecteer Openen in speeltuin.
- Selecteer Code weergeven om codevoorbeelden op te halen die u kunt gebruiken om het geïmplementeerde model in uw toepassing te gebruiken.
Inferentie uitvoeren op het Azure OpenAI-model
Als u deductie wilt uitvoeren op het geïmplementeerde model, gebruikt u de speeltuin of codevoorbeelden. De speeltuin is een webinterface waarmee u in realtime met het model kunt werken. Gebruik de speeltuin om het model met verschillende prompts te testen en de antwoorden van het model te bekijken.
Zie de quickstart Aan de slag met chatten met Azure OpenAI in Azure AI Foundry Models voor meer voorbeelden van het gebruik van het geïmplementeerde model in uw toepassing.
Regionale beschikbaarheid en quotumlimieten van een model
Het standaardquotum voor Azure OpenAI-modellen varieert per model en regio. Bepaalde modellen zijn mogelijk alleen beschikbaar in sommige regio's. Zie Azure OpenAI-quota en -limieten voor meer informatie over beschikbaarheids- en quotumlimieten.
Quotum voor het implementeren en deducteren van een model
Voor Azure OpenAI-modellen verbruikt het implementeren en deductiequotum dat Azure aan uw abonnement toewijst per regio, per model in eenheden tokens per minuut (TPM). Wanneer u zich registreert voor Azure AI Foundry, ontvangt u een standaardquotum voor de meeste beschikbare modellen. Vervolgens wijst u TPM toe aan elke implementatie terwijl u deze maakt, waardoor het beschikbare quotum voor dat model wordt verminderd. U kunt implementaties blijven maken en deze TPM's toewijzen totdat u de quotumlimiet hebt bereikt.
Wanneer u uw quotumlimiet bereikt, kunt u alleen nieuwe implementaties van dat model maken als u:
- Vraag meer quotum aan door een formulier voor quotumverhoging in te dienen.
- Pas het toegewezen quotum voor andere modelimplementaties aan om tokens vrij te maken voor nieuwe implementaties in de Azure OpenAI-portal.
Zie Azure AI Foundry-quotum en Azure OpenAI-quotum beheren voor meer informatie over quotum.
Verwante inhoud
- Meer informatie over wat u kunt doen in Azure AI Foundry
- Antwoorden krijgen op veelgestelde vragen in het artikel veelgestelde vragen over Azure AI