Nadat u een model hebt afgestemd, kunt u de kwaliteit ervan testen via de API voor chatvoltooiingen of de evaluatiesservice .
Met een implementatie van de ontwikkelaarslaag kunt u uw nieuwe model implementeren zonder de uurkosten voor hosting die worden gemaakt door Standard- of Global-implementaties. De enige kosten die worden gemaakt, zijn per token. Raadpleeg de pagina met prijzen voor de meest up-to-actuele prijzen.
Belangrijk
De ontwikkelaarslaag biedt geen SLA voor beschikbaarheid en geen garanties voor gegevenslocatie . Als u een SLA of gegevenslocatie nodig hebt, kiest u een alternatief implementatietype voor het testen van uw model.
Implementaties van ontwikkelaarslagen hebben een vaste levensduur van 24 uur.
Hieronder vindt u meer informatie over de levenscyclus van de implementatie.
Uw nauwkeurig afgestemde model implementeren
Als u uw modelkandidaat wilt implementeren, selecteert u het aangepaste model dat u wilt implementeren en selecteert u Vervolgens Implementeren.
Het dialoogvenster Model implementeren wordt geopend. Voer in het dialoogvenster uw implementatienaam in en selecteer Developer uit de vervolgkeuzelijst voor het implementatietype. Selecteer Maken om de implementatie van uw aangepaste model te starten.
U kunt de voortgang van uw nieuwe implementatie bewaken in het deelvenster Implementaties in de Azure AI Foundry-portal.
import json
import os
import requests
token = os.getenv("<TOKEN>")
subscription = "<YOUR_SUBSCRIPTION_ID>"
resource_group = "<YOUR_RESOURCE_GROUP_NAME>"
resource_name = "<YOUR_AZURE_OPENAI_RESOURCE_NAME>"
model_deployment_name = "gpt41-mini-candidate-01" # custom deployment name that you will use to reference the model when making inference calls.
deploy_params = {'api-version': "2025-07-01-preview"}
deploy_headers = {'Authorization': 'Bearer {}'.format(token), 'Content-Type': 'application/json'}
deploy_data = {
"sku": {"name": "developertier", "capacity": 50},
"properties": {
"model": {
"format": "OpenAI",
"name": <"fine_tuned_model">, #retrieve this value from the previous call, it will look like gpt41-mini-candidate-01.ft-b044a9d3cf9c4228b5d393567f693b83
"version": "1"
}
}
}
deploy_data = json.dumps(deploy_data)
request_url = f'https://management.azure.com/subscriptions/{subscription}/resourceGroups/{resource_group}/providers/Microsoft.CognitiveServices/accounts/{resource_name}/deployments/{model_deployment_name}'
print('Creating a new deployment...')
r = requests.put(request_url, params=deploy_params, headers=deploy_headers, data=deploy_data)
print(r)
print(r.reason)
print(r.json())
| veranderlijk |
Definitie |
| token |
Er zijn meerdere manieren om een autorisatietoken te genereren. De eenvoudigste methode voor eerste tests is het starten van Cloud Shell vanuit Azure Portal. Voer vervolgens az account get-access-tokenuit. U kunt dit token gebruiken als uw tijdelijke autorisatietoken voor API-tests. We raden u aan dit op te slaan in een nieuwe omgevingsvariabele. |
| abonnement |
De abonnements-id voor de bijbehorende Azure OpenAI-resource. |
| resourcegroep |
De naam van de resourcegroep voor uw Azure OpenAI-resource. |
| bron_naam |
De naam van de Azure OpenAI-resource. |
| modelinzetnaam |
De aangepaste naam voor de nieuwe uitrol van je fijn afgestelde model. Dit is de naam waarnaar wordt verwezen in uw code bij het maken van chat-voltooiingsgesprekken. |
| fijn-afgesteld model |
Haal deze waarde op uit je verfijningstaakresultaten in de vorige stap. Het zal eruitzien als gpt41-mini-candidate-01.ft-b044a9d3cf9c4228b5d393567f693b83. U moet die waarde toevoegen aan de deploy_data json. Als alternatief kunt u ook een controlepunt implementeren door de controlepunt-id door te geven die in het formaat ftchkpt-e559c011ecc04fc68eaa339d8227d02d verschijnt. |
In het volgende voorbeeld ziet u hoe u de REST API gebruikt om een modelimplementatie te maken voor uw aangepaste model. De REST API genereert een naam voor de implementatie van uw aangepaste model.
curl -X POST "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2025-07-01-preview" \
-H "Authorization: Bearer <TOKEN>" \
-H "Content-Type: application/json" \
-d '{
"sku": {"name": "developertier", "capacity": 50},
"properties": {
"model": {
"format": "OpenAI",
"name": "<FINE_TUNED_MODEL>",
"version": "1"
}
}
}'
| veranderlijk |
Definitie |
| token |
Er zijn meerdere manieren om een autorisatietoken te genereren. De eenvoudigste methode voor eerste tests is het starten van Cloud Shell vanuit Azure Portal. Voer vervolgens az account get-access-tokenuit. U kunt dit token gebruiken als uw tijdelijke autorisatietoken voor API-tests. We raden u aan dit op te slaan in een nieuwe omgevingsvariabele. |
| abonnement |
De abonnements-id voor de bijbehorende Azure OpenAI-resource. |
| resourcegroep |
De naam van de resourcegroep voor uw Azure OpenAI-resource. |
| bron_naam |
De naam van de Azure OpenAI-resource. |
| modelinzetnaam |
De aangepaste naam voor de nieuwe uitrol van je fijn afgestelde model. Dit is de naam waarnaar wordt verwezen in uw code bij het maken van chat-voltooiingsgesprekken. |
| fijn-afgesteld model |
Haal deze waarde op uit je verfijningstaakresultaten in de vorige stap. Het zal eruitzien als gpt-35-turbo-0125.ft-b044a9d3cf9c4228b5d393567f693b83. U moet die waarde toevoegen aan de deploy_data json. Als alternatief kunt u ook een controlepunt implementeren door de controlepunt-id door te geven die in het formaat ftchkpt-e559c011ecc04fc68eaa339d8227d02d verschijnt. |
Een model implementeren met Azure CLI
In het volgende voorbeeld ziet u hoe u de Azure CLI gebruikt om uw aangepaste model te implementeren. Met de Azure CLI moet u een naam opgeven voor de implementatie van uw aangepaste model. Zie voor meer informatie over het gebruik van de Azure CLI om aangepaste modellen az cognitiveservices account deploymentte implementeren.
Als u deze Azure CLI-opdracht wilt uitvoeren in een consolevenster, moet u de volgende <tijdelijke aanduidingen> vervangen door de bijbehorende waarden voor uw aangepaste model:
| Plaatsvervanger |
Waarde |
|
<YOUR_AZURE_SUBSCRIPTION> |
De naam of id van uw Azure-abonnement. |
|
<YOUR_RESOURCE_GROUP> |
De naam van uw Azure-resourcegroep. |
|
<YOUR_RESOURCE_NAME> |
De naam van uw Azure OpenAI-resource. |
|
<YOUR_DEPLOYMENT_NAME> |
De naam die u wilt gebruiken voor uw modelimplementatie. |
|
<YOUR_FINE_TUNED_MODEL_ID> |
De naam van uw aangepaste model. |
az cognitiveservices account deployment create
--resource-group <YOUR_RESOURCE_GROUP>
--name <YOUR_RESOURCE_NAME>
--deployment-name <YOUR_DEPLOYMENT_NAME>
--model-name <YOUR_FINE_TUNED_MODEL_ID>
--model-version "1"
--model-format OpenAI
--sku-capacity "50"
--sku-name "Developer"
Het geïmplementeerde, nauwkeurig afgestemde model gebruiken
Nadat uw aangepaste model is geïmplementeerd, kunt u dit gebruiken zoals elk ander geïmplementeerd model. U kunt de Playgrounds in de Azure AI Foundry-portal gebruiken om te experimenteren met uw nieuwe implementatie. U kunt dezelfde parameters blijven gebruiken met uw aangepaste model, zoals temperature en max_tokens, zoals u kunt met andere geïmplementeerde modellen.
U kunt de evaluatiesservice ook gebruiken om modelevaluaties te maken en uit te voeren op basis van uw geïmplementeerde modelkandidaat, evenals andere modelversies.
import os
from openai import OpenAI
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
response = client.chat.completions.create(
model="gpt41-mini-candidate-01", # model = "Custom deployment name you chose for your fine-tuning model"
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},
{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},
{"role": "user", "content": "Do other Azure AI services support this too?"}
]
)
print(response.choices[0].message.content)
curl $AZURE_OPENAI_ENDPOINT/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '"model": "YOUR_MODEL_DEPLOYMENT_NAME", {"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Azure AI services support this too?"}]}'
Maak uw implementatie schoon
Ontwikkelaarsimplementaties worden automatisch verwijderd, ongeacht de activiteit. Elke implementatie heeft een vaste levensduur van 24 uur waarna deze wordt verwijderd. Het verwijderen van een implementatie is niet van invloed op het onderliggende aangepaste model en het aangepaste model kan op elk gewenst moment opnieuw worden geïmplementeerd.
Als u een implementatie handmatig wilt verwijderen, kunt u de Azure AI Foundry-portal gebruiken of Azure CLI gebruiken.
Voor het gebruik van de Deployments - Delete REST API, stuur een HTTP DELETE naar de deploymentresource. Net als bij het maken van implementaties moet u de volgende parameters bevatten:
- Azure-abonnements-id
- Naam van Azure-resourcegroep
- Azure OpenAI-resourcenaam
- Naam van de implementatie die u wilt verwijderen
Hieronder ziet u het REST API-voorbeeld om een implementatie te verwijderen:
curl -X DELETE "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2025-07-01-preview" \
-H "Authorization: Bearer <TOKEN>"
Volgende stappen