Get Chat Completions - Get Chat Completions
Hiermee worden chatvoltooiingen voor de opgegeven chatberichten ontvangen.
Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens. De methode maakt een REST API-aanroep naar de /chat/completions route op het opgegeven eindpunt.
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
		URI-parameters
| Name | In | Vereist | Type | Description | 
|---|---|---|---|---|
| 
						 resource 
					 | 
					path | True | 
			 string  | 
					
						 De resourcenaam van Azure AI Services, bijvoorbeeld 'my-resource'  | 
				
| 
						 api-version 
					 | 
					query | True | 
			 string minLength: 1 | 
					
						 De API-versie die voor deze bewerking moet worden gebruikt.  | 
				
Aanvraagkoptekst
| Name | Vereist | Type | Description | 
|---|---|---|---|
| extra-parameters | 
		 Hiermee bepaalt u wat er gebeurt als extra parameters, die niet zijn gedefinieerd door de REST API, worden doorgegeven in de nettolading van de JSON-aanvraag.
Hiermee stelt u de HTTP-aanvraagheader in   | 
Aanvraagbody
| Name | Vereist | Type | Description | 
|---|---|---|---|
| messages | True | ChatRequestMessage[]: | 
		 De verzameling contextberichten die zijn gekoppeld aan deze chat-voltooiingsaanvraag. Normaal gebruik begint met een chatbericht voor de systeemrol die instructies biedt voor het gedrag van de assistent, gevolgd door afwisselende berichten tussen de rollen Gebruiker en Assistent.  | 
| frequency_penalty | 
			 number (float) minimum: -2maximum: 2  | 
	
		 Een waarde die van invloed is op de kans dat gegenereerde tokens worden weergegeven op basis van hun cumulatieve frequentie in gegenereerde tekst. Positieve waarden zorgen ervoor dat tokens minder waarschijnlijk worden weergegeven als hun frequentie toeneemt en de kans vermindert dat het model dezelfde exacte instructies herhaalt. Ondersteund bereik is [-2, 2].  | 
|
| max_tokens | 
			 integer (int32) minimum: 0 | 
	
		 Het maximum aantal tokens dat moet worden gegenereerd.  | 
|
| modalities | 
		 De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat. De standaard modaliteit is   | 
||
| model | 
			 string  | 
	
		 Id van het specifieke AI-model dat moet worden gebruikt, als er meer dan één model beschikbaar is op het eindpunt.  | 
|
| presence_penalty | 
			 number (float) minimum: -2maximum: 2  | 
	
		 Een waarde die de kans beïnvloedt dat gegenereerde tokens worden weergegeven op basis van hun bestaande aanwezigheid in gegenereerde tekst. Met positieve waarden worden tokens minder waarschijnlijk weergegeven wanneer ze al bestaan en vergroten de kans dat het model nieuwe onderwerpen uitvoert. Ondersteund bereik is [-2, 2].  | 
|
| response_format | ChatCompletionsResponseFormat: | 
		 Een object dat de indeling aangeeft die het model moet uitvoeren. Instelling voor  Als u de instelling voor  
              Belangrijk: wanneer u de JSON-modus gebruikt, moet u het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als   | 
|
| seed | 
			 integer (int64)  | 
	
		 Indien opgegeven, doet het systeem er alles aan om een steekproef te nemen op een deterministische wijze, zodat herhaalde aanvragen met dezelfde seed en parameters hetzelfde resultaat moeten retourneren. Determinisme is niet gegarandeerd.  | 
|
| stop | 
			 string[]  | 
	
		 Een verzameling tekstreeksen die het genereren van voltooiingen beëindigen.  | 
|
| stream | 
			 boolean  | 
	
		 Een waarde die aangeeft of chatvoltooiingen moeten worden gestreamd voor deze aanvraag.  | 
|
| temperature | 
			 number (float) minimum: 0maximum: 1  | 
	
		 De steekproeftemperatuur die moet worden gebruikt om de schijnbare creativiteit van gegenereerde voltooiingen te regelen. Hogere waarden zorgen ervoor dat uitvoer willekeuriger wordt, terwijl lagere waarden resultaten meer gericht en deterministisch maken. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1].  | 
|
| tool_choice | 
		 Indien opgegeven, configureert het model welke van de beschikbare hulpprogramma's die het kan gebruiken voor het antwoord op het voltooien van de chat.  | 
||
| tools | 
		 Een lijst met hulpprogramma's die het model kan aanvragen om aan te roepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Het model kan reageren met een aanvraag voor een functieoproep en de invoerargumenten voor die functie opgeven in JSON-indeling.  | 
||
| top_p | 
			 number (float) minimum: 0maximum: 1  | 
	
		 Een alternatief voor steekproeven met temperatuur genaamd kernsampling. Deze waarde zorgt ervoor dat het model rekening houdt met de resultaten van tokens met de opgegeven waarschijnlijkheidsmassa. Een voorbeeld: een waarde van 0,15 zorgt ervoor dat alleen de tokens die de top 15% van waarschijnlijkheidsmassa bevatten, worden overwogen. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1].  | 
Antwoorden
| Name | Type | Description | 
|---|---|---|
| 200 OK | 
		 De aanvraag is voltooid.  | 
|
| Other Status Codes | 
		 Een onverwachte foutreactie. Kopteksten x-ms-error-code: string  | 
Beveiliging
api-key
					Type: 
					apiKey
					In: 
					header
			
OAuth2Auth
					Type: 
					oauth2
					Stroom: 
					implicit
					Autorisatie-URL: 
					https://login.microsoftonline.com/common/oauth2/v2.0/authorize
			
Bereiken
| Name | Description | 
|---|---|
| https://cognitiveservices.azure.com/.default | 
Voorbeelden
| Audio modality chat completion | 
| maximum set chat completion | 
| minimum set chat completion | 
Audio modality chat completion
Voorbeeldaanvraag
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}
Voorbeeldrespons
{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}
				maximum set chat completion
Voorbeeldaanvraag
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}
Voorbeeldrespons
{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}
				minimum set chat completion
Voorbeeldaanvraag
POST https://{resource}.services.ai.azure.com/models/chat/completions?api-version=2024-05-01-preview
{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}
Voorbeeldrespons
{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}
				Definities
| Name | Description | 
|---|---|
| 
							Audio | 
						
							 Een weergave van de mogelijke audio-indelingen voor audio.  | 
					
| 
							Azure. | 
						
							 Het foutobject.  | 
					
| 
							Azure. | 
						
							 Een antwoord met foutdetails.  | 
					
| 
							Azure. | 
						
							 Een object met meer specifieke informatie over de fout. Volgens de Azure REST API-richtlijnen - . https://aka.ms/AzureRestApiGuidelines#handling-errors  | 
					
| 
							Chat | 
						
							 De weergave van één promptvoltooiing als onderdeel van een algemene aanvraag voor het voltooien van chats.
Over het algemeen worden   | 
					
| 
							Chat | 
						
							 Weergave van de antwoordgegevens van een aanvraag voor het voltooien van chats. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens.  | 
					
| 
							Chat | 
						
							 Een weergave van de audio die door het model wordt gegenereerd.  | 
					
| 
							Chat | 
						
							 De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat.  | 
					
| 
							Chat | 
						
							 De configuratiegegevens voor een aanvraag voor het voltooien van een chatgesprek. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens.  | 
					
| 
							Chat | 
						
							 Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten. Als u de JSON-modus wilt inschakelen, moet u voor sommige AI-modellen mogelijk ook het model instrueren om JSON te produceren via een systeem- of gebruikersbericht.  | 
					
| 
							Chat | 
						
							 Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten, met een JSON-schema dat is opgegeven door de beller.  | 
					
| 
							Chat | 
						
							 De definitie van het vereiste JSON-schema in het antwoord en de bijbehorende metagegevens.  | 
					
| 
							Chat | 
						
							 Een antwoordindeling voor chatvoltooiingen waarmee tekstantwoorden worden verzonden. Dit is de standaardopmaak voor antwoorden.  | 
					
| 
							Chat | 
						
							 Een functiehulpprogramma-aanroep aangevraagd door het AI-model.  | 
					
| 
							Chat | 
						
							 De definitie van een hulpprogramma voor chatvoltooiingen waarmee een functie kan worden aangeroepen.  | 
					
| 
							Chat | 
						
							 Een chatbericht aanvragen dat antwoord of actie van de assistent vertegenwoordigt.  | 
					
| 
							Chat | 
						
							 Een verwijzing naar een audioantwoord dat door het model wordt gegenereerd.  | 
					
| 
							Chat | 
						
							 Een aanvraagchatbericht met systeeminstructies die van invloed zijn op de wijze waarop het model een antwoord op voltooiing van een chat genereert.  | 
					
| 
							Chat | 
						
							 Een chatbericht voor aanvragen dat de aangevraagde uitvoer van een geconfigureerd hulpprogramma vertegenwoordigt.  | 
					
| 
							Chat | 
						
							 Een chatbericht aanvragen dat gebruikersinvoer aan de assistent vertegenwoordigt.  | 
					
| 
							Chat | 
						
							 Een weergave van een chatbericht zoals ontvangen in een antwoord.  | 
					
| 
							Chat | 
						
							 Een beschrijving van het beoogde doel van een bericht binnen een chatinteractie.  | 
					
| 
							Completions | 
						
							 Weergave van de manier waarop een voltooiingsreactie werd afgesloten.  | 
					
| 
							Completions | 
						
							 Weergave van het aantal tokens dat is verwerkt voor een voltooiingsaanvraag. Aantallen houden rekening met alle tokens voor prompts, keuzes, keuze-alternatieven, best_of generaties en andere consumenten.  | 
					
| 
							Completions | 
						
							 Een uitsplitsing van tokens die worden gebruikt in een voltooiing.  | 
					
| 
							Extra | 
						
							 Hiermee bepaalt u wat er gebeurt als extra parameters, die niet zijn gedefinieerd door de REST API, worden doorgegeven in de nettolading van de JSON-aanvraag.  | 
					
| 
							Function | 
						
							 De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model.  | 
					
| 
							Function | 
						
							 De definitie van een door een beller opgegeven functie die chatvoltooiingen kan aanroepen als reactie op overeenkomende gebruikersinvoer.  | 
					
| 
							Prompt | 
						
							 Een uitsplitsing van tokens die worden gebruikt in de prompt-/chatgeschiedenis.  | 
					
AudioContentFormat  
			
			Een weergave van de mogelijke audio-indelingen voor audio.
| Waarde | Description | 
|---|---|
| wav | 
		 Hiermee geeft u audio in WAV-indeling.  | 
| mp3 | 
		 Hiermee geeft u audio in MP3-indeling.  | 
Azure.Core.Foundations.Error   
			
			Het foutobject.
| Name | Type | Description | 
|---|---|---|
| code | 
			 string  | 
	
		 Een van een door de server gedefinieerde set foutcodes.  | 
| details | 
		 Een matrix met details over specifieke fouten die hebben geleid tot deze gemelde fout.  | 
|
| innererror | 
		 Een object met meer specifieke informatie dan het huidige object over de fout.  | 
|
| message | 
			 string  | 
	
		 Een leesbare weergave van de fout.  | 
| target | 
			 string  | 
	
		 Het doel van de fout.  | 
Azure.Core.Foundations.ErrorResponse    
			
			Een antwoord met foutdetails.
| Name | Type | Description | 
|---|---|---|
| error | 
		 Het foutobject.  | 
Azure.Core.Foundations.InnerError    
			
			Een object met meer specifieke informatie over de fout. Volgens de Azure REST API-richtlijnen - . https://aka.ms/AzureRestApiGuidelines#handling-errors
| Name | Type | Description | 
|---|---|---|
| code | 
			 string  | 
	
		 Een van een door de server gedefinieerde set foutcodes.  | 
| innererror | 
		 Interne fout.  | 
ChatChoice 
			
			De weergave van één promptvoltooiing als onderdeel van een algemene aanvraag voor het voltooien van chats.
Over het algemeen worden n keuzes gegenereerd per opgegeven prompt met een standaardwaarde van 1.
Tokenlimieten en andere instellingen kunnen het aantal gegenereerde keuzes beperken.
| Name | Type | Description | 
|---|---|---|
| finish_reason | 
		 De reden waarom deze chat is voltooid, is de gegenereerde keuze voltooid.  | 
|
| index | 
			 integer (int32)  | 
	
		 De geordende index die is gekoppeld aan deze chat-voltooiingskeuze.  | 
| message | 
		 Het chatbericht voor een bepaalde chat-voltooiingsprompt.  | 
ChatCompletions 
			
			Weergave van de antwoordgegevens van een aanvraag voor het voltooien van chats. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens.
| Name | Type | Description | 
|---|---|---|
| choices | 
		 De verzameling voltooiingskeuzen die zijn gekoppeld aan dit voltooiingsantwoord.
Over het algemeen worden   | 
|
| created | 
			 integer (unixtime)  | 
	
		 De eerste tijdstempel die is gekoppeld aan de generatieactiviteit voor dit voltooiingsantwoord, weergegeven als seconden sinds het begin van het Unix-epoch van 00:00 op 1 januari 1970.  | 
| id | 
			 string  | 
	
		 Een unieke id die aan deze chat is gekoppeld, reageert.  | 
| model | 
			 string  | 
	
		 Het model dat wordt gebruikt voor het voltooien van de chat.  | 
| object | 
		enum:
			 
					chat.  | 
	
		 Het antwoordobjecttype, dat altijd   | 
| usage | 
		 Gebruiksgegevens voor tokens die worden verwerkt en gegenereerd als onderdeel van deze voltooiingsbewerking.  | 
ChatCompletionsAudio  
			
			Een weergave van de audio die door het model wordt gegenereerd.
| Name | Type | Description | 
|---|---|---|
| data | 
			 string  | 
	
		 Met Base64 gecodeerde audiogegevens  | 
| expires_at | 
			 integer (unixtime)  | 
	
		 De Unix-tijdstempel (in seconden) waarop het audiostuk verloopt en waarnaar niet meer kan worden verwezen door de id in gesprekken met meerdere paden.  | 
| format | 
		 De indeling van de audio-inhoud. Als er geen indeling is opgegeven, komt deze overeen met de indeling die wordt gebruikt in de invoeraudioaanvraag.  | 
|
| id | 
			 string  | 
	
		 Unieke id voor het audioantwoord. Deze waarde kan worden gebruikt in chatgeschiedenisberichten in plaats van het volledige audioobject door te geven.  | 
| transcript | 
			 string  | 
	
		 Het transcript van het audiobestand.  | 
ChatCompletionsModality  
			
			De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat.
| Waarde | Description | 
|---|---|
| text | 
		 Het model mag alleen tekst genereren.  | 
| audio | 
		 Het model mag audio genereren.  | 
ChatCompletionsOptions  
			
			De configuratiegegevens voor een aanvraag voor het voltooien van een chatgesprek. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens.
| Name | Type | Default value | Description | 
|---|---|---|---|
| frequency_penalty | 
			 number (float) minimum: -2maximum: 2  | 
    0 | 
		 Een waarde die van invloed is op de kans dat gegenereerde tokens worden weergegeven op basis van hun cumulatieve frequentie in gegenereerde tekst. Positieve waarden zorgen ervoor dat tokens minder waarschijnlijk worden weergegeven als hun frequentie toeneemt en de kans vermindert dat het model dezelfde exacte instructies herhaalt. Ondersteund bereik is [-2, 2].  | 
| max_tokens | 
			 integer (int32) minimum: 0 | 
    
		 Het maximum aantal tokens dat moet worden gegenereerd.  | 
|
| messages | ChatRequestMessage[]: | 
		 De verzameling contextberichten die zijn gekoppeld aan deze chat-voltooiingsaanvraag. Normaal gebruik begint met een chatbericht voor de systeemrol die instructies biedt voor het gedrag van de assistent, gevolgd door afwisselende berichten tussen de rollen Gebruiker en Assistent.  | 
|
| modalities | 
		 De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat. De standaard modaliteit is   | 
||
| model | 
			 string  | 
    
		 Id van het specifieke AI-model dat moet worden gebruikt, als er meer dan één model beschikbaar is op het eindpunt.  | 
|
| presence_penalty | 
			 number (float) minimum: -2maximum: 2  | 
    0 | 
		 Een waarde die de kans beïnvloedt dat gegenereerde tokens worden weergegeven op basis van hun bestaande aanwezigheid in gegenereerde tekst. Met positieve waarden worden tokens minder waarschijnlijk weergegeven wanneer ze al bestaan en vergroten de kans dat het model nieuwe onderwerpen uitvoert. Ondersteund bereik is [-2, 2].  | 
| response_format | ChatCompletionsResponseFormat: | 
		 Een object dat de indeling aangeeft die het model moet uitvoeren. Instelling voor  Als u de instelling voor  
              Belangrijk: wanneer u de JSON-modus gebruikt, moet u het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als   | 
|
| seed | 
			 integer (int64)  | 
    
		 Indien opgegeven, doet het systeem er alles aan om een steekproef te nemen op een deterministische wijze, zodat herhaalde aanvragen met dezelfde seed en parameters hetzelfde resultaat moeten retourneren. Determinisme is niet gegarandeerd.  | 
|
| stop | 
			 string[]  | 
    
		 Een verzameling tekstreeksen die het genereren van voltooiingen beëindigen.  | 
|
| stream | 
			 boolean  | 
    
		 Een waarde die aangeeft of chatvoltooiingen moeten worden gestreamd voor deze aanvraag.  | 
|
| temperature | 
			 number (float) minimum: 0maximum: 1  | 
    0.7 | 
		 De steekproeftemperatuur die moet worden gebruikt om de schijnbare creativiteit van gegenereerde voltooiingen te regelen. Hogere waarden zorgen ervoor dat uitvoer willekeuriger wordt, terwijl lagere waarden resultaten meer gericht en deterministisch maken. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1].  | 
| tool_choice | 
		 Indien opgegeven, configureert het model welke van de beschikbare hulpprogramma's die het kan gebruiken voor het antwoord op het voltooien van de chat.  | 
||
| tools | 
		 Een lijst met hulpprogramma's die het model kan aanvragen om aan te roepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Het model kan reageren met een aanvraag voor een functieoproep en de invoerargumenten voor die functie opgeven in JSON-indeling.  | 
||
| top_p | 
			 number (float) minimum: 0maximum: 1  | 
    1 | 
		 Een alternatief voor steekproeven met temperatuur genaamd kernsampling. Deze waarde zorgt ervoor dat het model rekening houdt met de resultaten van tokens met de opgegeven waarschijnlijkheidsmassa. Een voorbeeld: een waarde van 0,15 zorgt ervoor dat alleen de tokens die de top 15% van waarschijnlijkheidsmassa bevatten, worden overwogen. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1].  | 
ChatCompletionsResponseFormatJsonObject     
			
			Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten. Als u de JSON-modus wilt inschakelen, moet u voor sommige AI-modellen mogelijk ook het model instrueren om JSON te produceren via een systeem- of gebruikersbericht.
| Name | Type | Description | 
|---|---|---|
| type | 
		string:
			 json_object  | 
	
		 Het type antwoordindeling dat moet worden gebruikt voor het voltooien van chats.  | 
ChatCompletionsResponseFormatJsonSchema     
			
			Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten, met een JSON-schema dat is opgegeven door de beller.
| Name | Type | Description | 
|---|---|---|
| json_schema | 
		 De definitie van het vereiste JSON-schema in het antwoord en de bijbehorende metagegevens.  | 
|
| type | 
		string:
			 json_schema  | 
	
		 Het type antwoordindeling dat moet worden gebruikt voor het voltooien van chats.  | 
ChatCompletionsResponseFormatJsonSchemaDefinition      
			
			De definitie van het vereiste JSON-schema in het antwoord en de bijbehorende metagegevens.
| Name | Type | Default value | Description | 
|---|---|---|---|
| description | 
			 string  | 
    
		 Een beschrijving van de antwoordindeling die door het AI-model wordt gebruikt om te bepalen hoe antwoorden in deze indeling moeten worden gegenereerd.  | 
|
| name | 
			 string  | 
    
		 De naam van de antwoordindeling. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64.  | 
|
| schema | 
		 De definitie van het JSON-schema  | 
||
| strict | 
			 boolean  | 
    False | 
		 Of u strikte schema-naleving wilt inschakelen bij het genereren van de uitvoer.
Als dit is ingesteld op true, volgt het model altijd het exacte schema dat is gedefinieerd in het veld   | 
ChatCompletionsResponseFormatText    
			
			Een antwoordindeling voor chatvoltooiingen waarmee tekstantwoorden worden verzonden. Dit is de standaardopmaak voor antwoorden.
| Name | Type | Description | 
|---|---|---|
| type | 
		string:
			 text  | 
	
		 Het type antwoordindeling dat moet worden gebruikt voor het voltooien van chats.  | 
ChatCompletionsToolCall   
			
			Een functiehulpprogramma-aanroep aangevraagd door het AI-model.
| Name | Type | Description | 
|---|---|---|
| function | 
		 De details van de functie-aanroep die is aangevraagd door het AI-model.  | 
|
| id | 
			 string  | 
	
		 De id van de aanroep van het hulpprogramma.  | 
| type | 
		enum:
			 function  | 
	
		 Het type aanroep van het hulpprogramma. Op dit moment wordt alleen   | 
ChatCompletionsToolDefinition   
			
			De definitie van een hulpprogramma voor chatvoltooiingen waarmee een functie kan worden aangeroepen.
| Name | Type | Description | 
|---|---|---|
| function | 
		 De details van de functiedefinitie voor het functiehulpprogramma.  | 
|
| type | 
		enum:
			 function  | 
	
		 Het type hulpprogramma. Op dit moment wordt alleen   | 
ChatRequestAssistantMessage   
			
			Een chatbericht aanvragen dat antwoord of actie van de assistent vertegenwoordigt.
| Name | Type | Description | 
|---|---|---|
| audio | 
		 De audio die wordt gegenereerd door een eerder antwoord in een gesprek met meerdere paden.  | 
|
| content | 
			 string  | 
	
		 De inhoud van het bericht.  | 
| role | 
		string:
			 assistant  | 
	
		 De chatrol die aan dit bericht is gekoppeld.  | 
| tool_calls | 
		 De hulpprogramma-aanroepen die moeten worden opgelost en hun uitvoer moet worden toegevoegd aan volgende invoerberichten voor de aanvraag voor het voltooien van de chat om op te lossen zoals geconfigureerd.  | 
ChatRequestAudioReference   
			
			Een verwijzing naar een audioantwoord dat door het model wordt gegenereerd.
| Name | Type | Description | 
|---|---|---|
| id | 
			 string  | 
	
		 Unieke id voor het audioantwoord. Deze waarde komt overeen met de id van een eerdere audio-voltooiing.  | 
ChatRequestSystemMessage   
			
			Een aanvraagchatbericht met systeeminstructies die van invloed zijn op de wijze waarop het model een antwoord op voltooiing van een chat genereert.
| Name | Type | Description | 
|---|---|---|
| content | 
			 string  | 
	
		 De inhoud van het systeembericht.  | 
| role | 
		string:
			 system  | 
	
		 De chatrol die aan dit bericht is gekoppeld.  | 
ChatRequestToolMessage   
			
			Een chatbericht voor aanvragen dat de aangevraagde uitvoer van een geconfigureerd hulpprogramma vertegenwoordigt.
| Name | Type | Description | 
|---|---|---|
| content | 
			 string  | 
	
		 De inhoud van het bericht.  | 
| role | 
		string:
			 tool  | 
	
		 De chatrol die aan dit bericht is gekoppeld.  | 
| tool_call_id | 
			 string  | 
	
		 De id van de aanroep van het hulpprogramma die is opgelost door de opgegeven inhoud.  | 
ChatRequestUserMessage   
			
			Een chatbericht aanvragen dat gebruikersinvoer aan de assistent vertegenwoordigt.
| Name | Type | Description | 
|---|---|---|
| content | 
		 De inhoud van het gebruikersbericht, met beschikbare invoertypen die variëren per geselecteerd model.  | 
|
| role | 
		string:
			 user  | 
	
		 De chatrol die aan dit bericht is gekoppeld.  | 
ChatResponseMessage  
			
			Een weergave van een chatbericht zoals ontvangen in een antwoord.
| Name | Type | Description | 
|---|---|---|
| audio | 
		 De audio die door het model wordt gegenereerd als reactie op de berichten als het model is geconfigureerd voor het genereren van audio.  | 
|
| content | 
			 string  | 
	
		 De inhoud van het bericht.  | 
| role | 
		 De chatrol die aan het bericht is gekoppeld.  | 
|
| tool_calls | 
		 De hulpprogramma-aanroepen die moeten worden opgelost en hun uitvoer moet worden toegevoegd aan volgende invoerberichten voor de aanvraag voor het voltooien van de chat om op te lossen zoals geconfigureerd.  | 
ChatRole 
			
			Een beschrijving van het beoogde doel van een bericht binnen een chatinteractie.
| Waarde | Description | 
|---|---|
| system | 
		 De rol waarmee het gedrag van de assistent wordt geïnstrueerd of ingesteld.  | 
| developer | 
		 De rol die instructies biedt voor het model dat prioriteit geeft aan gebruikersberichten.  | 
| user | 
		 De rol die invoer biedt voor het voltooien van chatgesprekken.  | 
| assistant | 
		 De rol die antwoorden biedt op door het systeem geïnstrueerde, door de gebruiker gevraagd invoer.  | 
| tool | 
		 De rol die de activiteit van het extensiehulpprogramma vertegenwoordigt binnen een bewerking voor het voltooien van een chat.  | 
CompletionsFinishReason  
			
			Weergave van de manier waarop een voltooiingsreactie werd afgesloten.
| Waarde | Description | 
|---|---|
| stop | 
		 Voltooiingen eindigden normaal en bereikten het einde van het genereren van tokens.  | 
| length | 
		 Voltooiingen uitgeputte beschikbare tokenlimieten voordat het genereren kon worden voltooid.  | 
| content_filter | 
		 Voltooiingen hebben een antwoord gegenereerd dat is geïdentificeerd als mogelijk gevoelig per beleid voor inhoudsbeheer.  | 
| tool_calls | 
		 Voltooiing is beëindigd met het model dat een opgegeven hulpprogramma aanroept voor uitvoer.  | 
CompletionsUsage 
			
			Weergave van het aantal tokens dat is verwerkt voor een voltooiingsaanvraag. Aantallen houden rekening met alle tokens voor prompts, keuzes, keuze-alternatieven, best_of generaties en andere consumenten.
| Name | Type | Description | 
|---|---|---|
| completion_tokens | 
			 integer (int32)  | 
	
		 Het aantal tokens dat wordt gegenereerd voor alle voltooiingsemissies.  | 
| completion_tokens_details | 
		 Uitsplitsing van tokens die worden gebruikt in een voltooiing.  | 
|
| prompt_tokens | 
			 integer (int32)  | 
	
		 Het aantal tokens in de opgegeven prompts voor de voltooiingsaanvraag.  | 
| prompt_tokens_details | 
		 Uitsplitsing van tokens die worden gebruikt in de prompt-/chatgeschiedenis.  | 
|
| total_tokens | 
			 integer (int32)  | 
	
		 Het totale aantal tokens dat is verwerkt voor de voltooiingsaanvraag en het antwoord.  | 
CompletionsUsageDetails  
			
			Een uitsplitsing van tokens die worden gebruikt in een voltooiing.
| Name | Type | Description | 
|---|---|---|
| audio_tokens | 
			 integer (int32)  | 
	
		 Het aantal tokens dat overeenkomt met audio-invoer.  | 
| total_tokens | 
			 integer (int32)  | 
	
		 Het totale aantal tokens dat is verwerkt voor de voltooiingsaanvraag en het antwoord.  | 
ExtraParameters 
			
			Hiermee bepaalt u wat er gebeurt als extra parameters, die niet zijn gedefinieerd door de REST API, worden doorgegeven in de nettolading van de JSON-aanvraag.
| Waarde | Description | 
|---|---|
| error | 
		 De service treedt op als er extra parameters zijn gedetecteerd in de nettolading van de aanvraag. Dit is de standaardservice.  | 
| drop | 
		 De service negeert extra parameters (drop) in de nettolading van de aanvraag. Hiermee worden alleen de bekende parameters doorgegeven aan het AI-model van de back-end.  | 
| pass-through | 
		 De service geeft extra parameters door aan het AI-model van de back-end.  | 
FunctionCall 
			
			De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model.
| Name | Type | Description | 
|---|---|---|
| arguments | 
			 string  | 
	
		 De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en parameters die niet door uw functieschema zijn gedefinieerd, halluvalideert. Valideer de argumenten in uw code voordat u de functie aanroept.  | 
| name | 
			 string  | 
	
		 De naam van de functie die moet worden aangeroepen.  | 
FunctionDefinition 
			
			De definitie van een door een beller opgegeven functie die chatvoltooiingen kan aanroepen als reactie op overeenkomende gebruikersinvoer.
| Name | Type | Description | 
|---|---|---|
| description | 
			 string  | 
	
		 Een beschrijving van wat de functie doet. Het model gebruikt deze beschrijving bij het selecteren van de functie en het interpreteren van de parameters.  | 
| name | 
			 string  | 
	
		 De naam van de functie die moet worden aangeroepen.  | 
| parameters | 
		 De parameters die de functie accepteert, zoals beschreven als een JSON-schemaobject.  | 
PromptUsageDetails  
			
			Een uitsplitsing van tokens die worden gebruikt in de prompt-/chatgeschiedenis.
| Name | Type | Description | 
|---|---|---|
| audio_tokens | 
			 integer (int32)  | 
	
		 Het aantal tokens dat overeenkomt met audio-invoer.  | 
| cached_tokens | 
			 integer (int32)  | 
	
		 Het totale aantal tokens dat in de cache is opgeslagen.  |