Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
The large language model (LLM) tool in prompt flow enables you to use widely used large language models like OpenAI, Azure OpenAI in Azure AI Foundry Models, or any language model supported by the Azure AI model inference API for natural language processing.
Prompt flow innehåller flera API:er för stora språkmodeller:
- Completion: OpenAI's completion models generate text based on provided prompts.
- Chat: OpenAI's chat models and the Azure AI chat models facilitate interactive conversations with text-based inputs and responses.
The Embeddings API isn't available in the LLM tool. Use the embedding tool to generate embeddings with OpenAI or Azure OpenAI.
Note
LLM-verktyget i promptflödet stöder inte resonemangsmodeller (till exempel OpenAI o1 eller o3). För att resonera modellintegrering använder du Python-verktyget för att anropa modell-API:erna direkt. Mer information finns i Anropa en resonemangsmodell från Python-verktyget.
Prerequisites
Skapa OpenAI-resurser:
OpenAI:
- Sign up for an account on the OpenAI website.
- Logga in och hitta din personliga API-nyckel.
Azure OpenAI:
- Create Azure OpenAI resources by following these instructions. Använd endast ASCII-tecken i Azure OpenAI-resursgruppnamn. Prompt flow stöder inte icke-ASCII-tecken i resursgruppsnamn.
Modeller som distribueras till standarddistributioner:
- Skapa en slutpunkt med modellen från den katalog du vill använda och distribuera den med en standarddistribution.
- Om du vill använda modeller som distribuerats till standarddistribution som stöds av Azure AI-modellinferens-API:et, till exempel Mistral, Cohere, Meta Llama eller Microsofts modellfamilj (bland annat), skapar du en anslutning i projektet till slutpunkten.
Connections
Konfigurera anslutningar till etablerade resurser i promptflödet.
| Type | Name | API key | API type | API version |
|---|---|---|---|---|
| OpenAI | Required | Required | - | - |
| Azure OpenAI – API-nyckel | Required | Required | Required | Required |
| Azure OpenAI – Microsoft Entra-ID | Required | - | - | Required |
| Serverless model | Required | Required | - | - |
Tip
- Om du vill använda autentiseringstypen Microsoft Entra ID för Azure OpenAI-anslutning tilldelar du antingen
Cognitive Services OpenAI Userrollen ellerCognitive Services OpenAI Contributortill den användartilldelade hanterade identiteten. - Läs mer om hur du anger att använda användaridentitet för att skicka flödeskörning.
- Läs mer om hur du konfigurerar Azure OpenAI med hanterade identiteter.
Inputs
I följande avsnitt visas olika indata.
Text completion
| Name | Type | Description | Required |
|---|---|---|---|
| prompt | string | Textprompt för språkmodellen. | Yes |
| model, deployment_name | string | Språkmodell som ska användas. | Yes |
| max_tokens | integer | Maximalt antal token som ska genereras i slutförandet. Standardvärdet är 16. | No |
| temperature | float | Slumpmässighet för den genererade texten. Standard är 1. | No |
| stop | list | Stoppa sekvensen för den genererade texten. Standardvärdet är null. | No |
| suffix | string | Text som läggs till i slutet av slutförandet. | No |
| top_p | float | Sannolikhet att använda det främsta valet från de genererade token. Standard är 1. | No |
| logprobs | integer | Antal loggannolikheter som ska genereras. Standardvärdet är null. | No |
| echo | boolean | Värde som anger om prompten ska upprepas i svaret. Standardvärdet är falskt. | No |
| presence_penalty | float | Värde som styr modellens beteende för upprepade fraser. Standardvärdet är 0. | No |
| frequency_penalty | float | Värde som styr modellens beteende för att generera sällsynta fraser. Standardvärdet är 0. | No |
| best_of | integer | Antal bästa slutföranden som ska genereras. Standard är 1. | No |
| logit_bias | dictionary | Logit bias för språkmodellen. Standard är en tom ordlista. | No |
Chat
| Name | Type | Description | Required |
|---|---|---|---|
| prompt | string | Textprompt som språkmodellen använder för ett svar. | Yes |
| model, deployment_name | string | Språkmodell som ska användas. Den här parametern krävs inte om modellen distribueras till en standarddistribution. | Yes* |
| max_tokens | integer | Maximalt antal token som ska genereras i svaret. Standardvärdet är inf. | No |
| temperature | float | Slumpmässighet för den genererade texten. Standard är 1. | No |
| stop | list | Stoppa sekvensen för den genererade texten. Standardvärdet är null. | No |
| top_p | float | Sannolikhet att använda det främsta valet från de genererade token. Standard är 1. | No |
| presence_penalty | float | Värde som styr modellens beteende för upprepade fraser. Standardvärdet är 0. | No |
| frequency_penalty | float | Värde som styr modellens beteende för att generera sällsynta fraser. Standardvärdet är 0. | No |
| logit_bias | dictionary | Logit bias för språkmodellen. Standard är en tom ordlista. | No |
Outputs
| API | Return type | Description |
|---|---|---|
| Completion | string | Text för ett förutsagt slutförande |
| Chat | string | Text för ett konversationssvar |
Använda LLM-verktyget
- Konfigurera och välj anslutningarna till OpenAI-resurser eller till en standarddistribution.
- Konfigurera API:et för den stora språkmodellen och dess parametrar.
- Prepare the prompt with guidance.