Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Met de Azure MCP-server kunt u Azure-resources beheren, waaronder Azure AI Foundry-modellen en -implementaties, met prompts in natuurlijke taal. Met deze mogelijkheid kunt u uw AI-modellen snel beheren zonder dat u complexe syntaxis hoeft te onthouden.
Azure AI Foundry is een platform voor het implementeren en beheren van aangepaste AI-modellen in Azure. Het biedt hulpprogramma's en services voor het trainen, afstemmen, implementeren en bewaken van AI-modellen in productieomgevingen. Met Azure AI Foundry kunt u eenvoudiger AI-mogelijkheden opnemen in uw toepassingen.
Wanneer u verbinding maakt met uw Azure AI Foundry-resource, vereist de Azure MCP-server het eindpunt of de resourcegroep van uw Azure AI Foundry-resource. Voor bewerkingen waarvoor geen specifieke resource is vereist, zoals het weergeven van beschikbare modellen, is het eindpunt of de resourcegroep niet vereist.
Note
Hulpprogrammaparameters: de Hulpprogramma's van Azure MCP Server definiëren parameters voor gegevens die ze nodig hebben om taken uit te voeren. Sommige van deze parameters zijn specifiek voor elk hulpprogramma en worden hieronder beschreven. Andere parameters zijn globaal en worden gedeeld door alle hulpprogramma's. Zie Hulpprogrammaparameters voor meer informatie.
Agents: Verbinding maken en uitvoeren
Maak verbinding met een specifieke Azure AI-agent en voer een query uit. Met deze opdracht wordt het antwoord van de agent samen met thread geretourneerd en worden id's uitgevoerd voor mogelijke evaluatie.
Voorbeelden van prompts zijn:
- Verbinding maken met agent: 'Verbinding maken met agent 'support-bot' en vragen over de ticketstatus
- Query's uitvoeren op specifieke agent: 'Vraag agent 'sales-bot' voor het meest recente verkooprapport'
- Gebruik context: 'Verbinding maken met agent 'hr-bot' met context van het laatste gesprek'
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Agent | Required | De id van de agent waarmee moet worden gecommuniceerd. |
| Vraag | Required | De query die naar de agent is verzonden. |
| Eindpunt | Required | De eindpunt-URL voor het Azure AI Foundry-project of -service. |
Agents: Een agent evalueren
Voer agentevaluatie uit op agentgegevens. Vereist JSON-tekenreeksen voor query-, antwoord- en hulpprogrammadefinities.
Voorbeelden van prompts zijn:
- Naleving van taken evalueren: "Evalueer de volledige query en het antwoord dat ik heb ontvangen van mijn agent voor task_adherence"
- Oplossing van intentie controleren: 'Evalueer de reactie van mijn agent op intent_resolution met behulp van de query over prijsplannen'
- Controleer de nauwkeurigheid van het hulpprogramma: "Analyseer de tool_call_accuracy van de reactie van mijn verkoopbot op het klantonderzoek"
- Prestaties van de agent evalueren: 'Evalueer de reactie van mijn ondersteuningsagent op de query voor technische problemen met behulp van task_adherence'
- Uitgebreide evaluatie: "Voer een evaluatie uit over de verwerking van de onboardingquery voor werknemers met alle antwoordgegevens van mijn HR-agent"
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Vraag | Required | De query die naar de agent is verzonden. |
| Evaluator | Required | De naam van de te gebruiken evaluator (intent_resolution, tool_call_accuracy, task_adherence). |
| Antwoord | Optional | Het antwoord van de agent. |
| Hulpprogrammadefinities | Optional | Optionele hulpprogrammadefinities die zijn gemaakt door de agent in JSON-indeling. |
| Eindpunt | Required | De eindpunt-URL voor het Azure AI Foundry-project of -service in de indeling https://<resource>.services.ai.azure.com/api/projects/<project-name>. |
| Azure OpenAI-implementatie | Required | De implementatienaam voor het Azure OpenAI-model dat moet worden gebruikt tijdens de evaluatie. |
Agents: Agents vermelden
Vermeld alle Azure AI-agents in een Azure AI Foundry-project. Toont agents die kunnen worden gebruikt voor AI-werkstromen, evaluaties en interactieve taken.
Voorbeelden van prompts zijn:
- Alle agents weergeven: 'Alle agents weergeven in Azure AI Foundry'
- Lijst per project: 'Alle AI-agents weergeven in mijn project 'customer-service'
- Controleer de beschikbare agents: 'Welke agents heb ik geconfigureerd in mijn Azure AI Foundry-account?'
- Agentinventaris: "Ik heb een volledige lijst met alle agents in mijn Azure AI-omgeving nodig"
- Zoek specifieke agents: 'Toon alle chatbotagents die beschikbaar zijn in mijn Azure AI Foundry-resource'
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Eindpunt | Required | De eindpunt-URL voor het Azure AI Foundry-project of -service in de indeling https://<resource>.services.ai.azure.com/api/projects/<project-name>. |
Agents: Een agent opvragen en uitvoeren
Voer een query uit op een agent en evalueer de reactie ervan in één bewerking. Met deze opdracht worden zowel het antwoord als de evaluatieresultaten van de agent geretourneerd.
Voorbeelden van prompts zijn:
- Query uitvoeren en evalueren: 'Queryagent 'support-bot' over ticketstatus en naleving van taken evalueren
- Eén bewerking: 'Vraag agent 'sales-bot' voor het meest recente verkooprapport en controleer de intentieoplossing'
- Gecombineerde actie: 'Verbinding maken met agent 'hr-bot', vragen over onboarding en de nauwkeurigheid van de tool-aanroep evalueren'
- Volledige cyclus: 'Query's 'marketing-bot' voor campagneideeën en evalueren van het antwoord op naleving van taken
- End-to-end-controle: "Vraag 'devops-bot' over de implementatiestatus en evalueer intentieomzetting"
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Agent-ID | Required | De id van de agent waarmee moet worden gecommuniceerd. |
| Vraag | Required | De query die naar de agent is verzonden. |
| Eindpunt | Required | De eindpunt-URL voor het Azure AI Foundry-project of -service in de indeling https://<resource>.services.ai.azure.com/api/projects/<project-name> |
| Beoordelaars | Optional | De lijst met evaluators die moeten worden gebruikt voor evaluatie, gescheiden door komma's. Als dit niet is opgegeven, worden alle evaluators gebruikt. |
| Azure OpenAI-eindpunt | Required | De eindpunt-URL voor de Azure OpenAI-service die moet worden gebruikt tijdens de evaluatie. |
| Azure OpenAI-implementatie | Required | De implementatienaam voor het Azure OpenAI-model. |
Kennis: Kennisindexen vermelden
Een lijst met kennisindexen ophalen uit Azure AI Foundry:
- Zoek kennisindexen die zijn gemaakt in Azure AI Foundry-projecten.
- Gebruik deze indexen met AI-agents voor het ophalen van kennis en RAG-toepassingen.
- De lijst wordt bijgewerkt wanneer u nieuwe indexen maakt of bestaande indexen bijwerkt.
Voorbeelden van prompts zijn:
- Alle indexen weergeven: 'Toon alle kennisindexen in Azure AI Foundry'
- Filteren op project: 'Kennisindexen vermelden in het project 'support-bot'
- Zoeken op naam: "Zoek de kennisindex met de naam 'product-faqs''
- Filteren op tag: 'Kennisindexen vermelden die zijn getagd met 'beveiliging' of 'onboarding'.
- Indexdetails weergeven: 'Details weergeven voor de kennisindex 'customer-service', inclusief het aantal documenten en de laatst bijgewerkte datum'
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Eindpunt | Required | De eindpunt-URL voor het Azure AI Foundry-project of -service in de indeling https://<resource>.services.ai.azure.com/api/projects/<project-name> |
Kennis: Indexschema ophalen
Haal de gedetailleerde schemaconfiguratie op van een specifieke kennisindex van Azure AI Foundry.
Deze bewerking bevat uitgebreide informatie over de structuur en configuratie van een kennisindex, waaronder velddefinities, gegevenstypen, doorzoekbare kenmerken en andere schema-eigenschappen. Gebruik deze schema-informatie om te begrijpen hoe de indexstructuren en indexen uw gegevens structureert om te zoeken.
Voorbeelden van prompts zijn:
- Indexschema weergeven: 'Toon het schema voor de kennisindex 'product-feiten''
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Eindpunt | Required | De eindpunt-URL voor het Azure AI Foundry-project of -service in de indeling https://<resource>.services.ai.azure.com/api/projects/<project-name> |
| Index | Required | De naam van de kennisindex. |
Modellen: Beschikbare modellen weergeven
Vermeld alle beschikbare Azure OpenAI-modellen en -implementaties in een AI Foundry-resource. Met dit hulpprogramma wordt informatie opgehaald over Azure OpenAI-modellen die zijn geïmplementeerd in uw AI Foundry-resource, waaronder modelnamen, versies, mogelijkheden en implementatiestatus.
Voorbeelden van prompts zijn:
- Alle modellen weergeven: 'Toon alle beschikbare AI-modellen in Azure AI Foundry'
- Filter op gratis gebruik: "Geef alle gratis modellen weer die beschikbaar zijn voor prototypen in Azure AI Foundry die ik in de speeltuin kan gebruiken"
- Filteren op gratis gebruik: 'Geef alle gratis modellen weer die beschikbaar zijn voor prototypen in Azure AI Foundry'
- Filteren op uitgever: 'Laat me modellen zien die zijn gepubliceerd door Microsoft in Azure AI Foundry'
- Filteren op licentie: 'Welke modellen met Apache-licentie zijn beschikbaar in Azure AI Foundry?'
- Zoeken op naam: "Zoek het llama-model in Azure AI Foundry"
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Zoeken naar gratis speeltuin | Optional | Als deze optie is ingesteld op waar, wordt een lijst met modellen uit Azure AI Foundry geretourneerd die u ook kunt gebruiken met het GitHub-deductie-eindpunt en het GitHub PAT-token. Als dit onwaar is, retourneert u een lijst met modellen van Azure AI Foundry, ongeacht gitHub-ondersteuning. Zie GitHub-modellen voor meer informatie. |
| Publisher | Optional | Een filter om de uitgever van de modellen op te geven die moeten worden opgehaald. |
| Licentie | Optional | Een filter om het licentietype op te geven van de modellen die moeten worden opgehaald. |
| Model | Optional | De naam van het model dat moet worden gezocht. |
Modellen: Een model implementeren
Implementeer een AI-model in uw Azure-omgeving. Gebruik deze opdracht om geselecteerde modellen te implementeren vanuit Azure AI Foundry en deze beschikbaar te maken voor gebruik in uw toepassingen.
Voorbeelden van prompts zijn:
- Implementeren met vereiste parameters: 'GPT-4-model implementeren in OpenAI-indeling naar mijn ai-services-account in ai-projects-resourcegroep met abonnement dev-subscription'
- Geef de implementatienaam op: 'Stel een implementatie in met de naam text-embedding voor het Ada-insluitmodel in mijn AI-servicesaccount met standard-SKU'
- Modelversie opnemen: 'Implementeer versie 2 van Llama-model van Meta naar mijn Azure AI-servicesaccount met schaalcapaciteit van 3'
- Implementeren naar specifieke resourcegroep: 'Maak een implementatie met de naam content-generation met GPT-4-model in mijn ai-central-service in resourcegroep ml-experimenten'
- Schaalaanpassing configureren: "Claude-model implementeren in mijn Azure AI-service met automatisch schalen ingeschakeld en maximale capaciteit van 5"
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Deployment | Required | De naam van de azure AI Foundry-modelimplementatie. |
| Model | Required | De naam van het model dat moet worden geïmplementeerd. |
| Modelindeling | Required | De indeling van het model (bijvoorbeeld OpenAI, Meta). Microsoft |
| Azure AI-diensten | Required | De naam van het Azure AI-servicesaccount voor implementatie. |
| Resourcegroep | Required | De naam van de Azure-resourcegroep waar het model wordt geïmplementeerd. |
| Modelversie | Optional | De versie van het model dat moet worden geïmplementeerd. |
| Modelbron | Optional | De bron van het model. |
| Schaaltype | Optional | Het schaaltype voor de implementatie. |
| Capaciteit schalen | Optional | De schaalcapaciteit voor de implementatie. |
| SKU | Optional | De SKU-naam voor de implementatie. |
| SKU-capaciteit | Optional | De SKU-capaciteit voor de implementatie. |
Modellen: Modelimplementaties vermelden
Modelimplementaties weergeven in een Azure AI Foundry-project (Cognitive Services). Toont momenteel geïmplementeerde AI-modellen op projectniveau.
Voorbeelden van prompts zijn:
-
Implementaties weergeven in productie: 'Toon alle modelimplementaties op mijn
https://my-example-resource.openai.azure.comeindpunt' -
Controleer het specifieke eindpunt: 'Welke modellen zijn momenteel geïmplementeerd op het
https://my-example-resource.openai.azure.comeindpunt?' -
Regionale implementaties weergeven: 'Alle implementaties in mijn
https://my-example-resource.openai.azure.comeindpunt weergeven' -
Controleer de implementatiestatus: 'Toon de status van alle modellen die zijn geïmplementeerd op ons
https://my-example-resource.openai.azure.comeindpunt' -
Bekijk actieve modellen: 'Welke AI-modellen worden momenteel uitgevoerd op ons
https://my-example-resource.openai.azure.comeindpunt?'
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Eindpunt | Required | De eindpunt-URL voor het Azure AI Foundry-project of -service in de indeling https://<resource>.services.ai.azure.com/api/projects/<project-name> |
OpenAI: Chatvoltooiingen maken
Maak chatvoltooiingen met behulp van Azure OpenAI in AI Foundry. Verzend berichten naar Azure OpenAI-chatmodellen die zijn geïmplementeerd in uw AI Foundry-resource en ontvang door AI gegenereerde gespreksreacties. Ondersteunt gesprekken met meerdere paden met berichtgeschiedenis, systeeminstructies en reactieaanpassing.
Voorbeelden van prompts zijn:
- Eenvoudige begroeting: "Maak een chatvoltooiing met het bericht 'Hallo, hoe ben je vandaag?'"
- Met systeembericht: "Maak een chatvoltooiing met systeembericht 'U bent een nuttige assistent' en gebruikersbericht 'Quantum computing uitleggen' met behulp van implementatie 'gpt-35-turbo' op resource 'openai-west''
- Beheer creativiteit: "Genereer een chatvoltooiing voor 'Schrijf een creatief verhaal' met behulp van implementatie 'gpt-4' met temperatuur 0,8 en maximaal 150 tokens op resource 'ai-central'"
- Deterministisch antwoord: "Chatvoltooiing maken met bericht 'Lijst 5 feiten over Mars' met behulp van implementatie 'gpt-35-turbo' met temperatuur 0.1 en seed 12345 op resource 'ai-services-prod'"
- Gesprek met de geschiedenis: "Doorgaan met chatten met berichten: systeem 'You are a coding assistant', user 'How do I create a function in Python?', assistent 'Here's how...', user 'Can you show an example?' implementatie 'gpt-4' gebruiken voor resource 'dev-openai''
- Met sancties voor herhaling: "Maak voltooiing voor 'Beschrijf de voordelen van cloud-computing' met behulp van implementatie 'gpt-35-turbo' met frequentiestraf 0,5 en aanwezigheidsstraf 0.3 op resource 'ai-services-main'"
- Streamingantwoord: 'Genereer voltooiing van streamingchat voor 'Leg machine learning stap voor stap uit' met behulp van implementatie 'gpt-4' met stream true op resource 'openai-research'.
- Met stopreeksen: 'Voltooiing maken voor 'Aantal van 1 tot 10' met behulp van implementatie 'gpt-35-turbo' met stopreeksen ['5', 'STOP'] op resource 'ai-test''
- Tracering van gebruikers: 'Voltooiing genereren voor 'Wat is Azure AI?' met behulp van implementatie 'gpt-4' met gebruikers-id 'user-123' op resource 'prod-openai''
- Nauwkeurig afgestemd besturingselement: "Chatvoltooiing maken voor 'Dit artikel samenvatten' met behulp van implementatie 'gpt-35-turbo' met temperatuur 0.2, top_p 0,9, maximumtokens 200 en AAD-verificatie op resource 'secure-ai''
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Naam van bron | Required | De naam van de Azure OpenAI-resource. |
| Deployment | Required | De naam van de azure AI Foundry-modelimplementatie. |
| Berichtmatrix | Required | Matrix van berichten in de gespreksindeling (JSON). Elk bericht moet over role eigenschappen beschikken.content |
| Maximum aantal tokens | Optional | Het maximum aantal tokens dat moet worden gegenereerd tijdens de voltooiing. |
| Temperatuur | Optional | Bepaalt willekeurigheid in de uitvoer. Lagere waarden maken het deterministischer. |
| Bovenste p | Optional | Controleert diversiteit via kernsampling (0,0 tot 1.0). De standaardinstelling is 1.0. |
| Frequentiestraf | Optional | Bestraft nieuwe tokens op basis van hun frequentie (-2.0 tot 2.0). De standaardinstelling is 0. |
| Aanwezigheidsstraf | Optional | Bestraft nieuwe tokens op basis van aanwezigheid (-2.0 tot 2.0). De standaardinstelling is 0. |
| Stoppen | Optional | Maximaal vier reeksen waarbij de API stopt met het genereren van verdere tokens. |
| Stroom | Optional | Of gedeeltelijke voortgang moet worden gestreamd. De standaardinstelling is false. |
| Zaad | Optional | Indien opgegeven, zal het systeem een best effort doen om deterministisch te samplen. |
| User | Optional | Optionele gebruikers-id voor het bijhouden en misbruik bewaken. |
| Verificatietype | Optional | Het type verificatie dat moet worden gebruikt. Opties zijn key (standaard) of aad. |
OpenAI: insluitingen maken
Maak insluitingen met behulp van Azure OpenAI in AI Foundry. Genereer vector-insluitingen van tekst met behulp van Azure OpenAI-implementaties in uw AI Foundry-resource voor semantische zoekopdrachten, overeenkomsten, clustering of machine learning.
Voorbeelden van prompts zijn:
- Basistekst insluiten: 'Insluitingen genereren voor de tekst 'Azure OpenAI Service' met behulp van mijn implementatie 'text-embedding-ada-002'
- Vector embeddings maken: "Vector embeddings maken voor mijn tekst met behulp van Azure OpenAI met implementatie 'text-embedding-3-large' op resource 'ai-services-prod'"
- Document insluiten: 'Genereer insluitingen voor 'Machine learning revolutionizes data analysis' met behulp van de implementatie 'ada-002' in de resource 'embedding-service'.
- Meerdere zinnen: "Maak insluitingen voor de tekst 'Cloud-computing biedt schaalbare infrastructuur. Het maakt globale toegankelijkheid mogelijk.". mijn insluitingsimplementatie gebruiken"
- Met het bijhouden van gebruikers: 'Insluitingen genereren voor 'Toepassingen voor natuurlijke taalverwerking' met behulp van implementatie 'text-embedding-3-small' met gebruikers-id 'analytics-team''
- Specifieke dimensies: "Insluitingen maken voor 'Kunstmatige intelligentie transformeert bedrijfsactiviteiten' met behulp van implementatie 'text-embedding-3-large' met 1536 dimensies op resource 'ai-central''
- Base64-indeling: 'Embeddings genereren voor neurale deep learning-netwerken' met behulp van implementatie 'ada-002' met base64-coderingsindeling voor resource ml-services'
- Onderzoekstekst: "Create vector embeddings for 'Quantum computing demonstreert rekenvoordelen in specifieke algoritmen' met behulp van mijn implementatie voor het insluiten van tekst"
- Productbeschrijving: "Genereer insluitingen voor 'High-performance laptop met geavanceerde grafische verwerkingseenheid' met behulp van implementatie 'text-embedding-3-small' op resource 'product-ai''
- Technische documentatie: 'Insluitingen maken voor API-verificatie vereist geldige referenties en de juiste autorisatieheaders' met behulp van implementatie 'ada-002' met floatcodering voor resource 'docs-embedding'.
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Naam van bron | Required | De naam van de Azure OpenAI-resource. |
| Deployment | Required | De naam van de azure AI Foundry-modelimplementatie. |
| Invoertekst | Required | De invoertekst voor het genereren van insluitingen voor. |
| User | Optional | Optionele gebruikers-id voor het bijhouden en misbruik bewaken. |
| Coderingsindeling | Optional | De indeling voor het retourneren van insluitingen in (float of base64). |
| dimensies | Optional | Het aantal dimensies voor de uitvoer van het insluiten. Alleen ondersteund in sommige modellen. |
OpenAI: Voltooiingen maken
Tekstvoltooiingen maken met Behulp van Azure OpenAI in AI Foundry. Verzend een prompt of vraag naar Azure OpenAI-modellen die zijn geïmplementeerd in uw AI Foundry-resource en ontvang gegenereerde tekstantwoorden. Gebruik dit wanneer u voltooiingen moet maken, AI-gegenereerde inhoud wilt ophalen, antwoorden op vragen wilt genereren of tekstvoltooiingen wilt produceren vanuit Azure OpenAI op basis van een invoerprompt. Ondersteunt aanpassingen met temperatuur- en maximumtokens.
Voorbeelden van prompts zijn:
- Basisvoltooiing: 'Een voltooiing maken met de prompt 'Wat is Azure?' gebruik van mijn implementatie 'gpt-35-turbo'
- Met temperatuurregeling: 'Tekstvoltooiing genereren voor 'Machine Learning uitleggen' met behulp van implementatie 'text-davinci-003' met temperatuur 0.3'
- Beperkte tokens: "Maak een voltooiing met de prompt 'Een samenvatting schrijven' met behulp van mijn 'gpt-4'-implementatie met maximaal 100 tokens'
- Creatief schrijven: "Genereer voltooiing voor "Vertel me een verhaal over AI" met behulp van implementatie 'gpt-35-turbo' met temperatuur 0,8 en 200 max tokens"
- Technische uitleg: "Voltooiing maken met prompt 'Hoe werkt cloud-computing?' gebruik van mijn OpenAI-resource 'ai-services-east' en implementatie 'gpt-4'"
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Resourcegroep | Required | De naam van de Azure-resourcegroep waar de AI-resource wordt gehost. |
| Naam van bron | Required | De naam van de Azure OpenAI-resource. |
| Deployment | Required | De naam van de implementatie. |
| Prompttekst | Required | De prompttekst die naar het voltooiingsmodel moet worden verzonden. |
| Maximum aantal tokens | Optional | Het maximum aantal tokens dat moet worden gegenereerd tijdens de voltooiing. |
| Temperatuur | Optional | Bepaalt willekeurigheid in de uitvoer. Lagere waarden maken het deterministischer. |
OpenAI: modellen en implementaties vermelden
Vermeld alle beschikbare OpenAI-modellen en -implementaties in een Azure-resource. Met dit hulpprogramma wordt informatie opgehaald over geïmplementeerde modellen, waaronder modelnamen, versies, mogelijkheden en implementatiestatus.
Voorbeelden van prompts zijn:
- Alle modellen weergeven: 'Alle OpenAI-modellen weergeven in mijn resource ai-services-prod'
- Controleer de implementaties: 'Toon alle geïmplementeerde modellen en hun status in resource 'openai-east'.
- Productie-inventaris: "Welke modellen zijn beschikbaar in mijn resource productie-openai?"
- Ontwikkelingscontrole: 'Alle modellen en implementaties weergeven in mijn resource dev-ai-services'
- Modelmogelijkheden: 'Toon alle beschikbare OpenAI-modellen met hun mogelijkheden in resource 'ai-central'.
- Implementatiestatus: 'Wat is de huidige status van alle implementaties in mijn 'openai-west'-resource?'
- Regionale modellen: "Geef alle modellen weer die beschikbaar zijn in mijn 'europe-openai'-resource"
- Serviceoverzicht: "Geef me een volledig overzicht van modellen en implementaties in resource 'customer-ai''
- Modelversies: 'Toon alle modelversies die beschikbaar zijn in mijn resource ai-services-main'
- Resourcecontrole: "Ik moet alle OpenAI-modellen en implementaties in resource 'enterprise-ai' controleren"
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Naam van bron | Required | De naam van de Azure OpenAI-resource. |
Resources: Foundry-resource ophalen
Krijg gedetailleerde informatie over Azure AI Foundry-resources, waaronder eindpunt-URL, locatie, SKU en alle geïmplementeerde modellen met hun configuratie. Als er een specifieke resourcenaam wordt opgegeven, worden alleen details voor die resource geretourneerd. Als er geen resourcenaam is opgegeven, worden alle AI Foundry-resources in het abonnement of de resourcegroep vermeld.
Voorbeelden van prompts zijn:
- Specifieke resource ophalen: 'Details weergeven voor de Azure AI Foundry-resource met ai-foundry-prod, inclusief alle geïmplementeerde modellen'
- Geef alle resources weer: 'Welke Azure AI Foundry-resources heb ik in mijn abonnement?'
- Resource met configuratie: 'Haal de eindpunt-URL, locatie en SKU-informatie op voor mijn 'customer-ai-foundry' foundry-resource'
| Parameter | Verplicht of optioneel | Description |
|---|---|---|
| Naam van bron | Optional | De naam van de Azure OpenAI-resource. |
Verwante inhoud
- Wat zijn de Azure MCP Server-hulpprogramma's?
- Aan de slag met Azure MCP Server
- documentatie voor Azure AI Foundry
- Overzicht van Azure AI Services
- Modellen implementeren en gebruiken