Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
GÄLLER FÖR: Alla API Management-nivåer
Den här artikeln visar hur du importerar ett OpenAI-kompatibelt Google Gemini-API för att komma åt modeller som gemini-2.0-flash. För dessa modeller kan Azure API Management hantera en OpenAI-kompatibel slutpunkt för chatten.
Läs mer om att hantera AI-API:er i API Management:
Förutsättningar
- En befintlig API Management-instans. Skapa en om du inte redan har gjort det.
- En API-nyckel för Gemini-API:et. Om du inte har någon kan du skapa den i Google AI Studio och lagra den på en säker plats.
Importera ett OpenAI-kompatibelt Gemini-API med hjälp av portalen
I Azure Portal navigerar du till din API Management-instans.
I den vänstra menyn går du till API:er och väljer API:er>+ Lägg till API.
Under Definiera ett nytt API väljer du Språkmodell-API.
På fliken Konfigurera API :
Ange ett visningsnamn och en valfri beskrivning för API:et.
I URL anger du följande grundläggande URL från dokumentationen för Gemini OpenAI-kompatibilitet:
https://generativelanguage.googleapis.com/v1beta/openaiI Sökväg lägger du till en sökväg som din API Management-instans använder för att dirigera begäranden till Gemini API-slutpunkterna.
I Typ väljer du Skapa OpenAI API.
I Åtkomstnyckel anger du följande:
- Rubriknamn: Auktorisering.
-
Rubrikvärde (nyckel):
Bearerföljt av DIN API-nyckel för Gemini-API:et.
På de återstående flikarna kan du välja att konfigurera principer för att hantera tokenförbrukning, semantisk cachelagring och AI-innehållssäkerhet. Mer information finns i Importera ett språkmodell-API.
Välj Granska.
När inställningarna har verifierats väljer du Skapa.
API Management skapar API:et och konfigurerar följande:
- En serverdelsresurs och en set-backend-service-princip som dirigerar API-begäranden till Google Gemini-slutpunkten.
- Åtkomst till LLM-serverdelen med hjälp av gemini-API-nyckeln som du angav. Nyckeln skyddas som en hemlighet med namnet value i API Management.
- (valfritt) Principer som hjälper dig att övervaka och hantera API:et.
Testa Gemini-modell
När du har importerat API:et kan du testa slutpunkten för chattens slutförande för API:et.
Välj det API som du skapade i föregående steg.
Välj fliken Test.
Välj åtgärden
POST Creates a model response for the given chat conversation, som är enPOSTbegäran till/chat/completionsslutpunkten.I avsnittet Begärandetext anger du följande JSON för att ange modellen och en exempelprompt. Modellen
gemini-2.0-flashanvänds i detta exempel.{ "model": "gemini-2.0-flash", "messages": [ { "role": "system", "content": "You are a helpful assistant" }, { "role": "user", "content": "How are you?" } ], "max_tokens": 50 }När testet lyckas svarar serverdelen med en lyckad HTTP-svarskod och vissa data. Tillagt i svaret är tokenanvändningsdata som hjälper dig att övervaka och hantera din språkmodelltokenförbrukning.