Dela via


Importera ett OpenAI-kompatibelt Google Gemini-API

GÄLLER FÖR: Alla API Management-nivåer

Den här artikeln visar hur du importerar ett OpenAI-kompatibelt Google Gemini-API för att komma åt modeller som gemini-2.0-flash. För dessa modeller kan Azure API Management hantera en OpenAI-kompatibel slutpunkt för chatten.

Läs mer om att hantera AI-API:er i API Management:

Förutsättningar

  • En befintlig API Management-instans. Skapa en om du inte redan har gjort det.
  • En API-nyckel för Gemini-API:et. Om du inte har någon kan du skapa den i Google AI Studio och lagra den på en säker plats.

Importera ett OpenAI-kompatibelt Gemini-API med hjälp av portalen

  1. I Azure Portal navigerar du till din API Management-instans.

  2. I den vänstra menyn går du till API:er och väljer API:er>+ Lägg till API.

  3. Under Definiera ett nytt API väljer du Språkmodell-API.

    Skärmbild av att skapa ett API för genomströmningsspråkmodell i portalen.

  4. På fliken Konfigurera API :

    1. Ange ett visningsnamn och en valfri beskrivning för API:et.

    2. I URL anger du följande grundläggande URL från dokumentationen för Gemini OpenAI-kompatibilitet: https://generativelanguage.googleapis.com/v1beta/openai

    3. I Sökväg lägger du till en sökväg som din API Management-instans använder för att dirigera begäranden till Gemini API-slutpunkterna.

    4. I Typ väljer du Skapa OpenAI API.

    5. I Åtkomstnyckel anger du följande:

      1. Rubriknamn: Auktorisering.
      2. Rubrikvärde (nyckel): Bearer följt av DIN API-nyckel för Gemini-API:et.

    Skärmbild av import av ett Gemini LLM-API i portalen.

  5. På de återstående flikarna kan du välja att konfigurera principer för att hantera tokenförbrukning, semantisk cachelagring och AI-innehållssäkerhet. Mer information finns i Importera ett språkmodell-API.

  6. Välj Granska.

  7. När inställningarna har verifierats väljer du Skapa.

API Management skapar API:et och konfigurerar följande:

  • En serverdelsresurs och en set-backend-service-princip som dirigerar API-begäranden till Google Gemini-slutpunkten.
  • Åtkomst till LLM-serverdelen med hjälp av gemini-API-nyckeln som du angav. Nyckeln skyddas som en hemlighet med namnet value i API Management.
  • (valfritt) Principer som hjälper dig att övervaka och hantera API:et.

Testa Gemini-modell

När du har importerat API:et kan du testa slutpunkten för chattens slutförande för API:et.

  1. Välj det API som du skapade i föregående steg.

  2. Välj fliken Test.

  3. Välj åtgärden POST Creates a model response for the given chat conversation , som är en POST begäran till /chat/completions slutpunkten.

  4. I avsnittet Begärandetext anger du följande JSON för att ange modellen och en exempelprompt. Modellen gemini-2.0-flash används i detta exempel.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    När testet lyckas svarar serverdelen med en lyckad HTTP-svarskod och vissa data. Tillagt i svaret är tokenanvändningsdata som hjälper dig att övervaka och hantera din språkmodelltokenförbrukning.

    Skärmbild av testning av ett Gemini LLM-API i portalen.