Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
In dit artikel leert u hoe u een bestaande serverloze API's configureert in een ander project of een andere hub dan de API die is gebruikt om de implementatie te maken.
Belangrijk
Modellen die in preview zijn, worden gemarkeerd als voorbeeld op hun modelkaarten in de modelcatalogus.
Bepaalde modellen in de modelcatalogus kunnen worden geïmplementeerd als serverloze API's. Dit soort implementatie biedt een manier om modellen als API te gebruiken zonder deze te hosten in uw abonnement, terwijl de bedrijfsbeveiliging en -naleving die organisaties nodig hebben, behouden blijven. Voor deze implementatieoptie is geen quotum van uw abonnement vereist.
De noodzaak om een serverloos API-eindpunt in een ander project of een andere hub te gebruiken dan het eindpunt dat is gebruikt om de implementatie te maken, kan zich voordoen in situaties zoals deze:
- U wilt uw implementaties in een bepaald project of een bepaalde hub centraliseren en deze gebruiken vanuit verschillende projecten of hubs in uw organisatie.
 - U moet een model implementeren in een hub in een bepaalde Azure-regio waar serverloze implementatie voor dat model beschikbaar is. U moet deze echter gebruiken vanuit een andere regio, waarbij serverloze implementatie niet beschikbaar is voor de specifieke modellen.
 
Vereiste voorwaarden
Een Azure-abonnement met een geldige betalingswijze. Gratis of proefversie van Azure-abonnementen werkt niet. Als u geen Azure-abonnement hebt, maakt u eerst een betaald Azure-account .
Een Azure AI Foundry-hub als u een hubproject gebruikt. Een Azure AI Foundry-project maakt geen gebruik van een hub. Zie Project-typen voor meer informatie.
Als u nog geen project hebt, maakt u een hubproject.
Een model dat is geïmplementeerd in serverloze API's. In dit artikel wordt ervan uitgegaan dat u eerder het Meta-Llama-3-8B-Instruct-model hebt geïmplementeerd . Zie Modellen implementeren als serverloze API's voor meer informatie over het implementeren van dit model als een serverloze API.
U moet de volgende software installeren om te kunnen werken met Azure AI Foundry:
U kunt elke compatibele webbrowser gebruiken om door Azure AI Foundry te navigeren.
Een serverloze API-eindpuntverbinding maken
Volg deze stappen om een verbinding te maken:
Maak verbinding met het project of de hub waar het eindpunt is geïmplementeerd:
Aanbeveling
Omdat u het linkerdeelvenster in de Azure AI Foundry-portal kunt aanpassen, ziet u mogelijk andere items dan in deze stappen wordt weergegeven. Als u niet ziet wat u zoekt, selecteert u ... Meer onder aan het linkerdeelvenster.
Ga naar Azure AI Foundry en navigeer naar het project waar het eindpunt waarmee u verbinding wilt maken, is geïmplementeerd.
Haal de URL en referenties van het eindpunt op waarmee u verbinding wilt maken. In dit voorbeeld krijgt u de details voor een eindpuntnaam meta-llama3-8b-qwerty.
Ga in de linkerzijbalk van uw project in de Azure AI Foundry-portal naar Mijn assets>modellen en eindpunten om de lijst met implementaties in het project weer te geven.
Selecteer de implementatie waarmee u verbinding wilt maken.
Kopieer de waarden voor de doel-URI en sleutel.
Maak nu verbinding met het project of de hub waar u de verbinding wilt maken:
Ga naar het project waarin de verbinding moet worden gemaakt.
Maak de verbinding in het project:
Ga vanuit uw project in de Azure AI Foundry-portal naar het onderste gedeelte van de zijbalk aan de linkerkant en selecteer Beheercentrum.
Selecteer Verbonden bronnen in de linkerzijbalk van het beheercentrum.
Selecteer Nieuwe verbinding.
Selecteer Serverless-model.
Plak voor de doel-URI de waarde die u eerder hebt gekopieerd.
Plak voor de sleutel de waarde die u eerder hebt gekopieerd.
Geef de verbinding een naam, in dit geval meta-llama3-8b-connection.
Selecteer Verbinding toevoegen.
Op dit moment is de verbinding beschikbaar voor verbruik.
Controleren of de verbinding werkt:
Ga terug naar uw project in de Azure AI Foundry-portal.
Ga in de linkerzijbalk van uw project naar Bouwen en aanpassen>Promptstroom.
Selecteer Maken om een nieuwe stroom te maken.
Selecteer Maken in het vak Chatstroom .
Geef de Prompt flow een naam en selecteer Maken.
Selecteer het chatknooppunt in de grafiek om naar de chatsectie te gaan.
Voor Verbinding opent u de vervolgkeuzelijst om de verbinding te selecteren die u zojuist hebt gemaakt, in dit geval meta-llama3-8b-connection.
Selecteer Rekensessie starten in de bovenste navigatiebalk om een promptstroom voor automatische runtime te starten.
Selecteer de chatoptie. U kunt nu berichten verzenden en antwoorden krijgen.
Verwante inhoud
- Wat is Azure AI Foundry?
 - Veelgestelde vragen over Azure AI