Dela via


Konfigurera en anslutning för att använda Azure AI Foundry Models i ditt AI-projekt

Du kan använda Azure AI Foundry Models i dina projekt i Azure AI Foundry för att skapa omfattande program och interagera/hantera de tillgängliga modellerna. Om du vill använda Azure AI Foundry Models-tjänsten i projektet måste du skapa en anslutning till Azure AI Foundry-resursen (tidigare kända Azure AI Services).

I följande artikel beskrivs hur du skapar en anslutning till Azure AI Foundry-resursen (tidigare kända Azure AI Services) för att använda Azure AI Foundry Models.

Ett diagram med den övergripande arkitekturen för Azure Marketplace-integrering med AI Foundry Models.

Prerequisites

För att slutföra den här artikeln behöver du:

  • En AI-projektresurs.

  • Funktionen Deploy models to Azure AI model inference service (Distribuera modeller till Azure AI-modellinferenstjänst ) är aktiverad.

    En animering som visar hur du aktiverar funktionen Distribuera modeller till Azure AI-modellinferenstjänst i Azure AI Foundry-portalen.

Lägg till en anslutning

Du kan skapa en anslutning till en Azure AI-tjänstresurs med hjälp av följande steg:

  1. Gå till Azure AI Foundry Portal.

  2. I det nedre vänstra hörnet på skärmen väljer du Hanteringscenter.

  3. I avsnittet Anslutna resurser väljer du Ny anslutning.

  4. Välj Azure AI-tjänster.

  5. Leta efter en befintlig Azure AI Services-resurs i din prenumeration i webbläsaren.

  6. Välj Lägg till anslutning.

  7. Den nya anslutningen läggs till i hubben.

  8. Gå tillbaka till projektets landningssida för att fortsätta och välj nu den nya anslutningen som skapats. Uppdatera sidan om den inte visas omedelbart.

    Skärmbild av projektets landningssida som markerar platsen för den anslutna resursen och den associerade slutpunkten för slutsatsdragning.

Se distribution av modeller i den anslutna resursen

Du kan se de modelldistributioner som är tillgängliga i den anslutna resursen genom att följa dessa steg:

  1. Gå till Azure AI Foundry Portal.

  2. I den vänstra rutan väljer du Modeller + slutpunkter.

  3. Sidan visar de modellimplementeringar som är tillgängliga för dig, grupperade efter anslutningsnamn. Leta upp den anslutning som du just har skapat, som ska vara av typen Azure AI Services.

    Skärmbild som visar listan över modeller som är tillgängliga under en viss anslutning.

  4. Välj vilken modellimplementering du vill inspektera.

  5. Informationssidan visar information om den specifika distributionen. Om du vill testa modellen kan du använda alternativet Öppna på lekplatsen.

  6. Azure AI Foundry Playground visas, där du kan interagera med den angivna modellen.

Du kan använda Azure AI Foundry Models i dina projekt i Azure AI Foundry för att skapa omfattande program och interagera/hantera de tillgängliga modellerna. Om du vill använda Azure AI Foundry Models-tjänsten i projektet måste du skapa en anslutning till Azure AI Foundry-resursen (tidigare kända Azure AI Services).

I följande artikel beskrivs hur du skapar en anslutning till Azure AI Foundry-resursen (tidigare kända Azure AI Services) för att använda Azure AI Foundry Models.

Ett diagram med den övergripande arkitekturen för Azure Marketplace-integrering med AI Foundry Models.

Prerequisites

För att slutföra den här artikeln behöver du:

  • Installera Azure CLI och ml tillägget för Azure AI Foundry:

    az extension add -n ml
    
  • Identifiera följande information:

    • ditt prenumerations-ID för Azure

    • Ditt Azure AI Services-resursnamn.

    • Resursgruppen där Azure AI Services-resursen distribueras.

Lägg till en anslutning

Om du vill lägga till en modell måste du först identifiera den modell som du vill distribuera. Du kan fråga de tillgängliga modellerna på följande sätt:

  1. Logga in på din Azure-prenumeration:

    az login
    
  2. Konfigurera CLI så att det pekar på projektet:

    az account set --subscription <subscription>
    az configure --defaults workspace=<project-name> group=<resource-group> location=<location>
    
  3. Skapa en anslutningsdefinition:

    connection.yml

    name: <connection-name>
    type: aiservices
    endpoint: https://<ai-services-resourcename>.services.ai.azure.com
    api_key: <resource-api-key>
    
  4. Skapa anslutningen:

    az ml connection create -f connection.yml
    
  5. Nu är anslutningen tillgänglig för förbrukning.

Du kan använda Azure AI Foundry Models i dina projekt i Azure AI Foundry för att skapa omfattande program och interagera/hantera de tillgängliga modellerna. Om du vill använda Azure AI Foundry Models-tjänsten i projektet måste du skapa en anslutning till Azure AI Foundry-resursen (tidigare kända Azure AI Services).

I följande artikel beskrivs hur du skapar en anslutning till Azure AI Foundry-resursen (tidigare kända Azure AI Services) för att använda Azure AI Foundry Models.

Ett diagram med den övergripande arkitekturen för Azure Marketplace-integrering med AI Foundry Models.

Prerequisites

För att slutföra den här artikeln behöver du:

  • Ett Azure AI-projekt med en AI Hub.

  • Installera verktyget Azure CLI.

  • Identifiera följande information:

    • ditt prenumerations-ID för Azure

    • Ditt Azure AI Services-resursnamn.

    • Ditt Resurs-ID för Azure AI Services.

    • Namnet på den Azure AI Hub där projektet distribueras.

    • Resursgruppen där Azure AI Services-resursen distribueras.

Lägg till en anslutning

  1. Använd mallen ai-services-connection-template.bicep för att beskriva anslutningen:

    ai-services-connection-template.bicep

    @description('Name of the hub where the connection will be created')
    param hubName string
    
    @description('Name of the connection')
    param name string
    
    @description('Category of the connection')
    param category string = 'AIServices'
    
    @allowed(['AAD', 'ApiKey', 'ManagedIdentity', 'None'])
    param authType string = 'AAD'
    
    @description('The endpoint URI of the connected service')
    param endpointUri string
    
    @description('The resource ID of the connected service')
    param resourceId string = ''
    
    @secure()
    param key string = ''
    
    
    resource connection 'Microsoft.MachineLearningServices/workspaces/connections@2024-04-01-preview' = {
      name: '${hubName}/${name}'
      properties: {
        category: category
        target: endpointUri
        authType: authType
        isSharedToAll: true
        credentials: authType == 'ApiKey' ? {
          key: key
        } : null
        metadata: {
          ApiType: 'Azure'
          ResourceId: resourceId
        }
      }
    }
    
  2. Kör utrullningen:

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    ENDPOINT_URI="https://<azure-ai-model-inference-name>.services.ai.azure.com"
    RESOURCE_ID="<resource-id>"
    HUB_NAME="<hub-name>"
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-connection-template.bicep \
        --parameters accountName=$ACCOUNT_NAME hubName=$HUB_NAME endpointUri=$ENDPOINT_URI resourceId=$RESOURCE_ID
    

Nästa steg