将模型部署到终结点

已完成

开发生成式 AI 应用时,需要将语言模型集成到应用程序中。 若要能够使用语言模型,需要部署此模型。 让我们首先了解部署语言模型的原因,然后了解如何在 Azure AI Foundry 中部署语言模型。

为什么要部署模型?

训练模型根据某些输入生成输出。 若要从模型中获取值,需要一个解决方案,该解决方案允许向模型发送输入,模型会处理该模型,之后输出会为你可视化。

使用生成式 AI 应用时,最常见的解决方案类型是一个聊天应用程序,它需要用户问题(模型处理)来生成足够的响应。 然后,将响应可视化给用户,作为对其问题的响应。

部署到终结点的模型正在处理的用户问题示意图。

通过将模型部署到 终结点,可以将语言模型与聊天应用程序集成。 终结点是一个特定的 URL,可通过其访问已部署的模型或服务。 每个模型部署通常都有自己的唯一终结点,允许不同的应用程序通过 API(应用程序编程接口)与模型进行通信

当用户提出问题时:

  1. API 请求将发送到终结点。
  2. 终结点指定处理请求的模型。
  3. 结果通过 API 响应发送回应用。

现在,你已了解了为什么要部署模型,接下来让我们了解使用 Azure AI Foundry 进行部署的选项。

使用 Azure AI Foundry 部署语言模型

使用 Azure AI Foundry 部署语言模型时,可以使用多种类型,具体取决于要部署的模型。

部署选项包括:

  • 标准部署:模型托管在 Azure AI Foundry 项目资源中。
  • 无服务器计算:模型托管在 Azure AI Foundry 中心项目中Microsoft托管的专用无服务器终结点中。
  • 托管计算:模型托管在 Azure AI Foundry 中心项目中的托管的虚拟机镜像中。

关联的成本取决于部署的模型类型、选择的部署选项以及您对模型的使用情况。

标准部署 无服务器计算 托管计算
支持的模型 Azure AI Foundry 模型(包括 Azure OpenAI 模型和模型即服务模型) 使用即用即付计费的 Foundry 模型 打开和自定义模型
托管服务 Azure AI Foundry 资源 中心内的 AI 项目资源 中心内的 AI 项目资源
计费依据 基于令牌的计费 基于令牌的计费 基于计算的计费

注释

对于大多数方案,建议使用标准部署