将模型部署到终结点
开发生成式 AI 应用时,需要将语言模型集成到应用程序中。 若要能够使用语言模型,需要部署此模型。 让我们首先了解部署语言模型的原因,然后了解如何在 Azure AI Foundry 中部署语言模型。
为什么要部署模型?
训练模型根据某些输入生成输出。 若要从模型中获取值,需要一个解决方案,该解决方案允许向模型发送输入,模型会处理该模型,之后输出会为你可视化。
使用生成式 AI 应用时,最常见的解决方案类型是一个聊天应用程序,它需要用户问题(模型处理)来生成足够的响应。 然后,将响应可视化给用户,作为对其问题的响应。
 
通过将模型部署到 终结点,可以将语言模型与聊天应用程序集成。 终结点是一个特定的 URL,可通过其访问已部署的模型或服务。 每个模型部署通常都有自己的唯一终结点,允许不同的应用程序通过 API(应用程序编程接口)与模型进行通信。
当用户提出问题时:
- API 请求将发送到终结点。
- 终结点指定处理请求的模型。
- 结果通过 API 响应发送回应用。
现在,你已了解了为什么要部署模型,接下来让我们了解使用 Azure AI Foundry 进行部署的选项。
使用 Azure AI Foundry 部署语言模型
使用 Azure AI Foundry 部署语言模型时,可以使用多种类型,具体取决于要部署的模型。
部署选项包括:
- 标准部署:模型托管在 Azure AI Foundry 项目资源中。
- 无服务器计算:模型托管在 Azure AI Foundry 中心项目中Microsoft托管的专用无服务器终结点中。
- 托管计算:模型托管在 Azure AI Foundry 中心项目中的托管的虚拟机镜像中。
关联的成本取决于部署的模型类型、选择的部署选项以及您对模型的使用情况。
| 标准部署 | 无服务器计算 | 托管计算 | |
|---|---|---|---|
| 支持的模型 | Azure AI Foundry 模型(包括 Azure OpenAI 模型和模型即服务模型) | 使用即用即付计费的 Foundry 模型 | 打开和自定义模型 | 
| 托管服务 | Azure AI Foundry 资源 | 中心内的 AI 项目资源 | 中心内的 AI 项目资源 | 
| 计费依据 | 基于令牌的计费 | 基于令牌的计费 | 基于计算的计费 | 
注释
对于大多数方案,建议使用标准部署。