你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
重要
- Foundry Local 以预览版提供。 公共预览版提供对活动部署中的功能的早期访问。
- 正式发布 (GA) 之前,功能、方法和流程可能会发生更改或具有受限的功能。
Foundry Local 是一种设备 AI 推理解决方案,可提供性能、隐私、自定义和成本效益。 它通过 CLI、SDK 和 REST API 与工作流和应用程序集成。
主要功能
设备推理:在本地运行模型以降低成本并保留设备上的数据。
模型自定义:选择预设模型或使用自己的模型来满足特定需求。
成本效益:使用现有硬件消除定期云成本并使 AI 更易于访问。
无缝集成:通过 SDK、API 终结点或 CLI 与应用集成,并根据需要扩展到 Azure AI Foundry。
用例
当需要以下条件时,Foundry Local 是理想的选择:
- 在设备上保留敏感数据
- 在受限或脱机环境中运行
- 降低云推理成本
- 获取实时应用程序的低延迟 AI 响应
- 在部署到云之前试用 AI 模型
是否需要 Azure 订阅
否。 Foundry Local 在硬件上运行,使你无需云服务即可使用现有基础结构。
常见问题
是否需要用于 NPU 加速的特殊驱动程序
为 NPU 硬件安装驱动程序:
Intel NPU:安装 Intel NPU 驱动程序以在 Windows 上启用 NPU 加速。
Qualcomm NPU:安装 Qualcomm NPU 驱动程序 以启用 NPU 加速。 如果看到错误
Qnn error code 5005: Failed to load from EpContext model. qnn_backend_manager.,则可能表示过时的驱动程序或 NPU 资源冲突。 重新启动以清除冲突,尤其是在使用 Windows Copilot+ 功能之后。
安装驱动程序后,Foundry Local 会自动检测和使用 NPU。
开始
按照 Foundry Local 指南入门,设置 Foundry Local 、发现模型并运行第一个本地 AI 模型。