你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

安全 AI

本文可帮助你在 Azure 中为 AI 工作负载建立安全流程。 安全的 AI 环境支持业务目标,并增强利益干系人对 AI 解决方案的信心。

显示 AI 采用的 6 个阶段的关系图:策略、计划、就绪、治理、安全、管理。

发现 AI 安全风险

AI 工作负载会创建传统安全措施无法解决的新攻击面。 必须系统地评估特定于 AI 的漏洞,以构建有效的防御措施。 操作方法如下:

  1. 确定整个环境的 AI 系统风险。 AI 系统面临不断变化的威胁,这些威胁需要专门的评估框架进行检测。 这些框架可帮助你了解特定于机器学习和 AI 工作负载的攻击途径。 使用 MITRE ATLASOWASP 生成 AI 风险 等框架识别组织中所有 AI 工作负载的风险。

  2. 在整个工作流中评估 AI 数据风险。 AI 工作流中的敏感数据会增加内部威胁和数据泄漏的风险,这些威胁和数据泄漏可能会危及业务运营。 数据风险评估可帮助你根据实际风险级别确定安全投资的优先级。 使用 Microsoft Purview 预览体验计划风险管理 等工具评估企业范围内的数据风险,并根据数据敏感度级别确定这些风险的优先级。

  3. 测试 AI 模型是否存在安全漏洞。 AI 模型包含独特的漏洞,例如数据泄露、提示注入和攻击者可以利用的模型反转。 实际测试可发现静态评审无法检测到的风险。 使用数据丢失防护技术和对抗模拟测试模型是否有漏洞,并将队生成 AI 和非生成 AI 模型设为红队来模拟实际攻击。

  4. 定期进行风险评估。 随着 AI 模型、使用模式和威胁参与者随时间推移而出现新的威胁。 定期评估可确保安全状况适应不断变化的风险环境。 运行定期评估来识别模型、数据管道和部署环境中的漏洞,并使用评估结果来指导风险缓解优先级。

保护 AI 资源和数据

AI 系统包含有价值的资产,这些资产需要针对未经授权的访问和攻击提供强大的保护。 必须实施特定的安全控制来保护这些关键资源。

保护 AI 资源

全面的安全措施可保护 AI 投资,并保持利益干系人对 AI 解决方案的信任。 必须应用目标控件来保护 AI 基础结构的所有组件。 操作方法如下:

  1. 创建完整的 AI 资产清单。 未知的 AI 资产会导致安全漏洞,攻击者利用这些漏洞来获取未经授权的访问。 综合清单可为所有 AI 组件提供有效的监视和快速事件响应。 使用 Azure Resource Graph 资源管理器 跨订阅发现 AI 资源,实现 Microsoft Defender for Cloud 来识别生成式 AI 工作负载,并通过自动扫描和定期验证维护此清单。

  2. 保护所有 AI 通信通道。 在 AI 组件之间公开的通信路径允许数据拦截和系统泄露。 正确保护的通道可防止未经授权的访问和保护传输中的敏感信息。 实现 托管标识 以实现安全身份验证,无需存储凭据,使用 虚拟网络 隔离 AI 通信,并部署 Azure API 管理 来保护模型上下文协议服务器终结点。

  3. 应用平台特定的安全控制。 不同的 AI 部署模型根据其体系结构和暴露点面临不同的安全威胁。 平台定制的控件可解决每种部署类型中存在的特定漏洞。 根据部署模型遵循专用安全指南:

保护 AI 数据

AI 工作负荷依赖于需要可靠保护的数据和项目,以防止未经授权的访问、数据泄漏和合规性冲突。 必须实施全面的数据安全措施来保护 AI 数据和项目。 操作方法如下:

  1. 定义并维护数据边界。 清除数据边界可确保 AI 工作负载仅访问适合其预期受众和用例的数据。 使用 Microsoft Purview 对数据敏感度进行分类并定义访问策略。 实现 Azure 基于角色的访问控制(RBAC), 以限制工作负荷和用户组的数据访问。 使用 Azure 专用链接 在 AI 应用程序之间创建网络级数据隔离。

  2. 实施全面的数据丢失防护。 通过 AI 响应泄露未经授权的数据可能会损害敏感信息并违反法规要求。 数据丢失防护控制可防止 AI 模型无意中在其输出中泄露受保护的数据。 使用 Microsoft Purview 数据丢失防护 扫描和阻止 AI 工作流中的敏感数据。 配置 内容筛选 以防止敏感信息泄露,并实现自定义筛选器来检测和修改组织特定的敏感数据模式。 对于 Microsoft Copilot Studio, 请为代理配置数据丢失防护策略

  3. 保护 AI 项目免受入侵。 不安全的 AI 模型和数据集成为盗窃、中毒或反向工程攻击的目标。 受保护的工件维护知识产权价值,并防止对 AI 系统的恶意操控。 使用专用终结点在 Azure Blob 存储 中存储模型和数据集、应用静态加密和传输中,并通过监视实施严格的访问策略,以检测未经授权的访问尝试。

检测 AI 安全威胁

AI 系统面临不断变化的威胁,这些威胁需要持续监视,以防止安全漏洞和服务中断。 快速威胁检测可保护 AI 投资并保持业务连续性。 必须实现自动化监视和响应功能,以有效应对特定于 AI 的安全事件。 操作方法如下:

  1. 在整个环境中部署自动化 AI 风险检测。 AI 工作负载引入了动态威胁,手动监视无法快速检测,无法防止损坏。 自动化系统提供对新兴风险的实时可见性,并能够快速响应安全事件。 在 Microsoft Defender for Cloud 中使用 AI 安全状况管理 ,在 Azure 环境中自动检测和修正生成 AI 风险。

  2. 建立以 AI 为中心的事件响应过程。 未检测到的安全事件可能会导致数据丢失、模型泄露或服务中断,从而损害业务运营。 专用事件响应过程解决了 AI 安全事件的独特特征。 生成和测试解决 AI 特定威胁的事件响应计划,并持续监视 AI 系统中的泄露指标。 为不同类型的 AI 安全事件建立明确的升级过程。

  3. 实现特定于平台的监视策略。 在不同平台上部署的 AI 工作负载面临不同的安全挑战,这些挑战需要定制的监视方法。 特定于平台的监视可确保全面覆盖所有潜在的攻击途径。 根据部署体系结构应用监视指南:

Azure 资源

类别 工具 DESCRIPTION
资产发现 Azure 资源图形浏览器 发现和列出 Azure 订阅中的 AI 资源
安全监视 Microsoft Defender for Cloud 识别生成式 AI 工作负载和安全风险
标识管理 托管标识 在不存储凭据的情况下保护 AI 服务身份验证
网络安全 虚拟网络 隔离 AI 通信并限制网络访问
API 安全性 Azure API 管理 保护模型上下文协议服务器终结点
数据保护 Azure Blob 存储服务 为具有访问控制的人工智能工件提供加密存储
数据管理 Microsoft Purview 使用敏感度标签对 AI 数据进行目录和分类

后续步骤

治理 AI、管理 AI 和保护 AI 是必须定期重复开展的持续流程。 根据需要重新审视每项 AI 策略、AI 计划和 AI 就绪状态。 使用 AI 采用清单来确定下一步应该怎么做。