你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
适用范围:
Azure CLI ml 扩展 v2(最新版)
Python SDK azure-ai-ml v2(最新版)
负责任的人工智能(负责任的 AI)是一种安全、道德和信任地开发、评估和部署 AI 系统的方法。 AI 系统是由其创建者做出的许多决策造成的。 负责任的 AI 有助于指导这些决策,从定义系统目的到用户交互,从而获得更有益的和公平的结果。 它使人们及其目标处于设计中心,并尊重公平、可靠性和透明度等价值观。
Microsoft创建了一个 负责任的 AI 标准,这是一个基于六项原则构建 AI 系统的框架:公平、可靠性和安全、隐私和安全、包容性、透明度和责任。 这些原则是 AI 负责任的可信方法的基础,尤其是随着智能技术在日常产品和服务中变得更加常见。
本文介绍了 Azure 机器学习如何提供工具来帮助开发人员和数据科学家实施和作这六项原则。
公平性和包容性
AI 系统应公平对待每个人,避免以不同的方式影响类似的组。 例如,当 AI 系统提供有关医疗、贷款申请或就业的指导时,它们应向有类似症状、财务状况或资格的人员提出相同的建议。
Azure 机器学习中的公平性和包容性:负责任的 AI 仪表板的公平性评估组件有助于评估敏感群体(如性别、种族、年龄和其他特征)的模型公平性。
可靠性和安全性
若要建立信任,AI 系统必须可靠、安全、一致地运行。 它们应按设计工作,安全地应对意外情况,并抵制有害的纵。 它们的行为和处理不同条件的能力反映了开发人员在设计和测试期间预期的情况范围。
Azure 机器学习中的可靠性和安全性:负责任的 AI 仪表板的错误分析组件可帮助你:
- 深入了解模型的失败分布形式。
- 识别错误率高于整体基准的数据队列(子集)。
当系统或模型对特定人口群体或训练数据中很少观察到的输入条件表现不佳时,可能会发生这些差异。
透明度
当 AI 系统通知影响人们生活的决策时,人们必须了解这些决策是如何做出的。 例如,银行可能使用 AI 系统来确定某个人是否值得信用,或者公司可能使用一个来选择职位候选人。
透明度的关键部分是 可解释性:提供 AI 系统行为的有用解释。 提高可解释性有助于利益干系人了解 AI 系统的工作原理和原因,以便他们能够识别性能问题、公平性问题、排除性做法或意外结果。
Azure 机器学习中的透明度:负责任的 AI 仪表板的模型可解释性和反面假设组件有助于生成模型预测的可理解描述。
模型可解释性组件提供模型行为的多个视图:
- 全局解释。 例如,哪些功能会影响贷款分配模型的总体行为?
- 局部解释。 例如,为何批准或拒绝了客户的贷款申请?
- 选定数据点队列的模型解释。 例如,哪些特征会影响适用于低收入申请人的贷款分配模型的总体行为?
反图 what-if 组件通过显示它对特征更改和扰动的反应,帮助你了解和调试机器学习模型。
Azure 机器学习还支持负责任 AI 记分卡。 记分卡是一个可自定义的 PDF 报表,开发人员可以配置、生成、下载并与技术和非技术利益干系人共享。 它有助于教育利益干系人了解数据集和模型运行状况、实现合规性并构建信任。 记分卡还可以通过揭示机器学习模型特征来支持审核评审。
隐私和安全
随着 AI 变得越来越常见,保护隐私和保护个人和业务信息更为重要和复杂。 隐私和数据安全性需要密切关注,因为 AI 系统需要数据来做出准确的预测和决策。 AI 系统必须遵守以下隐私法:
- 要求数据的收集、使用和存储具有透明度。
- 要求使用者进行适当控制来选择其数据的使用方式。
Azure 机器学习中的隐私和安全性:Azure 机器学习使管理员和开发人员能够创建符合公司策略 的安全配置 。 使用 Azure 机器学习和 Azure 平台,可以:
- 限制用户帐户或组对资源和操作的访问。
- 限制传入和传出网络通信。
- 加密传输中的数据和静态数据。
- 扫描漏洞。
- 应用和审核配置策略。
Microsoft还创建了两个开源包,以帮助实施隐私和安全原则:
SmartNoise:差别隐私是一组系统和做法,有助于保持个人数据的安全性和私密性。 在机器学习解决方案中,可能需要差别隐私来实现监管合规性。 SmartNoise 是一个开源项目(Microsoft 参与了联合开发),其中包含用于生成全局差别隐私系统的组件。
Counterfit:Counterfit 是一个开源项目,其中包含命令行工具和通用自动化层,使开发人员能够模拟针对 AI 系统的网络攻击。 任何人都可以下载该工具并通过 Azure Cloud Shell 进行部署以在浏览器中运行,或者在 Anaconda Python 环境中进行本地部署。 它可以评估托管在各种云环境、本地或边缘位置的 AI 模型。 该工具不区分 AI 模型,且支持各种数据类型,包括文本、图像或通用输入。
问责
设计和部署 AI 系统的人员必须负责这些系统的运作方式。 组织应使用行业标准来制定问责规范。 这些规范有助于确保 AI 系统不是影响人们生活的决定的最终权威,并且人类对高度自治系统保持有意义的控制。
Azure 机器学习中的问责: 机器学习作(MLOps) 基于改进 AI 工作流效率的 DevOps 原则和做法。 Azure 机器学习提供以下 MLOps 功能,以提高责任:
- 从任意位置注册、打包和部署模型。 还可以跟踪使用模型所需的关联元数据。
- 捕获端到端机器学习生命周期的监管数据。 记录的世系信息可以包括模型的发布者、做出更改的原因,以及在生产环境中部署或使用模型的时间。
- 针对机器学习生命周期中的事件发出通知和警报。 示例包括试验完成、模型注册、模型部署和数据偏移检测。
- 监控应用程序的操作问题和与机器学习相关的问题。 比较训练与推理之间的模型输入,浏览特定于模型的指标,以及针对机器学习基础结构提供监视和警报。
此外,Azure 机器学习中的 “负责任的 AI 记分卡 ”通过启用跨利益干系人通信来创建责任。 记分卡使开发人员能够与技术和非技术利益干系人配置、下载和共享模型运行状况见解。 共享这些见解有助于建立信任。
Azure 机器学习还通过以下方法为业务决策提供决策支持决策:
- 数据驱动型见解,帮助利益干系人仅使用历史数据了解对结果的因果处理影响。 例如,“药物将如何影响患者的血压?这些见解来自“负责任的 AI”仪表板的因果推理组件。
- 模型驱动见解,这些见解回答了用户问题(例如“下次我该怎么办来获取 AI 的不同结果?”),以便他们可以采取行动。 这些见解通过负责任的 AI 仪表板的反面假设组件提供。
后续步骤
- 有关如何在 Azure 机器学习中实施负责任 AI 的详细信息,请参阅负责任 AI 仪表板。
- 了解如何通过 CLI 和 SDK 或 Azure 机器学习工作室 UI 生成负责任 AI 仪表板。
- 了解如何根据在负责任 AI 仪表板中观察到的见解生成负责任 AI 记分卡。
- 了解用于根据六项关键原则生成 AI 系统的负责任 AI 标准。