负责任的人工智能

已完成

要了解负责任的 AI 的关键要点包括:

  • 公平性:AI 模型使用数据进行训练,这些数据通常由人类提供和选择。 数据选择条件或数据本身反映了可能导致模型产生歧视性输出的无意识 偏见 存在重大风险。 AI 开发人员需要小心,以尽量减少训练数据和测试 AI 系统的偏见,实现公平性。
  • 可靠性和安全性:AI 基于概率模型,并且不是毫无错误的。 AI 提供支持的应用程序需要考虑到这一点并相应地降低风险。
  • 隐私和安全性:使用数据训练模型,其中可能包括个人信息。 AI 开发人员有责任确保训练数据保持安全,并且训练的模型本身不能用于显示私人个人或组织详细信息。
  • 包容性:AI 改善生活和推动成功的潜力应该向所有人开放。 AI 开发人员应努力确保其解决方案不会排除某些用户。
  • 透明度:AI 有时可能看起来是“神奇的”,但重要的是让用户了解系统的工作原理及其可能存在的任何潜在限制。
  • 责任:归根结底,开发和分发 AI 解决方案的人员和组织对其行动负责。 开发 AI 模型和应用程序的组织必须定义和应用治理框架,以帮助确保将负责任的 AI 原则应用于其工作。

负责任的 AI 示例

应应用负责任的 AI 做法的一些方案示例包括:

  • 应测试 AI 支持的大学招生系统,以确保它公平评估所有申请,同时考虑到相关的学术标准,但避免基于无关人口因素的无根据歧视。
  • 使用计算机视觉检测对象的 AI 驱动的机器人解决方案应避免意外伤害或损坏。 实现此目标的一种方法是在与物理对象交互之前使用概率值来确定对象识别中的“置信度”,并在置信度低于特定阈值时避免任何作。
  • 机场或其他安全区域中使用的面部识别系统应在不再需要时删除用于临时访问的个人图像。 此外,保护措施应防止使无需查看图像的作员或用户能够访问这些图像。
  • 提供基于语音的交互的基于 Web 的聊天机器人还应生成文本字幕,以避免使有听力障碍的用户无法使用系统。
  • 使用基于 AI 的贷款审批应用程序的银行应披露 AI 的使用,并描述其训练数据的特征(不透露机密信息)。