缓解 AI 风险

已完成

示意图显示了一组天平,表示 AI 带来的机会和风险之间的平衡。

人工智能 (AI) 为创新和效率提供了许多机会,但它也带来了需要谨慎管理的重大风险。

其中一个主要问题是,AI 系统有时可以做出难以解释的决策,从而导致缺乏透明度和责任感。 此外,AI 还可能导致意外和有害的后果,例如带有偏见的决策或侵犯隐私。

为了缓解这些风险,必须实施可靠的治理框架,确保 AI 流程的透明度,并纳入人工监督。 通过此方法,组织可以利用 AI 的优势,同时最大程度地减少潜在的负面影响。

在下一部分中,我们将讨论负责任 AI 的概念,以及如何应用其原则来降低与 GitHub Copilot 等 AI 工具相关的风险。

什么是负责任 AI?

负责任 AI 是一种以安全、可靠和合乎道德的方式开发、评估和部署人工智能系统的方法。 AI 系统是开发和部署它们的人员做出的许多决策的产物。 从系统用途到人们与 AI 系统的交互方式,负责任 AI 有助于主动引导这些决策朝着更有益且更公平的结果发展。 这意味着将人员及他们的目标作为系统设计决策的核心,并尊重公平性、可靠性和透明度等持久价值观。

在下一单元中,我们将介绍 Microsoft 和 GitHub 的六项负责任 AI 原则。