Customer Service 中的 Copilot 的负责任 AI 常见问题解答

适用于:Dynamics 365 Contact Center—嵌入、Dynamics 365 Contact Center—独立 和 Dynamics 365 Customer Service

本篇常见问题解答文章围绕在 Customer Servic 的助手功能中负责任地使用 AI 回答相关问题。

Dynamics 365 Customer Service 中的 Copilot 是指什么?

Copilot 是一种 AI 驱动的工具,可改变 Dynamics 365 Customer Service 中的客户服务代表(服务代表或代表)体验。 它提供实时的 AI 支持的帮助,来帮助代表更快地解决问题,更有效地处理案例,并自动执行耗时的任务,让他们能够专注于为客户提供高质量的服务。

系统功能有哪些?

Copilot 提供以下主要功能:

  • 提出问题:这是服务代表激活 Copilot 帮助窗格时看到的第一个选项卡。 它是带有 Copilot 的对话界面,有助于为代表的问题提供上下文回复。 Copilot 的回复基于您的组织在设置过程中提供的内部和外部知识源。

  • 撰写电子邮件:这是 Copilot 帮助窗格中的第二个选项卡,可帮助代表根据案例上下文快速创建电子邮件回复,从而缩短用户创建电子邮件所需的时间。

  • 起草聊天回复草稿:使代表只需单击一下,就可以基于您的组织配置的知识源对正在进行的数字消息传递对话创建回复。

  • 汇总案例:Copilot 直接在案例窗体中为代表提供案例的摘要,这样代理可以快速获取案例的重要详细信息。

  • 汇总对话:Copilot 就整个客户旅程中的要点向代表提供对话的摘要,例如虚拟代表转接、转移和按需提供。

  • 从案例生成知识草稿(预览版):Copilot 从案例生成知识文章草稿作为基于信息的建议。 代表可以通过向 Copilot 发出修订说明来审查和完善草稿,然后保存。

  • 汇总自定义记录:Copilot 根据管理员为自定义表配置的字段为代表提供记录的摘要,以便代表可以快速获取支持记录的重要详细信息。

  • 生成解决注释:Copilot 可在提出问题选项卡上为代表提供与案例相关的案例详细信息、电子邮件和注释摘要,以便他们更快地关闭案例或事件。

系统的预期用途是什么?

Customer Service 中的 Copilot 旨在帮助客户服务代表更高效和有效地工作。 客户服务代表可以使用 Copilot 的基于知识的回复,从而在搜索知识文章和起草回复时节省时间。 Copilot 摘要旨在支持代表快速处理案例和对话。 Customer Service 中的 Copilot 生成的内容并非无需人工审核或监督即可使用。

如何评估 Customer Service 中的 Copilot? 哪些指标用于衡量表现?

Customer Service 中的 Copilot 针对全世界客户的现实场景按照其设计、开发和发布的每个阶段进行了评估。 通过结合研究和业务影响研究,我们评估了有关 Copilot 的各种定量和定性指标,包括其准确性、有用性和代表信任度。 有关详细信息,请参阅负责任 AI 透明度报表

Customer Service 中的 Copilot 有哪些限制? 用户如何将 Copilot 限制带来的影响降到最低?

Copilot 的基于知识的功能(例如提出问题、撰写电子邮件和起草聊天回复)依赖于高质量和最新的知识文章作为基础。 如果没有这些知识文章,用户很可能会遇到并非事实的 Copilot 回复。

为了最大程度地减少看到来自 Copilot 的非事实响应的可能性,Microsoft 必须采用强大的知识管理实践来确保连接到 Copilot 的业务知识是高质量和最新的。

哪些操作因素和设置允许有效和负责任地使用系统?

始终审核来自 Copilot 的结果

Copilot 基于大语言模型技术构建,本质上基于概率。 当提供一段输入文本时,模型将计算该文本中的每个字词给出位于其前面的字词的概率。 然后,模型将选择最有可能跟随的字词。 但是,由于模型基于概率,因此无法绝对确定地说下一个正确的字词是什么。 模型基于其从受训练数据中学习的概率分布,来为我们给出其最佳猜测。 Copilot 使用一种称为对接的方法,该方法涉及向输入添加其他信息,从而基于上下文向您的组织提供输出。 该方法使用语义搜索来理解输入,并检索相关内部组织文档和受信任的公共 Web 搜索结果,并引导语言模型根据该内容做出回复。 虽然这有助于确保 Copilot 回复遵循组织数据,但在使用这些数据之前,请务必始终检查 Copilot 生成的结果。

充分利用 Copilot

与 Copilot 互动时,请务必记住,问题的结构会极大影响 Copilot 给出的回复。 要与 Copilot 有效互动,请务必提出明确且具体的问题,提供上下文以帮助 AI 更好地理解您的意图,一次提出一个问题,以及为了表达清晰和易于理解,请避免使用技术术语。

提出明确且具体的问题

提出问题时,意图明确非常重要,因为这将直接影响回复的质量。 例如,如果提出一个宽泛的问题:“客户的咖啡机为什么没有启动?”, 相比于提出更具体的问题(例如“我可以采取哪些步骤来确定客户的咖啡机为什么没有启动?”),前一个问题可能会生成不太有用的回复。

但是,如果提出更详细的问题(例如“我可以采取哪些步骤来确定为什么具有 5 巴压力等级的 Contoso 900 咖啡机没有启动?”, 这样可以缩小问题的范围,提供更多上下文,将能得到更加准确且更有针对性的回复。

添加上下文

添加上下文有助于对话 AI 系统更好地理解用户的意图,以及提供更准确和相关的回复。 如果没有上下文,系统可能会误解用户的问题,或者提供一般或不相关的回复。

例如,“为什么咖啡机没有启动?”将会生成一般性回复,相比于提出具有更多上下文的问题(例如“最近,客户对其咖啡机启动了去垢模式,并且已成功完成去垢。 客户在最后甚至看到电源指示灯闪烁三次,确认去垢已完成。 为什么无法再启动咖啡机?”

按照此方式添加上下文非常重要,因为这有助于 Copilot 更好地理解用户的意图,以及提供更准确和相关的回复。

尽可能避免使用技术术语

与 Copilot 互动时,建议您避免使用技术性非常强的术语和资源名称,因为系统并非能始终准确或恰当理解该术语。 使用更为简单、自然的语言有助于确保系统能够正确理解用户意图并提供清晰、有用的回复。 例如 -

“客户在更改防火墙配置之后,无法使用 SSH 连接到 VM。”

请改为按照如下形式重新表示 -

“客户更改了其虚拟机的防火墙规则。 但是,他们无法再使用安全 Shell (SSH) 进行连接。 是否可以帮助解决此问题?”

通过遵循这些建议,代表可以增强他们与 Copilot 的互动,并增加从中获得准确和自信的回复的可能性。

汇总或扩展回复

有时,来自 Copilot 的回复可能比预期要长。 当代表与客户进行实时聊天对话时可能会出现这种情况,与通过电子邮件发送回复相比,这需要发送简洁的回复。 在这种情况下,要求 Copilot“汇总回复”将能得到简洁的问题答案。 同样,如果需要更多详细信息,要求 Copilot“提供更多详细信息”将能得到更详细的问题答案。 如果回复被截断,键入“继续”将会显示回复的剩余部分。

如何影响助手生成的回复? 我是否可以调整基础 LLM?

无法直接自定义大语言模型 (LLM)。 可以通过更新源文档来影响 Copilot 回复。 来自 Copilot 回复的所有反馈内容都将进行存储。 可以使用这些数据创建报告,以确定需要更新的数据源。 最好实施相应流程以定期查看反馈数据,并确保知识文章为 Copilot 提供最佳且最新的信息。

Copilot 的数据安全模型是什么?

Copilot 会强制执行所定义的基于角色的访问 (RLOT) 控制,并且遵循所有现有的安全构造。 因此,代表无法查看他们无权访问的数据。 此外,只有代表有权访问的数据源才会用于助手回复生成。

Copilot 如何确定内容是否具有攻击性或有害性?

Copilot 通过基于不同类别的令人反感内容的严重性评级系统来确定内容是否有害。 您可以在 Azure AI 内容安全中的有害类别中了解详细信息。

生成助手回复时会在哪里进行数据处理和检索?

Copilot 不会调用为 ChatGPT 提供支持的公共 OpenAI 服务。 Customer Service 中的 Copilot 使用 Microsoft 托管租户中的 Microsoft Azure OpenAI 服务。 所有数据处理和检索都在 Microsoft 托管租户内进行。 此外,客户的数据不会共享,也不会反馈到公共模型中。

Copilot 从案例和对话生成的摘要有哪些语言限制?

Copilot 从案例和对话生成的摘要支持多种语言。 这些摘要的质量预计在英语中是最高的,而在其他语言中,质量预计将随着时间的推移而提高。 在 Copilot 功能的语言支持中了解支持的语言

是否持续测试和监控模型? 如果是这样,多久一次? 进行哪些测试?

每次对模型交互或版本进行更改时,都会测试模型的质量和有害内容。 如需了解详情,请参阅《负责任 AI 透明度报告》。

监视模型以检测性能下降的频率如何?

生成式 AI GPT 模型由 Azure OpenAI 托管和管理。 在客户服务场景中使用该模型受负责任的 AI 实践和部署安全委员会检查的约束。 对模型版本或基础提示的任何更改都将验证其质量和有害内容。 有关详细信息,请参阅负责任 AI 透明度报表

产品或服务是否采用多个模型或相互依赖的模型系统?

系统中的不同功能可能使用不同版本的 Azure OpenAI 服务模型。 有关详细信息,请参阅 Azure OpenAI 服务模型

Copilot 是否使用非 Microsoft 模型产品或服务,此模型的文档是否可用?

Copilot 是使用 Azure OpenAI 生成的一种完全托管的 AI 服务,可将 OpenAI 与 Microsoft 开发的内容筛选和滥用检测模型集成。 有关详细信息,请参阅 Azure OpenAI 的透明度说明

是否有固定的流程来传达其他 AI/ML 或模型解决方案中使用的模型、上游模型或输出中的任何更改?

对 Copilot 功能的任何计划更改都将通过公共文档进行传达。 但是,与模型版本或提示相关的更改由内部负责的 AI 流程控制。 这些更改不会传达,因为它们是渐进式和持续的功能改进。

用户是否向 Microsoft 提供逐字反馈以改进产品?

不支持。

Microsoft 是否有政策和程序来定义和区分人类在与 AI 系统交互或监控 AI 系统时的各种角色和责任?

是的。 在负责任的人工智能过程中,所有利益相关者和用户都会被考虑在内,并讨论他们对系统的使用或意外使用。 根据确定的方案,在产品中或通过文档引入所需的缓解措施。 如需了解详情,请参阅负责任 AI 透明度报告。

Microsoft 是否确定并记录了参与、捕获和整合其他最终用户和关键利益相关者的意见的方法,以协助持续监控潜在影响和新出现的风险?

是的。 如需了解详情,请参阅负责任 AI 透明度报告。

Microsoft 是否记录、实践和衡量 AI 系统事件的事件响应计划,包括衡量响应和停机时间?

是的。 负责任 AI 流程要求团队制定针对 AI 问题的事件响应计划,类似于针对功能问题执行什么操作。 功能团队持续监控系统的性能和可靠性。 如需了解详情,请参阅负责任 AI 透明度报告。

Microsoft 是否建立了与相关利益相关者、运营商、从业人员、用户和受影响方共享错误发生率和负面影响信息的程序?

是的。 对于高严重性问题,功能团队必须与受影响的客户就中断问题进行通信。

Microsoft 是否实时测量和监控系统性能,以便在检测到 AI 系统事件时实现快速响应?

是的。 功能团队持续监控系统的性能和可靠性。

Microsoft 是否与最终用户和其他利益相关者一起测试系统解释的质量?

是的。 如需了解详情,请参阅负责任 AI 透明度报告。

在评估 AI 系统的负面风险和收益时,Microsoft 是否建立了监控和解决模型系统性能和可信度的政策和程序,包括模型整个生命周期中的偏见和安全问题?

是的。 有关详细信息,请参阅负责任 AI 透明度报表

Microsoft 是否进行公平性评估以管理计算和统计形式的偏见?

是的。 如需了解详情,请参阅负责任 AI 透明度报告。

Microsoft 是否监控系统输出的性能或偏置问题?

是的。 审核筛选器应用在多个层中,包括在输出中,以确保响应中没有有害内容。 如需了解详情,请参阅负责任 AI 透明度报告。

模型操作中的复原能力水平如何? 例如,当模型不可用时,是否有灾难恢复和应急计划?

与所有 Azure 服务类似,备份和恢复通过多个数据中心支持,以实现高可用性。

模型是否依赖于第三方工具或解决方案,并且嵌入到第三方工具或解决方案中,这使得难以将模型迁移到不同的环境(包括托管服务提供商、硬件、软件系统等变量),从而阻碍模型的可解释性?

不支持。

是否有既定的示范治理策略?

是,存在由 Azure OpenAI 提供支持的既定治理策略。 如需了解详情,请参阅负责任 AI 透明度报告。

对于包含 PII 的训练或生产数据集,是否有根据隐私和数据治理策略建立和记录的协议(授权、持续时间、类型)和访问控制?

目前,没有模型训练,因此对数据集没有要求。 但是,当客户服务代表与 Copilot 互动时,根据功能,上下文数据(案例或聊天)用于生成响应。

是否监控 PII 披露和对敏感属性或受法律保护属性的推断?

是的,对每个功能都进行了隐私审查。

是的。 对每个功能进行法律审查,以帮助满足法规要求和其他法律事务。

使用 Copilot 功能
使用 Copilot 从案例生成知识草稿
Copilot 的区域可用性
Microsoft Power Platform 中 Copilot 数据安全和隐私的常见问题解答