练习 - 集成和使用语音识别和听录
在本模块中,你将创建一个混合现实应用程序,用于探索将 Azure 语音服务与 HoloLens 2 配合使用。 完成本系列后,你将能够使用设备的麦克风实时将语音转录为文本,将语音翻译为其他语言,并使用意向识别功能通过人工智能理解语音命令。
创建并准备 Unity 项目
在本部分中,你将创建新的 Unity 项目,并准备好进行 MRTK 开发。
作为先决条件,请确保已完成以下步骤来初始化项目和应用程序:
- 创建 Unity 项目并为其指定合适的名称,例如 MRTK 教程
- 切换构建平台
- 导入 TextMeshPro Essential 资源
- 导入混合现实工具包
- 配置 Unity 项目
- 创建和配置场景并为其提供合适的名称;例如 ,AzureSpeechServices
注释
可以在 混合现实工具包模块简介 中了解如何设置混合现实项目。
配置功能
在“Unity”菜单中,选择“编辑”>“项目设置...”以打开“播放器设置”窗口,然后找到“播放器”>“发布设置”部分:
在 “发布设置”中,向下滚动到 “功能 ”部分,然后仔细检查 InternetClient、 麦克风和 SpatialPerception 功能(在教程开始时创建项目时启用的功能)仍然处于启用状态。 然后,启用 InternetClientServer 和 PrivateNetworkClientServer 功能。
导入教程资产
按照列出的顺序下载并导入以下 Unity 自定义包:
导入教程资产后,项目窗口应如下所示:
准备场景
在本部分中,您将通过添加教程预制件以及配置 Lunarcom 控制器(脚本)组件来准备和控制场景。
在“项目”窗口中,导航到 资产>MRTK。Tutorials.AzureSpeechServices>Prefabs 文件夹,并将 Lunarcom prefab 拖动到“层次结构”窗口中,将其添加到场景中。
在层次结构窗口中仍选中 Lunarcom 对象时,在检查器窗口中,使用 “添加组件” 按钮将 Lunarcom 控制器(脚本) 组件添加到 Lunarcom 对象。
在仍然选择 Lunarcom 对象的情况下,将其展开以显示其子对象,然后将 终端 对象拖动到 Lunarcom 控制器(脚本)组件的 终端 字段。
选择 农历通信 对象后,展开 Terminal 对象以显示其子对象,然后将 ConnectionLight 对象拖动到农历通信控制器(脚本)组件的 Connection Light 字段,并将 OutputText 对象拖到 “输出文本 ”字段中。
选择Lunarcom对象后,展开Buttons对象以显示其子对象,然后在检查器窗口中展开Buttons列表,将Buttons字段设置为3,然后将MicButton、SatelliteButton和RocketButton对象分别拖动到元素0、1和2字段中。
将 Unity 项目连接到 Azure 资源
若要使用 Azure 语音服务,需要创建 Azure 资源并获取语音服务的 API 密钥。 按照 快速入门 说明作,记下服务区域(也称为 位置)和 API 密钥(也称为 Key1 或 Key2)。
在“层次结构”窗口中,选择 Lunarcom 对象,然后在检查器窗口中找到 Lunarcom控制器(脚本) 组件的 语音 SDK 凭据 部分,并按如下所示对其进行配置:
- 在 语音服务 API 密钥 字段中,输入 API 密钥(Key1 或 Key2)。
- 在 语音服务区域 字段中,使用小写字母和空格输入服务区域(位置)。











