microsoft-cognitiveservices-speech-sdk package
类
| ActivityReceivedEventArgs |
定义收到的消息/事件的内容。 |
| AudioConfig |
表示用于指定要使用的输入类型的音频输入配置(麦克风、文件、流)。 |
| AudioInputStream |
表示用于自定义音频输入配置的音频输入流。 |
| AudioOutputStream |
表示用于自定义音频输出配置的音频输出流。 |
| AudioStreamFormat |
表示用于自定义音频输入配置的音频流格式。 |
| AutoDetectSourceLanguageConfig |
语言自动检测配置。 |
| AutoDetectSourceLanguageResult |
输出格式 |
| AvatarConfig |
定义说话虚拟形象配置。 |
| AvatarEventArgs |
定义用于聊天头像事件的内容。 |
| AvatarSynthesizer |
定义头像合成器。 |
| AvatarVideoFormat |
定义虚拟形象输出视频格式。 |
| AvatarWebRTCConnectionResult |
定义虚拟形象 WebRTC 连接结果。 |
| BaseAudioPlayer |
基础音频播放器类 TODO:目前仅播放 PCM。 |
| BotFrameworkConfig |
定义用于使用 Bot Framework 后端的对话框服务连接器对象的配置的类。 |
| CancellationDetails |
包含有关取消结果的原因的详细信息。 |
| CancellationDetailsBase |
包含有关取消结果的原因的详细信息。 |
| Connection |
连接是一个代理类,用于管理与指定识别器语音服务的连接。 默认情况下,识别器会根据需要自主管理与服务的连接。 Connection 类为用户提供其他方法来显式打开或关闭连接并订阅连接状态更改。 使用连接是可选的,主要适用于需要根据连接状态微调应用程序行为的情况。 用户可以选择先调用 Open(),在开始识别与此连接关联的识别器上开始识别之前,提前手动设置连接。 如果识别器需要连接或断开连接到服务,它将独立设置或关闭连接。 在这种情况下,连接将通过连接/已断开连接事件更改连接状态来通知连接。 在版本 1.2.1 中添加。 |
| ConnectionEventArgs |
为连接/断开连接等连接事件定义有效负载。 在版本 1.2.0 中添加 |
| ConnectionMessage |
ConnectionMessage 表示从语音服务发送和接收的实现特定消息。 这些消息用于调试目的,不应用于 Azure 认知服务语音服务的生产用例。 发送到语音服务并从中接收的消息可能会更改,而不通知。 这包括消息内容、标头、有效负载、排序等。在版本 1.11.0 中添加。 |
| ConnectionMessageEventArgs | |
| Conversation | |
| ConversationExpirationEventArgs |
定义会话事件的内容,如 SessionStarted/Stopped、SoundStarted/Stopped。 |
| ConversationParticipantsChangedEventArgs |
定义会话事件的内容,如 SessionStarted/Stopped、SoundStarted/Stopped。 |
| ConversationTranscriber |
通过说话人与麦克风、文件或其他音频输入流的分离执行语音识别,并因此获取转录的文本。 |
| ConversationTranscriptionCanceledEventArgs |
定义 RecognitionErrorEvent 的内容。 |
| ConversationTranscriptionEventArgs |
定义聊天转录/转录事件的内容。 |
| ConversationTranscriptionResult |
定义聊天听录的结果。 |
| ConversationTranslationCanceledEventArgs | |
| ConversationTranslationEventArgs |
定义会话事件的有效负载,例如语音启动/检测到的结束 |
| ConversationTranslationResult |
翻译文本结果。 |
| ConversationTranslator |
加入、离开或连接到对话。 |
| Coordinate |
在 2D 空间中定义坐标。 |
| CustomCommandsConfig |
定义用于使用 CustomCommands 后端的对话框服务连接器对象的配置的类。 |
| Diagnostics |
定义用于管理在版本 1.21.0 中添加的控制台输出的诊断 API |
| DialogServiceConfig |
定义对话服务连接器的基本配置的类 |
| DialogServiceConnector |
对话框服务连接器 |
| IntentRecognitionCanceledEventArgs |
定义意向识别取消的结果事件的有效负载。 |
| IntentRecognitionEventArgs |
意向识别结果事件参数。 |
| IntentRecognitionResult |
意向识别结果。 |
| IntentRecognizer |
意向识别器。 |
| KeywordRecognitionModel |
表示当用户说关键字启动进一步语音识别时用于识别的关键字识别模型。 |
| LanguageUnderstandingModel |
语言理解模型 |
| Meeting | |
| MeetingTranscriber | |
| MeetingTranscriptionCanceledEventArgs |
定义 MeetingTranscriptionCanceledEvent 的内容。 |
| MeetingTranscriptionEventArgs |
定义会议转录/转录事件的内容。 |
| NoMatchDetails |
包含 NoMatch 识别结果的详细信息。 |
| Participant |
表示对话中的参与者。 在版本 1.4.0 中添加 |
| PhraseListGrammar |
允许添加新短语以提高语音识别。 添加到识别器中的短语在下一次识别开始时有效,或者下次 SpeechSDK 必须重新连接到语音服务时有效。 |
| PronunciationAssessmentConfig |
发音评估配置。 |
| PronunciationAssessmentResult |
发音评估结果。 |
| PropertyCollection |
表示属性及其值的集合。 |
| PullAudioInputStream |
表示用于自定义音频输入配置的音频输入流。 |
| PullAudioInputStreamCallback |
定义自定义音频输入流的回调方法(read()和 close()的抽象基类。 |
| PullAudioOutputStream |
表示用于自定义音频输出配置的内存支持的推送音频输出流。 |
| PushAudioInputStream |
表示用于自定义音频输入配置的内存支持的推送音频输入流。 |
| PushAudioOutputStream |
表示用于自定义音频输出配置的音频输出流。 |
| PushAudioOutputStreamCallback |
定义自定义音频输出流的回调方法(write()和 close()的抽象基类。 |
| RecognitionEventArgs |
定义会话事件的有效负载,例如语音启动/检测到的结束 |
| RecognitionResult |
定义语音识别的结果。 |
| Recognizer |
定义主要包含常见事件处理程序的基类识别器。 |
| ServiceEventArgs |
为版本 1.9.0 中添加的任何服务消息事件定义有效负载 |
| SessionEventArgs |
定义会话事件的内容,如 SessionStarted/Stopped、SoundStarted/Stopped。 |
| SourceLanguageConfig |
源语言配置。 |
| SpeakerAudioDestination |
表示仅在浏览器中工作的扬声器播放音频目标。 注意:SDK 将尝试使用 媒体源扩展 播放音频。 Mp3 格式在 Microsoft Edge、Chrome 和 Safari(桌面)上具有更好的支持,因此最好指定 mp3 格式进行播放。 |
| SpeakerIdentificationModel |
定义说话人识别模型的 SpeakerIdentificationModel 类包含一组用于标识说话人(s) 的配置文件 |
| SpeakerRecognitionCancellationDetails | |
| SpeakerRecognitionResult |
输出格式 |
| SpeakerRecognizer |
为语音配置文件作的用户定义 SpeakerRecognizer 类(例如 createProfile、deleteProfile) |
| SpeakerVerificationModel |
为说话人识别模型定义 SpeakerVerificationModel 类,其中包含要验证说话人的配置文件 |
| SpeechConfig |
语音配置。 |
| SpeechConfigImpl | |
| SpeechRecognitionCanceledEventArgs | |
| SpeechRecognitionEventArgs |
定义语音识别/识别事件的内容。 |
| SpeechRecognitionResult |
定义语音识别的结果。 |
| SpeechRecognizer |
从麦克风、文件或其他音频输入流执行语音识别,并因此获取转录的文本。 |
| SpeechSynthesisBookmarkEventArgs |
定义语音合成书签事件的内容。 |
| SpeechSynthesisEventArgs |
定义语音合成事件的内容。 |
| SpeechSynthesisResult |
定义语音合成的结果。 |
| SpeechSynthesisVisemeEventArgs |
定义语音合成视体事件的内容。 |
| SpeechSynthesisWordBoundaryEventArgs |
定义语音合成单词边界事件的内容。 |
| SpeechSynthesizer |
定义用于文本转语音的 SpeechSynthesizer 类。 在版本 1.16.0 中更新 |
| SpeechTranslationConfig |
语音翻译配置。 |
| SynthesisResult |
合成结果的基类 |
| SynthesisVoicesResult |
定义语音合成的结果。 |
| Synthesizer | |
| TranslationRecognitionCanceledEventArgs |
定义语音识别取消的结果事件的有效负载。 |
| TranslationRecognitionEventArgs |
翻译文本结果事件参数。 |
| TranslationRecognitionResult |
翻译文本结果。 |
| TranslationRecognizer |
翻译识别器 |
| TranslationSynthesisEventArgs |
转换合成事件参数 |
| TranslationSynthesisResult |
定义翻译合成结果,即目标语言中翻译文本的语音输出。 |
| Translations |
表示参数及其值的集合。 |
| TurnStatusReceivedEventArgs |
定义收到的消息/事件的内容。 |
| User | |
| VoiceInfo |
有关在版本 1.20.0 中添加的语音合成语音的信息。 |
| VoiceProfile |
定义说话人识别的语音配置文件类 |
| VoiceProfileCancellationDetails | |
| VoiceProfileClient |
为语音配置文件作(例如 createProfile,deleteProfile)的用户定义语音识别句柄作的 VoiceProfileClient 类 |
| VoiceProfileEnrollmentCancellationDetails | |
| VoiceProfileEnrollmentResult |
输出格式 |
| VoiceProfilePhraseResult |
输出格式 |
| VoiceProfileResult |
输出格式 |
接口
| CancellationEventArgs | |
| ConversationInfo | |
| IParticipant |
表示对话中的参与者。 在版本 1.4.0 中添加 |
| IPlayer |
表示用于控制音频播放的音频播放器接口,例如暂停、恢复等。 |
| IVoiceJson | |
| MeetingInfo | |
| VoiceSignature | |
枚举
| AudioFormatTag | |
| CancellationErrorCode |
定义 CancellationReason 为 Error 的错误代码。 已在版本 1.1.0 中添加。 |
| CancellationReason |
定义可能取消识别结果的原因。 |
| LanguageIdMode |
语言识别模式 |
| LogLevel | |
| NoMatchReason |
定义无法识别识别结果的可能原因。 |
| OutputFormat |
定义语音识别器输出格式。 |
| ParticipantChangedReason | |
| ProfanityOption |
不雅内容选项。 在版本 1.7.0 中添加。 |
| PronunciationAssessmentGradingSystem |
定义发音分数校准的点系统;默认值为 FivePoint。 在版本 1.15.0 中添加 |
| PronunciationAssessmentGranularity |
定义发音评估粒度;默认值为 Phoneme。 在版本 1.15.0 中添加 |
| PropertyId |
定义语音属性 ID。 |
| ResultReason |
定义可能生成识别结果的可能原因。 |
| ServicePropertyChannel |
定义用于将属性设置传递给服务的通道。 在版本 1.7.0 中添加。 |
| SpeakerRecognitionResultType | |
| SpeechSynthesisBoundaryType |
定义语音合成边界事件的边界类型。 |
| SpeechSynthesisOutputFormat |
定义语音合成音频输出格式。 SpeechSynthesisOutputFormat 已在版本 1.17.0 中更新 |
| SynthesisVoiceGender |
定义合成语音的性别。 在版本 1.20.0 中添加。 |
| SynthesisVoiceType | |
| VoiceProfileType |
输出格式 |