借助自定义语音,可以使用自定义模型实时语音转文本、语音翻译和批量听录来增强应用程序的语音识别准确性。
使用自己的数据微调 Azure AI 语音基础模型,创建自定义语音模型。 可以上传数据、测试和训练自定义模型、比较模型之间的准确性,以及将模型部署到自定义终结点。
本文介绍如何使用微调创建自定义语音模型。 有关自定义语音的详细信息,请参阅 自定义语音概述 文档。
开始微调
自定义语音微调包括模型、训练和测试数据集以及部署终结点。 每个项目特定于 区域设置。 例如,你可以微调美国英语。
创建自定义语音项目后,可以从 “自定义语音 ”页访问自定义语音模型和部署。
登录到 Speech Studio。
选择要处理的订阅和语音资源。
重要
如果使用音频数据训练自定义模型,请在具有专用硬件的区域中选择服务资源来训练音频数据。 有关详细信息,请参阅 区域表中的 脚注。
选择 “自定义语音>创建新项目”。
按照向导提供的说明创建项目。
按名称选择新项目,或选择“ 转到项目”。 然后,应在左侧面板中看到这些菜单项: 语音数据集、 训练自定义模型、 测试模型和 部署模型。
获取 REST API 的项目 ID
将语音转文本 REST API 用于自定义语音时,需要将 project
属性设置为自定义语音项目的 ID。 需要设置属性 project
,以便可以在 Speech Studio 中管理微调。
若要在 Speech Studio 中获取自定义语音项目的项目 ID,请执行以下作:
登录到 Speech Studio 并选择 “自定义语音 ”磁贴。
选择自定义语音项目。
检查浏览器中的 URL。 项目 ID 是 URL 的一部分。 例如,项目 ID 位于
00001111-aaaa-2222-bbbb-3333cccc4444
以下 URL 中:https://speech.azure.cn/portal/<Your-Resource-ID>/customspeech/a0a0a0a0-bbbb-cccc-dddd-e1e1e1e1e1e1