语言:
- 俄语
库名称: nemo
数据集:
- mozilla-foundation/common_voice_12_0
- SberDevices/Golos
- Russian-LibriSpeech
- SOVA-Dataset
- Dusha-Dataset
缩略图: null
标签:
- 自动语音识别
- 语音
- 音频
- 转换器
- FastConformer
- CTC
- 变压器
- pytorch
- NeMo
- hf-asr-leaderboard
许可证: cc-by-4.0
模型索引:
- 名称: stt_ru_fastconformer_hybrid_large_pc
结果:
- 任务:
名称: 自动语音识别
类型: automatic-speech-recognition
数据集:
名称: common-voice-12-0
类型: mozilla-foundation/common_voice_12_0
配置: ru
分割: test
参数:
语言: ru
指标:
- 名称: 测试 WER
类型: wer
值: 5.3
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: Sberdevices Golos (crowd)
类型: SberDevices/Golos
配置: crowd
分割: test
参数:
语言: ru
指标:
- 名称: 测试 WER
类型: wer
值: 1.9
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: Sberdevices Golos (farfield)
类型: SberDevices/Golos
配置: farfield
分割: test
参数:
语言: ru
指标:
- 名称: 测试 WER
类型: wer
值: 5.76
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: Russian LibriSpeech
类型: RuLS
配置: ru
分割: test
参数:
语言: ru
指标:
- 名称: 测试 WER
类型: wer
值: 11.05
- 任务:
名称: 自动语音识别
类型: automatic-speech-recognition
数据集:
名称: common-voice-12-0
类型: mozilla-foundation/common_voice_12_0
配置: Russian P&C
分割: test
参数:
语言: ru
指标:
- 名称: 测试 WER P&C
类型: wer
值: 7.3
NVIDIA FastConformer-Hybrid 大型(俄语)
|
|
| 
该模型转录包含大小写俄文字母、空格、句号、逗号和问号的语音。它是FastConformer Transducer-CTC(约1.15亿参数)模型的“大型”版本。这是一个在两种损失上训练的混合模型:Transducer(默认)和CTC。有关完整的架构细节,请参阅模型架构部分和NeMo文档。
NVIDIA NeMo:训练
要训练、微调或使用该模型,您需要安装NVIDIA NeMo。建议在安装最新版本的Pytorch后安装它。
pip install nemo_toolkit['all']
如何使用该模型
该模型可在NeMo工具包[3]中使用,并可作为预训练检查点用于推理或在另一个数据集上进行微调。
自动实例化模型
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecHybridRNNTCTCBPEModel.from_pretrained(model_name="nvidia/stt_ru_fastconformer_hybrid_large_pc")
使用Python转录
首先,获取一个样本
wget https://dldata-public.s3.us-east-2.amazonaws.com/2086-149220-0033.wav
然后简单执行:
output = asr_model.transcribe(['2086-149220-0033.wav'])
print(output[0].text)
转录多个音频文件
使用Transducer模式推理:
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_ru_fastconformer_hybrid_large_pc"
audio_dir="<包含音频文件的目录>"
使用CTC模式推理:
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_ru_fastconformer_hybrid_large_pc"
audio_dir="<包含音频文件的目录>"
decoder_type="ctc"
输入
该模型接受16kHz单声道音频(wav文件)作为输入。
输出
该模型为给定的音频样本提供转录后的语音字符串。
模型架构
FastConformer [1]是Conformer模型的优化版本,具有8倍深度可分离卷积下采样。该模型在多任务设置中训练,结合了Transducer和CTC解码器损失。您可以在此处找到有关FastConformer的更多详细信息:Fast-Conformer模型以及关于混合Transducer-CTC训练的信息:混合Transducer-CTC。
训练
NeMo工具包[3]用于训练模型数百个epoch。这些模型使用此示例脚本和此基础配置进行训练。
这些模型的分词器使用训练集的文本转录本构建,使用此脚本。
数据集
本集合中的所有模型都在一个包含1840小时俄语语音的复合数据集(NeMo PnC ASRSET)上训练:
- Golos(1200小时)
- Sova(310小时)
- Dusha(200小时)
- RULS(92.5小时)
- MCV12(36.7小时)
性能
自动语音识别模型的性能使用词错误率来衡量。由于该模型在多个领域和更大的语料库上训练,通常在转录一般音频时表现更好。
下表总结了本集合中可用模型在使用Transducer解码器时的性能。ASR模型的性能以贪婪解码的词错误率(WER%)报告。
a) 在不带标点和大小写的数据上使用Transducer解码器
版本 |
分词器 |
词汇量 |
MCV12 DEV |
MCV12 TEST |
RULS DEV |
RULS TEST |
GOLOS TEST FARFIELD |
GOLOS TEST CROWD |
DUSHA TEST |
1.18.0 |
SentencePiece Unigram |
1024 |
4.4 |
5.3 |
11.04 |
11.05 |
5.76 |
1.9 |
4.01 |
b) 在带标点和大小写的数据上使用Transducer解码器
版本 |
分词器 |
词汇量 |
MCV12 DEV |
MCV12 TEST |
RULS DEV |
RULS TEST |
1.18.0 |
SentencePiece Unigram |
1024 |
6.14 |
7.3 |
26.78 |
30.81 |
限制
由于该模型是在公开可用的语音数据集上训练的,对于包含技术术语或模型未训练过的方言的语音,其性能可能会下降。对于带有口音的语音,模型的表现也可能较差。该模型仅输出标点符号:'.', ',', '?'
,因此在需要其他标点符号的场景中可能表现不佳。
NVIDIA Riva:部署
NVIDIA Riva,是一个可加速的语音AI SDK,可部署在本地、所有云、多云、混合云、边缘和嵌入式设备上。
此外,Riva提供:
- 世界级的开箱即用准确性,针对最常见语言,模型检查点在专有数据上训练,耗费数十万GPU计算小时
- 最佳准确性,具有运行时词增强(例如品牌和产品名称)以及声学模型、语言模型和逆文本归一化的定制
- 流式语音识别、Kubernetes兼容的扩展和企业级支持
尽管Riva尚未支持此模型,但支持的模型列表在此。
查看Riva实时演示。
参考文献
[1] Fast Conformer with Linearly Scalable Attention for Efficient Speech Recognition
[2] Google Sentencepiece Tokenizer
[3] NVIDIA NeMo Toolkit
许可证
使用该模型的许可证涵盖CC-BY-4.0。通过下载该模型的公共和发布版本,您接受CC-BY-4.0许可证的条款和条件。