语言:
- 英语
库名称: nemo
数据集:
- librispeech_asr
- fisher_corpus
- Switchboard-1
- WSJ-0
- WSJ-1
- National-Singapore-Corpus-Part-1
- National-Singapore-Corpus-Part-6
- vctk
- VoxPopuli
- Europarl-ASR
- Multilingual-LibriSpeech
- mozilla-foundation/common_voice_8_0
- MLCommons/peoples_speech
缩略图: null
标签:
- 自动语音识别
- 语音
- 音频
- 转换器
- 康福默
- 变压器
- pytorch
- NeMo
- hf-asr-leaderboard
许可证: cc-by-4.0
小部件:
- 示例标题: Librispeech 样本 1
来源: https://cdn-media.huggingface.co/speech_samples/sample1.flac
- 示例标题: Librispeech 样本 2
来源: https://cdn-media.huggingface.co/speech_samples/sample2.flac
模型索引:
- 名称: stt_en_conformer_transducer_xlarge
结果:
- 任务:
名称: 自动语音识别
类型: automatic-speech-recognition
数据集:
名称: LibriSpeech (干净)
类型: librispeech_asr
配置: clean
分割: test
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 1.62
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: LibriSpeech (其他)
类型: librispeech_asr
配置: other
分割: test
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 3.01
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: 多语言 LibriSpeech
类型: facebook/multilingual_librispeech
配置: english
分割: test
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 5.32
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: Mozilla Common Voice 7.0
类型: mozilla-foundation/common_voice_7_0
配置: en
分割: test
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 5.13
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: Mozilla Common Voice 8.0
类型: mozilla-foundation/common_voice_8_0
配置: en
分割: test
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 6.46
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: 华尔街日报 92
类型: wsj_0
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 1.17
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: 华尔街日报 93
类型: wsj_1
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 2.05
- 任务:
类型: 自动语音识别
名称: automatic-speech-recognition
数据集:
名称: 新加坡国家语料库
类型: nsc_part_1
参数:
语言: en
指标:
- 名称: 测试 WER
类型: wer
值: 5.7
NVIDIA Conformer-Transducer X-Large (en-US)
|
|
| 
该模型将语音转录为小写英文字母,包括空格和撇号。
它是Conformer-Transducer模型的"超大"版本(约6亿参数)。
有关完整的架构细节,请参阅模型架构部分和NeMo文档。
NVIDIA NeMo:训练
要训练、微调或使用该模型,您需要安装NVIDIA NeMo。建议在安装最新版本的PyTorch后安装它。
pip install nemo_toolkit['all']
'''
'''
(如果出现错误):
pip install nemo_toolkit[all]
如何使用该模型
该模型可在NeMo工具包[3]中使用,并可作为预训练检查点用于推理或在另一个数据集上进行微调。
自动实例化模型
import nemo.collections.asr as nemo_asr
asr_model = nemo_asr.models.EncDecRNNTBPEModel.from_pretrained("nvidia/stt_en_conformer_transducer_xlarge")
使用Python进行转录
首先,获取一个样本
wget https://dldata-public.s3.us-east-2.amazonaws.com/2086-149220-0033.wav
然后简单地执行:
output = asr_model.transcribe(['2086-149220-0033.wav'])
print(output[0].text)
转录多个音频文件
python [NEMO_GIT_FOLDER]/examples/asr/transcribe_speech.py
pretrained_name="nvidia/stt_en_conformer_transducer_xlarge"
audio_dir="<包含音频文件的目录>"
输入
该模型接受16KHz单声道音频(wav文件)作为输入。
输出
该模型为给定的音频样本提供转录后的语音字符串。
模型架构
Conformer-Transducer模型是Conformer模型[1]的自回归变体,用于自动语音识别,使用转换器损失/解码而不是CTC损失。您可以在此处找到有关该模型更多详细信息:Conformer-Transducer模型。
训练
NeMo工具包[3]用于训练这些模型超过数百个epoch。这些模型使用此示例脚本和此基础配置进行训练。
这些模型的分词器使用训练集的文本转录本构建,使用此脚本。
数据集
该集合中的所有模型都在一个复合数据集(NeMo ASRSET)上进行训练,该数据集包含数千小时的英语语音:
- Librispeech 960小时的英语语音
- Fisher Corpus
- Switchboard-1数据集
- WSJ-0和WSJ-1
- 国家语音语料库(第1部分,第6部分)
- VCTK
- VoxPopuli (EN)
- Europarl-ASR (EN)
- 多语言Librispeech (MLS EN) - 2000小时子集
- Mozilla Common Voice (v8.0)
- People's Speech - 12000小时子集
注意:旧版本的模型可能在较小的数据集上训练。
性能
下表显示了该集合中可用模型的列表。ASR模型的性能以贪婪解码的词错误率(WER%)报告。
版本 |
分词器 |
词汇量 |
LS test-other |
LS test-clean |
WSJ Eval92 |
WSJ Dev93 |
NSC Part 1 |
MLS Test |
MLS Dev |
MCV Test 8.0 |
训练数据集 |
1.10.0 |
SentencePiece Unigram |
1024 |
3.01 |
1.62 |
1.17 |
2.05 |
5.70 |
5.32 |
4.59 |
6.46 |
NeMo ASRSET 3.0 |
限制
由于该模型是在公开可用的语音数据集上训练的,对于包含技术术语或模型未训练过的方言的语音,该模型的性能可能会下降。对于有口音的语音,该模型的性能也可能较差。
NVIDIA Riva:部署
NVIDIA Riva,是一个加速的语音AI SDK,可部署在本地、所有云、多云、混合、边缘和嵌入式设备上。
此外,Riva提供:
- 世界级的开箱即用准确性,针对最常见语言的模型检查点,使用专有数据和数十万GPU计算小时训练
- 最佳准确性,具有运行时词增强(例如品牌和产品名称)以及声学模型、语言模型和逆文本归一化的自定义
- 流式语音识别、Kubernetes兼容的扩展和企业级支持
尽管Riva尚未支持该模型,但支持的模型列表在此。
查看Riva实时演示。
参考文献
[1] Conformer: Convolution-augmented Transformer for Speech Recognition
[2] Google Sentencepiece Tokenizer
[3] NVIDIA NeMo Toolkit
许可证
使用该模型的许可证涵盖CC-BY-4.0。通过下载该模型的公共和发布版本,您接受CC-BY-4.0许可证的条款和条件。