语言: "英文"
缩略图:
标签:
- 自动语音识别
- CTC
- 注意力机制
- 变换器
- wav2vec2
- PyTorch
- SpeechBrain
许可证: "Apache-2.0"
数据集:
- AISHELL
指标:
- 词错误率(WER)
- 字错误率(CER)
基于AISHELL+wav2vec2的Transformer模型(普通话)
本仓库提供了一套完整的端到端工具,用于在SpeechBrain框架下执行基于AISHELL+wav2vec2(普通话)预训练的自动语音识别任务。为了获得更好的体验,我们建议您深入了解SpeechBrain。
该模型的性能如下:
发布版本 |
开发集CER |
测试集CER |
使用GPU |
完整结果 |
2021-05-03 |
5.19% |
5.58% |
2块V100 32GB |
谷歌云盘 |
流程说明
该ASR系统由两个相互关联的模块组成:
- 分词器(unigram):将词语转换为子词单元,使用LibriSpeech训练文本进行训练。
- 声学模型:由wav2vec2编码器和CTC+变换器的联合解码器构成,解码过程会结合CTC概率。
如需从头训练该系统,请参考我们的SpeechBrain配方。
系统训练使用的录音采样率为16kHz(单声道)。调用transcribe_file时,代码会自动对音频进行标准化处理(如重采样和单声道选择)。
安装SpeechBrain
首先,请使用以下命令安装SpeechBrain:
pip install speechbrain
请注意,我们建议您阅读我们的教程以了解更多关于SpeechBrain的信息。
转录您自己的音频文件(普通话)
from speechbrain.inference.ASR import EncoderDecoderASR
asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-wav2vec2-transformer-aishell", savedir="pretrained_models/asr-wav2vec2-transformer-aishell")
asr_model.transcribe_file("speechbrain/asr-wav2vec2-transformer-aishell/example_mandarin.wav")
GPU推理
要在GPU上进行推理,请在调用from_hparams
方法时添加run_opts={"device":"cuda"}
参数。
批量并行推理
请参考此Colab笔记本了解如何使用预训练模型并行转录一批输入句子。
训练
该模型使用SpeechBrain(提交哈希:'480dde87')训练。从头开始训练的步骤如下:
- 克隆SpeechBrain:
git clone https://github.com/speechbrain/speechbrain/
- 安装:
cd speechbrain
pip install -r requirements.txt
pip install -e .
- 运行训练:
cd recipes/AISHELL-1/ASR/transformer/
python train.py hparams/train_ASR_transformer_with_wav2vect.yaml --data_folder=your_data_folder
您可以在此处找到我们的训练结果(模型、日志等)。
局限性
SpeechBrain团队不对该模型在其他数据集上的性能提供任何保证。
关于SpeechBrain
- 官网: https://speechbrain.github.io/
- 代码: https://github.com/speechbrain/speechbrain/
- HuggingFace: https://huggingface.co/speechbrain/
引用SpeechBrain
如果您在研究中使用了SpeechBrain,请引用我们。
@misc{speechbrain,
title={{SpeechBrain}: A General-Purpose Speech Toolkit},
author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
year={2021},
eprint={2106.04624},
archivePrefix={arXiv},
primaryClass={eess.AS},
note={arXiv:2106.04624}
}