语言: "中文"
缩略图:
标签:
- 自动语音识别
- CTC
- 注意力机制
- 变换器
- PyTorch
- SpeechBrain
许可证: "Apache-2.0"
数据集:
- AISHELL
评估指标:
- 词错误率(WER)
- 字错误率(CER)
AISHELL普通话Transformer模型
本仓库提供了一套完整的工具,用于基于SpeechBrain框架预训练的AISHELL(普通话)端到端自动语音识别系统。为了更好地使用体验,我们建议您了解更多关于SpeechBrain的信息。
模型性能如下:
发布时间 |
开发集CER |
测试集CER |
使用GPU |
完整结果 |
2021-03-05 |
5.60% |
6.04% |
2×V100 32GB |
谷歌云盘 |
系统架构说明
该ASR系统由两个相互关联的模块组成:
- 基于unigram算法的分词器,将词语转换为子词单元,使用LibriSpeech训练文本训练
- 声学模型采用Transformer编码器+联合解码器结构(CTC+Transformer),解码过程会融合CTC概率得分
如需从头训练该系统,请参考我们的SpeechBrain训练配方。
系统训练使用16kHz单通道音频。当调用transcribe_file方法时,代码会自动对输入音频进行标准化处理(包括重采样和单声道选择)。
安装SpeechBrain
首先使用以下命令安装SpeechBrain:
pip install speechbrain
建议您阅读我们的教程以了解更多关于SpeechBrain的信息。
中文音频文件转录示例
from speechbrain.inference.ASR import EncoderDecoderASR
asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-transformer-aishell", savedir="pretrained_models/asr-transformer-aishell")
asr_model.transcribe_file("speechbrain/asr-transformer-aishell/example_mandarin2.flac")
GPU推理
如需使用GPU推理,在调用from_hparams
方法时添加run_opts={"device":"cuda"}
参数。
批量并行推理
请参考此Colab笔记本了解如何使用预训练模型并行转录多个输入语句。
训练流程
该模型使用SpeechBrain(提交哈希:'986a2175')训练。从头训练步骤如下:
- 克隆仓库:
git clone https://github.com/speechbrain/speechbrain/
- 安装依赖:
cd speechbrain
pip install -r requirements.txt
pip install -e .
- 开始训练:
cd recipes/AISHELL-1/ASR/transformer/
python train.py hparams/train_ASR_transformer.yaml --data_folder=您的数据目录
训练结果(模型、日志等)可在此处获取。
局限性
SpeechBrain团队不保证该模型在其他数据集上的表现。
关于SpeechBrain
- 官网:https://speechbrain.github.io/
- 代码库:https://github.com/speechbrain/speechbrain/
- HuggingFace主页:https://huggingface.co/speechbrain/
引用SpeechBrain
如果您在研究中使用了SpeechBrain,请引用我们的工作。
@misc{speechbrain,
title={{SpeechBrain}: A General-Purpose Speech Toolkit},
author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
year={2021},
eprint={2106.04624},
archivePrefix={arXiv},
primaryClass={eess.AS},
note={arXiv:2106.04624}
}