语言:
- 日语
许可证: apache-2.0
标签:
- 自动语音识别
- 训练生成
- hf-asr排行榜
- 日语
- mozilla-foundation/common_voice_8_0
- 鲁棒语音事件
数据集:
- mozilla-foundation/common_voice_8_0
模型索引:
- 名称: XLS-R-300M - 日语
结果:
- 任务:
名称: 自动语音识别
类型: automatic-speech-recognition
数据集:
名称: Common Voice 8
类型: mozilla-foundation/common_voice_8_0
参数: ja
指标:
- 名称: 测试WER
类型: wer
值: 54.05
- 名称: 测试CER
类型: cer
值: 27.54
- 任务:
名称: 自动语音识别
类型: automatic-speech-recognition
数据集:
名称: 鲁棒语音事件 - 开发数据
类型: speech-recognition-community-v2/dev_data
参数: ja
指标:
- 名称: 验证WER
类型: wer
值: 48.77
- 名称: 验证CER
类型: cer
值: 24.87
- 任务:
名称: 自动语音识别
类型: automatic-speech-recognition
数据集:
名称: 鲁棒语音事件 - 测试数据
类型: speech-recognition-community-v2/eval_data
参数: ja
指标:
- 名称: 测试CER
类型: cer
值: 27.36
该模型用于将音频转录为日语平假名。
此模型是在mozilla-foundation/common_voice_8_0
数据集上微调的facebook/wav2vec2-xls-r-300m版本。请注意,以下结果是通过以下方式实现的:
在评估集上取得了以下结果:
评估结果(运行./eval.py):
模型 |
指标 |
Common-Voice-8/test |
speech-recognition-community-v2/dev-data |
无LM |
WER |
0.5964 |
0.5532 |
|
CER |
0.2944 |
0.2629 |
有LM |
WER |
0.5405 |
0.4877 |
|
CER |
0.2754 |
0.2487 |
模型描述
需要更多信息
预期用途与限制
需要更多信息
训练与评估数据
需要更多信息
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率: 5e-05
- 训练批次大小: 8
- 评估批次大小: 8
- 随机种子: 42
- 梯度累积步数: 4
- 总训练批次大小: 32
- 优化器: Adam,参数为betas=(0.9,0.999)和epsilon=1e-08
- 学习率调度器类型: 线性
- 学习率预热步数: 1000
- 训练步数: 4000
- 混合精度训练: Native AMP
训练结果
训练损失 |
周期 |
步数 |
验证损失 |
CER |
4.4081 |
1.6 |
500 |
4.0983 |
1.0 |
3.303 |
3.19 |
1000 |
3.3563 |
1.0 |
3.1538 |
4.79 |
1500 |
3.2066 |
0.9239 |
2.1526 |
6.39 |
2000 |
1.1597 |
0.3355 |
1.8726 |
7.98 |
2500 |
0.9023 |
0.2505 |
1.7817 |
9.58 |
3000 |
0.8219 |
0.2334 |
1.7488 |
11.18 |
3500 |
0.7915 |
0.2222 |
1.7039 |
12.78 |
4000 |
0.7751 |
0.2227 |
停止并训练 |
|
|
|
|
1.6571 |
15.97 |
5000 |
0.6788 |
0.1685 |
1.520400 |
19.16 |
6000 |
0.6095 |
0.1409 |
1.448200 |
22.35 |
7000 |
0.5843 |
0.1430 |
1.385400 |
25.54 |
8000 |
0.5699 |
0.1263 |
1.354200 |
28.73 |
9000 |
0.5686 |
0.1219 |
1.331500 |
31.92 |
10000 |
0.5502 |
0.1144 |
1.290800 |
35.11 |
11000 |
0.5371 |
0.1140 |
停止并训练 |
|
|
|
|
1.235200 |
38.30 |
12000 |
0.5394 |
0.1106 |
框架版本
- Transformers 4.17.0.dev0
- Pytorch 1.10.2+cu102
- Datasets 1.18.2.dev0
- Tokenizers 0.11.0