基础模型: facebook/w2v-bert-2.0
许可证: mit
评估指标:
模型索引:
- 名称: W2V2-BERT-withLM-马拉雅拉姆语 (由Bajiyo Baiju, Kavya Manohar开发)
成果:
- 任务:
类型: 自动语音识别
名称: 自动语音识别
数据集:
名称: OpenSLR马拉雅拉姆语-测试集
类型: vrclc/openslr63
配置: ml
拆分: test
参数: ml
指标:
- 类型: wer
值: 18.23
名称: 词错误率
- 任务:
类型: 自动语音识别
名称: 自动语音识别
数据集:
名称: Google Fleurs
类型: google/fleurs
配置: ml
拆分: test
参数: ml
指标:
- 类型: wer
值: 31.92
名称: 词错误率
- 任务:
类型: 自动语音识别
名称: 自动语音识别
数据集:
名称: Mozilla Common Voice
类型: mozilla-foundation/common_voice_16_1
配置: ml
拆分: test
参数: ml
指标:
- 类型: wer
值: 49.79
名称: 词错误率
数据集:
- vrclc/festvox-iiith-ml
- vrclc/openslr63
- vrclc/imasc_slr
- mozilla-foundation/common_voice_17_0
- smcproject/MSC
- kavyamanohar/ml-sentences
- thennal/IMaSC
语言:
管道标签: 自动语音识别
W2V2-BERT-withLM-马拉雅拉姆语
本模型是基于facebook/w2v-bert-2.0在IMaSC、MSC、OpenSLR马拉雅拉姆语训练集、Festvox马拉雅拉姆语、CV16等数据集上微调得到的版本。
在验证集OpenSLR-测试集上取得以下结果:
使用KENLM库在kavyamanohar/ml-sentences数据集上训练的三元语言模型
模型描述
需补充更多信息
使用范围与限制
需补充更多信息
训练与评估数据
需补充更多信息
训练过程
训练超参数
训练过程中使用以下超参数:
- 学习率: 5e-05
- 训练批次大小: 16
- 评估批次大小: 8
- 随机种子: 42
- 梯度累积步数: 2
- 总训练批次大小: 32
- 优化器: 带betas=(0.9,0.999)和epsilon=1e-08的Adam
- 学习率调度器类型: 线性
- 学习率预热步数: 500
- 训练轮次: 10
- 混合精度训练: 原生AMP
训练结果
训练损失 |
训练轮次 |
步数 |
验证损失 |
词错误率 |
1.1416 |
0.46 |
600 |
0.3393 |
0.4616 |
0.1734 |
0.92 |
1200 |
0.2414 |
0.3493 |
0.1254 |
1.38 |
1800 |
0.2205 |
0.2963 |
0.1097 |
1.84 |
2400 |
0.2157 |
0.3133 |
0.0923 |
2.3 |
3000 |
0.1854 |
0.2473 |
0.0792 |
2.76 |
3600 |
0.1939 |
0.2471 |
0.0696 |
3.22 |
4200 |
0.1720 |
0.2282 |
0.0589 |
3.68 |
4800 |
0.1768 |
0.2013 |
0.0552 |
4.14 |
5400 |
0.1635 |
0.1864 |
0.0437 |
4.6 |
6000 |
0.1501 |
0.1826 |
0.0408 |
5.06 |
6600 |
0.1500 |
0.1645 |
0.0314 |
5.52 |
7200 |
0.1559 |
0.1655 |
0.0317 |
5.98 |
7800 |
0.1448 |
0.1553 |
0.022 |
6.44 |
8400 |
0.1592 |
0.1590 |
0.0218 |
6.9 |
9000 |
0.1431 |
0.1458 |
0.0154 |
7.36 |
9600 |
0.1514 |
0.1366 |
0.0141 |
7.82 |
10200 |
0.1540 |
0.1383 |
0.0113 |
8.28 |
10800 |
0.1558 |
0.1391 |
0.0085 |
8.74 |
11400 |
0.1612 |
0.1356 |
0.0072 |
9.2 |
12000 |
0.1697 |
0.1289 |
0.0046 |
9.66 |
12600 |
0.1722 |
0.1299 |
框架版本
- Transformers 4.39.3
- Pytorch 2.1.1+cu121
- Datasets 2.16.1
- Tokenizers 0.15.1