语言:
- 加泰罗尼亚语(ca)
许可证: Apache-2.0
标签:
- 自动语音识别
- collectivat/tv3_parla
- 基于训练生成
- hf-asr排行榜
- mozilla-foundation/common_voice_8_0
- projecte-aina/parlament_parla
- 鲁棒语音赛事
数据集:
- mozilla-foundation/common_voice_8_0
- collectivat/tv3_parla
- projecte-aina/parlament_parla
模型索引:
- 名称: wav2vec2-xls-r-300m-ca
结果:
- 任务:
名称: 语音识别
类型: 自动语音识别
数据集:
名称: mozilla-foundation/common_voice_8_0 ca
类型: mozilla-foundation/common_voice_8_0
参数: ca
指标:
- 名称: 测试WER
类型: wer
值: 13.170091241317552
- 名称: 测试CER
类型: cer
值: 3.356726205534543
- 任务:
名称: 语音识别
类型: 自动语音识别
数据集:
名称: projecte-aina/parlament_parla ca
类型: projecte-aina/parlament_parla
参数: clean
指标:
- 名称: 测试WER
类型: wer
值: 8.048005647723261
- 名称: 测试CER
类型: cer
值: 2.240912911020065
- 任务:
名称: 语音识别
类型: 自动语音识别
数据集:
名称: collectivat/tv3_parla ca
类型: collectivat/tv3_parla
参数: ca
指标:
- 名称: 测试WER
类型: wer
值: 23.320629787889285
- 名称: 测试CER
类型: cer
值: 10.439216202089989
- 任务:
名称: 语音识别
类型: 自动语音识别
数据集:
名称: speech-recognition-community-v2/dev_data ca
类型: speech-recognition-community-v2/dev_data
参数: ca
指标:
- 名称: 测试WER
类型: wer
值: 31.99671115046487
- 名称: 测试CER
类型: cer
值: 15.820020687277325
- 任务:
名称: 自动语音识别
类型: 自动语音识别
数据集:
名称: 鲁棒语音赛事-测试数据
类型: speech-recognition-community-v2/eval_data
参数: ca
指标:
- 名称: 测试WER
类型: wer
值: 22.04
wav2vec2-xls-r-300m-ca加泰罗尼亚语语音识别模型
该模型是基于facebook/wav2vec2-xls-r-300m在MOZILLA-FOUNDATION/COMMON_VOICE_8_0 - CA、tv3_parla和parlament_parla数据集上微调的版本。在评估集上取得以下结果(针对三个数据集):
- 损失值: 0.2472
- 词错误率(WER): 0.1499
模型描述
请查看原始facebook/wav2vec2-xls-r-1b模型卡片。本模型仅是该模型的微调版本。
使用范围与限制
与任何基于众包数据训练的模型一样,本模型可能反映出训练数据和所用模型的偏见与特性。此外,作为语音识别模型,对于加泰罗尼亚语某些资源较少的方言可能表现欠佳。
训练与评估数据
需要更多信息
训练流程
数据经过预处理移除了加泰罗尼亚字母表以外的字符。同时使用@ccoreilly提供的代码将数字转换为文字形式,代码可在text/文件夹或此处找到。
训练超参数
训练过程中使用以下超参数:
- 学习率: 7.5e-05
- 训练批次大小: 32
- 评估批次大小: 32
- 随机种子: 42
- 梯度累积步数: 4
- 总训练批次大小: 128
- 优化器: 带betas=(0.9,0.999)和epsilon=1e-08的Adam
- 学习率调度器类型: 线性
- 学习率预热步数: 2000
- 训练轮数: 18.0
- 混合精度训练: 原生AMP
训练结果
查看Tensorboard选项卡可了解训练过程曲线和评估结果。模型在训练过程中使用的每个数据集的测试集上都进行了评估。
(此处省略了训练损失与评估指标的详细表格)
框架版本
- Transformers 4.16.0.dev0
- Pytorch 1.10.1+cu102
- Datasets 1.18.3
- Tokenizers 0.11.0
致谢
特别感谢@ccoreilly和@gullabi贡献他们的资源和知识,使这个模型的实现成为可能。