语言:
- as
许可证: apache-2.0
标签:
- 自动语音识别
- hf-asr-leaderboard
- 鲁棒语音事件
数据集:
- mozilla-foundation/common_voice_7_0
评估指标:
- 词错误率(WER)
模型索引:
- 名称: wav2vec2-large-xls-r-300m-as
结果:
- 任务:
类型: 自动语音识别
名称: 语音识别
数据集:
类型: mozilla-foundation/common_voice_7_0
名称: Common Voice 7
参数: as
指标:
- 类型: 词错误率(WER)
值: 56.995
名称: 测试集词错误率
- 名称: 测试集字错误率(CER)
类型: 字错误率(CER)
值: 20.39
wav2vec2-large-xls-r-300m-as
本模型是基于facebook/wav2vec2-xls-r-300m在common_voice数据集上微调的版本。在评估集上取得以下结果:
模型描述
需补充更多信息
用途与限制
需补充更多信息
训练与评估数据
需补充更多信息
训练流程
训练超参数
训练过程中使用的超参数如下:
- 学习率: 0.0003
- 训练批次大小: 16
- 评估批次大小: 8
- 随机种子: 42
- 梯度累积步数: 2
- 总训练批次大小: 32
- 优化器: Adam(β1=0.9,β2=0.999,ε=1e-08)
- 学习率调度器类型: 线性
- 学习率预热比例: 0.12
- 训练轮数: 240
训练结果
训练损失 |
训练轮数 |
步数 |
验证损失 |
词错误率 |
5.7027 |
21.05 |
400 |
3.4157 |
1.0 |
1.1638 |
42.1 |
800 |
1.3498 |
0.7461 |
0.2266 |
63.15 |
1200 |
1.6147 |
0.7273 |
0.1473 |
84.21 |
1600 |
1.6649 |
0.7108 |
0.1043 |
105.26 |
2000 |
1.7691 |
0.7090 |
0.0779 |
126.31 |
2400 |
1.8300 |
0.7009 |
0.0613 |
147.36 |
2800 |
1.8681 |
0.6916 |
0.0471 |
168.41 |
3200 |
1.8567 |
0.6875 |
0.0343 |
189.46 |
3600 |
1.9054 |
0.6840 |
0.0265 |
210.51 |
4000 |
1.9020 |
0.6786 |
0.0219 |
231.56 |
4400 |
1.9068 |
0.6679 |
框架版本
- Transformers 4.16.0
- Pytorch 1.10.0+cu111
- Datasets 1.17.0
- Tokenizers 0.10.3
评估命令
- 在
mozilla-foundation/common_voice_7_0
数据集的test
分割上进行评估:
python eval.py --model_id anuragshas/wav2vec2-large-xls-r-300m-as --dataset mozilla-foundation/common_voice_7_0 --config as --split test
结合语言模型的推理
import torch
from datasets import load_dataset
from transformers import AutoModelForCTC, AutoProcessor
import torchaudio.functional as F
model_id = "anuragshas/wav2vec2-large-xls-r-300m-as"
sample_iter = iter(load_dataset("mozilla-foundation/common_voice_7_0", "as", split="test", streaming=True, use_auth_token=True))
sample = next(sample_iter)
resampled_audio = F.resample(torch.tensor(sample["audio"]["array"]), 48_000, 16_000).numpy()
model = AutoModelForCTC.from_pretrained(model_id)
processor = AutoProcessor.from_pretrained(model_id)
input_values = processor(resampled_audio, return_tensors="pt").input_values
with torch.no_grad():
logits = model(input_values).logits
transcription = processor.batch_decode(logits.numpy()).text
Common Voice 7测试集评估结果(词错误率):
不使用语言模型 |
使用语言模型(运行./eval.py ) |
67 |
56.995 |