语言:
许可证:
标签:
- 自动语音识别
- Mozilla基金会/common_voice_8_0
- 鲁棒语音事件
- XLSR微调周
- HF-ASR排行榜
数据集:
模型索引:
- 名称:Slovak comodoro Wav2Vec2 XLSR 300M CV8
结果:
- 任务:
名称:自动语音识别
类型:automatic-speech-recognition
数据集:
名称:Common Voice 8
类型:mozilla-foundation/common_voice_8_0
参数:sk
指标:
- 名称:测试WER
类型:wer
值:49.6
- 名称:测试CER
类型:cer
值:13.3
- 任务:
名称:自动语音识别
类型:automatic-speech-recognition
数据集:
名称:鲁棒语音事件 - 开发数据
类型:speech-recognition-community-v2/dev_data
参数:sk
指标:
- 任务:
名称:自动语音识别
类型:automatic-speech-recognition
数据集:
名称:鲁棒语音事件 - 测试数据
类型:speech-recognition-community-v2/eval_data
参数:sk
指标:
wav2vec2-xls-r-300m-cs-cv8
该模型是基于facebook/wav2vec2-xls-r-300m在common_voice 8.0数据集上微调的版本。
在评估集上取得如下结果:
- WER:0.49575384615384616
- CER:0.13333333333333333
使用方法
该模型可直接使用(无需语言模型),如下所示:
import torch
import torchaudio
from datasets import load_dataset
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
test_dataset = load_dataset("mozilla-foundation/common_voice_8_0", "sk", split="test[:2%]")
processor = Wav2Vec2Processor.from_pretrained("comodoro/wav2vec2-xls-r-300m-sk-cv8")
model = Wav2Vec2ForCTC.from_pretrained("comodoro/wav2vec2-xls-r-300m-sk-cv8")
resampler = torchaudio.transforms.Resample(48_000, 16_000)
def speech_file_to_array_fn(batch):
speech_array, sampling_rate = torchaudio.load(batch["path"])
batch["speech"] = resampler(speech_array).squeeze().numpy()
return batch
test_dataset = test_dataset.map(speech_file_to_array_fn)
inputs = processor(test_dataset[:2]["speech"], sampling_rate=16_000, return_tensors="pt", padding=True)
with torch.no_grad():
logits = model(inputs.input_values, attention_mask=inputs.attention_mask).logits
predicted_ids = torch.argmax(logits, dim=-1)
print("预测结果:", processor.batch_decode(predicted_ids))
print("参考文本:", test_dataset[:2]["sentence"])
评估
可使用附带的eval.py
脚本评估模型:
python eval.py --model_id comodoro/wav2vec2-xls-r-300m-sk-cv8 --dataset mozilla-foundation/common_voice_8_0 --split test --config sk
训练与评估数据
训练使用了Common Voice 8.0的train
和validation
数据集
训练超参数
训练过程中使用的超参数如下:
- 学习率:7e-4
- 训练批次大小:32
- 评估批次大小:8
- 随机种子:42
- 梯度累积步数:20
- 总训练批次大小:640
- 优化器:Adam(beta=(0.9,0.999),epsilon=1e-08)
- 学习率调度器类型:线性
- 学习率预热步数:500
- 训练轮数:50
- 混合精度训练:原生AMP
框架版本
- Transformers 4.16.0.dev0
- Pytorch 1.10.1+cu102
- Datasets 1.17.1.dev0
- Tokenizers 0.11.0