语言: "法语"
缩略图:
标签:
- wav2vec2
许可证: "apache-2.0"
LeBenchmark:基于7千小时法语语音训练的wav2vec2基础模型
LeBenchmark提供了一系列在不同法语数据集上预训练的wav2vec2模型,这些数据集包含自发性、朗读式和广播式语音。它有两个版本,其中较新版本(LeBenchmark 2.0)在预训练SSL模型数量和下游任务数量上都是第一版的扩展。如需了解用于评估wav2vec2模型的不同基准测试的更多信息,请参阅我们的论文:LeBenchmark 2.0:一个标准化、可复现且增强的法语语音自监督表示框架
模型与数据描述
我们发布了四种不同的模型,可在我们的HuggingFace组织下找到。四种不同的wav2vec2架构——Light、Base、Large和xLarge——分别与我们的小型(1K)、中型(3K)、大型(7K)和超大型(14K)语料库结合。简而言之:
LeBenchmark 2.0:
LeBenchmark:
预期用途与限制
预训练的wav2vec2模型在Apache-2.0许可证下分发。因此,它们可以在没有严格限制的情况下广泛重用。然而,基准测试和数据可能链接到未完全开源的语料库。
使用Fairseq进行CTC语音识别微调
由于我们的wav2vec2模型是用Fairseq训练的,因此可以用于他们提供的不同工具中,以微调模型进行基于CTC的语音识别。完整步骤已在这篇博客文章中进行了很好的总结。
请注意,由于CTC的特性,语音到文本的结果预计不会是最先进的。此外,未来可能会根据Fairseq和HuggingFace在这部分的参与情况出现新功能。
集成到SpeechBrain中进行语音识别、说话人识别、源分离等
预训练的wav2vec模型最近越来越受欢迎。与此同时,SpeechBrain工具包问世,提出了一种更简单的方法来处理最先进的语音和深度学习技术。
虽然目前处于测试阶段,但SpeechBrain提供了两种很好的方式来集成用Fairseq训练的wav2vec2模型,即我们的LeBenchmark模型!
- 动态提取wav2vec2特征(使用冻结的wav2vec2编码器)以与任何语音相关架构结合。例如:使用CTC+注意力+语言模型的端到端语音识别;说话人识别或验证,源分离等。
- 实验性: 为了充分利用wav2vec2,最佳解决方案仍然是在训练下游任务时微调模型。这在SpeechBrain中非常简单,只需打开一个标志即可。因此,我们的wav2vec2模型可以在训练您喜欢的语音识别流程或说话人识别器时进行微调。
如果感兴趣,请按照此教程操作
引用LeBenchmark
@misc{parcollet2023lebenchmark,
title={LeBenchmark 2.0: a Standardized, Replicable and Enhanced Framework for Self-supervised Representations of French Speech},
author={Titouan Parcollet and Ha Nguyen and Solene Evain and Marcely Zanon Boito and Adrien Pupier and Salima Mdhaffar and Hang Le and Sina Alisamir and Natalia Tomashenko and Marco Dinarelli and Shucong Zhang and Alexandre Allauzen and Maximin Coavoux and Yannick Esteve and Mickael Rouvier and Jerome Goulian and Benjamin Lecouteux and Francois Portet and Solange Rossato and Fabien Ringeval and Didier Schwab and Laurent Besacier},
year={2023},
eprint={2309.05472},
archivePrefix={arXiv},
primaryClass={cs.CL}
}