🚀 大规模多语言语音(MMS):乌尔都语文本转语音
本仓库包含**乌尔都语(urd - script_latin)**文本转语音(TTS)模型的检查点。该模型是Facebook 大规模多语言语音项目的一部分,旨在为多种语言提供语音技术。你可以在MMS语言覆盖概述中找到更多关于支持语言及其ISO 639 - 3代码的详细信息,并在Hugging Face Hub上查看所有MMS - TTS检查点:[facebook/mms - tts](https://huggingface.co/models?sort=trending&search=facebook%2Fmms - tts)。
MMS - TTS自🤗 Transformers库的4.33版本起可用。
✨ 主要特性
VITS(基于对抗学习的变分推理端到端文本转语音)是一种端到端语音合成模型,它能根据输入的文本序列预测语音波形。它是一个条件变分自编码器(VAE),由后验编码器、解码器和条件先验组成。
基于流的模块会预测一组基于频谱图的声学特征,该模块由基于Transformer的文本编码器和多个耦合层组成。频谱图通过一系列转置卷积层进行解码,其方式与HiFi - GAN声码器类似。考虑到文本转语音问题的一对多性质,即相同的文本输入可以有多种发音方式,该模型还包含一个随机时长预测器,这使得模型能够根据相同的输入文本合成不同节奏的语音。
该模型通过结合变分下界和对抗训练得出的损失函数进行端到端训练。为了提高模型的表达能力,对条件先验分布应用了归一化流。在推理过程中,文本编码会根据时长预测模块进行上采样,然后通过流模块和HiFi - GAN解码器的级联映射到波形。由于时长预测器的随机性,该模型具有非确定性,因此需要固定种子才能生成相同的语音波形。
对于MMS项目,会针对每种语言分别训练一个VITS检查点。
📦 安装指南
MMS - TTS自🤗 Transformers库的4.33版本起可用。要使用此检查点,请先安装该库的最新版本:
pip install --upgrade transformers accelerate
💻 使用示例
基础用法
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-urd-script_latin")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-urd-script_latin")
text = "some example text in the Urdu language"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
高级用法
将生成的波形保存为.wav
文件:
import scipy
scipy.io.wavfile.write("techno.wav", rate=model.config.sampling_rate, data=output)
或者在Jupyter Notebook / Google Colab中显示:
from IPython.display import Audio
Audio(output, rate=model.config.sampling_rate)
📚 详细文档
BibTex引用
该模型由Meta AI的Vineel Pratap等人开发。如果你使用该模型,请考虑引用MMS论文:
@article{pratap2023mms,
title={Scaling Speech Technology to 1,000+ Languages},
author={Vineel Pratap and Andros Tjandra and Bowen Shi and Paden Tomasello and Arun Babu and Sayani Kundu and Ali Elkahky and Zhaoheng Ni and Apoorv Vyas and Maryam Fazel-Zarandi and Alexei Baevski and Yossi Adi and Xiaohui Zhang and Wei-Ning Hsu and Alexis Conneau and Michael Auli},
journal={arXiv},
year={2023}
}
📄 许可证
该模型采用CC - BY - NC 4.0许可证。