许可协议: cc-by-nc-4.0
标签:
大规模多语言语音(MMS): 乌尔都语文本转语音
本仓库包含**乌尔都语(天城文字母转写版)**的文本转语音(TTS)模型检查点。
该模型隶属于Meta公司的大规模多语言语音项目,旨在为多种语言提供语音技术支持。您可以通过MMS语言覆盖概览查看支持语言的ISO 639-3代码,或在Hugging Face平台访问所有MMS-TTS模型:facebook/mms-tts。
MMS-TTS模型已集成至🤗 Transformers库4.33及以上版本。
模型详情
VITS模型(基于对抗学习的变分推理端到端文本转语音)是一种端到端语音合成系统,能够根据输入文本序列预测语音波形。该模型采用条件变分自编码器(VAE)架构,包含后验编码器、解码器和条件先验模块。
基于流的模块通过Transformer文本编码器和多重耦合层预测声学特征谱图,随后使用转置卷积层堆栈进行解码(类似HiFi-GAN声码器)。针对文本到语音一对多的映射特性(同一文本可对应多种发音方式),模型还包含随机时长预测器,支持对相同文本生成不同节奏的语音。
模型通过结合变分下界损失和对抗训练进行端到端优化。为增强表现力,在条件先验分布中应用了标准化流技术。推理时,文本编码根据时长预测模块进行上采样,再通过流模块和HiFi-GAN解码器生成波形。由于时长预测器的随机性,模型具有非确定性特征,需固定随机种子才能复现相同语音。
在MMS项目中,每种语言都训练了独立的VITS检查点。
使用方式
MMS-TTS模型要求🤗 Transformers库版本≥4.33。安装最新版库:
pip install --upgrade transformers accelerate
运行以下代码进行推理:
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-urd-script_devanagari")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-urd-script_devanagari")
text = "乌尔都语示例文本"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
生成波形可保存为.wav文件:
import scipy
scipy.io.wavfile.write("output.wav", rate=model.config.sampling_rate, data=output)
或在Jupyter Notebook/Colab中直接播放:
from IPython.display import Audio
Audio(output, rate=model.config.sampling_rate)
文献引用
本模型由Meta AI的Vineel Pratap团队开发。若使用该模型,请引用MMS论文:
@article{pratap2023mms,
title={Scaling Speech Technology to 1,000+ Languages},
author={Vineel Pratap and Andros Tjandra and Bowen Shi and Paden Tomasello and Arun Babu and Sayani Kundu and Ali Elkahky and Zhaoheng Ni and Apoorv Vyas and Maryam Fazel-Zarandi and Alexei Baevski and Yossi Adi and Xiaohui Zhang and Wei-Ning Hsu and Alexis Conneau and Michael Auli},
journal={arXiv},
year={2023}
}
许可声明
本模型采用CC-BY-NC 4.0知识共享许可协议。