许可协议: cc-by-nc-4.0
标签:
- 多模态语音系统
- 变分推理语音合成
任务标签: 文本转语音
大规模多语言语音项目(MMS):特里基语(Chicahuaxtla方言)文本转语音模型
本仓库包含**特里基语(Chicahuaxtla方言,语言代码trs)**的文本转语音(TTS)模型检查点。
该模型隶属于Meta公司的大规模多语言语音研究项目,旨在为多种语言提供语音技术支持。您可以通过MMS语言覆盖概览查看支持语言的详细信息及其ISO 639-3代码,并在Hugging Face平台访问所有MMS-TTS模型:facebook/mms-tts。
MMS-TTS模型已集成至🤗 Transformers库4.33及以上版本。
模型架构
VITS模型(Variational Inference with adversarial learning for end-to-end Text-to-Speech)是一种端到端语音合成系统,通过输入文本序列直接预测语音波形。该模型采用条件变分自编码器(VAE)结构,包含后验编码器、解码器和条件先验模块。
基于流模型的频谱特征预测模块由Transformer文本编码器和多级耦合层构成。频谱图通过转置卷积层堆栈进行解码,其结构与HiFi-GAN声码器类似。针对TTS任务中"一对多"的特性(同一文本可对应多种发音方式),模型还包含随机时长预测器,支持对相同文本生成不同节奏的语音。
模型通过结合变分下界损失和对抗训练进行端到端训练。为增强表现力,在条件先验分布中应用了标准化流技术。推理时,文本编码根据时长预测模块进行上采样,随后通过流模块和HiFi-GAN解码器生成波形。由于时长预测器的随机性,该模型具有非确定性特点,需固定随机种子才能重现相同语音。
在MMS项目中,每种语言都训练了独立的VITS检查点。
使用指南
MMS-TTS模型需使用🤗 Transformers库4.33及以上版本。请先安装最新版库:
pip install --upgrade transformers accelerate
运行以下代码进行推理:
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-trs")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-trs")
text = "特里基语(Chicahuaxtla方言)示例文本"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
生成波形可保存为.wav文件:
import scipy
scipy.io.wavfile.write("techno.wav", rate=model.config.sampling_rate, data=output)
或在Jupyter Notebook/Google Colab中直接播放:
from IPython.display import Audio
Audio(output, rate=model.config.sampling_rate)
文献引用
本模型由Meta AI的Vineel Pratap团队开发。若使用该模型,请引用MMS论文:
@article{pratap2023mms,
title={Scaling Speech Technology to 1,000+ Languages},
author={Vineel Pratap and Andros Tjandra and Bowen Shi and Paden Tomasello and Arun Babu and Sayani Kundu and Ali Elkahky and Zhaoheng Ni and Apoorv Vyas and Maryam Fazel-Zarandi and Alexei Baevski and Yossi Adi and Xiaohui Zhang and Wei-Ning Hsu and Alexis Conneau and Michael Auli},
journal={arXiv},
year={2023}
}
版权声明
本模型采用CC-BY-NC 4.0知识共享许可协议。