license: cc-by-nc-4.0
tags:
- 多语言语音合成
- 声学模型
pipeline_tag: 文本转语音
大规模多语言语音项目(MMS): 傣担语文本转语音模型
本仓库包含**傣担语(blt)**的文本转语音(TTS)模型检查点。
该模型隶属于Meta公司大规模多语言语音研究项目,旨在为多种语言提供语音技术支持。您可以通过MMS语言覆盖概览查看支持语言的ISO 639-3编码,或在Hugging Face平台访问所有MMS-TTS模型:facebook/mms-tts。
MMS-TTS模型已集成至🤗 Transformers库4.33及以上版本。
模型架构
VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)是基于条件变分自编码器(VAE)的端到端语音合成系统,包含后验编码器、解码器和条件先验模块。
其流程式模块通过Transformer文本编码器和多级耦合层预测声学特征谱图,采用类似HiFi-GAN的转置卷积层进行谱图解码。针对TTS任务中"一对多"的特性(同一文本可对应多种发音方式),模型创新性地引入随机时长预测器,支持生成不同节奏的语音。
模型通过变分下界损失与对抗训练进行端到端优化。为增强表现力,在条件先验分布中应用了标准化流技术。推理阶段首先基于时长预测进行文本编码上采样,再通过流模块与HiFi-GAN解码器生成波形。由于时长预测的随机性,模型具有非确定性特征,需固定随机种子才能复现相同语音。
在MMS项目中,每种语言都训练了独立的VITS检查点。
使用指南
请确保安装最新版🤗 Transformers库:
pip install --upgrade transformers accelerate
运行以下代码进行推理:
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-blt")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-blt")
text = "傣担语示例文本"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
生成波形可保存为.wav文件:
import scipy
scipy.io.wavfile.write("output.wav", rate=model.config.sampling_rate, data=output)
或在Jupyter Notebook中直接播放:
from IPython.display import Audio
Audio(output, rate=model.config.sampling_rate)
文献引用
该模型由Meta AI的Vineel Pratap团队开发,若使用请引用MMS论文:
@article{pratap2023mms,
title={将语音技术扩展至1,000多种语言},
author={Vineel Pratap and Andros Tjandra and Bowen Shi and Paden Tomasello and Arun Babu and Sayani Kundu and Ali Elkahky and Zhaoheng Ni and Apoorv Vyas and Maryam Fazel-Zarandi and Alexei Baevski and Yossi Adi and Xiaohui Zhang and Wei-Ning Hsu and Alexis Conneau and Michael Auli},
journal={arXiv},
year={2023}
}
许可协议
本模型采用CC-BY-NC 4.0知识共享许可。