库名称: transformers
标签:
- 文本转语音
- 标注
许可证: apache-2.0
语言:
- 英语
管道标签: 文本转语音
推理: false
数据集:
- parler-tts/mls_eng
- parler-tts/libritts_r_filtered
- parler-tts/libritts-r-filtered-speaker-descriptions
- parler-tts/mls-eng-speaker-descriptions
Parler-TTS Mini v1.1
Parler-TTS Mini v1.1 是一个轻量级的文本转语音(TTS)模型,基于45,000小时的音频数据训练而成,能够生成高质量、自然流畅的语音,其特性可以通过简单的文本提示进行控制(如性别、背景噪音、语速、音调和混响)。
🚨 Parler-TTS Mini v1.1 与 Mini v1 是完全相同的模型。它使用了相同的数据集和训练配置。唯一的变化是采用了更好的提示分词器。该分词器拥有更大的词汇量并支持字节回退,简化了多语言训练。它基于 unsloth/llama-2-7b 的分词器。感谢 AI4Bharat 团队在改进分词方面提供的建议和帮助。🚨
📖 快速索引
🛠️ 使用说明
🚨与之前版本的Parler-TTS不同,这里我们使用了两个分词器——一个用于提示,另一个用于描述。🚨
👨💻 安装
使用Parler-TTS就像说"bonjour"一样简单。只需安装一次库:
pip install git+https://github.com/huggingface/parler-tts.git
🎲 随机声音
Parler-TTS 经过训练,能够根据简单的文本提示生成具有可控特性的语音,例如:
import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf
device = "cuda:0" if torch.cuda.is_available() else "cpu"
model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-v1.1").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-v1.1")
description_tokenizer = AutoTokenizer.from_pretrained(model.config.text_encoder._name_or_path)
prompt = "嘿,你今天过得怎么样?"
description = "一位女性说话人以略带表现力和生动的语气,以中等速度和音调进行演讲。录音质量极高,说话人的声音清晰且非常近距离。"
input_ids = description_tokenizer(description, return_tensors="pt").input_ids.to(device)
prompt_input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to(device)
generation = model.generate(input_ids=input_ids, prompt_input_ids=prompt_input_ids)
audio_arr = generation.cpu().numpy().squeeze()
sf.write("parler_tts_out.wav", audio_arr, model.config.sampling_rate)
🎯 使用特定说话人
为确保生成语音的说话人一致性,该检查点还针对34名说话人进行了训练,这些说话人通过名字进行标识(如Jon、Lea、Gary、Jenna、Mike、Laura)。
要利用这一功能,只需调整您的文本描述以指定要使用的说话人:Jon的声音单调但语速稍快,录音非常近距离,几乎没有背景噪音。
import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf
device = "cuda:0" if torch.cuda.is_available() else "cpu"
model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-v1.1").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-v1.1")
description_tokenizer = AutoTokenizer.from_pretrained(model.config.text_encoder._name_or_path)
prompt = "嘿,你今天过得怎么样?"
description = "Jon的声音单调但语速稍快,录音非常近距离,几乎没有背景噪音。"
input_ids = description_tokenizer(description, return_tensors="pt").input_ids.to(device)
prompt_input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to(device)
generation = model.generate(input_ids=input_ids, prompt_input_ids=prompt_input_ids)
audio_arr = generation.cpu().numpy().squeeze()
sf.write("parler_tts_out.wav", audio_arr, model.config.sampling_rate)
提示:
- 我们设置了一个推理指南来加速生成。考虑使用SDPA、torch.compile、批处理和流式处理!
- 包含术语"非常清晰的音频"以生成最高质量的音频,"非常嘈杂的音频"则用于高背景噪音水平
- 可以使用标点符号来控制生成的韵律,例如使用逗号在语音中添加小停顿
- 其余语音特性(性别、语速、音调和混响)可以直接通过提示进行控制
动机
Parler-TTS是对Stability AI和爱丁堡大学的Dan Lyth和Simon King的论文《使用合成标注的自然语言指导高保真文本转语音》工作的重现。
与其他TTS模型不同,Parler-TTS是一个完全开源的发布。所有数据集、预处理、训练代码和权重均在宽松许可下公开发布,使社区能够基于我们的工作构建并开发他们自己强大的TTS模型。
Parler-TTS的发布包括:
引用
如果您认为此仓库有用,请考虑引用此工作以及原始的Stability AI论文:
@misc{lacombe-etal-2024-parler-tts,
author = {Yoach Lacombe and Vaibhav Srivastav and Sanchit Gandhi},
title = {Parler-TTS},
year = {2024},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/huggingface/parler-tts}}
}
@misc{lyth2024natural,
title={Natural language guidance of high-fidelity text-to-speech with synthetic annotations},
author={Dan Lyth and Simon King},
year={2024},
eprint={2402.01912},
archivePrefix={arXiv},
primaryClass={cs.SD}
}
许可证
此模型在Apache 2.0许可下宽松授权。