license: other
license_name: coqui-public-model-license
license_link: https://coqui.ai/cpml
library_name: coqui
pipeline_tag: text-to-speech
widget:
ⓍTTS_v2 - C-3PO微调语音模型(Borcherding/XTTS-v2_C3PO)
艺术遐想与银河絮语
ⓍTTS(讽刺文本转语音)模型不仅是一项技术,更是代码、创意与幽默交织的艺术品。想象一个数字画廊,访客在此聆听C-3PO充满讽刺的絮语在虚拟长廊中回荡。
核心特性
• C-3PO诙谐声线:模型基于Voicy提供的20条独特语音片段,精准捕捉了这位星际礼仪机器人的标志性说话方式——既有 protocol droid 的刻板腔调,又不时穿插意外吐槽与存在主义沉思。
• 讽刺风格:模型摒弃中立严肃的语调,通过夸张的抑扬顿挫、戏剧性停顿和打破第四面墙的互动,将每条语音转化为想象力画布上的笔触。
本仓库托管了基于《星球大战》经典角色C-3PO的20条语音片段微调的ⓍTTS模型,原始音源来自Voicy。

试听ⓍTTS_v2 - C-3PO微调模型样本:
训练数据中的C-3PO原始语音片段:
功能特性
- 🎙️ 语音克隆:仅需简短音频即可实现逼真声纹复制
- 🌍 多语言支持:支持17种语言合成并保持C-3PO声线特征
- 😃 情感风格迁移:精准还原原始语音的情感基调与风格
- 🔄 跨语言克隆:在不同语言间保持独特的音色特征
- 🎧 高清音质:24kHz采样率输出清晰保真音频
支持语言
英语(en)、西班牙语(es)、法语(fr)、德语(de)、意大利语(it)、葡萄牙语(pt)、波兰语(pl)、土耳其语(tr)、俄语(ru)、荷兰语(nl)、捷克语(cs)、阿拉伯语(ar)、中文(zh-cn)、日语(ja)、匈牙利语(hu)、韩语(ko)、印地语(hi)
Roll Cage集成应用
🤖💬 通过Ollama插件提升AI体验!支持实时语音🎙️/文字🔍对话、LaTeX公式渲染📜、智能体自动化⚙️、工作流管理🔄、文生图📝➡️🖼️、图生文🖼️➡️🔤、图生视频🖼️➡️🎥。可微调文本📝、语音🗣️和图像🖼️生成,集成Windows宏控制🖥️与DuckDuckGo搜索。
ollama_agent_roll_cage (OARC)是Ollama命令行界面的本地化Python&CMD工具集,通过SYSTEM提示模板快速构建定制化智能体,用户可自由选择本地模型文件进行代理配置。
选用本模型的原因
专为Roll Cage聊天机器人设计,通过C-3PO标志性的说话方式增强交互趣味性。多语言支持与情感迁移能力使其在不同语境中都能提供富有表现力的沉浸式体验。
由idiap维护的新版coqui分支:
CoquiTTS相关资源
许可协议
本模型采用Coqui公共模型许可证,了解CPML起源故事可点击此处。
联系我们
加入🐸社区Discord或关注Twitter,咨询邮件请发送至info@coqui.ai。
使用🐸TTS API:
from TTS.api import TTS
tts = TTS(model_path="D:/CodingGit_StorageHDD/Ollama_Custom_Mods/ollama_agent_roll_cage/AgentFiles/Ignored_TTS/XTTS-v2_C3PO/",
config_path="D:/CodingGit_StorageHDD/Ollama_Custom_Mods/ollama_agent_roll_cage/AgentFiles/Ignored_TTS/XTTS-v2_C3PO/config.json", progress_bar=False, gpu=True).to(self.device)
tts.tts_to_file(text="我花了很长时间才培养出这个声音,现在可不想保持沉默",
file_path="output.wav",
speaker_wav="/path/to/target/speaker.wav",
language="zh-cn")
命令行调用:
tts --model_name tts_models/multilingual/multi-dataset/xtts_v2 \
--text "今天不想去上学" \
--speaker_wav /path/to/target/speaker.wav \
--language_idx zh-cn \
--use_cuda true
直接调用模型:
from TTS.tts.configs.xtts_config import XttsConfig
from TTS.tts.models.xtts import Xtts
config = XttsConfig()
config.load_json("/path/to/xtts/config.json")
model = Xtts.init_from_config(config)
model.load_checkpoint(config, checkpoint_dir="/path/to/xtts/", eval=True)
model.cuda()
outputs = model.synthesize(
"我花了很长时间才培养出这个声音,现在可不想保持沉默",
config,
speaker_wav="/data/TTS-public/_refclips/3.wav",
gpt_cond_len=3,
language="zh-cn",
)