基础模型:
- trashpanda-org/Qwen2.5-32B-Marigold-v0
- Qwen/QwQ-32B
- Qwen/Qwen2.5-32B
- trashpanda-org/Qwen2.5-32B-Marigold-v0-exp
库名称: transformers
标签:
- 合并工具包
- 合并工具包增强版
- 模型合并

QwQwQwQwQwQ与金盏花在派对上相遇并一拍即合...
QwQ-32B-雪滴花-v0
Has的笔记: 这玩意儿简直好得离谱?!
Severian的笔记: 简直就是家用版R1角色扮演神器。能完美处理我那些带有小花招和微妙技巧的角色卡。配合优质推理引导词+提示,我能获得结构稳定却仍保持多样性的回复(即便多次重roll)。虽然我重点关注写作风格,但角色/场景塑造依然出色,知识库引用也恰到好处。开启思考模式后基本不会出现逻辑混乱,极少观察到用户身份冒用现象。如果你善用我的写作风格固化技巧,其文风会令人耳目一新。虽然我说过金盏花会是日常主力,但现在这个才是——它就是这么强。
推荐设置
上下文/指令模板: ChatML。绝对没用ChatML指令和Mistral v7模板测试过,才怪。
采样器: 温度0.9,min_p 0.05,top_a 0.3,TFS 0.75,重复惩罚1.03,有条件建议启用DRY。
测试中发现virt-io衍生提示词效果最佳,但可自由选择喜好模板。
ST主预设导入:https://files.catbox.moe/b6nwbc.json
推理机制
可自由测试惯用推理配置,以下是我的推荐方案。我的提示词包含这样一行:
风格偏好:鼓励使用日式轻小说写作风格
基于此固定要求,我的推理引导词是:
<思考>好的,在这个场景中,回应前我需要考虑提示中提到的写作风格,即
测试表明这能为多次重roll提供稳定的推理框架,始终锚定提示中的风格要求。效果如下:

但后续段落因涉及角色细节等仍保持多样性。建议根据期望效果自定义推理引导词以获得最佳表现。
—— Severian
致谢
特别感谢trashpanda-org Discord群组的测试伙伴们提供的日志记录!
评测集锦
优点:
10次重roll中仅2次轻微代用户发言(通过优化提示应可解决)
创意度:8/10次回复90%内容独创,几乎无陈词滥调
精准把握角色个性。即便无知识库支持也能记住专属术语并正确使用
NPC表现:6/10次中NPC能基于开场信息参与互动,部分甚至保持独特说话方式(若有完整知识库会更惊艳)
战斗描写毫无保留,魔法/物理攻击皆细致呈现
缺点:
部分重roll存在角色偏离。少数回复内容单薄,缺乏剧情推进力
近期测试模型中潜力最大,配合优质提示有望成为独特情境的最佳选择
—— Sellvene
目前最佳小型推理模型之一(或许就是最佳)。角色贴合度极高,几乎无逻辑混乱,剧情推进自然且遵循提示。相比R1我更喜欢雪滴花,因其回应更真实自然而非咄咄逼人
—— Carmenta
文笔优于GPT4.5。但审查机制限制了狂野角色发挥,对我而言过于温顺。另观察到其过度拘泥角色"正确性",不敢突破框架
—— Myscell
惊艳!其角色解析思维类似R1,角色把控惊艳。合并效果如此出色,更期待QwQ的微调版本了
—— Sam
可忽略的逻辑混乱,无盲目乐观倾向(加分项)。目前体验堪称家用版R1
—— Raihanbook
整体非常扎实。思维链优秀,提示遵循度极高。推理能力堪称第一,角色细节呈现?完美。叙事?完美。几乎挑不出毛病
—— Moothdragon
未感受到乐观偏见。角色场景塑造优秀,文风我也喜欢。在金盏花和雪滴花间更倾向后者(暂时还是金盏花主力)
—— Azula
说实话我被震撼到了,非常喜欢
—— OMGWTFBBQ
强得离谱,个人认为优于毛蕊花
—— br
目前体验炸裂,至今未见POV越界
—— Overloke
欢乐花絮(请无视)

部分对话记录
(其余对话记录图片链接略)
合并详情
合并方法
本模型采用TIES合并法,以Qwen/Qwen2.5-32B为基底。
合并模型
包含以下模型:
配置参数
合并使用的YAML配置:
models:
- model: trashpanda-org/Qwen2.5-32B-Marigold-v0-exp
parameters:
weight: 1
density: 1
- model: trashpanda-org/Qwen2.5-32B-Marigold-v0
parameters:
weight: 1
density: 1
- model: Qwen/QwQ-32B
parameters:
weight: 0.9
density: 0.9
merge_method: ties
base_model: Qwen/Qwen2.5-32B
parameters:
weight: 0.9
density: 0.9
normalize: true
int8_mask: true
tokenizer_source: Qwen/Qwen2.5-32B-Instruct
dtype: bfloat16