M

MN Nyx Chthonia 12B

由 mergekit-community 开发
这是一个基于多个12B参数规模模型的合并版本,采用model_stock方法融合了7个不同特性的预训练语言模型,以增强综合能力。
下载量 31
发布时间 : 4/25/2025
模型介绍
内容详情
替代品

模型简介

该模型通过合并多个专业领域的12B参数模型,旨在提升在推理、创作和心理分析等任务上的表现,特别优化了指令跟随能力。

模型特点

多模型知识融合
整合了Gutenberg文学、心理学推理、创意写作等不同专业领域的模型优势
指令优化
以Mistral-Nemo-Instruct为基础模型,强化了指令理解和执行能力
加权融合策略
对关键组件模型(如EtherealAurora和推理LoRA)采用差异化权重配置

模型能力

长文本生成
多轮对话
逻辑推理
创意写作
心理分析
指令理解

使用案例

创意辅助
故事创作
生成具有文学性的长篇幅叙事文本
结合Gutenberg和Lyra模型的文学风格
专业分析
心理评估
分析文本中的心理特征和认知模式
整合了专业心理学推理LoRA的能力