license: apache-2.0
tags:
- merge
- mergekit
- lazymergekit
language:
- en
base_model:
- prithivMLmods/Cetus-Qwen3_4B-GeneralThought
- prithivMLmods/Tureis-Qwen3_QWQ-4B-Exp
- prithivMLmods/Canum-Qwen3_R1-4B-iCoT
- prithivMLmods/Bootes-Qwen3_Coder-Reasoning
- prithivMLmods/Segue-Qwen3_DeepScaleR-Preview
pipeline_tag: text-generation
library_name: transformers
🚀 ZeroXClem-Qwen3-4B-NexusPrime
📚 模型概览
ZeroXClem-Qwen3-4B-NexusPrime 是一款高性能、多领域AI模型,采用 MergeKit 的 Model Stock 融合技术构建。它整合了多个精调优化的Qwen3-4B模型,在结构化输出和技术应用场景中展现出卓越的推理、编程及多步骤问题解决能力。
✅ 该模型适配标准Qwen3对话模板,使用指南详见下方Ollama模型卡说明。
🔧 融合配置
📝 配置文件
name: ZeroXClem-Qwen3-4B-NexusPrime
base_model: prithivMLmods/Cetus-Qwen3_4B-GeneralThought
dtype: bfloat16
merge_method: model_stock
models:
- model: prithivMLmods/Tureis-Qwen3_QWQ-4B-Exp
- model: prithivMLmods/Canum-Qwen3_R1-4B-iCoT
- model: prithivMLmods/Bootes-Qwen3_Coder-Reasoning
- model: prithivMLmods/Segue-Qwen3_DeepScaleR-Preview
tokenizer_source: prithivMLmods/Cetus-Qwen3_4B-GeneralThought
💡 融合组件模型
本模型融合了以下各具特色的子模型:
Tureis-Qwen3_QWQ-4B-Exp
🔹 精准推理 - 专为符号推理、分步数学和逻辑任务优化
🔹 轻量级代码理解 - 高效处理Python/C++等语言的逻辑任务
🔹 多语言支持 - 支持20+种语言,适合全球化技术教育场景
🔗 模型详情
Canum-Qwen3_R1-4B-iCoT
🔹 思维链推理(iCoT) - 擅长长篇幅数学推理与多阶段问题拆解
🔹 精细化指令跟随 - 为复杂工作流生成结构化输出
🔹 长逻辑链处理 - 在数学证明、微积分等领域表现突出
🔗 模型详情
Cetus-Qwen3_4B-GeneralThought (基础模型)
🔹 广谱推理能力 - 基于GeneralThought-430K数据集训练,覆盖STEM/人文/技术问答
🔹 多领域适应性 - 可处理代码、逻辑与结构化数据输出
🔹 高效可扩展 - 适配消费级GPU与云服务
🔗 模型详情
Bootes-Qwen3_Coder-Reasoning
🔹 编程专家 - 基于CodeAlpaca_20K微调,专注技术编程与指令跟随
🔹 跨语言支持 - 兼容Python/JavaScript/C++等语言
🔹 开发者友好 - 优化JSON/Markdown/YAML等结构化输出
🔗 模型详情
Segue-Qwen3_DeepScaleR-Preview
🔹 数学大师 - 基于DeepScaleR-Preview训练,擅长符号运算与逻辑任务
🔹 高精度推理 - 4B架构高效解决复杂问题
🔹 技术文档生成 - 输出LaTeX/JSON/Markdown格式结果
🔗 模型详情
✨ 核心优势
🔹 高级符号推理 - 结合QWQ与iCoT技术实现多步骤数学求解
🔹 高效代码生成 - 支持多编程语言的逻辑密集型任务
🔹 跨领域灵活性 - 无缝切换STEM/技术文档/结构化推理场景
🔹 多语言理解 - 基于多样化数据集训练,支持技术文档跨语言转换
🔹 部署友好 - 适配中端GPU,兼顾小团队与大规部署需求
🦙 Ollama快速使用
通过以下命令运行预量化GGUF版本:
ollama run hf.co/ZeroXClem/Qwen3-4B-NexusPrime-Q4_K_M-GGUF
优化推理配置 可参考以下ollama模版文件(保存为Modelfile):
Ollama模版文件
FROM hf.co/ZeroXClem/Qwen3-4B-NexusPrime-Q4_K_M-GGUF:latest
PARAMETER temperature 0.6
PARAMETER top_p 0.95
PARAMETER repeat_penalty 1.05
PARAMETER top_k 20
TEMPLATE """"{{- if .Messages }}
...(完整模板内容见原文)...
创建后执行:
ollama create nexusprime -f ./Modelfile
🛠️ 基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ZeroXClem-Qwen3-4B-NexusIntel"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "用通俗语言解释热力学中的熵概念"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
💖 致谢
特别感谢 prithivMLmods 团队、MergeKit 社区及开源社区的贡献者们! 🙏
🧭 伦理声明
⚠️ 未过滤输出 - 需对敏感场景进行额外内容过滤
⚠️ 责任使用 - 请确保符合伦理规范
📜 许可证
基于Apache 2.0许可证授权
💌 反馈渠道
欢迎通过issue或PR提交改进建议
ZeroXClem团队 | 2025