许可证:apache-2.0
标签:
- 模型融合
- mergekit工具
- lazymergekit工具
语言:
- 英语
基础模型:
- rootxhacker/Apollo-exp-8B
- mergekit-community/L3.1-Athena-k-8B
- mergekit-community/L3.1-Athena-l2-8B
- mergekit-community/L3.1-Athena-l-8B
- mergekit-community/L3.1-Athena-l3-8B
任务类型:文本生成
库名称:transformers
🧠 ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp
模型概述
ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp 是通过 MergeKit 模型库存融合技术构建的强大AI模型。它整合了 Hugging Face 平台上多款基于Llama-3.1架构的最先进模型,专为指令跟随、角色扮演、逻辑推理、编程和创意写作等任务优化。
通过将不同微调架构融合为统一模型,该作品在保持专业领域优势的同时,展现出卓越的通用能力。
🔧 融合细节
💡 融合组件
本模型融合了以下强力组件:
🧪 配置文件
name: ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp
base_model: mergekit-community/L3.1-Athena-l3-8B
dtype: bfloat16
merge_method: model_stock
models:
- model: rootxhacker/Apollo-exp-8B
- model: mergekit-community/L3.1-Athena-k-8B
- model: mergekit-community/L3.1-Athena-l2-8B
- model: mergekit-community/L3.1-Athena-l-8B
tokenizer_source: mergekit-community/L3.1-Athena-l3-8B
✨ 核心特性
🔹 精准指令跟随 —— 融合Tulu对齐与Apollo-exp/Athena-k的指令微调能力,生成高语境感知响应
🔹 沉浸式角色扮演 —— 继承Athena系列多样角色设定与情感表达优势
🔹 创意结构化输出 —— 支持创意写作、长文本小说化及形式逻辑建模
🔹 深度对话能力 —— 融合Apollo-exp中类Claude风格的哲学对话微调
🎯 应用场景
- 对话式AI与角色扮演机器人
- 形式推理与思维链任务
- 创意写作辅助工具
- 编程助手
- 教育研究应用
🛠️ 使用指南
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ZeroXClem/Llama-3.1-8B-Athena-Apollo-exp"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
prompt = "用10岁孩子能懂的语言解释量子纠缠"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
🦙 Ollama调用
ollama run hf.co/ZeroXClem/Llama-3.1-8B-Athena-Apollo-exp-Q4_K_M-GGUF
🧭 伦理声明
⚠️ 未过滤输出:本模型未经审查,可能生成不符合对齐规范的内容。生产环境请自行部署内容过滤层。
⚠️ 责任使用:开发者应审核输出内容并制定伦理使用规范。
📜 许可证:遵循Meta Llama 3.1社区许可证。
💌 反馈渠道
欢迎提交性能测试、改进建议或应用案例!可通过issue/PR联系我们。
ZeroXClem团队 | 2025年