语言:
- 英语
许可证: apache-2.0
库名: transformers
标签:
- 合并
- mergekit
- lazymergekit
基础模型:
- bunnycore/Llama-3.1-8B-TitanFusion-Test
- vicgalle/Roleplay-Hermes-3-Llama-3.1-8B
- vicgalle/Humanish-Roleplay-Llama-3.1-8B
- bunnycore/Llama-3.1-8B-TitanFusion-Mix
- kromeurus/L3.1-Siithamo-v0.4-8B
管道标签: 文本生成
模型索引:
- 名称: Llama-3.1-8B-SpecialTitanFusion
结果:
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: IFEval (0-Shot)
类型: HuggingFaceH4/ifeval
参数:
num_few_shot: 0
指标:
- 类型: inst_level_strict_acc 和 prompt_level_strict_acc
值: 74.02
名称: 严格准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=ZeroXClem/Llama-3.1-8B-SpecialTitanFusion
名称: Open LLM Leaderboard
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: BBH (3-Shot)
类型: BBH
参数:
num_few_shot: 3
指标:
- 类型: acc_norm
值: 34.82
名称: 归一化准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=ZeroXClem/Llama-3.1-8B-SpecialTitanFusion
名称: Open LLM Leaderboard
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MATH Lvl 5 (4-Shot)
类型: hendrycks/competition_math
参数:
num_few_shot: 4
指标:
- 类型: exact_match
值: 23.34
名称: 精确匹配
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=ZeroXClem/Llama-3.1-8B-SpecialTitanFusion
名称: Open LLM Leaderboard
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: GPQA (0-shot)
类型: Idavidrein/gpqa
参数:
num_few_shot: 0
指标:
- 类型: acc_norm
值: 6.6
名称: acc_norm
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=ZeroXClem/Llama-3.1-8B-SpecialTitanFusion
名称: Open LLM Leaderboard
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MuSR (0-shot)
类型: TAUR-Lab/MuSR
参数:
num_few_shot: 0
指标:
- 类型: acc_norm
值: 7.49
名称: acc_norm
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=ZeroXClem/Llama-3.1-8B-SpecialTitanFusion
名称: Open LLM Leaderboard
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MMLU-PRO (5-shot)
类型: TIGER-Lab/MMLU-Pro
配置: main
分割: test
参数:
num_few_shot: 5
指标:
- 类型: acc
值: 29.12
名称: 准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=ZeroXClem/Llama-3.1-8B-SpecialTitanFusion
名称: Open LLM Leaderboard
🏆 ZeroXClem-Llama-3.1-8B-SpecialTitanFusion 🏆
一个强大的泰坦级模型融合,专为增强角色扮演、创造力和智能而设计。

📌 概述
ZeroXClem-Llama-3.1-8B-SpecialTitanFusion 是一个精心打造的模型合并,利用了最先进的Transformer架构。通过 mergekit
,我们结合了多个高性能的Llama-3.1模型,以增强上下文保留、创造力和细腻的文本生成能力。
该模型基于 kromeurus/L3.1-Siithamo-v0.4-8B,并采用 model_stock
方法精心挑选模型进行合并。
🛠 合并细节
🔄 合并方法: model_stock
该模型使用 model_stock 方法合并,确保所有贡献架构的平衡和优化融合。
📑 合并的模型
以下模型参与了此次融合:
⚙ 配置
名称: ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
基础模型: kromeurus/L3.1-Siithamo-v0.4-8B
数据类型: bfloat16
合并方法: model_stock
模型:
- 模型: bunnycore/Llama-3.1-8B-TitanFusion-Test
- 模型: vicgalle/Roleplay-Hermes-3-Llama-3.1-8B
- 模型: vicgalle/Humanish-Roleplay-Llama-3.1-8B
- 模型: bunnycore/Llama-3.1-8B-TitanFusion-Mix
分词器来源: kromeurus/L3.1-Siithamo-v0.4-8B
🌟 功能与能力
🔹 高度动态的写作 – 非常适合故事创作、世界构建和创意应用。
🔹 精细的角色扮演能力 – 增强的角色一致性、深刻的情感反应和沉浸式对话生成。
🔹 更好的结构化记忆 – 在大规模上下文对话中提高一致性。
🔹 平衡且无限制的回应 – 适应不同的用例。
🛠 使用方法
🔥 Ollama (快速推理)
您可以使用 Ollama 直接测试模型:
ollama run hf.co/ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
🤗 Hugging Face Transformers (Python)
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
模型名称 = "ZeroXClem-Llama-3.1-8B-SpecialTitanFusion"
分词器 = AutoTokenizer.from_pretrained(模型名称)
模型 = AutoModelForCausalLM.from_pretrained(
模型名称,
torch_dtype=torch.bfloat16,
device_map="auto"
)
文本生成器 = pipeline(
"text-generation",
模型=模型,
分词器=分词器,
torch_dtype=torch.bfloat16,
device_map="auto"
)
提示 = "描述现代技术中人工智能伦理的重要性。"
输出 = 文本生成器(
提示,
max_new_tokens=200,
do_sample=True,
temperature=0.7,
top_k=50,
top_p=0.95
)
print(输出[0]["generated_text"])
🔧 推荐用法
📜 提示风格
为获得最佳效果,使用类似Llama-3.1 Instruct的系统提示。
示例系统消息:
在提供任何回应之前,逐步进行逻辑推理和智力思考。
为增强角色扮演的创造力,可以尝试:
### 指令:
你是一个高级角色扮演助手。保持深刻的角色一致性和沉浸式的叙事。
🏗 模型设置
为优化输出质量,使用以下设置:
温度: 1.2
最小P值: 0.1
重复惩罚: 1.05
重复惩罚标记: 256
平滑采样: 0.18
🔥 免责声明
🔹 请负责任地使用!
该模型遵循Meta的Llama-3.1社区许可协议。它是一个未经审查的模型,意味着应根据个人用例实施对齐。
🔹 您对生成的内容负责。
在生产环境中部署该模型时,请确保遵守人工智能伦理准则。
💬 反馈与贡献
如果您有任何建议或改进意见,请在Hugging Face上开启讨论!让我们继续改进Llama-3.1的合并元游戏! 🚀
详细结果请参见此处
指标 |
值 |
平均 |
29.23 |
IFEval (0-Shot) |
74.02 |
BBH (3-Shot) |
34.82 |
MATH Lvl 5 (4-Shot) |
23.34 |
GPQA (0-shot) |
6.60 |
MuSR (0-shot) |
7.49 |
MMLU-PRO (5-shot) |
29.12 |