库名称: transformers
标签:
- mergekit
- merge
基础模型:
- sometimesanotion/Lamarck-14B-v0.7
- sometimesanotion/Qwenvergence-14B-v12-Prose-DS
模型索引:
- 名称: Lamarckvergence-14B
结果:
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: IFEval (零样本)
类型: HuggingFaceH4/ifeval
参数:
num_few_shot: 0
指标:
- 类型: 实例级严格准确率和提示级严格准确率
值: 76.56
名称: 严格准确率
来源:
url: >-
https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=suayptalha/Lamarckvergence-14B
名称: Open LLM 排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: BBH (三样本)
类型: BBH
参数:
num_few_shot: 3
指标:
- 类型: 归一化准确率
值: 50.33
名称: 归一化准确率
来源:
url: >-
https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=suayptalha/Lamarckvergence-14B
名称: Open LLM 排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MATH 五级 (四样本)
类型: hendrycks/competition_math
参数:
num_few_shot: 4
指标:
- 类型: 精确匹配
值: 54
名称: 精确匹配
来源:
url: >-
https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=suayptalha/Lamarckvergence-14B
名称: Open LLM 排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: GPQA (零样本)
类型: Idavidrein/gpqa
参数:
num_few_shot: 0
指标:
- 类型: 归一化准确率
值: 15.1
名称: 归一化准确率
来源:
url: >-
https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=suayptalha/Lamarckvergence-14B
名称: Open LLM 排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MuSR (零样本)
类型: TAUR-Lab/MuSR
参数:
num_few_shot: 0
指标:
- 类型: 归一化准确率
值: 16.34
名称: 归一化准确率
来源:
url: >-
https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=suayptalha/Lamarckvergence-14B
名称: Open LLM 排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MMLU-PRO (五样本)
类型: TIGER-Lab/MMLU-Pro
配置: main
分割: test
参数:
num_few_shot: 5
指标:
- 类型: 准确率
值: 47.59
名称: 准确率
来源:
url: >-
https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=suayptalha/Lamarckvergence-14B
名称: Open LLM 排行榜
许可证: apache-2.0
语言:
- en
管道标签: text-generation
合并模型
[!提示] 该模型目前在Open LLM 排行榜上15B参数以下的模型中排名第一,在所有模型中排名第56。
-2025年2月15日
这是使用mergekit创建的预训练语言模型合并结果。
合并详情
合并方法
该模型使用SLERP方法合并。
合并的模型
合并中包含了以下模型:
配置
生成该模型使用的YAML配置如下:
base_model: sometimesanotion/Lamarck-14B-v0.7
dtype: bfloat16
merge_method: slerp
parameters:
t:
- filter: self_attn
value: [0.0, 0.5, 0.3, 0.7, 1.0]
- filter: mlp
value: [1.0, 0.5, 0.7, 0.3, 0.0]
- value: 0.5
slices:
- sources:
- layer_range: [0, 48]
model: sometimesanotion/Lamarck-14B-v0.7
- layer_range: [0, 48]
model: sometimesanotion/Qwenvergence-14B-v12-Prose-DS
详细结果可查看此处
指标 |
值 |
平均 |
43.32 |
IFEval (零样本) |
76.56 |
BBH (三样本) |
50.33 |
MATH 五级 (四样本) |
54.00 |
GPQA (零样本) |
15.10 |
MuSR (零样本) |
16.34 |
MMLU-PRO (五样本) |
47.59 |
