语言:
- 英文
- 法文
- 德文
- 西班牙文
- 意大利文
- 葡萄牙文
- 俄文
- 中文
- 日文
许可证: apache-2.0
标签:
- 合并模型
数据集:
- Epiculous/SynthRP-Gens-v1.1-Filtered-n-Cleaned
- anthracite-org/stheno-filtered-v1.1
- PJMixers/hieunguyenminh_roleplay-deduped-ShareGPT
- Gryphe/Sonnet3.5-Charcard-Roleplay
- Epiculous/Synthstruct-Gens-v1.1-Filtered-n-Cleaned
- anthracite-org/kalo-opus-instruct-22k-no-refusal
- anthracite-org/nopm_claude_writing_fixed
- anthracite-org/kalo_opus_misc_240827
管道标签: 文本生成
模型索引:
- 名称: Violet_Twilight-v0.2
结果:
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: IFEval (0样本)
类型: HuggingFaceH4/ifeval
参数:
num_few_shot: 0
指标:
- 类型: 实例级严格准确率和提示级严格准确率
值: 45.32
名称: 严格准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=Epiculous/Violet_Twilight-v0.2
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: BBH (3样本)
类型: BBH
参数:
num_few_shot: 3
指标:
- 类型: 标准化准确率
值: 23.94
名称: 标准化准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=Epiculous/Violet_Twilight-v0.2
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MATH 5级 (4样本)
类型: hendrycks/competition_math
参数:
num_few_shot: 4
指标:
- 类型: 精确匹配
值: 2.72
名称: 精确匹配
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=Epiculous/Violet_Twilight-v0.2
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: GPQA (0样本)
类型: Idavidrein/gpqa
参数:
num_few_shot: 0
指标:
- 类型: 标准化准确率
值: 2.13
名称: 标准化准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=Epiculous/Violet_Twilight-v0.2
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MuSR (0样本)
类型: TAUR-Lab/MuSR
参数:
num_few_shot: 0
指标:
- 类型: 标准化准确率
值: 13.61
名称: 标准化准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=Epiculous/Violet_Twilight-v0.2
名称: 开放LLM排行榜
- 任务:
类型: 文本生成
名称: 文本生成
数据集:
名称: MMLU-PRO (5样本)
类型: TIGER-Lab/MMLU-Pro
配置: 主要
分割: 测试
参数:
num_few_shot: 5
指标:
- 类型: 准确率
值: 23.45
名称: 准确率
来源:
url: https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard?query=Epiculous/Violet_Twilight-v0.2
名称: 开放LLM排行榜

现在来点不一样的,Violet_Twilight-v0.2!这个模型是Azure_Dusk-v0.2和Crimson_Dawn-v0.2的SLERP合并模型!
量化版本!
完整版 / exl2版 / gguf版
提示方式
v0.2模型基于ChatML训练,提示结构如下:
<|im_start|>user
你好!<|im_end|>
<|im_start|>assistant
很高兴见到你!<|im_end|>
<|im_start|>user
我能问个问题吗?<|im_end|>
<|im_start|>assistant
上下文和指令
v0.2模型基于ChatML训练,请使用对应的上下文和指令模板。
当前最佳采样器设置
流畅创意: 感谢Juelsman的研究!
变体奇美拉: 感谢Numbra!
辛辣温度
紫暮硝基特调
合并过程
使用以下配置合并Azure Dusk和Crimson Dawn:
切片:
- 源模型:
- 模型: Epiculous/Azure_Dusk-v0.2
层范围: [0, 40]
- 模型: Epiculous/Crimson_Dawn-V0.2
层范围: [0, 40]
合并方法: slerp
基础模型: Epiculous/Azure_Dusk-v0.2
参数:
t:
- 过滤器: self_attn
值: [0, 0.5, 0.3, 0.7, 1]
- 过滤器: mlp
值: [1, 0.5, 0.7, 0.3, 0]
- 值: 0.5
数据类型: bfloat16
详细结果请查看此处
指标 |
数值 |
平均分 |
18.53 |
IFEval (0样本) |
45.32 |
BBH (3样本) |
23.94 |
MATH 5级 (4样本) |
2.72 |
GPQA (0样本) |
2.13 |
MuSR (0样本) |
13.61 |
MMLU-PRO (5样本) |
23.45 |
详细结果请查看此处
指标 |
数值 |
平均分 |
18.53 |
IFEval (0样本) |
45.32 |
BBH (3样本) |
23.94 |
MATH 5级 (4样本) |
2.72 |
GPQA (0样本) |
2.13 |
MuSR (0样本) |
13.61 |
MMLU-PRO (5样本) |
23.45 |