基础模型:
- SanjiWatsuki/Kunoichi-DPO-v2-7B
库名称: transformers
标签:
- mistral
- 量化
- 文本生成推理
管道标签: 文本生成
推理: 不支持
许可证: cc-by-nc-4.0
[!提示]
支持:
最近我的上传速度很不稳定且糟糕。
实际上我需要更换更好的网络服务提供商。
如果您愿意并且有能力的话...
可以在这里支持我的各项事业(Ko-fi)。
很抱歉影响了您的体验。
"Imatrix"是什么意思?
它代表重要性矩阵(Importance Matrix),这是一种用于提升量化模型质量的技术。
Imatrix基于校准数据计算得出,有助于确定在量化过程中不同模型激活的重要性。其核心思想是在量化过程中保留最重要的信息,从而减少模型性能损失。
使用Imatrix的好处之一是能带来更好的模型表现,特别是当校准数据多样化时。
更多信息:[1] [2]
如需添加特定量化版本,欢迎提出请求。
所有荣誉归功于原作者。
基础模型→GGUF(F16)→Imatrix数据(F16)→GGUF(Imatrix量化)
使用llama.cpp-b2277版本。
Imatrix数据使用的是imatrix-Kunoichi-DPO-v2-7B-F16.dat
。
角色卡片:

原始模型信息:
模型 |
MT Bench |
EQ Bench |
MMLU |
逻辑测试 |
GPT-4-Turbo |
9.32 |
- |
- |
- |
GPT-4 |
8.99 |
62.52 |
86.4 |
0.86 |
Kunoichi-DPO-v2-7B |
8.51 |
42.18 |
64.94 |
0.58 |
Mixtral-8x7B-Instruct |
8.30 |
44.81 |
70.6 |
0.75 |
Kunoichi-DPO-7B |
8.29 |
41.60 |
64.83 |
0.59 |
Kunoichi-7B |
8.14 |
44.32 |
64.9 |
0.58 |
Starling-7B |
8.09 |
- |
63.9 |
0.51 |
Claude-2 |
8.06 |
52.14 |
78.5 |
- |
Silicon-Maid-7B |
7.96 |
40.44 |
64.7 |
0.54 |
Loyal-Macaroni-Maid-7B |
7.95 |
38.66 |
64.9 |
0.57 |
GPT-3.5-Turbo |
7.94 |
50.28 |
70 |
0.57 |
Claude-1 |
7.9 |
- |
77 |
- |
Openchat-3.5 |
7.81 |
37.08 |
64.3 |
0.39 |
Dolphin-2.6-DPO |
7.74 |
42.88 |
61.9 |
0.53 |
Zephyr-7B-beta |
7.34 |
38.71 |
61.4 |
0.30 |
Llama-2-70b-chat-hf |
6.86 |
51.56 |
63 |
- |
Neural-chat-7b-v3-1 |
6.84 |
43.61 |
62.4 |
0.30 |
模型 |
AlpacaEval2 |
生成长度 |
GPT-4 |
23.58% |
1365 |
GPT-4 0314 |
22.07% |
1371 |
Mistral Medium |
21.86% |
1500 |
Mixtral 8x7B v0.1 |
18.26% |
1465 |
Kunoichi-DPO-v2 |
17.19% |
1785 |
Claude 2 |
17.19% |
1069 |
Claude |
16.99% |
1082 |
Gemini Pro |
16.85% |
1315 |
GPT-4 0613 |
15.76% |
1140 |
Claude 2.1 |
15.73% |
1096 |
Mistral 7B v0.2 |
14.72% |
1676 |
GPT 3.5 Turbo 0613 |
14.13% |
1328 |
LLaMA2 Chat 70B |
13.87% |
1790 |
LMCocktail-10.7B-v1 |
13.15% |
1203 |
WizardLM 13B V1.1 |
11.23% |
1525 |
Zephyr 7B Beta |
10.99% |
1444 |
OpenHermes-2.5-Mistral (7B) |
10.34% |
1107 |
GPT 3.5 Turbo 0301 |
9.62% |
827 |
Kunoichi-7B |
9.38% |
1492 |
GPT 3.5 Turbo 1106 |
9.18% |
796 |
GPT-3.5 |
8.56% |
1018 |
Phi-2 DPO |
7.76% |
1687 |
LLaMA2 Chat 13B |
7.70% |
1513 |