基础模型: microsoft/Phi-3-mini-4k-instruct
推理支持: 否
许可证: mit
许可证链接: https://huggingface.co/microsoft/Phi-3-mini-4k-instruct/resolve/main/LICENSE
支持语言:
- 英语
任务标签: 文本生成
标签:
- 自然语言处理
- 代码
模型创建者: 微软
模型名称: Phi-3-mini-4k-instruct
模型类型: phi3
量化处理者: brittlewis12
Phi 3 Mini 4K Instruct GGUF 模型
2024年7月21日更新,同步微软最新模型改动
原始模型: Phi-3-mini-4k-instruct
模型作者: 微软
本仓库包含微软Phi 3 Mini 4K Instruct模型的GGUF格式文件。
Phi-3-Mini-4K-Instruct是一个38亿参数的轻量级前沿开源模型,使用Phi-3数据集训练而成,该数据集包含合成数据以及经过筛选的公开网站数据,注重高质量和推理密集特性。
了解更多请访问微软模型页面。
什么是GGUF?
GGUF是一种用于表示AI模型的文件格式。它是该格式的第三个版本,由llama.cpp团队于2023年8月21日推出,取代了llama.cpp不再支持的GGML格式。
使用llama.cpp构建版本3432(修订版45f2c19)和autogguf工具转换而成。
提示词模板
<|system|>
{{系统提示}}<|end|>
<|user|>
{{用户输入}}<|end|>
<|assistant|>
在iPhone、iPad和Mac上使用cnvrs下载并运行!

cnvrs是设备端私有本地AI的最佳应用:
原始模型评估
7月更新版与4月原始版的对比:
基准测试 |
原始版 |
2024年6月更新版 |
指令超难 |
5.7 |
6.0 |
指令难 |
4.9 |
5.1 |
指令挑战 |
24.6 |
42.3 |
JSON结构输出 |
11.5 |
52.3 |
XML结构输出 |
14.4 |
49.8 |
GPQA |
23.7 |
30.6 |
MMLU |
68.8 |
70.9 |
平均 |
21.9 |
36.7 |
原始4月发布版
按照现行标准,我们使用少量示例提示在温度为0的条件下评估模型。
提示词和示例数量是微软内部评估语言模型工具的一部分,特别是我们没有为Phi-3优化流程。
更具体地说,我们没有更改提示词、选择不同的少量示例、修改提示格式或进行任何其他形式的模型优化。
每个基准测试的k-shot示例数量如下所示。
|
Phi-3-Mini-4K-In 3.8b |
Phi-2 2.7b |
Mistral 7b |
Gemma 7b |
Llama-3-In 8b |
Mixtral 8x7b |
GPT-3.5 version 1106 |
MMLU 5-Shot |
68.8 |
56.3 |
61.7 |
63.6 |
66.5 |
68.4 |
71.4 |
HellaSwag 5-Shot |
76.7 |
53.6 |
58.5 |
49.8 |
71.1 |
70.4 |
78.8 |
ANLI 7-Shot |
52.8 |
42.5 |
47.1 |
48.7 |
57.3 |
55.2 |
58.1 |
GSM-8K 0-Shot; CoT |
82.5 |
61.1 |
46.4 |
59.8 |
77.4 |
64.7 |
78.1 |
MedQA 2-Shot |
53.8 |
40.9 |
49.6 |
50.0 |
60.5 |
62.2 |
63.4 |
AGIEval 0-Shot |
37.5 |
29.8 |
35.1 |
42.1 |
42.0 |
45.2 |
48.4 |
TriviaQA 5-Shot |
64.0 |
45.2 |
72.3 |
75.2 |
67.7 |
82.2 |
85.8 |
Arc-C 10-Shot |
84.9 |
75.9 |
78.6 |
78.3 |
82.8 |
87.3 |
87.4 |
Arc-E 10-Shot |
94.6 |
88.5 |
90.6 |
91.4 |
93.4 |
95.6 |
96.3 |
PIQA 5-Shot |
84.2 |
60.2 |
77.7 |
78.1 |
75.7 |
86.0 |
86.6 |
SociQA 5-Shot |
76.6 |
68.3 |
74.6 |
65.5 |
73.9 |
75.9 |
68.3 |
BigBench-Hard 0-Shot |
71.7 |
59.4 |
57.3 |
59.6 |
51.5 |
69.7 |
68.32 |
WinoGrande 5-Shot |
70.8 |
54.7 |
54.2 |
55.6 |
65 |
62.0 |
68.8 |
OpenBookQA 10-Shot |
83.2 |
73.6 |
79.8 |
78.6 |
82.6 |
85.8 |
86.0 |
BoolQ 0-Shot |
77.6 |
-- |
72.2 |
66.0 |
80.9 |
77.6 |
79.1 |
CommonSenseQA 10-Shot |
80.2 |
69.3 |
72.6 |
76.2 |
79 |
78.1 |
79.6 |
TruthfulQA 10-Shot |
65.0 |
-- |
52.1 |
53.0 |
63.2 |
60.1 |
85.8 |
HumanEval 0-Shot |
59.1 |
47.0 |
28.0 |
34.1 |
60.4 |
37.8 |
62.2 |
MBPP 3-Shot |
53.8 |
60.6 |
50.8 |
51.5 |
67.7 |
60.2 |
77.8 |