基础模型: stabilityai/stablelm-zephyr-3b
数据集:
- HuggingFaceH4/ultrachat_200k
- HuggingFaceH4/ultrafeedback_binarized
- meta-math/MetaMathQA
- WizardLM/WizardLM_evol_instruct_V2_196k
- Intel/orca_dpo_pairs
许可证: 其他
许可证链接: https://huggingface.co/stabilityai/stablelm-zephyr-3b/blob/main/LICENSE
语言:
- 英语
模型创建者: stabilityai
模型名称: stablelm-zephyr-3b
模型类型: stablelm_epoch
推理: 不支持
标签:
- 因果语言模型
- stablelm_epoch
流水线标签: 文本生成
提示模板: |
<|system|>
{{系统消息}}<|endoftext|>
<|user|>
{{提示}}<|endoftext|>
<|assistant|>
量化者: brittlewis12
StableLM Zephyr 3B GGUF
原始模型: StableLM Zephyr 3B
模型创建者: Stability AI
本仓库包含Stability AI的StableLM Zephyr 3B的GGUF格式模型文件。
StableLM Zephyr 3B是一个30亿参数的指令调优模型,灵感来源于HugginFaceH4的Zephyr 7B的训练流程。该模型基于公开数据集、合成数据集以及直接偏好优化(DPO)进行训练,评估基于MT Bench和Alpaca Benchmark。
什么是GGUF?
GGUF是一种用于表示AI模型的文件格式。它是该格式的第三个版本,由llama.cpp团队于2023年8月21日推出,用于替代不再受llama.cpp支持的GGML格式。
转换使用llama.cpp b1960 (26d6076)
提示模板: Zephyr
<|system|>
{{系统消息}}<|endoftext|>
<|user|>
{{提示}}<|endoftext|>
<|assistant|>
下载并在iPhone、iPad和Mac上使用cnvrs运行!

cnvrs是设备上私有本地AI的最佳应用:
原始模型评估:

模型 |
大小 |
对齐方式 |
MT-Bench (分数) |
AlpacaEval (胜率 %) |
StableLM Zephyr 3B 🪁 |
3B |
DPO |
6.64 |
76.00 |
StableLM Zephyr (仅SFT) |
3B |
SFT |
6.04 |
71.15 |
Capybara v1.9 |
3B |
dSFT |
5.94 |
- |
MPT-Chat |
7B |
dSFT |
5.42 |
- |
Xwin-LM v0.1 |
7B |
dPPO |
6.19 |
87.83 |
Mistral-Instruct v0.1 |
7B |
- |
6.84 |
- |
Zephyr-7b-α |
7B |
dDPO |
6.88 |
- |
Zephyr-7b-β |
7B |
dDPO |
7.34 |
90.60 |
Falcon-Instruct |
40B |
dSFT |
5.17 |
45.71 |
Guanaco |
65B |
SFT |
6.41 |
71.80 |
Llama2-Chat |
70B |
RLHF |
6.86 |
92.66 |
Vicuna v1.3 |
33B |
dSFT |
7.12 |
88.99 |
WizardLM v1.0 |
70B |
dSFT |
7.71 |
- |
Xwin-LM v0.1 |
70B |
dPPO |
- |
95.57 |
GPT-3.5-turbo |
- |
RLHF |
7.94 |
89.37 |
Claude 2 |
- |
RLHF |
8.06 |
91.36 |
GPT-4 |
- |
RLHF |
8.99 |
95.28 |
任务 |
值 |
ARC (25次尝试) |
47.0 |
HellaSwag (10次尝试) |
74.2 |
MMLU (5次尝试) |
46.3 |
TruthfulQA (0次尝试) |
46.5 |
Winogrande (5次尝试) |
65.5 |
GSM8K (5次尝试) |
42.3 |
BigBench (平均) |
35.26 |
AGI Benchmark (平均) |
33.23 |