🚀 WizardCoder:借助Evol - Instruct赋能代码大语言模型
WizardCoder是一系列专注于代码生成的大语言模型,通过Evol - Instruct方法进行训练,在多个代码评估基准上取得了优异的成绩,为代码生成领域提供了强大的开源解决方案。
项目链接
✨ 主要特性
模型指标
属性 |
详情 |
模型类型 |
WizardCoder - Python - 34B - V1.0 |
评估指标 |
code_eval |
库名称 |
transformers |
标签 |
code |
许可证 |
Llama2 |
最新消息
- [2024/01/04] 🔥 我们发布了基于deepseek - coder - 33b - base训练的 WizardCoder - 33B - V1.1,它是 EvalPlus排行榜 上的 最优开源代码大语言模型,在HumanEval上达到 79.9 pass@1,在HumanEval - Plus上达到 73.2 pass@1,在MBPP上达到 78.9 pass@1,在MBPP - Plus上达到 66.9 pass@1。
- [2024/01/04] 🔥 WizardCoder - 33B - V1.1 在HumanEval和HumanEval - Plus的pass@1指标上超过了 ChatGPT 3.5、Gemini Pro 和 DeepSeek - Coder - 33B - instruct。
- [2024/01/04] 🔥 WizardCoder - 33B - V1.1 在MBPP和MBPP - Plus的pass@1指标上与 ChatGPT 3.5 相当,并超过了 Gemini Pro。
代码模型对比
数学模型对比
- 我们的 WizardMath - 70B - V1.0 模型在GSM8K基准测试中略微超过了一些闭源大语言模型,包括 ChatGPT 3.5、Claude Instant 1 和 PaLM 2 540B。
- 我们的 WizardMath - 70B - V1.0 模型在 [GSM8k基准测试](https://github.com/openai/grade - school - math) 中达到了 81.6 pass@1,比最优开源大语言模型高出 24.8 分;在 MATH基准测试 中达到了 22.7 pass@1,比最优开源大语言模型高出 9.2 分。
通用语言模型对比
- [2023/08/09] 我们发布了 WizardLM - 70B - V1.0 模型。完整模型权重
模型 |
检查点 |
论文 |
MT - Bench |
AlpacaEval |
GSM8k |
HumanEval |
许可证 |
WizardLM - 70B - V1.0 |
🤗 HF链接 |
📃 即将发布 |
7.78 |
92.91% |
77.6% |
50.6 |
Llama 2许可证 |
WizardLM - 13B - V1.2 |
🤗 HF链接 |
|
7.06 |
89.17% |
55.3% |
36.6 |
Llama 2许可证 |
WizardLM - 13B - V1.1 |
🤗 HF链接 |
|
6.76 |
86.32% |
|
25.0 |
非商业用途 |
WizardLM - 30B - V1.0 |
🤗 HF链接 |
|
7.01 |
|
|
37.8 |
非商业用途 |
WizardLM - 13B - V1.0 |
🤗 HF链接 |
|
6.35 |
75.31% |
|
24.0 |
非商业用途 |
WizardLM - 7B - V1.0 |
🤗 HF链接 |
📃 WizardLM |
|
|
|
19.1 |
非商业用途 |
模型对比
🔥 下图显示,我们的 WizardCoder - Python - 34B - V1.0 在该基准测试中排名第二,超过了GPT4 (2023/03/15,73.2 vs. 67.0)、ChatGPT - 3.5 (73.2 vs. 72.5) 和Claude2 (73.2 vs. 71.2)。
📚 详细文档
提示格式
"Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\n{instruction}\n\n### Response:"
推理演示脚本
我们在 这里 提供了推理演示代码。
📄 许可证
本项目使用Llama2许可证,具体请参考 Llama2许可证。
📚 引用
如果您使用了本仓库中的数据、方法或代码,请引用以下论文:
@article{luo2023wizardcoder,
title={WizardCoder: Empowering Code Large Language Models with Evol-Instruct},
author={Luo, Ziyang and Xu, Can and Zhao, Pu and Sun, Qingfeng and Geng, Xiubo and Hu, Wenxiang and Tao, Chongyang and Ma, Jing and Lin, Qingwei and Jiang, Daxin},
journal={arXiv preprint arXiv:2306.08568},
year={2023}
}