license: llama2
Xwin-LM:强大、稳定且可复现的大语言模型对齐技术

用Xwin-LM提升您的大语言模型对齐能力!
Xwin-LM致力于研发并开源大语言模型的对齐技术,包括监督微调(SFT)、奖励模型(RM)、拒绝采样、基于人类反馈的强化学习(RLHF)等。基于Llama2基础模型的首个版本在AlpacaEval榜单荣登榜首,成为该基准测试中首个超越GPT-4的模型。项目将持续更新。
最新动态
模型卡片
基准测试
下表展示了Xwin-LM在805道题目上对比Text-Davinci-003的胜率,并首次提供了对比ChatGPT和GPT-4的完整评估数据。Xwin-LM模型家族在所有指标上均刷新了最优记录,其中Xwin-LM-70B-V0.1以95.57%胜率超越Text-Davinci-003,并以60.61%胜率首次超越GPT-4。
模型 |
AlpacaEval (胜率%) |
AlpacaEval (胜率%) |
AlpacaEval (胜率%) |
|
对比Text-Davinci-003 |
对比ChatGPT |
对比GPT4 |
Xwin-LM-70B-V0.1 |
95.57 |
87.50 |
60.61 |
GPT-4 |
95.28 |
84.66 |
50.00 |
Xwin-LM-13B-V0.2 |
93.22 |
87.14 |
70.36 |
WizardLM-70B-V1.0 |
92.91 |
80.19 |
46.70 |
Llama-2-70B-Chat |
92.66 |
81.97 |
51.19 |
Xwin-LM-13B-V0.1 |
91.76 |
81.79 |
55.30 |
ChatGPT |
89.37 |
50.00 |
16.60 |
Xwin-LM-7B-V0.2 |
89.31 |
79.60 |
59.83 |
WizardLM-13B-V1.2 |
89.17 |
75.75 |
41.91 |
Xwin-LM-7B-V0.1 |
87.35 |
76.40 |
47.57 |
Llama-2-13B-Chat |
81.09 |
64.22 |
30.92 |
提示语 |
GPT4回复 |
Xwin-LM回复 |
我把盘子放在苹果上,然后将盘子从厨房拿到餐厅。苹果现在在哪里? |
苹果现在在餐厅,因为当您移动盘子时它就在盘子下方。 |
苹果仍在厨房,因为您只移动了盘子。若想将苹果带到餐厅,应直接移动苹果或将苹果放在盘子上再移动。 |
用法语怎么说"晚上好"? |
法语中"晚上好"是"bonsoir"。 |
法语中"晚上好"翻译为"bonsoir",该问候语用于傍晚及夜间(通常18点后)。"bon"意为"好","soir"意为"傍晚"。发音为"bone-swahr"。 |
下表对比了Xwin-LM与其他模型在自然语言处理基础任务上的表现:
模型 |
MMLU 5-shot |
ARC 25-shot |
TruthfulQA 0-shot |
HellaSwag 10-shot |
平均分 |
Text-davinci-003 |
56.9 |
85.2 |
59.3 |
82.2 |
70.9 |
Xwin-LM-70B-V0.1 |
69.6 |
70.5 |
60.1 |
87.1 |
71.8 |
Llama-2-70B-Chat |
63.9 |
64.6 |
52.8 |
85.9 |
66.8 |
推理指南
对话模板
请严格遵循以下多轮对话模板以获得最佳效果(基于Vicuna格式):
用户与AI助手的对话。助手提供专业、详尽且礼貌的回答。USER: 你好! ASSISTANT: 您好。</s>USER: 你是谁? ASSISTANT: 我是Xwin-LM。</s>......
HuggingFace示例
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("Xwin-LM/Xwin-LM-7B-V0.1")
tokenizer = AutoTokenizer.from_pretrained("Xwin-LM/Xwin-LM-7B-V0.1")
prompt = "用户与AI助手的对话...USER: 你好,能帮忙吗? ASSISTANT:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=4096)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
vLLM加速推理
Xwin-LM支持使用vLLM进行高效推理:
from vllm import LLM, SamplingParams
llm = LLM(model="Xwin-LM/Xwin-LM-7B-V0.1")
outputs = llm.generate([prompt], SamplingParams(temperature=0.7, max_tokens=4096))
未来计划
- [ ] 开源训练代码
- [ ] 增强数学、推理等能力
引用
@software{xwin-lm,
title = {Xwin-LM},
author = {Xwin-LM Team},
url = {https://github.com/Xwin-LM/Xwin-LM},
year = {2023},
}
致谢
感谢Llama 2、FastChat、AlpacaFarm和vLLM等开源项目。