pipeline_tag: 文本生成
书生·浦语
简介
书生·浦语开源了面向实用场景的70亿参数基础模型(InternLM-7B)。该模型具有以下特点:
- 基于万亿级高质量语料训练,构建强大知识体系
- 提供多样化工具集,支持用户灵活定制工作流
InternLM-7B
性能评测
我们使用开源评测工具OpenCompass从学科能力、语言能力、知识能力、推理能力和理解能力五个维度对InternLM进行全面评估。部分评测结果如下表所示,更多结果请访问OpenCompass榜单。
数据集\模型 |
InternLM-Chat-7B |
InternLM-7B |
LLaMA-7B |
Baichuan-7B |
ChatGLM2-6B |
Alpaca-7B |
Vicuna-7B |
C-Eval(验证集) |
53.2 |
53.4 |
24.2 |
42.7 |
50.9 |
28.9 |
31.2 |
MMLU |
50.8 |
51.0 |
35.2* |
41.5 |
46.0 |
39.7 |
47.3 |
AGIEval |
42.5 |
37.6 |
20.8 |
24.6 |
39.0 |
24.1 |
26.4 |
CommonSenseQA |
75.2 |
59.5 |
65.0 |
58.8 |
60.0 |
68.7 |
66.7 |
BUSTM |
74.3 |
50.6 |
48.5 |
51.3 |
55.0 |
48.8 |
62.5 |
CLUEWSC |
78.6 |
59.1 |
50.3 |
52.8 |
59.8 |
50.3 |
52.2 |
MATH |
6.4 |
7.1 |
2.8 |
3.0 |
6.6 |
2.2 |
2.8 |
GSM8K |
34.5 |
31.2 |
10.1 |
9.7 |
29.2 |
6.0 |
15.3 |
HumanEval |
14.0 |
10.4 |
14.0 |
9.2 |
9.2 |
9.2 |
11.0 |
RACE(高级) |
76.3 |
57.4 |
46.9* |
28.1 |
66.3 |
40.7 |
54.0 |
局限性声明: 尽管我们在训练中高度重视模型安全性,致力于使其输出符合伦理法律要求,但由于模型规模及概率生成特性,仍可能产生包含偏见、歧视等有害内容的不当输出。请勿传播此类内容,因传播不良信息导致的后果本项目概不负责。
Transformers加载方式
通过以下代码加载InternLM 7B Chat模型:
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("internlm/internlm-7b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("internlm/internlm-7b", torch_dtype=torch.float16, trust_remote_code=True).cuda()
model = model.eval()
inputs = tokenizer(["来到美丽的大自然,我们发现"], return_tensors="pt")
for k,v in inputs.items():
inputs[k] = v.cuda()
gen_kwargs = {"max_length": 128, "top_p": 0.8, "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1}
output = model.generate(**inputs, **gen_kwargs)
output = tokenizer.decode(output[0].tolist(), skip_special_tokens=True)
print(output)
开源许可
代码遵循Apache-2.0协议开源,模型权重对学术研究完全开放,同时允许免费商业使用(需填写申请表)。其他合作咨询请联系internlm@pjlab.org.cn。