许可证:gpl-3.0
语言:
- 中文
- 英语
库名称:transformers
流水线标签:文本生成
姜子牙-LLaMA-13B-v1
姜子牙系列模型
简介
姜子牙写作大模型V1是基于LLaMa的130亿参数指令微调模型,在写作任务上进行了能力增强,是专注于写作的大模型。该模型可处理公文报告、讲稿书信、创意文案等多类写作任务。
Ziya-Writing-LLaMa-13B-v1是基于LLaMa的130亿参数指令微调模型,针对写作任务优化,擅长处理各类文本创作需求,包括正式文档、演讲稿及创意内容等。
更多细节请参阅公众号文章:
姜子牙大模型系列 | 写作模型ziya-writing开源!开箱即用,快来认领专属你的写作助手
软件依赖
pip install torch==1.12.1 tokenizers==0.13.3 git+https://github.com/huggingface/transformers
模型分类
需求 |
任务 |
系列 |
模型 |
参数 |
额外特性 |
写作 |
AGI模型 |
姜子牙 |
LLaMA |
13B |
中英双语 |
模型信息
监督微调
我们收集清洗了大量真实写作数据,通过GPT-3.5生成对应指令并严格人工校验。基于奖励模型筛选高难度多样化指令,结合evol-instruct方法生成30万条高质量通用指令数据,混合训练使模型兼具意图理解与优质回答能力。
人类反馈学习
实验表明,利用少量人工标注的高质量排序数据进行强化学习可显著提升写作效果。通过人类反馈训练(HFT)结合强化学习(RM/PPO),在自研框架上使用8张40G A100完成全参数训练,确保长文本奖励准确性,经验池超10万样本。
性能评估
采用匿名多人并行评估机制测试100条不同难度指令,以胜出率为指标:
- 胜出率>55%:显著优势
- 胜出率<45%:明显落后
- 45%-55%:持平
对比模型 |
平均胜出率 |
最大胜出率 |
最小胜出率 |
Ziya-LLaMA-13B-v1.1 |
70.7 |
73.5 |
69 |
baichuan-vicuna-7b |
69.6 |
73.5 |
68 |
Moss-16B |
65.1 |
69 |
62 |
ChatGLM2-6B |
58.3 |
61.5 |
56 |
Minimax-abab5 |
52.3 |
53 |
50.5 |
GPT-3.5-turbo |
44.7 |
49.5 |
38 |
(注:极值为单标注员统计结果,均值为全体标注汇总)
使用方式
需遵守LLaMA许可限制,禁止商用。
from transformers import AutoTokenizer, LlamaForCausalLM
import torch
device = torch.device("cuda")
query = "帮我写一份西安旅游计划"
model = LlamaForCausalLM.from_pretrained("IDEA-CCNL/Ziya-Writing-LLaMa-13B-v1", torch_dtype=torch.float16, device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("IDEA-CCNL/Ziya-Writing-LLaMa-13B-v1", use_fast=False)
inputs = '<human>:' + query.strip() + '\n<bot>:'
input_ids = tokenizer(inputs, return_tensors="pt").input_ids.to(device)
generate_ids = model.generate(
input_ids,
max_new_tokens=2048,
do_sample=True,
top_p=0.85,
temperature=0.85,
repetition_penalty=1.0,
eos_token_id=2,
bos_token_id=1,
pad_token_id=0
)
output = tokenizer.batch_decode(generate_ids)[0]
print(output)
微调示例
参考ziya_finetune
推理量化示例
参考ziya_inference
引用
若使用本模型,请引用:
@article{fengshenbang,
author = {贾兴政等},
title = {封神榜1.0:中文认知智能基石},
journal = {CoRR},
volume = {abs/2209.02970},
year = {2022}
}
或引用项目网站:
@misc{Fengshenbang-LM,
title={封神榜-LM},
author={IDEA-CCNL},
year={2021},
howpublished={\url{https://github.com/IDEA-CCNL/Fengshenbang-LM}},
}