许可证: gpl-3.0
支持语言:
推理功能: 禁用
姜子牙-LLaMA-13B-v1大模型
(受LLaMA权重许可限制,我们无法直接发布完整模型权重,用户需参照使用指南进行权重合并)
姜子牙系列模型
模型简介
姜子牙通用大模型V1是基于LLaMa架构的130亿参数预训练模型,具备翻译、编程、文本分类、信息抽取、摘要生成、文案创作、常识问答及数学计算等能力。该模型已完成三阶段训练流程:大规模预训练→多任务监督微调→人类反馈强化学习。
环境依赖
pip install torch==1.12.1 tokenizers==0.13.3 git+https://github.com/huggingface/transformers
模型分类体系
需求 |
任务类型 |
模型系列 |
架构版本 |
参数量 |
语言支持 |
通用场景 |
AGI模型 |
姜子牙 |
LLaMA |
13B |
中英双语 |
核心技术细节
持续预训练阶段
数据构成:
- 英文数据:openwebtext/Books/Wikipedia/Code
- 中文数据:清洗后的悟道数据集+自建中文语料库
- 数据处理:经过去重、质量评分、分桶过滤等工序,最终保留1250亿优质token
词表优化:
- 在原生LLaMA词表基础上新增7000+高频汉字
- 最终构建39410维度的混合词表
- 通过改造LlamaTokenizer实现高效编解码
训练配置:
- 硬件:160张40GB显存A100
- 吞吐:118 TFLOP/GPU/秒
- 耗时:8天完成1100亿token增量训练
- 精度:FP16混合精度
训练曲线:

多任务微调策略
采用课程学习框架:
- 通过模型自评估划分数据难度层级
- 按"由易到难"分阶段渐进训练
高质量微调数据集:
- 指令数据(200万条):BELLE/Alpaca等优质语料
- 编程数据(30万条):LeetCode等编程题库
- 逻辑推理数据(50万条):数学应用题/数值计算等
- 翻译语料(200万条):含COT翻译/古文翻译等
- 多轮对话(50万条):任务型/RP型对话
人类反馈强化学习
创新训练方法:
- 核心方法:PPO强化学习+RM奖励模型
- 辅助技术:后见链微调/AI反馈/规则奖励系统
- 硬件要求:最低8张A100(40G)即可全参数训练
关键配置:
- 经验池规模:10万+样本
- 生成长度:无限制(保障长文本奖励准确性)
性能评估

使用指南
注意事项:
- 本模型不可商用,需严格遵守LLaMA使用政策
- 采用权重差值发布方案(基于FastChat改进)
分步操作指南
第一步:获取基础权重
转换原始LLaMA权重格式(若已有HF格式可跳过):
python src/transformers/models/llama/convert_llama_weights_to_hf.py \
--input_dir /path/to/llama/weights --model_size 13B --output_dir /output/path
第二步:合并权重差值
使用专用脚本合并delta权重:
python3 -m apply_delta \
--base ~/model_weights/llama-13b \
--target ~/model_weights/Ziya-LLaMA-13B \
--delta ~/model_weights/Ziya-LLaMA-13B-v1
第三步:加载推理
from transformers import AutoTokenizer, LlamaForCausalLM
import torch
device = torch.device("cuda")
ckpt = '合并后的完整模型路径'
query = "帮我制定西安三日游攻略"
model = LlamaForCausalLM.from_pretrained(ckpt, torch_dtype=torch.float16, device_map="auto")
tokenizer = AutoTokenizer.from_pretrained(ckpt, use_fast=False)
inputs = f'<human>:{query.strip()}\n<bot>:'
input_ids = tokenizer(inputs, return_tensors="pt").input_ids.to(device)
generate_ids = model.generate(
input_ids,
max_new_tokens=1024,
do_sample=True,
top_p=0.85,
temperature=1.0,
repetition_penalty=1.0,
eos_token_id=2,
bos_token_id=1,
pad_token_id=0
)
print(tokenizer.batch_decode(generate_ids)[0])
进阶应用
微调示例
参考ziya_finetune
量化推理
参考ziya_inference
引用规范
若使用本模型,请引用以下论文:
@article{fengshenbang,
author = {贾兴星等},
title = {封神榜1.0:中文认知智能基石},
journal = {CoRR},
volume = {abs/2209.02970},
year = {2022}
}
或引用项目官网:
@misc{Fengshenbang-LM,
title={封神榜大模型},
author={IDEA-CCNL},
year={2021},
howpublished={\url{https://github.com/IDEA-CCNL/Fengshenbang-LM}},
}