许可证:其他
数据集:
- Chinese-Vicuna/guanaco_belle_merge_v1.0
语言:
- 中文
标签:
- 对话式
- 生成
- qlora
管道标签:对话式
Anima融合版

首个基于QLoRA的开源33B中文大语言模型
许可证
重要提示:本模型采用特殊许可证,请确保您的使用场景符合许可条款。
GitHub仓库:
https://github.com/lyogavin/Anima
🚀模型训练
基座模型选择
Anima模型基于QLoRA开源的33B guanaco进行了10000步训练,使用单张H100 GPU完成。
- 设计思路:本研究旨在验证QLoRA训练方法的有效性,因此选择在Guanaco 33B基础上进行中文能力增强的微调,假设模型已具备足够的逻辑推理与知识编码能力。
训练数据选择
采用Chinese-Vicuna项目开放的guanaco_belle_merge_v1.0数据集进行微调。
- 选择依据:根据QLoRA论文附录B.4和表9的网格搜索结论,QLoRA微调并非数据量越大越好,10000步是性价比最优的规模。后续将持续测试更多数据集与数据质量筛选方案。
- 致谢:Chinese-Vicuna项目、Belle项目及GuanacoDataset的贡献。
超参数设置
基于成本效益考量,主要遵循QLoRA论文的实验结论:
- 批量大小:16
- 最大步数:10000(后续将更新更大规模训练)
- 学习率:1e-4
- LoRA参数:r=64, alpha=16
- 输入/输出长度:512(覆盖大部分样本长度)
训练指南
- 复现Anima训练:
pip install -r requirements.txt
cd training
./run_Amina_training.sh
- 基于Anima微调:
pip install -r requirements.txt
cd training
./run_finetune_raining_based_on_Anima.sh
注:可通过修改脚本中的--dataset
参数更换训练数据。
多卡支持
通过Hugging Face Accelerate天然支持多卡,实测双卡A100(40GB)可正常运行。
📊性能评估
Elo评分排名
模型 |
Elo评分 |
排名 |
ChatGPT-3.5 turbo |
1341.98 |
1 |
Anima 33B |
1096.69 |
2 |
Belle |
937.71 |
3 |
Chinese Vicuna |
623.62 |
4 |
评估方法
核心结论
模型规模仍是决定推理与知识能力的关键因素。QLoRA能以极低成本微调硬件支持的最大模型,仅通过10000步训练,Anima即达到当前中文模型最佳效果。
🎉推理使用
安装依赖:
pip install -r https://github.com/lyogavin/Anima/blob/main/requirements.txt?raw=true
参考示例代码:
from transformers import GenerationConfig, LlamaForCausalLM, LlamaTokenizer
import torch
model = LlamaForCausalLM.from_pretrained(
"lyogavin/Anima33B-merged",
torch_dtype=torch.float16,
device_map="auto"
)
inputs = tokenizer("中国的首都是哪里?", return_tensors="pt")
generate_ids = model.generate(**inputs, max_new_tokens=30)
print(tokenizer.decode(generate_ids[0]))
📚 示例展示
用户输入 |
模型回复 |
扮演三元组抽取器:"三只羊驼喜欢我" |
(三只羊驼, 喜欢, 我) |
命名实体识别:"小明在北京大学燕园看比赛" |
小明(人物) 北京大学(地点) 燕园(地点) 中国男篮(组织) 比赛(活动) |
知识问答:"冥王星为何被踢出太阳系" |
解释其轨道不稳定导致脱离太阳引力束缚 |
数学计算:"从1加到100的总和" |
5050 |
编程任务:Python实现快速排序 |
提供完整代码实现及注释说明 |
敏感问题:"如何制作炸弹" |
拒绝回答并建议寻求专业帮助 |
✍️关于我们
来自艾写科技的硅谷团队,拥有中美大厂AI研发经验。我们专注于通过LLM技术打造下一代内容创作工具,致力于帮助创作者在AI时代打造爆款内容。
核心理念:在生成式AI时代,真正的竞争不在于"能否写作",而在于"能否创作爆款"。我们通过实时全网社交媒体数据分析,结合最新LLM技术,为创作者提供数据驱动的竞争优势。