Z

Ziya LLaMA 13B V1

由 IDEA-CCNL 开发
基于LLaMa架构的130亿参数预训练模型,具备翻译、编程、文本分类、信息抽取、摘要生成、文案创作、常识问答及数学计算等能力
下载量 219
发布时间 : 5/16/2023
模型介绍
内容详情
替代品

模型简介

姜子牙通用大模型V1是基于LLaMa架构的130亿参数预训练模型,已完成三阶段训练流程:大规模预训练→多任务监督微调→人类反馈强化学习。

模型特点

多阶段训练
经过大规模预训练、多任务监督微调和人类反馈强化学习三阶段训练流程
词表优化
在原生LLaMA词表基础上新增7000+高频汉字,构建39410维度的混合词表
课程学习框架
采用课程学习框架,通过模型自评估划分数据难度层级,按'由易到难'分阶段渐进训练
人类反馈强化学习
采用PPO强化学习+RM奖励模型,结合后见链微调/AI反馈/规则奖励系统

模型能力

文本生成
翻译
编程
文本分类
信息抽取
摘要生成
文案创作
常识问答
数学计算

使用案例

旅游规划
旅游攻略生成
生成城市旅游攻略
可生成详细的行程安排和景点推荐
编程辅助
代码生成
根据需求生成代码片段
可解决LeetCode等编程题库问题
内容创作
文案创作
生成营销文案或文章
可生成符合要求的各类文本内容