B

Blockchainlabs 7B Merged Test2 4 Prune Sft 4bit DPO Orca

由 alnrg2arg 开发
这是一个经过剪枝和DPO训练的7B参数规模的小型LLM,专为设备端用途优化
下载量 18
发布时间 : 1/23/2024
模型介绍
内容详情
替代品

模型简介

该模型是基于Mistral架构的7B参数语言模型,经过合并、剪枝(50%稀疏度)和DPO训练流程优化,旨在保持性能的同时减少模型体积,适合部署在资源有限的设备上

模型特点

设备端优化
通过50%稀疏度剪枝显著减小模型体积,适合资源有限的设备部署
DPO训练
使用直接偏好优化(DPO)方法进行训练,提高模型输出质量
高效推理
采用8bit优化和AdamW优化器,提高推理效率

模型能力

英文文本生成
指令跟随
对话生成

使用案例

移动应用
设备端聊天助手
在智能手机等移动设备上部署轻量级聊天机器人
在保持响应质量的同时减少资源占用
边缘计算
本地化文本处理
在边缘设备上进行文本生成和处理,无需云端依赖
提高隐私保护和响应速度