N

Noromaid 7B 0.4 DPO

由 NeverSleep 开发
由IkariDev与Undi联合创作的7B参数大语言模型,经过DPO优化训练
下载量 137
发布时间 : 1/11/2024
模型介绍
内容详情
替代品

模型简介

基于Llama2架构的大语言模型,经过DPO(Direct Preference Optimization)优化训练,具备更人性化的对话能力和优化的输出质量

模型特点

DPO优化训练
使用Direct Preference Optimization方法进行优化,提高模型输出质量
人性化对话
通过no_robots等数据集训练,使模型具备更自然的人类对话风格
多数据集融合
结合了公开数据集和私有数据集训练,提升模型性能

模型能力

文本生成
对话交互
内容创作

使用案例

对话系统
智能助手
可作为聊天机器人提供人性化对话服务
产生更自然、符合人类偏好的回复
内容创作
故事生成
用于生成创意写作和故事内容