K

Kunoichi DPO 7B

由 SanjiWatsuki 开发
Kunoichi-DPO-7B是基于Kunoichi-7B模型,使用英特尔的Orca数据对与Alpaca模板进行直接偏好优化(DPO)微调得到的模型,主要面向通用场景,具有更强的推理和指令遵循能力。
下载量 748
发布时间 : 1/11/2024

模型简介

该模型通过DPO微调提升了推理和指令遵循能力,适用于通用场景,但角色扮演能力可能因数据集对齐而受影响。支持最大8k上下文窗口,实验性支持16k上下文窗口。

模型特点

增强的推理能力
通过DPO微调,模型在推理和指令遵循方面表现更优。
大上下文窗口支持
支持最大8k上下文窗口,实验性支持16k上下文窗口。
通用场景适用
适用于多种通用场景,但角色扮演能力可能有所下降。

模型能力

文本生成
指令遵循
推理任务

使用案例

通用文本生成
指令响应
根据用户指令生成合适的响应文本。
在MT Bench测试中得分8.29,优于多个同类模型。
教育辅助
逻辑测试
用于逻辑推理和问题解答。
Logic Test得分为0.59,表现优于部分同类模型。
AIbase
智启未来,您的人工智能解决方案智库
简体中文