K

Kunoichi DPO V2 7B GGUF Imatrix

由 Lewdiculous 开发
基于Mistral架构的7B参数大语言模型,采用DPO(直接偏好优化)训练,在多项基准测试中表现优异
下载量 3,705
发布时间 : 2/27/2024
模型介绍
内容详情
替代品

模型简介

一个经过直接偏好优化(DPO)训练的7B参数大语言模型,在对话生成、逻辑推理等任务上表现突出,支持文本生成任务

模型特点

直接偏好优化(DPO)
采用DPO训练方法,使模型能更好地理解人类偏好,生成更符合需求的文本
高性能量化
提供GGUF-Imatrix量化版本,通过重要性矩阵技术保持量化后的模型性能
多基准测试领先
在MT Bench、EQ Bench等多个基准测试中超越同类7B模型,接近部分大模型表现

模型能力

文本生成
对话系统
逻辑推理
知识问答

使用案例

对话系统
智能助手
用于构建高性能对话助手
在AlpacaEval2测试中达到17.19%胜率,超过Claude 2和GPT-3.5 Turbo
知识问答
开放域问答
回答各类知识性问题
在MMLU测试中获得64.94分,超过同类7B模型