T

Tanuki 8x8B Dpo V1.0

由 weblab-GENIAC 开发
Tanuki-8x8B是从零开始预训练的大规模语言模型,通过SFT和DPO针对对话任务进行了优化
下载量 217
发布时间 : 8/12/2024
模型介绍
内容详情
替代品

模型简介

Tanuki-8x8B-dpo-v1.0是一个参数规模为8x8B(总参数约47B,活跃参数约13B)的大规模语言模型,预训练数据量约1.7T tokens,专门针对日语和英语的对话任务进行了优化。

模型特点

混合专家架构
采用8x8B的混合专家架构,总参数约47B但活跃参数仅约13B,平衡了性能与效率
日语优化
专门针对日语对话任务进行了优化,支持高质量的日语文本生成
DPO优化
通过监督微调(SFT)和直接偏好优化(DPO)提升了对话质量
多量化支持
提供AWQ、GPTQ等多种量化版本,便于不同硬件环境部署

模型能力

日语文本生成
英语文本生成
多轮对话
任务导向对话

使用案例

智能助手
日语问答系统
构建针对日语用户的智能问答助手
在人工评估中表现优异
教育
日语学习辅助
帮助日语学习者进行语言练习