D

Doge 160M Instruct

由 SmallDoge 开发
Doge 160M 是一个基于动态掩码注意力机制的小型语言模型,采用监督微调(SFT)和直接偏好优化(DPO)训练而成。
下载量 2,223
发布时间 : 2/18/2025
模型介绍
内容详情
替代品

模型简介

Doge采用动态掩码注意力作为序列变换,可使用多层感知机或跨域混合专家进行状态变换。该模型适用于问答等任务,支持英语。

模型特点

动态掩码注意力
使Transformer能在训练时使用自注意力机制,在推理时使用状态空间
跨域混合专家
可直接继承多层感知机的权重进行进一步训练
两阶段训练
先在SmolTalk上进行监督微调(SFT),后在UltraFeedback Binarized上进行直接偏好优化(DPO)

模型能力

文本生成
问答系统
指令跟随

使用案例

对话系统
日常对话
可用于构建聊天机器人进行日常对话
问答系统
知识问答
可用于回答用户提出的各种问题