H

H2o Danube2 1.8b Chat

由 h2oai 开发
由H2O.ai微调的18亿参数聊天模型,基于Llama 2架构调整,支持8192上下文长度
下载量 948
发布时间 : 4/5/2024
模型介绍
内容详情
替代品

模型简介

这是一个经过SFT和DPO微调的聊天模型,适用于对话生成任务,基于Mistral分词器

模型特点

长上下文支持
支持8192 tokens的上下文长度,适合处理长对话
高效推理
18亿参数规模在保持性能的同时实现高效推理
多阶段微调
经过SFT(监督微调)和DPO(直接偏好优化)两阶段训练

模型能力

对话生成
文本补全
问答系统

使用案例

客服聊天机器人
客户服务对话
用于处理客户咨询和常见问题解答
教育辅助
学习辅导
帮助学生解答学习问题和解释概念