H

H2o Danube 1.8b Base

由 h2oai 开发
H2O.ai训练的18亿参数基础语言模型,基于改进的Llama 2架构,支持16K上下文长度
下载量 281
发布时间 : 1/23/2024
模型介绍
内容详情
替代品

模型简介

这是一个预训练基础语言模型,适用于文本生成和理解任务,建议针对具体应用场景进行微调

模型特点

长上下文支持
支持16,384 tokens的上下文长度,适合处理长文档
高效注意力机制
采用mistral的滑动窗口注意力(窗口大小4,096),提升长序列处理效率
多版本选择
提供基础版、监督微调版和对话优化版三种变体

模型能力

文本生成
语言理解
常识推理
问答系统

使用案例

对话系统
智能聊天机器人
使用h2o-danube-1.8b-chat版本构建对话系统
知识问答
开放领域问答
基于模型的世界知识进行问题解答
在TriviaQA上达到38.99%准确率