D

Dbrx Base

由 databricks 开发
Databricks开发的混合专家(MoE)大语言模型,1320亿参数总量,360亿激活参数,支持32K上下文窗口
下载量 100
发布时间 : 3/26/2024
模型介绍
内容详情
替代品

模型简介

DBRX是基于Transformer架构的仅解码器大语言模型,采用细粒度混合专家架构,适用于文本补全和代码生成任务

模型特点

细粒度混合专家架构
采用16选4专家结构,专家组合可能性比传统8选2架构提升65倍
大规模预训练
在12万亿精选token上训练,数据质量较前代提升2倍
高效推理
通过GQA分组查询注意力机制和FlashAttention2优化计算效率
企业级部署支持
可通过Databricks基础模型API进行生产环境部署

模型能力

英语文本补全
代码生成与补全
长上下文处理(32K tokens)
商业场景二次微调

使用案例

通用文本处理
文档自动续写
根据开头段落生成连贯的后续内容
软件开发
代码自动补全
根据函数签名或注释生成实现代码
HumanEval基准测试表现优异
企业应用
领域知识问答系统
基于RAG架构构建专业领域问答助手