D

Dbrx Instruct

由 databricks 开发
Databricks开发的专家混合(MoE)大语言模型,专精于少量轮次交互场景
下载量 5,005
发布时间 : 3/26/2024
模型介绍
内容详情
替代品

模型简介

DBRX是基于Transformer架构的解码器专用大语言模型,通过细粒度专家混合架构实现高效推理,适用于英语问答和代码生成任务

模型特点

细粒度专家混合架构
采用16选4的专家组合方式,比传统8选2架构提升65倍组合可能性
高质量预训练数据
基于12万亿精选词元训练,数据质量较前代提升2倍以上
长上下文支持
支持最大32K词元的上下文长度
企业级部署支持
通过Databricks基础模型API提供按词元计费和预置吞吐量选项

模型能力

英语文本生成
代码生成与补全
指令跟随
知识问答

使用案例

企业应用
智能客服
构建英语场景的自动化客服系统
减少人工客服工作量
技术文档生成
自动生成API文档和代码注释
提升开发效率
研发工具
编程助手
集成到IDE中提供代码建议
加速开发流程