M

Mpt 7b

由 mosaicml 开发
MPT-7B是由MosaicML训练的开源商用大语言模型,基于1万亿标记的英文文本和代码预训练,采用改进的Transformer架构优化训练和推理效率。
下载量 27.19k
发布时间 : 5/5/2023
模型介绍
内容详情
替代品

模型简介

MPT-7B是基于解码器架构的Transformer模型,支持长文本处理和高效推理,适用于文本生成、对话系统等任务。

模型特点

商业用途许可
允许商业用途,与LLaMA等限制性许可模型不同。
大规模训练数据
基于1万亿标记训练,远超同类开源模型(如Pythia的3000亿标记)。
超长上下文处理
通过ALiBi技术支持长达65k+标记的上下文处理能力。
高效推理
通过FlashAttention和FasterTransformer实现快速推理。

模型能力

文本生成
长文本处理
指令跟随
对话生成

使用案例

内容创作
超长故事写作
生成或续写超长篇幅的虚构故事
MPT-7B-StoryWriter版本可处理84k标记的上下文
对话系统
聊天机器人
基于MPT-7B-Chat模型构建对话系统
指令执行
任务指导
遵循短指令完成特定任务