M

Minicpm 2B 128k

由 openbmb 开发
MiniCPM是由面壁智能与清华大学自然语言处理实验室联合开发的端侧大语言模型,非词嵌入参数量仅24亿(2.4B),支持128k上下文窗口。
下载量 145
发布时间 : 4/9/2024
模型介绍
内容详情
替代品

模型简介

MiniCPM-2B-128k是基于MiniCPM-2B的长上下文扩展实验版本,是首个参数量小于3B却支持128k上下文的轻量级语言模型。

模型特点

128k长上下文支持
首个参数量小于3B却支持128k上下文的轻量级语言模型,在综合长文本评测InfiniteBench中取得7B以下模型最佳成绩。
轻量级模型
非词嵌入参数量仅24亿(2.4B),适合端侧部署。
ChatML格式支持
模型对齐时更新为chatml格式(用户 {} 助手 ),便于通过vllm框架的OpenAI兼容服务器模式部署。

模型能力

长文本处理
对话生成
文本理解
知识问答

使用案例

长文本处理
长文档问答
处理长达128k上下文的文档问答任务
在InfiniteBench中文长书问答评测中得分23.06
对话系统
智能助手
构建支持长上下文记忆的对话助手
支持复杂的多轮对话交互