M

Mobilellm 125M

由 facebook 开发
MobileLLM是Meta专为资源受限设备优化的十亿参数以下语言模型系列,通过深层窄结构设计显著提升设备端推理效率。
下载量 1,675
发布时间 : 10/30/2024
模型介绍
内容详情
替代品

模型简介

该模型系列采用优化Transformer架构,针对移动设备和边缘计算场景设计,在常识推理等任务上超越同类参数规模模型表现。

模型特点

设备端优化架构
采用深层窄结构设计,结合嵌入共享和分组查询注意力(GQA),显著降低内存占用
高效推理性能
125M版本在常识推理任务上较前代OPT-125M提升3.7%准确率
参数可扩展性
提供从125M到1.5B的多种参数规模,适应不同硬件条件

模型能力

文本生成
常识推理
设备端部署

使用案例

移动应用
智能键盘预测
在手机端实现低延迟的文本输入预测
125M模型可在中端移动芯片实现实时推理
教育工具
离线学习助手
为无网络环境下的教育设备提供问答功能
350M版本在ARC-Challenge测试集达52.1%准确率