M

Minueza 2 96M

由 Felladrin 开发
基于Llama架构的紧凑型语言模型,支持英语和葡萄牙语,参数规模9600万,支持4096个token的上下文长度。
下载量 357
发布时间 : 4/5/2025
模型介绍
内容详情
替代品

模型简介

从零开始训练的轻量级基础模型,可作为后续特定应用微调的基石。虽然推理能力和知识有限,但适合在资源受限环境中使用。

模型特点

紧凑高效
仅9600万参数的小型模型,适合在无GPU设备或移动端运行
双语支持
同时支持英语和葡萄牙语文本生成
长上下文处理
支持4096个token的上下文窗口长度
微调友好
设计为可作为ChatML格式微调的基座模型

模型能力

文本生成
多语言处理

使用案例

移动端应用
浏览器内文本生成
通过Wllama和Transformers.js在移动端浏览器运行
实现轻量级的客户端文本生成功能
资源受限环境
低功耗设备部署
在无GPU设备上高效运行
为边缘设备提供基础语言模型能力