M

Mamba 2.8b Hf

由 state-spaces 开发
基于Mamba架构的28亿参数语言模型,兼容HuggingFace Transformers库
下载量 8,731
发布时间 : 3/5/2024
模型介绍
内容详情
替代品

模型简介

一个高效的序列建模模型,采用Mamba架构实现高性能的因果语言建模任务

模型特点

高效架构
采用Mamba架构,相比传统Transformer具有更高的计算效率
优化支持
支持causal_conv_1d和mamba-ssm优化组件,可启用CUDA加速
PEFT兼容
支持参数高效微调技术如LoRA

模型能力

文本生成
语言理解
对话系统

使用案例

对话系统
聊天机器人
构建自然流畅的对话系统
能生成连贯的对话回复
内容生成
文本续写
根据提示生成连贯的文本内容
可生成符合上下文的自然语言文本