G

Gpt Neo 2.7B 8bit

由 gustavecortal 开发
这是EleutherAI的GPT-Neo(27亿参数版本)的修改版,支持在Colab或同级桌面GPU上进行文本生成与模型微调。
下载量 99
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于GPT-3架构设计的Transformer模型,支持8位量化以降低硬件需求,适用于文本生成任务。

模型特点

8位量化
通过量化技术降低模型内存占用,使27亿参数模型能在消费级GPU上运行
轻量部署
适配Colab和单卡1080Ti等中端硬件环境
微调支持
保留模型微调能力,支持特定场景的定制化训练

模型能力

文本生成
模型微调

使用案例

内容创作
自动文本生成
生成连贯的段落或文章
教育研究
语言模型实验
在有限硬件条件下进行大规模语言模型研究