G

Gpt Neo 2.7B

由 EleutherAI 开发
GPT-Neo 2.7B是EleutherAI基于GPT-3架构复现的27亿参数Transformer语言模型,在Pile数据集上训练完成
下载量 52.68k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于Transformer架构的自回归语言模型,擅长文本生成任务,可应用于多种自然语言处理场景

模型特点

大规模预训练
在4200亿token的Pile数据集上训练完成,具有强大的语言理解能力
开源模型
采用MIT许可证,允许商业和研究用途
多领域适应
在科学、物理推理和语言理解等多个领域表现良好

模型能力

文本生成
语言理解
上下文推理

使用案例

内容创作
自动写作
根据提示生成连贯的文本内容
可生成50字以上的连贯文本
教育研究
科学问答
回答科学和数学相关问题
在MathQA上达到24.72%准确率