O

Opt 350m

由 facebook 开发
OPT是由Meta AI开发的开源预训练Transformer语言模型,参数规模从1.25亿到1750亿不等,旨在促进大规模语言模型的研究。
下载量 314.14k
发布时间 : 5/11/2022
模型介绍
内容详情
替代品

模型简介

OPT是一套仅解码器的预训练Transformer模型,使用因果语言建模目标进行训练,支持文本生成和下游任务微调。

模型特点

开放研究导向
旨在降低大型语言模型研究门槛,促进可复现性和社区参与
GPT-3级性能
模型规模与性能对标GPT-3,但采用更高效的数据收集和训练方法
多规模可选
提供从1.25亿到1750亿参数的不同规模模型选择

模型能力

文本生成
零样本学习
少样本学习
下游任务微调

使用案例

文本生成
内容创作
生成文章、故事或对话内容
可生成连贯的文本段落
教育研究
语言模型研究
研究大型语言模型的偏见、鲁棒性等问题