P

Pythia 2.8b

由 EleutherAI 开发
Pythia-28亿是EleutherAI开发的可扩展语言模型套件中的一员,专为促进大语言模型的可解释性研究而设计。该模型基于Transformer架构,在The Pile数据集上训练,具有28亿参数。
下载量 40.38k
发布时间 : 2/13/2023
模型介绍
内容详情
替代品

模型简介

Pythia-28亿是一个基于Transformer架构的因果语言模型,属于Pythia可扩展模型套件的一部分。该套件旨在为科学研究提供受控环境,特别关注大语言模型的行为、功能和局限性研究。

模型特点

科学研究的受控环境
专为促进大语言模型的可解释性研究而设计,提供标准化的训练过程和检查点
完整的训练检查点
提供154个中间检查点,包括初始step0、10个对数间隔检查点和143个均匀间隔检查点
标准化训练数据
所有Pythia模型使用完全相同的训练数据和顺序进行训练,便于对比研究

模型能力

英语文本生成
语言建模
文本补全

使用案例

科学研究
语言模型行为研究
研究大语言模型在不同训练阶段的演变过程
模型可解释性分析
分析模型内部工作机制和决策过程