可解释性研究
Simplestories 30M
MIT
SimpleStories 是一个为可解释性研究设计的微型模型家族,基于 SimpleStories 数据集训练而成,专注于故事生成任务。
文本生成
英语
S
SimpleStories
735
1
Pythia 1b
Apache-2.0
Pythia-1B是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的10亿参数规模版本,基于The Pile数据集训练。
大型语言模型
Transformers
英语
P
EleutherAI
79.69k
38
Pythia 12b
Apache-2.0
Pythia-12B是EleutherAI开发的可扩展语言模型套件中的最大模型,拥有120亿参数,专为促进大语言模型科学研究而设计
大型语言模型
Transformers
英语
P
EleutherAI
9,938
136
Pythia 6.9b
Apache-2.0
Pythia-6.9B是EleutherAI开发的大规模语言模型,属于Pythia可扩展套件的一部分,专为促进可解释性研究而设计。
大型语言模型
Transformers
英语
P
EleutherAI
46.72k
54
Pythia 1b Deduped
Apache-2.0
Pythia-10亿去重版是EleutherAI开发的可解释性研究专用语言模型,基于去重Pile数据集训练,采用Transformer架构,参数规模10亿
大型语言模型
Transformers
英语
P
EleutherAI
19.89k
19
Pythia 410m
Apache-2.0
Pythia是EleutherAI开发的一系列因果语言模型,专为可解释性研究设计,包含从7000万到120亿参数的8种规模,提供154个训练检查点
大型语言模型
Transformers
英语
P
EleutherAI
83.28k
25
Pythia 2.8b
Apache-2.0
Pythia-28亿是EleutherAI开发的可扩展语言模型套件中的一员,专为促进大语言模型的可解释性研究而设计。
大型语言模型
Transformers
英语
P
EleutherAI
40.38k
30
Pythia 1.4b
Apache-2.0
Pythia-1.4B是EleutherAI开发的12亿参数因果语言模型,属于Pythia规模套件的一部分,专为可解释性研究设计。
大型语言模型
Transformers
英语
P
EleutherAI
60.98k
23
Pythia 160m
Apache-2.0
Pythia-160M是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的160M参数规模版本,基于Transformer架构,训练于Pile数据集。
大型语言模型
Transformers
英语
P
EleutherAI
163.75k
31