因果语言模型
Progen2 Xlarge
Bsd-3-clause
ProGen2-xlarge是基于Nijkamp等人提出的基础模型,经过配置和前向传播修改的蛋白质生成模型。
大型语言模型
Transformers
P
hugohrban
38
1
Progen2 Base
Bsd-3-clause
ProGen2-base是基于Nijkamp等人研究的蛋白质生成模型,支持蛋白质序列的生成和预测。
大型语言模型
Transformers
P
hugohrban
4,937
3
Progen2 Small
Bsd-3-clause
ProGen2-small是基于Nijkamp等人研究的蛋白质生成模型,经过轻微调整配置和前向传播流程的镜像版本。
大型语言模型
Transformers
P
hugohrban
6,505
2
Vortex 3b
其他
vortex-3b是由OEvortex开发的27.8亿参数因果语言模型,基于Pythia-2.8b模型并在Vortex-50k数据集上微调。
大型语言模型
Transformers
英语
V
OEvortex
16
5
Open Calm 3b
OpenCALM是由CyberAgent公司开发的基于日语数据集预训练的仅解码器语言模型系列中的3B参数版本。
大型语言模型
Transformers
日语
O
cyberagent
850
20
Pythia 1b
Apache-2.0
Pythia-1B是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的10亿参数规模版本,基于The Pile数据集训练。
大型语言模型
Transformers
英语
P
EleutherAI
79.69k
38
Pythia 6.9b
Apache-2.0
Pythia-6.9B是EleutherAI开发的大规模语言模型,属于Pythia可扩展套件的一部分,专为促进可解释性研究而设计。
大型语言模型
Transformers
英语
P
EleutherAI
46.72k
54
Pythia 410m
Apache-2.0
Pythia是EleutherAI开发的一系列因果语言模型,专为可解释性研究设计,包含从7000万到120亿参数的8种规模,提供154个训练检查点
大型语言模型
Transformers
英语
P
EleutherAI
83.28k
25
Pythia 2.8b
Apache-2.0
Pythia-28亿是EleutherAI开发的可扩展语言模型套件中的一员,专为促进大语言模型的可解释性研究而设计。
大型语言模型
Transformers
英语
P
EleutherAI
40.38k
30
Pythia 1.4b
Apache-2.0
Pythia-1.4B是EleutherAI开发的12亿参数因果语言模型,属于Pythia规模套件的一部分,专为可解释性研究设计。
大型语言模型
Transformers
英语
P
EleutherAI
60.98k
23
Skillet
基于Skillet乐队歌词微调的GPT-2语言模型,用于生成类似风格的文本内容
大型语言模型
英语
S
huggingartists
24
0
Gpt2 Base Thai
MIT
基于GPT-2架构的泰语因果语言模型,在OSCAR数据集上训练
大型语言模型
其他
G
flax-community
1,026
10
Tool
基于Tool乐队歌词训练的GPT-2语言模型,可生成风格相似的歌词文本
大型语言模型
英语
T
huggingartists
14
1
The Notorious Big
基于声名狼藉先生(The Notorious B.I.G.)歌词微调的GPT-2语言模型,可生成类似风格的歌词文本
大型语言模型
英语
T
huggingartists
16
0
Gpt Neo 1.3B Vietnamese News
这是一个基于越南新闻数据训练的GPT-Neo 1.3B参数规模的越南语因果语言模型
大型语言模型
Transformers
其他
G
VietAI
990
28
Rugpt3medium Sum Gazeta
Apache-2.0
基于rugpt3medium_based_on_gpt2的俄语抽象摘要生成模型,专门针对Gazeta数据集进行训练
文本生成
Transformers
其他
R
IlyaGusev
1,228
4
Gpt Neo 1.3B
MIT
GPT-Neo 1.3B是由EleutherAI开发的13亿参数自回归语言模型,基于GPT-3架构设计,擅长文本生成任务
大型语言模型
英语
G
EleutherAI
208.93k
298