自回归语言模型
Ko En Llama2 13b
基于LLaMA2-13B架构的韩英双语自回归语言模型,专注于韩语语料学习同时保持英语能力
大型语言模型
Transformers
韩语
K
hyunseoki
1,850
27
Molm 700M 4B
Apache-2.0
MoLM是基于混合专家(MoE)架构的语言模型系列,700M-4B版本总参数量40亿,计算消耗相当于7亿参数的稠密模型
大型语言模型
Transformers
M
ibm-research
36
6
Gpt2 Zinc 87m
MIT
基于GPT2风格的自回归语言模型,专门用于生成类药分子或从SMILES字符串生成嵌入表示
分子模型
Transformers
G
entropy
404
3
Polyglot Ko 12.8b
Apache-2.0
Polyglot-Ko-12.8B是由EleutherAI多语言团队开发的大规模韩语自回归语言模型,具有12.8亿参数,专门针对韩语优化。
大型语言模型
Transformers
韩语
P
EleutherAI
732
82
Polyglot Ko 5.8b
Apache-2.0
Polyglot-Ko-5.8B是由EleutherAI多语言团队开发的大规模韩语自回归语言模型,具有58亿参数,在863GB韩语数据上训练而成。
大型语言模型
Transformers
韩语
P
EleutherAI
1,148
65
Polyglot Ko 1.3b
Apache-2.0
Polyglot-Ko是由EleutherAI多语言团队开发的韩语自回归语言模型系列之一,包含13亿参数,专门针对韩语优化。
大型语言模型
Transformers
韩语
P
EleutherAI
121.13k
83
Codegen 16B Mono
Bsd-3-clause
CodeGen-Mono 16B是一个用于程序合成的自回归语言模型,专注于根据英语提示生成可执行代码。
大型语言模型
Transformers
C
Salesforce
227
126
Ko Gpt Trinity 1.2B V0.5
基于GPT-3架构的12亿参数韩语Transformer模型,由SK电讯开发,主要用于韩语文本生成和理解任务。
大型语言模型
Transformers
韩语
K
skt
1,294
44
Xglm 7.5B
MIT
XGLM-7.5B是一个具有75亿参数的多语言自回归语言模型,支持30+种语言,基于5000亿子词标记的多样化语料库训练而成。
大型语言模型
Transformers
支持多种语言
X
facebook
1,260
57
Gpt2 Finetuned Greek
Apache-2.0
基于英语GPT-2模型微调的希腊语文本生成模型,由希腊军事学院和克里特技术大学联合开发
大型语言模型
其他
G
lighteternal
178
7
GPT Neo 2.7B Janeway
MIT
基于GPT-Neo 2.7B微调的科幻/奇幻主题语言模型
大型语言模型
Transformers
英语
G
KoboldAI
93
6
GPT Neo 2.7B Picard
MIT
基于GPT-Neo 2.7B微调的科幻主题语言模型,擅长生成科幻类文本
大型语言模型
Transformers
英语
G
KoboldAI
40
7