自回归模型
Xglm 564M
MIT
XGLM-564M 是一个多语言自回归语言模型,包含5.64亿参数,基于30种语言的平衡语料库训练,总计5000亿子词。
大型语言模型
支持多种语言
X
facebook
11.13k
51
Liquid V1 7B
MIT
Liquid 是一种自回归生成范式,通过将图像标记化为离散代码并在共享特征空间中学习这些代码嵌入与文本标记,实现了视觉理解与生成的无缝融合。
文本生成图像
Transformers
英语
L
Junfeng5
11.35k
84
Lumina Mgpt 7B 512
Lumina-mGPT是一个多模态自回归模型家族,擅长执行多种视觉与语言任务,特别是根据文本描述生成灵活逼真的图像。
文本生成图像
L
Alpha-VLLM
1,185
4
Lumina Mgpt 7B 1024
Lumina-mGPT 是一个多模态自回归模型家族,擅长根据文本描述生成灵活逼真的图像,并能执行多种视觉和语言任务。
文本生成图像
L
Alpha-VLLM
27
9
Lumina Mgpt 7B 768
Lumina-mGPT 是一个多模态自回归模型家族,擅长根据文本描述生成灵活逼真的图像,并能执行多种视觉与语言任务。
文本生成图像
Transformers
L
Alpha-VLLM
1,944
33
Lumina Mgpt 7B 768 Omni
Lumina-mGPT 是一个多模态自回归模型系列,擅长根据文本描述生成灵活逼真的图像。
文本生成图像
Transformers
L
Alpha-VLLM
264
7
Codellama 7b Instruct Hf
Code Llama是Meta发布的代码生成与理解模型系列,包含7B至34B参数的预训练与微调版本。
大型语言模型
Transformers
其他
C
meta-llama
28.32k
48
Codellama 7b Hf
Code Llama是Meta推出的70亿到340亿参数规模的代码生成与理解模型系列,本版本为7B基础模型
大型语言模型
Transformers
其他
C
meta-llama
4,650
101
Codellama 7b Python Hf
Code Llama是Meta推出的70亿参数Python专用代码生成模型,基于Llama 2架构优化,专注于Python代码合成与理解任务
大型语言模型
Transformers
其他
C
codellama
26.36k
141
Perceiver Ar Sam Giant Midi
Apache-2.0
基于Perceiver AR架构的符号音频模型,在GiantMIDI-Piano数据集上预训练,用于符号音频生成
音频生成
Transformers
P
krasserm
153
11
Codegen2 1B P
Apache-2.0
CodeGen2 是一系列用于程序合成的自回归语言模型,具备填充能力并支持多种编程语言。
大型语言模型
Transformers
C
Salesforce
1,740
40
Codegen 350m Html
Bsd-3-clause
CodeGen-HTML 350M是基于CodeGen-Multi 350M微调的自回归语言模型,专门用于HTML代码生成。
大型语言模型
Transformers
其他
C
alecsharpie
132
14
Codegen 350M Mono
Bsd-3-clause
CodeGen是一系列用于程序合成的自回归语言模型,基于Python编程语言数据集预训练。
大型语言模型
Transformers
C
Salesforce
23.59k
93
GPT Neo 1.3B Adventure
MIT
基于EleutherAI的GPT-Neo 1.3B模型微调而成的版本,专注于冒险类文本生成。
大型语言模型
Transformers
英语
G
KoboldAI
141
8
Xglm 2.9B
MIT
XGLM-2.9B是一个多语言自回归语言模型,拥有29亿参数,基于5000亿子词的多样化语言平衡语料库训练而成。
大型语言模型
Transformers
支持多种语言
X
facebook
229
9
Xglm 4.5B
MIT
XGLM-4.5B 是一个多语言自回归语言模型,拥有45亿参数,基于134种语言的平衡语料库训练而成。
大型语言模型
Transformers
支持多种语言
X
facebook
78
20
Xglm 1.7B
MIT
XGLM-1.7B是一个多语言自回归语言模型,拥有17亿参数,基于5000亿子词标记的多样化语言平衡语料库训练而成。
大型语言模型
Transformers
支持多种语言
X
facebook
1,514
19
Gpt J 6b
Apache-2.0
GPT-J 6B是基于Mesh Transformer JAX框架训练的60亿参数自回归语言模型,采用与GPT-2/3相同的分词器。
大型语言模型
英语
G
EleutherAI
297.31k
1,493
Gpt Neo 125m
MIT
GPT-Neo 125M是基于GPT-3架构的Transformer模型,由EleutherAI开发,参数量为1.25亿,主要用于英语文本生成任务。
大型语言模型
英语
G
EleutherAI
150.96k
204