编码器-解码器架构
T0 3B
Apache-2.0
T0++是基于T5架构的自然语言处理模型,通过多任务提示训练实现零样本任务泛化能力,在多种NLP任务上超越GPT-3且体积更小。
大型语言模型
Transformers
英语
T
bigscience
3,723
100
Mrt5 Large
MrT5是基于ByT5改进的高效字节级语言模型,通过动态令牌合并技术缩短输入序列长度约50%
大型语言模型
Transformers
支持多种语言
M
stanfordnlp
33
2
Shuka 1
Shuka v1 是一款原生支持印度语言音频理解的语言模型,结合自主研发的音频编码器和Llama3-8B-Instruct解码器,支持多语言零样本问答任务。
音频生成文本
Transformers
支持多种语言
S
sarvamai
729
54
TURNA GGUF
其他
TURNA是一个土耳其语编码器-解码器语言模型,专注于增强理解和生成能力。
大型语言模型
Transformers
T
helizac
159
3
Comprehend It Multilingual T5 Base
Apache-2.0
基于mT5-base的多语言零样本分类模型,支持近100种语言的双向文本分类
文本分类
Transformers
支持多种语言
C
knowledgator
420
25
Pile T5 Base
Pile-T5基础版是基于T5x库在The Pile数据集上训练的编码器-解码器模型,通过MLM目标训练了200万步,约2万亿token。
大型语言模型
Transformers
英语
P
EleutherAI
50
19
Pile T5 Xxl
Pile-T5 XXL是基于T5x库在The Pile数据集上训练的编码器-解码器模型,采用类似原始T5模型的MLM目标,训练了200万步(约2万亿token)。
大型语言模型
Transformers
英语
P
EleutherAI
44
28
Medicap
Apache-2.0
MedICap是一款医疗影像描述生成编码器-解码器模型,在ImageCLEFmedical Caption 2023挑战赛中荣获冠军。
图像生成文本
Transformers
M
aehrc
475
2
Pile T5 Large
Pile-T5 Large 是基于 T5x 库在 The Pile 数据集上训练的编码器-解码器模型,主要用于英语文本到文本生成任务。
大型语言模型
Transformers
英语
P
EleutherAI
112
15
T5 Small Wikilingua Vietnamese
MIT
基于Transformer编码器-解码器架构的越南语最先进轻量级预训练模型,专注于文本摘要任务。
文本生成
Transformers
其他
T
minhtoan
43
3
Vlt5 Base Keywords
基于谷歌Transformer架构的编码器-解码器关键词生成模型,支持波兰语和英语,主要用于从科学论文摘要中提取关键词。
文本生成
Transformers
支持多种语言
V
Voicelab
6,736
55
Vit5 Large
MIT
基于Transformer架构的越南语先进预训练编码器-解码器模型
大型语言模型
其他
V
VietAI
1,444
5
Roberta2roberta L 24 Wikisplit
Apache-2.0
这是一个基于RoBERTa架构的编码器-解码器模型,专门针对句子拆分任务进行微调。
文本生成
Transformers
英语
R
google
16
8
T0
Apache-2.0
T0++是一个在英语自然语言提示上展示零样本任务泛化能力的编码器-解码器模型,在许多任务上优于GPT-3,同时体积小了16倍。
大型语言模型
Transformers
英语
T
bigscience
2,560
83
Rut5 Base
ruT5-base是由SberDevices开发的俄语文本到文本生成模型,基于T5架构,参数量2.22亿,训练数据量300GB。
大型语言模型
Transformers
其他
R
ai-forever
5,946
18
Bert2bert Turkish Paraphrase Generation
基于Bert2Bert架构的土耳其语释义生成模型,用于生成语义相同但表达不同的句子。
文本生成
Transformers
其他
B
ahmetbagci
118
12
Wav2vec2 Large Xlsr 53 German Gpt2
Apache-2.0
这是一个基于MOZILLA-FOUNDATION/COMMON_VOICE_7_0德语数据集训练的自动语音识别编码器-解码器模型,结合了Wav2Vec2和GPT2架构的优势。
语音识别
Transformers
德语
W
jsnfly
28
2
Encoder Decoder Es
基于cc_news_es_titles数据集微调的编码器-解码器模型,用于西班牙语文本处理任务
大型语言模型
Transformers
E
amazon-sagemaker-community
121
0
Roberta2roberta L 24 Cnn Daily Mail
Apache-2.0
基于RoBERTa-Large初始化的编码器-解码器模型,专为摘要生成任务设计,在CNN/DailyMail数据集上微调。
文本生成
Transformers
英语
R
google
128
6
Bert Mini2bert Mini Finetuned Cnn Daily Mail Summarization
Apache-2.0
这是一个基于BERT-mini架构的编码器-解码器模型,专门针对CNN/Dailymail数据集进行微调,用于文本摘要生成任务。
文本生成
Transformers
英语
B
mrm8488
140
5
T0pp
Apache-2.0
T0pp是基于T5架构的110亿参数编码器-解码器模型,在英语自然语言提示的零样本任务泛化上表现优异,超越GPT-3且体积更小。
大型语言模型
Transformers
英语
T
bigscience
7,426
401