T0 3B
Apache-2.0
T0++是基于T5架构的自然语言处理模型,通过多任务提示训练实现零样本任务泛化能力,在多种NLP任务上超越GPT-3且体积更小。
大型语言模型
Transformers

英语
T
bigscience
3,723
100
Mrt5 Large
MrT5是基于ByT5改进的高效字节级语言模型,通过动态令牌合并技术缩短输入序列长度约50%
大型语言模型
Transformers

支持多种语言
M
stanfordnlp
33
2
Shuka 1
Shuka v1 是一款原生支持印度语言音频理解的语言模型,结合自主研发的音频编码器和Llama3-8B-Instruct解码器,支持多语言零样本问答任务。
音频生成文本
Transformers

支持多种语言
S
sarvamai
729
54
TURNA GGUF
其他
TURNA是一个土耳其语编码器-解码器语言模型,专注于增强理解和生成能力。
大型语言模型
Transformers

T
helizac
159
3
Comprehend It Multilingual T5 Base
Apache-2.0
基于mT5-base的多语言零样本分类模型,支持近100种语言的双向文本分类
文本分类
Transformers

支持多种语言
C
knowledgator
420
25
Pile T5 Base
Pile-T5基础版是基于T5x库在The Pile数据集上训练的编码器-解码器模型,通过MLM目标训练了200万步,约2万亿token。
大型语言模型
Transformers

英语
P
EleutherAI
50
19
Pile T5 Xxl
Pile-T5 XXL是基于T5x库在The Pile数据集上训练的编码器-解码器模型,采用类似原始T5模型的MLM目标,训练了200万步(约2万亿token)。
大型语言模型
Transformers

英语
P
EleutherAI
44
28
Medicap
Apache-2.0
MedICap是一款医疗影像描述生成编码器-解码器模型,在ImageCLEFmedical Caption 2023挑战赛中荣获冠军。
图像生成文本
Transformers

M
aehrc
475
2
Pile T5 Large
Pile-T5 Large 是基于 T5x 库在 The Pile 数据集上训练的编码器-解码器模型,主要用于英语文本到文本生成任务。
大型语言模型
Transformers

英语
P
EleutherAI
112
15
T5 Small Wikilingua Vietnamese
MIT
基于Transformer编码器-解码器架构的越南语最先进轻量级预训练模型,专注于文本摘要任务。
文本生成
Transformers

其他
T
minhtoan
43
3
Vlt5 Base Keywords
基于谷歌Transformer架构的编码器-解码器关键词生成模型,支持波兰语和英语,主要用于从科学论文摘要中提取关键词。
文本生成
Transformers

支持多种语言
V
Voicelab
6,736
55
Vit5 Large
MIT
基于Transformer架构的越南语先进预训练编码器-解码器模型
大型语言模型
其他
V
VietAI
1,444
5
Roberta2roberta L 24 Wikisplit
Apache-2.0
这是一个基于RoBERTa架构的编码器-解码器模型,专门针对句子拆分任务进行微调。
文本生成
Transformers

英语
R
google
16
8
T0
Apache-2.0
T0++是一个在英语自然语言提示上展示零样本任务泛化能力的编码器-解码器模型,在许多任务上优于GPT-3,同时体积小了16倍。
大型语言模型
Transformers

英语
T
bigscience
2,560
83
Rut5 Base
ruT5-base是由SberDevices开发的俄语文本到文本生成模型,基于T5架构,参数量2.22亿,训练数据量300GB。
大型语言模型
Transformers

其他
R
ai-forever
5,946
18
Bert2bert Turkish Paraphrase Generation
基于Bert2Bert架构的土耳其语释义生成模型,用于生成语义相同但表达不同的句子。
文本生成
Transformers

其他
B
ahmetbagci
118
12
Wav2vec2 Large Xlsr 53 German Gpt2
Apache-2.0
这是一个基于MOZILLA-FOUNDATION/COMMON_VOICE_7_0德语数据集训练的自动语音识别编码器-解码器模型,结合了Wav2Vec2和GPT2架构的优势。
语音识别
Transformers

德语
W
jsnfly
28
2
Encoder Decoder Es
基于cc_news_es_titles数据集微调的编码器-解码器模型,用于西班牙语文本处理任务
大型语言模型
Transformers

E
amazon-sagemaker-community
121
0
Roberta2roberta L 24 Cnn Daily Mail
Apache-2.0
基于RoBERTa-Large初始化的编码器-解码器模型,专为摘要生成任务设计,在CNN/DailyMail数据集上微调。
文本生成
Transformers

英语
R
google
128
6
Bert Mini2bert Mini Finetuned Cnn Daily Mail Summarization
Apache-2.0
这是一个基于BERT-mini架构的编码器-解码器模型,专门针对CNN/Dailymail数据集进行微调,用于文本摘要生成任务。
文本生成
Transformers

英语
B
mrm8488
140
5
T0pp
Apache-2.0
T0pp是基于T5架构的110亿参数编码器-解码器模型,在英语自然语言提示的零样本任务泛化上表现优异,超越GPT-3且体积更小。
大型语言模型
Transformers

英语
T
bigscience
7,426
401
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文