T5 Small Finetuned Xsum
Apache-2.0
基于T5-small模型在XSum数据集上微调的文本摘要模型
文本生成
Transformers

T
bdwjaya
103
0
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列预训练的时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型
C
amazon
1.5M
42
Kazrush Ru Kk
Apache-2.0
kazRush-ru-kk 是一个基于T5配置的俄语到哈萨克语的翻译模型,在多个开源平行数据集上训练而成。
机器翻译
Transformers

其他
K
deepvk
332
8
T5 Small Finetuned Hausa To Chinese
Apache-2.0
基于T5-small微调的豪萨语到中文翻译模型,在BLEU评估指标上达到30.26分
机器翻译
Transformers

T
Kumshe
21
1
Flan T5 Base Summarization Pt Br
MIT
基于FLAN-T5的葡萄牙语(巴西)文本摘要模型,经过指令微调优化
文本生成
Transformers

其他
F
PamelaBorelli
71
1
Sage Fredt5 Large
MIT
基于FRED-T5-large训练的俄语拼写检查模型,可纠正拼写、标点和大小写错误
文本生成
Transformers

其他
S
ai-forever
189
14
T5 Translate En Ru Zh Large 1024
Apache-2.0
这是一个基于T5架构的多语言机器翻译模型,支持英语、俄语和中文之间的互译。
机器翻译
Transformers

支持多种语言
T
utrobinmv
1,472
85
T5 Translate En Ru Zh Base 200
Apache-2.0
基于T5架构的多语言翻译模型,支持俄语、中文和英语之间的双向翻译
机器翻译
Transformers

支持多种语言
T
utrobinmv
500
10
Rut5 Base Summ Dialogsum
基于d0rj/rut5-base-summ微调的俄语对话摘要模型,在DialogSum数据集上训练
文本生成
Transformers

R
Kekega
15
1
T5 Base Emojilm
基于T5架构的预训练模型,能够将英文句子转化为表情符号序列
文本生成
Transformers

英语
T
KomeijiForce
406
4
Grammar T5
Apache-2.0
基于jfleg数据集构建的语法纠错模型,采用t5-base架构,专注于英文语法修正。
大型语言模型
Transformers

G
vagmi
17
1
Flan T5 Base Opus En Id Id En
Apache-2.0
基于FLAN-T5架构的英印双语翻译模型,支持英语与印尼语之间的互译
机器翻译
Transformers

支持多种语言
F
muvazana
22
0
Long T5 Base Govreport
Apache-2.0
基于Long-T5架构的政府报告摘要生成模型,专门针对长文档摘要任务进行优化
文本生成
Transformers

英语
L
AleBurzio
866
2
Comet Atomic En
基于T5架构的英文事件推理模型,用于分析事件的前提条件、影响、意图和反应
大型语言模型
Transformers

英语
C
svjack
319
3
Ptt5 Base Summ Xlsum
MIT
基于PTT5微调的巴西葡萄牙语文本抽象摘要生成模型,支持新闻等多种文本的摘要生成。
文本生成
Transformers

其他
P
recogna-nlp
3,754
16
Longt5 Base Global Mediasum
基于google/long-t5-tglobal-base微调的文本摘要模型,在XSum和CNN/DailyMail数据集上表现良好。
文本生成
Transformers

L
nbroad
19
0
T5 Grammar Corruption
Apache-2.0
基于t5-base模型微调的语法纠错模型,用于文本语法错误检测与修正
机器翻译
Transformers

T
juancavallotti
19
1
Molt5 Base
Apache-2.0
molt5-base 是一个基于 T5 架构的模型,专门用于分子与自然语言之间的翻译任务。
机器翻译
Transformers

M
laituan245
3,617
1
T5 Paraphrase Paws Msrp Opinosis
Apache-2.0
这是一个基于T5-base架构的释义模型,在PAWS、MSRP和Opinosis数据集上进行了微调,主要用于文本释义和改写任务。
机器翻译
英语
T
ceshine
77
3
T5 Small Ssm Nq
Apache-2.0
T5-small-ssm-nq是基于T5架构的小型闭卷问答模型,经过C4、维基百科和自然问题(NQ)数据集的预训练和微调。
问答系统
英语
T
google
300
1
Indot5 Small
基于印尼语mC4数据集预训练的T5小型模型,需微调后使用
大型语言模型
Transformers

其他
I
Wikidepia
83
0
Triviaqa T5 Base
基于T5-base架构的琐事问答模型,通过无上下文训练实现闭卷式问答能力
问答系统
Transformers

英语
T
deep-learning-analytics
79
3
T5 Qa Squad2neg En
MIT
基于T5-small架构的问答系统模型,支持抽取式问答任务,可处理可回答与不可回答的情况
问答系统
支持多种语言
T
ThomasNLG
533
0
T5 Paraphrase Paws
基于T5架构的英语句子复述生成模型,使用Google PAWS数据集训练
文本生成
英语
T
Vamsi
67.42k
38
Kgt5 Wikikg90mv2
MIT
基于WikiKG90Mv2数据集训练的T5模型,用于知识图谱中的尾实体预测任务
知识图谱
Transformers

K
apoorvumang
22
1
T5 Weighter Cnndm En
MIT
基于T5-small架构的分类器,用于评估答案/问题组合的重要性,判断答案是否足够相关以出现在摘要中。
问答系统
支持多种语言
T
ThomasNLG
178
0
Gec T5 Small
Apache-2.0
基于T5-small架构的语法错误修正模型,用于自动检测和修正英语文本中的语法错误。
大型语言模型
Transformers

英语
G
Unbabel
4,285
25
Plsum Base Ptt5
PLSUM 是一个针对葡萄牙语的多文档抽取式摘要模型,能够从多个文档中提取关键句子并生成类似维基百科的摘要。
文本生成
Transformers

P
seidel
22
4
Keytotext Small
基于T5-small架构的关键词生成文本模型,可将输入关键词转换为连贯句子
文本生成
Transformers

K
gagan3012
20
0
Byt5 Xxl
Apache-2.0
ByT5是谷歌T5的无分词器版本,直接处理UTF-8字节序列,支持多语言文本处理,特别擅长处理噪声数据。
大型语言模型
Transformers

支持多种语言
B
google
1,872
18
Ptt5 Large T5 Vocab
MIT
PTT5是基于BrWac语料库预训练的T5模型,专门针对葡萄牙语优化,提供多种尺寸和词汇表选择。
大型语言模型
Transformers

其他
P
unicamp-dl
45
2
Rut5 Base Detox
基于ruT5-base训练的俄语文本去毒模型,用于将有毒俄语文本转换为中性表达。
机器翻译
Transformers

其他
R
s-nlp
193
9
Rut5 Base Absum
MIT
这是一个基于T5架构并在多个数据集上微调的俄语抽象摘要生成模型,能够生成简洁准确的文本摘要。
文本生成
Transformers

其他
R
cointegrated
1,135
27
T5 Base Cnn Dm
Apache-2.0
该模型是基于T5架构微调的新闻摘要生成模型,训练数据来自CNN/DailyMail新闻数据集。
文本生成
英语
T
flax-community
808
1
T5 Vi En Base
基于T5架构的越南语-英语机器翻译模型
机器翻译
T
NlpHUST
17
2
Code Trans T5 Small Api Generation Multitask Finetune
基于t5 small架构预训练的Java API推荐生成模型,通过多任务训练和微调优化
大型语言模型
C
SEBIS
22
0
Query Gen Msmarco T5 Base V1
基于T5-base架构的查询生成模型,用于为文本段落生成可能的搜索查询,无需标注数据即可训练语义搜索模型
文本生成
Q
BeIR
417
17
Ke T5 Base Ko
Apache-2.0
KE-T5是由韩国电子技术研究院开发的基于T5架构的韩英双语文本生成模型,支持跨语言知识迁移的对话生成任务。
大型语言模型
韩语
K
KETI-AIR
208
9
Code Trans T5 Base Api Generation Multitask Finetune
基于T5架构的预训练模型,专为Java API推荐生成任务设计,通过多任务训练优化性能
大型语言模型
C
SEBIS
16
0
Code Trans T5 Small Api Generation
基于T5 Small架构预训练的API推荐生成模型,专为Java编程任务设计
大型语言模型
Transformers

C
SEBIS
15
0
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文