T5架构优化
Rut5 Base Headline Generation
基于T5架构的俄语新闻标题生成模型,针对短篇新闻文本优化,可生成6-11个词汇的摘要式标题
文本生成
Transformers
其他
R
wanderer-msk
65
1
Chronos Bolt Small
Apache-2.0
Chronos-Bolt是一系列预训练时间序列预测模型,支持零样本预测,基于T5编码器-解码器架构,训练数据涵盖近千亿时间序列观测点。
气候模型
Safetensors
C
amazon
340.81k
10
T5 3b Q4 K M GGUF
Apache-2.0
该模型是通过ggml.ai的GGUF-my-repo空间,使用llama.cpp从google-t5/t5-3b转换至GGUF格式的量化版本。
机器翻译
支持多种语言
T
VVS2024
15
0
Kazrush Kk Ru
Apache-2.0
kazRush-kk-ru 是一个基于T5配置的哈萨克语到俄语的翻译模型,在多个平行数据集上训练而成。
机器翻译
Transformers
其他
K
deepvk
2,630
8
Biot5 Plus Large
MIT
BioT5+ 是一个基于T5架构的大型生物医学语言模型,通过IUPAC整合与多任务调优实现广义生物学理解。
大型语言模型
Transformers
英语
B
QizhiPei
52
2
Ptt5 V2 Base
Apache-2.0
ptt5-v2是针对葡萄牙语预训练的T5模型系列,基于Google原始检查点继续训练而成。
大型语言模型
Transformers
其他
P
unicamp-dl
1,197
2
Ptt5 V2 Small
Apache-2.0
专为葡萄牙语优化的预训练T5模型,基于谷歌原版t5-small检查点继续训练
大型语言模型
Transformers
其他
P
unicamp-dl
85
1
FRED T5 Summarizer
MIT
由SberDevices开发的俄语文本摘要生成模型,基于T5架构,参数规模1.7B
文本生成
Transformers
其他
F
RussianNLP
11.76k
21
Udop Large 512
MIT
UDOP是一个统一视觉、文本与布局的通用文档处理模型,基于T5架构,适用于文档图像分类、解析和视觉问答等任务。
图像生成文本
Transformers
U
microsoft
193
5
T5 Translate En Ru Zh Small 1024
Apache-2.0
基于T5架构的多语言翻译模型,支持俄语、中文和英语之间的双向互译
机器翻译
Transformers
支持多种语言
T
utrobinmv
2,405
34
Ptt5 Base Summ
MIT
基于PTT5微调的巴西葡萄牙语抽象摘要生成模型,支持从新闻等文本中生成简洁摘要。
文本生成
Transformers
其他
P
recogna-nlp
853
0
Madlad400 7b Mt
Apache-2.0
基于T5架构的多语言机器翻译模型,支持400+种语言,使用2500亿token训练
机器翻译
支持多种语言
M
google
4,450
15
Medical Mt5 Large
Apache-2.0
Medical mT5是首个面向医疗领域的开源多语言文本生成模型,基于mT5检查点,支持英语、西班牙语、法语和意大利语。
大型语言模型
Transformers
支持多种语言
M
HiTZ
3,019
21
Title Generator
Apache-2.0
该模型基于t5-small架构,用于将长篇医学研究摘要自动生成简洁标题。
文本生成
Transformers
英语
T
TusharJoshi89
67
3
Flan T5 Large Squad2
MIT
基于flan-t5-large模型,使用SQuAD2.0数据集微调的抽取式问答模型,支持可回答和不可回答问题的处理。
问答系统
Transformers
英语
F
sjrhuschlee
57
5
Flan T5 Base Squad2
MIT
基于flan-t5-base模型,使用SQuAD2.0数据集微调的抽取式问答模型,可处理包含无答案问题的问答对。
问答系统
Transformers
英语
F
sjrhuschlee
2,425
4
Long Ke T5 Base Translation Aihub Bidirection
Apache-2.0
基于KETI-AIR/long-ke-t5-base微调的多领域韩英双向翻译模型,支持食品、科技、社会科技和口语领域的翻译任务。
机器翻译
Transformers
支持多种语言
L
KETI-AIR-Downstream
79
3
Long T5 Tglobal Base Sci Simplify Elife
Apache-2.0
基于Long-T5架构的模型,专门用于科学论文的通俗摘要生成,能将复杂研究内容转化为非专业人士可理解的文本。
文本生成
Transformers
英语
L
pszemraj
22.98k
5
Chatgpt Paraphraser On T5 Base
Openrail
基于T5-base架构训练的文本复述模型,能够生成高质量复述文本,号称Hugging Face平台最佳复述模型之一
文本生成
Transformers
英语
C
humarin
115.08k
185
FRED T5 Large
Apache-2.0
基于T5架构的俄语预训练语言模型,采用类似UL2的7种降噪器混合训练策略,支持多种文本生成任务。
大型语言模型
Transformers
其他
F
ai-forever
998
25
FRED T5 1.7B
Apache-2.0
基于T5架构的俄语预训练语言模型,采用类似UL2的7种降噪任务混合训练策略,参数规模17亿
大型语言模型
Transformers
其他
F
ai-forever
1,671
77
Solidity T5
Apache-2.0
基于T5架构的Solidity智能合约代码生成模型,专为Web3开发设计
文本生成
Transformers
英语
S
hululuzhu
141
11
Finabsa Longer
Apache-2.0
基于T5-Large架构训练的面向方面情感分析(ABSA)任务的金融领域模型,对长文本序列具有更强鲁棒性
文本分类
Transformers
英语
F
amphora
33
4
Finabsa
Apache-2.0
FinABSA是基于T5-Large架构训练的面向方面情感分析(ABSA)任务的模型,能够解析含多方面的句子,通过将目标方面替换为[TGT]标记,模型可聚焦该方面的情感预测。
大型语言模型
Transformers
英语
F
amphora
146
5
Randeng T5 784M QA Chinese
首个中文生成式问答预训练T5模型,基于悟道180G语料预训练并在中文SQuAD和CMRC2018数据集上微调
问答系统
Transformers
中文
R
IDEA-CCNL
166
32
Ptt5 Base Summ Cstnews
MIT
基于PTT5微调的巴西葡萄牙语文本抽象摘要生成模型
文本生成
Transformers
其他
P
recogna-nlp
47
8
Ptt5 Base Summ Temario
MIT
基于PTT5微调的模型,用于生成巴西葡萄牙语文本的抽象摘要。
文本生成
Transformers
其他
P
recogna-nlp
159
1
Ptt5 Base Summ Wikilingua
MIT
基于PTT5微调的巴西葡萄牙语文本抽象摘要生成模型,支持多种摘要生成任务。
文本生成
Transformers
其他
P
recogna-nlp
38
4
Sentence It5 Base
基于IT5的意大利语句子嵌入模型,可将文本映射到512维向量空间,适用于语义搜索和聚类任务
文本嵌入
Transformers
其他
S
efederici
86
4
Sentence It5 Small
基于T5架构的意大利语小型句子转换模型,适用于语义搜索和文本相似度计算
文本嵌入
Transformers
其他
S
efederici
83
0
Scifive Large Pubmed
SciFive是一个专门针对生物医学文献的文本到文本转换模型,基于T5架构,专注于处理生物医学领域的文本任务。
大型语言模型
英语
S
razent
63
2
Gemini
MIT
基于T5架构的代码摘要生成模型,支持多种编程语言的代码解释
大型语言模型
Transformers
英语
G
describeai
844
43
T5 Base Qg Hl
MIT
基于T5-base架构训练的答案感知问题生成模型,能够根据文本中的高亮答案片段生成相应问题。
问答系统
Transformers
T
valhalla
11.65k
12
Arat5 Base Title Generation
AraT5是专为阿拉伯语设计的文本生成模型系列,包含现代标准阿拉伯语版、推特版和通用版
大型语言模型
Transformers
阿拉伯语
A
UBC-NLP
117
12
Persian T5 Paraphraser
这是一个针对波斯语的文本复述模型,基于波斯语单语T5模型构建,能够生成波斯语文本的多种复述版本。
文本生成
Transformers
其他
P
erfan226
290
2
T5 Base Japanese Web
Apache-2.0
基于日语网络文本预训练的T5模型,支持字节回退,32K词表规模
大型语言模型
Transformers
日语
T
megagonlabs
4,917
19
Plt5 Large
plT5是基于T5架构、针对波兰语语料训练的语言模型,专为原始T5去噪任务进行了优化。
大型语言模型
Transformers
其他
P
allegro
1,366
5
Code Trans T5 Base Code Documentation Generation Python Multitask Finetune
基于T5架构的Python代码文档生成模型,经过多任务预训练和微调,专门用于生成Python函数的描述文档
文本生成
C
SEBIS
26
1
Code Trans T5 Base Code Documentation Generation Go Multitask Finetune
基于T5架构的Go语言代码文档生成模型,经过多任务预训练和微调,专门用于生成Go函数/方法的描述文档。
文本生成
C
SEBIS
15
0
Code Trans T5 Base Source Code Summarization Python
基于T5架构的预训练模型,专门用于生成Python代码的功能摘要
文本生成
C
SEBIS
27
0