Flan T5 Base Peft Dialogue Summary Before
Apache-2.0
基于google/flan-t5-base模型在对话摘要任务上的微调版本,使用PEFT方法进行参数高效微调
文本生成
TensorBoard

英语
F
agoor97
20
0
Bodo Bart Large Summ
Apache-2.0
该模型是基于facebook/bart-large在Bodo法律摘要数据集上微调的文本摘要生成模型
文本生成
Transformers

B
Mwnthai
19
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small模型在未知数据集上微调的版本,主要用于英语到西班牙语的摘要生成任务。
机器翻译
Transformers

M
NagaRamya
13
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small在亚马逊英西数据集上微调的摘要生成模型,支持英语到西班牙语的文本摘要任务。
机器翻译
Transformers

M
QHWU1228
17
0
T5 Small Common Corpus Topic Batch
Apache-2.0
基于T5-small架构微调的文本处理模型,专注于特定任务的文本生成与转换
大型语言模型
Transformers

T
Pclanglais
21
2
Text Summarization Cnn
Apache-2.0
基于Falconsai/text_summarization微调的文本摘要生成模型,支持从长文本中提取关键信息生成简洁摘要。
文本生成
Transformers

T
vmkhoa2000
125
0
Mt5 Small Finetuned Cnn Dailymail En Nlp Course Chapter7 Section4
Apache-2.0
基于google/mt5-small微调的摘要生成模型,在CNN/DailyMail数据集上训练,适用于英文文本摘要任务。
文本生成
Transformers

M
BanUrsus
68
0
Rut5 Base Sum Gazeta Finetuned Week Gpt
Apache-2.0
该模型是基于IlyaGusev/rut5_base_sum_gazeta微调的版本,主要用于俄语文本摘要生成任务。
文本生成
Transformers

R
Natet
16
0
Autotrain Stripped Data Training Biobart 90151144184
这是一个通过AutoTrain平台训练的摘要生成模型,基于BioBART架构,适用于文本摘要任务。
文本生成
Transformers

其他
A
gpadam
27
0
T5 Vietnamese Summarization
基于T5架构的越南语文本摘要生成模型,在未知数据集上微调,支持生成简洁的越南语摘要。
文本生成
Transformers

其他
T
pengold
510
3
Autotrain Financial Convo Summary 89094143854
这是一个基于AutoTrain训练的金融对话摘要生成模型,专门用于从金融对话中提取关键信息并生成简洁摘要。
文本生成
Transformers

其他
A
jsonfin17
173
3
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.01
MIT
基于facebook/mbart-large-50微调的英语到西班牙语翻译模型,在评估集上取得了45.09的BLEU分数。
机器翻译
Transformers

M
DrishtiSharma
16
0
Sinmt5 Tuned
基于谷歌mT5模型在未知数据集上微调的摘要生成模型,支持多语言文本摘要任务
文本生成
Transformers

S
Hamza-Ziyard
53
0
H2 Keywordextractor
这是一个通过AutoTrain平台训练的摘要生成模型,适用于金融领域文本的摘要生成任务。
文本生成
Transformers

其他
H
transformer3
6,592
47
Codet5 Base Generate Docstrings For Python Condensed
Apache-2.0
该模型是基于Salesforce/codet5-base微调的版本,用于为Python函数生成文档字符串。
文本生成
Transformers

英语
C
DunnBC22
17
2
Codet5 Small Generate Docstrings For Python Condensed
Apache-2.0
基于Salesforce/codet5-small微调的模型,用于为Python函数生成文档字符串
文本生成
Transformers

英语
C
DunnBC22
20
4
T5 Pegasus Ch Ans
这是一个基于AutoTrain平台训练的T5-Pegasus架构的中文摘要生成模型,适用于从文本中提取关键信息生成摘要。
文本生成
Transformers

中文
T
lambdarw
13
0
Flan T5 Large Finetuned Openai Summarize From Feedback
Apache-2.0
基于google/flan-t5-large模型在基于反馈的摘要数据集上微调的文本摘要模型
文本生成
Transformers

F
mrm8488
50
6
Flan T5 Small Finetuned Openai Summarize From Feedback
Apache-2.0
本模型是在summarize_from_feedback数据集上对google/flan-t5-small进行微调的版本,主要用于文本摘要任务。
文本生成
Transformers

F
mrm8488
33
9
Mt5 Summarize Japanese
Apache-2.0
基于google/mt5-small微调的日语摘要生成模型,专门用于新闻故事摘要生成
文本生成
Transformers

日语
M
tsmatz
552
19
TGL 3
Apache-2.0
TGL-3是基于t5-small微调的摘要生成模型,在23000条openreview.net摘要数据上训练,支持学术文本摘要生成任务。
文本生成
Transformers

T
awesometeng
13
1
T5 Small Finetuned Cnn News
Apache-2.0
基于T5-small模型在CNN/DailyMail新闻数据集上微调的文本摘要模型,能够生成新闻文章的简洁摘要。
文本生成
Transformers

T
shivaniNK8
25
0
T5 Small Finetuned Cnn V2
Apache-2.0
基于T5-small模型在cnn_dailymail数据集上微调的文本摘要生成模型
文本生成
Transformers

T
ubikpt
20
1
T5 Small Finetuned Cnn
Apache-2.0
基于T5-small架构在cnn_dailymail数据集上微调的文本摘要生成模型,擅长新闻摘要生成任务
文本生成
Transformers

T
ubikpt
55
0
Mt5 Base Finetuned Fa
Apache-2.0
基于google/mt5-base在pn_summary数据集上微调的波斯语摘要生成模型
文本生成
Transformers

其他
M
ahmeddbahaa
20
1
Arat5 Base Finetune Ar Xlsum
基于AraT5-base模型在阿拉伯语摘要数据集xlsum上微调的抽象摘要模型
文本生成
Transformers

阿拉伯语
A
ahmeddbahaa
15
0
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
基于mT5的多语言摘要生成模型,专门针对阿拉伯语在XLSum数据集上进行了微调
文本生成
Transformers

阿拉伯语
M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Sumarizacao PTBR
该模型是基于mT5_multilingual_XLSum在未知数据集上微调得到的葡萄牙语文本摘要模型
文本生成
Transformers

M
GiordanoB
23
2
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small模型在亚马逊数据集上微调的英西翻译模型,专注于文本摘要任务
机器翻译
Transformers

M
spasis
28
0
T5 Small Finetuned Contradiction
Apache-2.0
基于T5-small架构在SNLI数据集上微调的文本生成模型,专注于矛盾关系识别和摘要生成任务
文本生成
Transformers

T
domenicrosati
21
2
Arabart Finetuned Ar
Apache-2.0
基于AraBART模型在阿拉伯语摘要数据集xlsum上微调的文本摘要模型
文本生成
Transformers

A
ahmeddbahaa
40
0
Mt5 Small Finetuned Amazon En Zh TW
Apache-2.0
该模型是基于google/mt5-small在亚马逊数据集上微调的文本摘要模型,支持英文到繁体中文的摘要生成任务。
文本生成
Transformers

M
peterhsu
28
0
Distilbart Cnn 12 6 Finetuned Weaksup 1000
Apache-2.0
基于distilbart-cnn-12-6模型微调的文本摘要生成模型,在弱监督数据上训练1000步
文本生成
Transformers

D
cammy
79
1
Bert2bert Shared Spanish Finetuned Summarization
这是一个基于西班牙语BERT模型(BETO)微调的文本摘要模型,专门用于西班牙语文本的自动摘要生成。
文本生成
Transformers

西班牙语
B
mrm8488
3,185
31
Distilbart Cnn 6 6
Apache-2.0
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著提升推理速度。
文本生成
英语
D
sshleifer
48.17k
31
Distilbart Xsum 12 1
Apache-2.0
DistilBART是BART模型的蒸馏版本,专注于文本摘要生成任务,在保持较高性能的同时显著减少模型参数量和推理时间。
文本生成
英语
D
sshleifer
396
7
Bart Large Finetuned Xsum
MIT
基于BART-large架构在wsj_markets数据集上微调的文本生成模型,擅长摘要生成任务
文本生成
Transformers

B
aristotletan
14
0
Distilbart Xsum 12 3
Apache-2.0
DistilBART是BART模型的蒸馏版本,专门针对摘要生成任务进行了优化,在保持较高性能的同时显著减少模型参数量和推理时间。
文本生成
英语
D
sshleifer
579
11
Distilbart Xsum 1 1
Apache-2.0
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著减少模型大小和推理时间。
文本生成
英语
D
sshleifer
2,198
0
Mt5 Small Finetuned Arxiv Cs Finetuned Arxiv Cs Full
Apache-2.0
该模型是基于mt5-small在计算机科学领域arXiv论文数据集上微调的文本摘要生成模型,擅长生成技术性内容的简洁摘要。
文本生成
Transformers

M
shamikbose89
16
5
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文