高ROUGE分数
Pegasus Xsum Finetuned Xlsum Summarization
PEGASUS-XSum 是一个基于 PEGASUS 架构的预训练文本摘要模型,专门针对极端摘要(XSum)任务进行了优化。
文本生成
Transformers
P
skripsi-summarization-1234
11.89k
0
T5 Small Text Summarization
Apache-2.0
基于T5-small架构在xsum数据集上微调的文本摘要模型,能够生成简洁的摘要内容。
文本生成
Transformers
T
bhuvaneswari
27
0
Pegasus Finetuned Samsum
该模型是基于google/pegasus-cnn_dailymail在samsum数据集上微调的文本摘要模型,专门用于对话摘要任务。
文本生成
Transformers
英语
P
avanishd
20
0
Flan T5 Titlegen Springer
MIT
基于google/flan-t5-base微调的模型,专门用于将科学摘要精炼为简洁标题的抽象摘要生成任务。
文本生成
Transformers
英语
F
tiam4tt
236
0
Clickbaitfighter 10B
基于NoticIA数据集微调的西班牙语标题党新闻摘要生成模型,能揭示耸动标题背后的真实内容
大型语言模型
Transformers
西班牙语
C
Iker
48
0
Bart Large Cnn Samsum
Apache-2.0
基于BART-large架构微调的对话摘要生成模型,在SAMSum数据集上训练
文本生成
Transformers
B
AdamCodd
18
2
Autotrain Summarization Bart Longformer 54164127153
基于AutoTrain平台训练的文本摘要生成模型,采用BART-Longformer架构
文本生成
Transformers
其他
A
Udit191
16
0
Flan T5 Base Samsum
Apache-2.0
基于Google的flan-t5-base模型在samsum对话摘要数据集上微调的文本生成模型,擅长对话摘要任务
大型语言模型
Transformers
英语
F
achimoraites
15
3
Bart Large Xsum Finetuned Samsum V2
MIT
该模型是基于facebook/bart-large-xsum在samsum数据集上微调的文本摘要生成模型,擅长生成对话摘要。
文本生成
Transformers
B
amagzari
48
1
Facebook Bart Large Cnn
MIT
BART是一个基于Transformer的序列到序列模型,专门用于文本摘要生成任务。
文本生成
英语
F
Yelyzaveta
24
0
Bart Base Xsum
Apache-2.0
基于facebook/bart-base在xsum数据集上微调的摘要生成模型,擅长生成简洁准确的摘要。
文本生成
Transformers
B
morenolq
15
2
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
该模型是基于distilbart-cnn-12-6在multi_news数据集上微调的文本摘要模型,专门用于多文档摘要任务。
文本生成
Transformers
D
datien228
22
3
T5 Large Finetuned Xsum Cnn
MIT
这是一个基于T5-large模型微调的摘要生成模型,在XSUM和CNN每日邮报数据集上训练,擅长生成简洁准确的摘要。
文本生成
Transformers
英语
T
sysresearch101
47
5
Longt5 Base Global Mediasum
基于google/long-t5-tglobal-base微调的文本摘要模型,在XSum和CNN/DailyMail数据集上表现良好。
文本生成
Transformers
L
nbroad
19
0
Long T5 Tglobal Base 16384 Book Summary
Bsd-3-clause
基于Long-T5架构的书籍摘要生成模型,支持处理长文档并生成高质量摘要。
文本生成
L
pszemraj
24.19k
134
Kot5 Summarization
Apache-2.0
KoT5 是一个基于 T5 架构的韩语文本摘要模型,专门针对韩语文本摘要任务进行了优化。
文本生成
Transformers
韩语
K
psyche
285
19
Bart Base Finetuned Samsum En
Apache-2.0
该模型是基于facebook/bart-base在samsum数据集上微调的版本,专门用于摘要生成任务。
文本生成
Transformers
B
santiviquez
25
0
Led Base Ilc
Apache-2.0
基于ILC数据集微调的Longformer编码器-解码器模型,专门用于法律文档摘要生成任务
文本生成
Transformers
其他
L
d0r1h
28
0
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 9 Epoch Tweak
基于BART-large架构微调的简历摘要生成模型,在ROUGE指标上表现优异
文本生成
Transformers
B
Ameer05
19
0
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 10 Epoch Tweak Lr 8 100 1
基于BART架构的文本摘要模型,在未知数据集上微调,擅长生成简历摘要
文本生成
Transformers
B
Ameer05
18
1
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 10 Epoch
基于BART-large架构的文本摘要模型,在未知数据集上进行了10轮微调,擅长生成简历摘要。
文本生成
Transformers
B
Ameer05
26
1
Mt5 Small Sum De En V1
基于多语言T5模型的双语摘要生成模型,支持英语和德语文本摘要任务
文本生成
Transformers
支持多种语言
M
deutsche-telekom
1,210
8
Bart Large Xsum Samsum
Apache-2.0
该模型是基于Samsum数据集微调的BART-large-xsum模型,专门用于对话摘要生成任务。
文本生成
Transformers
英语
B
knkarthick
14
0
Bart Summarisation
Apache-2.0
基于BART-large架构的对话摘要模型,专门针对SAMSum对话数据集进行微调,能够生成高质量的对话摘要。
文本生成
Transformers
英语
B
slauw87
4,225
59
Meeting Summary Samsum
Apache-2.0
该模型是基于BART架构的seq2seq模型,专门用于对话摘要生成任务,在SAMSum数据集上微调获得。
文本生成
Transformers
英语
M
knkarthick
25
9
Bart Large Cnn Samsum
MIT
基于BART-large架构的对话摘要模型,专为SAMSum语料库微调,适用于生成对话摘要。
文本生成
Transformers
英语
B
philschmid
141.28k
258
MEETING SUMMARY
Apache-2.0
基于BART架构的序列到序列模型,专门用于会议对话的抽象摘要生成,支持多语言会议记录处理。
文本生成
Transformers
英语
M
knkarthick
32.45k
191
Distilbart Cnn 12 6 Samsum
Apache-2.0
基于SAMSum数据集微调的轻量级对话摘要模型,使用亚马逊SageMaker和Hugging Face容器训练
文本生成
Transformers
英语
D
philschmid
284
20
Financial Summarization Pegasus
基于彭博社2000篇金融新闻微调的PEGASUS模型,专为金融领域摘要生成优化
文本生成
Transformers
英语
F
human-centered-summarization
11.89k
135
Bart Large Xsum Samsum
Apache-2.0
这是一个基于BART架构的序列到序列模型,专门用于对话摘要生成任务。
文本生成
Transformers
英语
B
lidiya
10.96k
38