高ROUGE得分
Led Financial Summarization Genai15
专为金融文本摘要任务微调的LED模型,基于pszemraj/led-large-book-summary,由华威商学院GEN AI GROUP 15团队开发
文本生成
其他
L
fahil2631
15
0
Train 1000 ViT5 Test
这是一个基于VietAI/vit5-base模型,使用AutoTrain进行训练的序列到序列模型,支持文本生成任务。
大型语言模型
Transformers
T
Nosiath
29
1
Turkish Abstractive Summary Mt5
Apache-2.0
基于mukayese/mt5-base-turkish-summarization微调的土耳其语新闻摘要生成模型,能生成简洁连贯的摘要。
文本生成
Transformers
其他
T
yeniguno
52
0
T5 Summarizer Model
MIT
基于T5-small微调的文本摘要模型,专门用于从长篇文本生成简洁、连贯且信息丰富的摘要。
文本生成
Transformers
英语
T
KipperDev
25
1
Bart Finetuned Samsum
基于BART-large-xsum微调的对话摘要模型,专门针对SamSum对话数据集优化
文本生成
Transformers
英语
B
luisotorres
177
3
Heackmt5 ZhSum100k
基于mT5微调的中文文本摘要模型,在多样化的中文数据集上训练,能够为各类文本生成连贯简洁的摘要。
文本生成
Transformers
中文
H
heack
127
15
Bart Large Scientific Lay Summarisation
Apache-2.0
基于BART-large架构的文本摘要模型,专门用于科学文献的通俗化摘要生成。
文本生成
Transformers
英语
B
sambydlo
66
3
Flan T5 Base Samsum
Apache-2.0
基于Google的flan-t5-base模型在samsum对话摘要数据集上微调的文本生成模型
大型语言模型
Transformers
F
philschmid
13.96k
90
Flan T5 Large Stacked Samsum 1024
Apache-2.0
基于google/flan-t5-large在stacked-samsum-1024数据集上微调的摘要生成模型,采用堆叠摘要方法改进信息提炼能力
文本生成
Transformers
英语
F
stacked-summaries
16
10
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP15
Bsd-3-clause
基于Long-T5架构的大规模摘要生成模型,专门针对书籍和长文档摘要任务进行优化
文本生成
Transformers
L
pszemraj
17
0
Randeng Pegasus 238M Summary Chinese
专精于中文文本摘要任务的PAGASUS-base中文版本,基于多个中文摘要数据集微调优化
文本生成
Transformers
中文
R
IDEA-CCNL
1,222
46
Randeng Pegasus 523M Summary Chinese
专精于文本摘要任务的中文PEGASUS-large模型,在多个中文摘要数据集上微调得到
文本生成
Transformers
中文
R
IDEA-CCNL
9,549
58
Long T5 Tglobal Large Pubmed 3k Booksum 16384 WIP
Apache-2.0
基于Long-T5架构的大规模摘要生成模型,专门针对长文档摘要任务优化,支持16384个token的上下文长度。
文本生成
Transformers
L
pszemraj
65
1
Lsg Bart Base 16384 Mediasum
基于LSG技术的BART模型,专为处理长序列摘要生成任务优化,支持16384长度的输入序列
文本生成
Transformers
英语
L
ccdv
22
2
Mt5 Cpe Kmutt Thai Sentence Sum
基于mT5-base模型微调的泰语句子摘要生成模型,由泰国国王科技大学计算机工程专业学生开发
文本生成
Transformers
其他
M
thanathorn
776
8
Distilbart Cnn 12 6 Finetuned Resume Summarizer
基于distilbart-cnn-12-6微调的简历摘要生成模型,在ROUGE指标上表现良好
文本生成
Transformers
D
Ameer05
19
0
Test
基于Ameer05/tokenizer-repo微调的摘要生成模型,在胭脂红指标上表现良好
文本生成
Transformers
T
Ameer05
18
0
Pn Summary Mt5 Base
该模型是基于mT5-base架构训练的波斯语文本摘要生成模型,专门针对pn_summary数据集优化,能够生成高质量的波斯语文本摘要。
文本生成
Transformers
其他
P
HooshvareLab
68
3
Bart Large Xsum
MIT
基于BART架构的大型摘要生成模型,专门在xsum数据集上微调,擅长生成简洁的新闻摘要。
文本生成
英语
B
facebook
20.44k
35
Bigbird Pegasus Large Arxiv
Apache-2.0
BigBird是一种基于稀疏注意力的Transformer模型,能够处理更长的序列,适用于长文档摘要等任务。
文本生成
Transformers
英语
B
google
8,528
61
T5 Base Fr Sum Cnndm
基于T5 Transformer的法语文本摘要模型,专为法语生成式文本摘要任务进行微调。
文本生成
Transformers
法语
T
plguillou
3,638
22
Pegasus Reddit
该模型是在reddit数据集上对google/pegasus-large进行微调的版本,主要用于文本到文本生成任务。
大型语言模型
Transformers
P
QuickRead
22
0