新闻摘要
Mt5 Base Cnn Then Norsumm
基于mt5-base架构训练的文本摘要模型,支持从文本中提取关键信息生成摘要。
文本生成
Transformers
M
GloriaABK1
105
0
T5 Small Finetuned Xsum
Apache-2.0
基于T5-small模型在XSum数据集上微调的文本摘要模型
文本生成
Transformers
T
bdwjaya
103
0
Fine Tuned Bart
基于facebook/bart-large-cnn微调的印尼语文本摘要模型
文本生成
Safetensors
F
xTorch8
229
0
Khmer Mt5 Summarization 1024tk V2
Apache-2.0
基于mT5-small改进的高棉语文本摘要模型,支持最长1024词元的输入,适用于高棉语文章、段落或文档的摘要生成。
文本生成
Transformers
其他
K
songhieng
16
1
Finetuned T5 Xsum
Apache-2.0
基于T5-small模型,在XSum数据集上使用LoRA技术微调的文本摘要模型
文本生成
英语
F
Lakshan2003
22
0
Bart Large CNN Onnx
BART Large CNN 是一个基于 BART 架构的预训练模型,专门用于文本摘要任务。
文本生成
Transformers
B
c2p-cmd
13
0
Bengali Summarizer Mt5
MIT
基于MT5模型微调的孟加拉语文本摘要模型,适用于生成孟加拉语文本的简明摘要。
文本生成
Transformers
其他
B
tashfiq61
21
0
PEGASUS Liputan6
MIT
基于PEGASUS架构的印尼文摘要生成模型,在Liputan6新闻数据集上微调,适用于印尼文新闻内容的自动摘要生成。
文本生成
其他
P
fatihfauzan26
14
0
Bart Large Cnn
MIT
这是facebook/bart-large-cnn模型的ONNX优化版本,主要用于文本摘要任务。
文本生成
Transformers
B
philipp-zettl
15
0
Summarization Tamil
MIT
一个基于Hugging Face Transformers库微调的模型,支持泰米尔语摘要生成和英语-泰米尔语翻译任务。
文本生成
Transformers
支持多种语言
S
Mr-Vicky-01
35
2
Bart Finetuned Text Summarization
MIT
基于BART架构微调的文本摘要模型,专为生成简洁准确的摘要而设计
文本生成
Transformers
英语
B
suriya7
1,547
9
T5 Portuguese Small Summarization
Apache-2.0
基于Google T5-small微调的葡萄牙语摘要生成模型,针对葡萄牙语文本摘要任务优化
文本生成
Transformers
其他
T
rhaymison
158
0
Mt5 Base Thaisum Text Summarization
基于mT5架构微调的泰语文本摘要模型,支持生成40-140字符的简洁摘要
文本生成
Transformers
其他
M
StelleX
178
1
Distilbart Cnn 12 6
DistilBART-CNN-12-6是BART模型的蒸馏版本,专为文本摘要任务优化,体积更小但保持较高性能。
文本生成
Transformers
D
Xenova
218
0
Het5 Small Summarization
这是一个基于希伯来语的文本摘要模型,能够将输入的希伯来语文本自动生成简洁的摘要。
文本生成
Transformers
其他
H
imvladikon
14
0
Bart Base Multi News
Apache-2.0
基于facebook/bart-base在multi_news数据集上微调的文本摘要生成模型
文本生成
Transformers
英语
B
Ssarion
15
0
Mt5 Small Thaisum 512 Title
Apache-2.0
基于mT5-small微调的泰语文本摘要模型,专门用于生成文章标题
文本生成
Transformers
其他
M
Nopphakorn
34
0
Multi News Diff Weight
Apache-2.0
该模型是基于facebook/bart-base在multi_news数据集上微调的文本摘要模型,专门用于多文档摘要任务。
文本生成
Transformers
M
cs608
15
0
Distilbart Cnn 6 6
Apache-2.0
基于BART架构的轻量级文本摘要模型,通过知识蒸馏技术压缩原始模型规模,保留核心摘要能力
文本生成
Transformers
D
Xenova
1,260
7
Flan T5 Base Tldr News
一个针对TLDR新闻文章进行文本摘要和标题生成的微调T5模型
文本生成
Transformers
英语
F
ybagoury
16
2
Mt5 Multilingual XLSum Rust
基于XL-Sum数据集在45种语言上微调的mT5模型,用于多语言摘要生成任务。
文本生成
支持多种语言
M
spursyy
18
3
Mt5 Base HunSum 1
Apache-2.0
基于mT5-base架构的匈牙利语抽象摘要模型,在HunSum-1数据集上训练
文本生成
Transformers
其他
M
SZTAKI-HLT
39
2
Pegasus Multi News NewsSummarization BBC
基于Pegasus架构微调的新闻摘要生成模型,专门针对BBC新闻内容优化
文本生成
Transformers
英语
P
DunnBC22
658
2
Facebook Bart Large Cnn
MIT
BART是一个基于Transformer的序列到序列模型,专门用于文本摘要生成任务。
文本生成
英语
F
Yelyzaveta
24
0
Greek Text Summarization
Apache-2.0
这是一个针对希腊语文本摘要任务进行微调的mT5-small模型,能够生成希腊语文本的摘要。
文本生成
Transformers
其他
G
kriton
12.52k
6
MLQ Distilbart Bbc
Apache-2.0
该模型是基于sshleifer/distilbart-cnn-12-6在BBC新闻摘要数据集上微调的文本摘要模型,由都灵理工大学深度自然语言处理课程实验室实践开发。
文本生成
Transformers
M
DeepNLP-22-23
20
0
Ptt5 Base Summ Xlsum
MIT
基于PTT5微调的巴西葡萄牙语文本抽象摘要生成模型,支持新闻等多种文本的摘要生成。
文本生成
Transformers
其他
P
recogna-nlp
3,754
16
Bart Base Cnn Swe
MIT
基于BART架构的瑞典语摘要模型,在CNN Daily瑞典语数据集上微调
文本生成
Transformers
其他
B
Gabriel
31
1
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
该模型是基于distilbart-cnn-12-6在multi_news数据集上微调的文本摘要模型,专门用于多文档摘要任务。
文本生成
Transformers
D
datien228
22
3
Longt5 Base Global Mediasum
基于google/long-t5-tglobal-base微调的文本摘要模型,在XSum和CNN/DailyMail数据集上表现良好。
文本生成
Transformers
L
nbroad
19
0
Mbart Finetune En Cnn
基于MBART-large-50微调的英文抽象摘要模型,在CNN/DailyMail数据集上训练,擅长生成新闻文章的简洁摘要。
文本生成
Transformers
英语
M
eslamxm
19
0
Test Model
Randeng-Pegasus-238M-Summary-Chinese 是一个基于PEGASUS架构的中文摘要生成模型,由IDEA-CCNL开发,专门用于生成中文文本的摘要。
文本生成
Transformers
中文
T
dongxq
16
0
Arat5 Base Finetune Ar Xlsum
基于AraT5-base模型在阿拉伯语摘要数据集xlsum上微调的抽象摘要模型
文本生成
Transformers
阿拉伯语
A
ahmeddbahaa
15
0
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
基于mT5的多语言摘要生成模型,专门针对阿拉伯语在XLSum数据集上进行了微调
文本生成
Transformers
阿拉伯语
M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Finetuned Fa
该模型是基于mT5_multilingual_XLSum在波斯语摘要数据集pn_summary上微调的生成式摘要模型
文本生成
Transformers
其他
M
ahmeddbahaa
51
2
Mt5 Base Arabic
Apache-2.0
基于google/mt5-base在xlsum阿拉伯语数据集上微调的摘要生成模型
文本生成
Transformers
阿拉伯语
M
eslamxm
24
0
Mt5 Base Turkish Summarization
Apache-2.0
基于google/mt5-base在mlsum/tu数据集上微调的土耳其语文本摘要模型
文本生成
Transformers
M
mukayese
249
6
Distilbart Cnn 12 6 Finetuned Weaksup 1000
Apache-2.0
基于distilbart-cnn-12-6模型微调的文本摘要生成模型,在弱监督数据上训练1000步
文本生成
Transformers
D
cammy
79
1
Mt5 Multilingual XLSum
基于XL-Sum数据集45种语言微调的mT5模型,用于多语言摘要生成任务
文本生成
Transformers
支持多种语言
M
csebuetnlp
73.34k
293
Distilbart Cnn 6 6
Apache-2.0
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著提升推理速度。
文本生成
英语
D
sshleifer
48.17k
31