多语言摘要
Pegasus Xsum Finetuned Xlsum Summarization
PEGASUS-XSum 是一个基于 PEGASUS 架构的预训练文本摘要模型,专门针对极端摘要(XSum)任务进行了优化。
文本生成
Transformers
P
skripsi-summarization-1234
11.89k
0
Mbart Large 50 Finetuned Xlsum Summarization
mBART-large-50 是一个多语言序列到序列模型,支持50种语言的文本摘要和生成任务。
文本生成
Transformers
M
skripsi-summarization-1234
28.54k
0
Amazon MultiLingual Review Summarization With Google Mt5 Small
Apache-2.0
这是一个在多语言亚马逊评论数据集上微调的mT5-small模型,专门用于生成英语和德语的产品评论摘要。
文本生成
Transformers
支持多种语言
A
srvmishra832
21
0
Meta Llama 3.1 8B Instruct Summarizer
Apache-2.0
基于Llama 3.1微调的多语言文本摘要模型,支持英语、西班牙语和中文,采用优化的Transformer架构并通过RLHF技术优化输出。
大型语言模型
Transformers
M
raaec
305
2
O3ap Sm
基于T5-small架构微调的乌克兰新闻摘要生成模型,支持乌克兰语和英语的新闻文章摘要生成。
文本生成
Transformers
支持多种语言
O
d0p3
21
2
Mlong T5 Large Sumstew
Apache-2.0
这是一个支持多语言、长文本(最高支持16k输入标记)的抽象摘要生成模型。
文本生成
Transformers
支持多种语言
M
Joemgu
103
9
Long T5 Base Sumstew
基于Long-T5架构的摘要生成模型,支持多语言文本摘要任务。
文本生成
Transformers
支持多种语言
L
Joemgu
27
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于谷歌mt5-small模型在亚马逊数据集上微调的英西翻译模型,支持英语到西班牙语的文本翻译任务。
机器翻译
Transformers
M
liton10
21
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small模型在亚马逊数据集上微调的英西翻译模型,专注于文本摘要任务
机器翻译
Transformers
M
spasis
28
0
Bart CaPE Xsum
Bsd-3-clause
CaPE是一种用于减少抽象摘要中幻觉的对比参数集成方法。
文本生成
Transformers
英语
B
praf-choub
22
0
Mt5 M2o Russian Crosssum
基于mT5架构的多语言摘要模型,可将多种语言的文本摘要为俄语
文本生成
Transformers
支持多种语言
M
csebuetnlp
66
3
Bert2bert Shared Spanish Finetuned Summarization
这是一个基于西班牙语BERT模型(BETO)微调的文本摘要模型,专门用于西班牙语文本的自动摘要生成。
文本生成
Transformers
西班牙语
B
mrm8488
3,185
31
Camembert2camembert Shared Finetuned French Summarization
该模型是基于CamemBERT架构的法语文本摘要模型,专门针对法语新闻摘要任务进行微调。
文本生成
Transformers
法语
C
mrm8488
540
14
Mt5 M2o English Crosssum
基于mT5架构的多语言摘要模型,可将多种语言的文本摘要为英语
文本生成
Transformers
支持多种语言
M
csebuetnlp
16
4