T5 Small Finetuned Stock News 2
Apache-2.0
基于t5-small微调的文本摘要生成模型,在金融新闻领域表现良好
文本生成
Transformers
T
Kallia
40
0
Meetingscript
Apache-2.0
基于BigBird-Pegasus架构优化的会议转录文本摘要生成模型,支持处理长达4096标记的会议记录并生成简洁摘要
文本生成
Transformers
英语
M
Shaelois
21
1
T5 Small Title Ft
Apache-2.0
T5 Small 是 Google 发布的 T5(Text-to-Text Transfer Transformer)模型的小型版本,适用于多种自然语言处理任务。
文本生成
Transformers
英语
T
swarup3204
25
0
Flant5summarize
这是一个基于Flan T5基础模型在CNNDailyMail数据集上微调的摘要生成模型,能够将新闻文章压缩成简洁的摘要。
文本生成
Safetensors
英语
F
Ismetdh
21
0
Fine Tuned Bart
基于facebook/bart-large-cnn微调的印尼语文本摘要模型
文本生成
Safetensors
F
xTorch8
229
0
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNN 是一个基于 BART 架构的预训练模型,专门用于文本摘要生成任务。
文本生成
英语
B
vapit
17
0
Khmer Mt5 Summarization
MIT
这是一个针对高棉语文本摘要任务微调的mT5模型,基于谷歌的mT5-small模型,在高棉语文本数据集上微调,能够生成简洁且语义丰富的高棉语文本摘要。
文本生成
Transformers
其他
K
songhieng
58
2
Pegasus Large Privacy Policy Summarization V2
MIT
基于谷歌Pegasus Large模型微调,专门用于将冗长的隐私政策文件摘要为简洁版本。
文本生成
Transformers
英语
P
AryehRotberg
13
0
Fewshot Xsum Bart
MIT
基于BART-large的小样本摘要生成模型,使用XSUM数据集的100个样本训练,展示小样本学习在摘要任务中的潜力。
文本生成
F
bhargavis
19
1
PEGASUS Medium
MIT
PEGASUS Medium 是基于 PEGASUS 模型微调后的版本,专门针对印度尼西亚新闻文章进行抽象文本摘要任务优化。
文本生成
Safetensors
其他
P
fatihfauzan26
87
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基于google/mt5-small模型在未知数据集上微调的版本,主要用于英语到西班牙语的摘要生成任务。
文本生成
Transformers
M
kperron1
16
0
Scientific Paper Summarizer
基于PEGASUS架构微调的科学论文摘要生成专用模型
文本生成
S
Harsit
40
3
T5 Small Abstractive Summarizer
Apache-2.0
基于T5-small架构的文本摘要模型,在multi_news数据集上微调,擅长生成抽象式摘要
文本生成
Transformers
T
MK-5
80
0
Bart Base Job Info Summarizer
该模型是基于facebook/bart-base微调的职位信息摘要生成模型,专门用于从招聘信息中生成具有说服力的摘要。
文本生成
B
avisena
1,961
4
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基于google/mt5-small在gazeta数据集上微调的俄语摘要生成模型
文本生成
TensorBoard
M
sansmislom
33
0
Samsuntextsum
MIT
该模型是基于 Pegasus 架构,在 SAMSUM 数据集上微调得到的英语对话摘要模型。
文本生成
Transformers
英语
S
neuronstarml
20
0
Test Push
Apache-2.0
distilvit是一个基于VIT图像编码器和蒸馏版GPT-2文本解码器的图像转文本模型,能够生成图像的文本描述。
图像生成文本
Transformers
T
tarekziade
17
0
Vit Base Patch16 224 Distilgpt2
Apache-2.0
DistilViT 是一个基于视觉Transformer(ViT)和蒸馏版GPT-2的图像描述生成模型,能够将图像转换为文本描述。
图像生成文本
Transformers
V
tarekziade
17
0
Lexlm Longformer BART Fixed V1
基于BART微调的抽象式摘要生成模型,专为处理长篇幅法律文档设计,采用多步骤摘要生成方法
文本生成
Transformers
英语
L
MikaSie
15
2
BART No Extraction V2
基于BART微调的长法律文档摘要生成模型,采用多阶段摘要生成方法处理复杂法律文本
文本生成
Transformers
英语
B
MikaSie
280
0
Mt5 XLSUM Ua News
基于mT5多语言大模型在乌克兰语新闻数据集上微调的标题生成模型,能够为乌克兰语新闻文章生成简洁准确的标题。
文本生成
Transformers
其他
M
yelyah
110
1
Mt5 Small Finetuned Cnndailymail En
Apache-2.0
基于google/mt5-small模型在cnn_dailymail数据集上微调的摘要生成模型
文本生成
Transformers
M
Skier8402
16
0
Bart Summarizer Model
MIT
基于 facebook/bart-base 微调的文本摘要模型,擅长从长篇文本生成简洁、连贯的摘要。
文本生成
Transformers
英语
B
KipperDev
30
3
Pegasus Indonesian Base Finetune
Apache-2.0
该模型是基于PEGASUS架构的印尼语文本摘要模型,在Indosum、Liputan6和XLSum数据集上微调而成,适用于新闻类文本摘要任务。
文本生成
Transformers
其他
P
thonyyy
172
2
Rut5 Base Summ
基于ruT5-base微调的俄语文本与对话摘要模型,支持多领域俄语文本的摘要生成任务
文本生成
Transformers
支持多种语言
R
d0rj
207
22
Tst Summarization
基于google/pegasus-xsum微调的新闻摘要生成模型,在cnn_dailymail数据集上训练
文本生成
Transformers
英语
T
ChaniM
23
0
Long T5 Base Sumstew
基于Long-T5架构的摘要生成模型,支持多语言文本摘要任务。
文本生成
Transformers
支持多种语言
L
Joemgu
27
1
Sinmt5
该模型是基于mT5架构的多语言摘要生成模型,专门针对僧伽罗语进行了微调,用于生成CNN每日邮报僧伽罗语新闻的抽象摘要。
文本生成
Transformers
S
Hamza-Ziyard
14
0
Long T5 Base Govreport
Apache-2.0
基于Long-T5架构的政府报告摘要生成模型,专门针对长文档摘要任务进行优化
文本生成
Transformers
英语
L
AleBurzio
866
2
Mbart Large 50 Finetuned Stocks Event All
MIT
基于facebook/mbart-large-50微调的摘要生成模型,专注于股票事件摘要任务
文本生成
Transformers
M
jiaoqsh
18
0
Flan T5 Base Tldr News
一个针对TLDR新闻文章进行文本摘要和标题生成的微调T5模型
文本生成
Transformers
英语
F
ybagoury
16
2
Mt5 Multilingual XLSum Rust
基于XL-Sum数据集在45种语言上微调的mT5模型,用于多语言摘要生成任务。
文本生成
支持多种语言
M
spursyy
18
3
Mt5 Small Finetuned 28jan 2
Apache-2.0
基于google/mt5-small微调的文本摘要生成模型,支持多语言文本摘要任务。
文本生成
Transformers
M
mqy
14
0
Review Summarizer En
该模型专门用于总结亚马逊产品评论,生成简洁的摘要。
文本生成
Transformers
英语
R
MurkatG
35
4
Summarization Hi Pegasus Hungarian
该模型是基于Pegasus架构微调的匈牙利语文本摘要生成模型,专为匈牙利语文本摘要任务优化
文本生成
Transformers
其他
S
NYTK
18
0
Summarization Hi Mbart Large 50 Hungarian
MIT
该模型是基于mBART-large-50微调的匈牙利语摘要生成模型,专门用于生成匈牙利语文本的抽象摘要。
文本生成
Transformers
其他
S
NYTK
185
1
Flan T5 3b Summarizer
Bsd-3-clause
基于3B参数的google/flan-t5-xl模型在多个摘要数据集上微调的通用摘要生成器,适用于学术和通用场景。
文本生成
Transformers
英语
F
jordiclive
231
36
Mt5 Small HunSum 1
基于mT5-small架构训练的匈牙利语抽象摘要生成模型,使用HunSum-1数据集进行训练
文本生成
Transformers
其他
M
SZTAKI-HLT
14
1
Mt5 Base HunSum 1
Apache-2.0
基于mT5-base架构的匈牙利语抽象摘要模型,在HunSum-1数据集上训练
文本生成
Transformers
其他
M
SZTAKI-HLT
39
2
Pegasus Multi News NewsSummarization BBC
基于Pegasus架构微调的新闻摘要生成模型,专门针对BBC新闻内容优化
文本生成
Transformers
英语
P
DunnBC22
658
2