Bodo Bart Large Summ
Apache-2.0
该模型是基于facebook/bart-large在Bodo法律摘要数据集上微调的文本摘要生成模型
文本生成
Transformers

B
Mwnthai
19
1
Bart Large CNN Onnx
BART Large CNN 是一个基于 BART 架构的预训练模型,专门用于文本摘要任务。
文本生成
Transformers

B
c2p-cmd
13
0
Summllama3 70B
SummLlama3-70B是基于Llama3-70B-Instruct初始化的文本摘要模型,通过大规模摘要反馈的DPO训练优化,在忠实性、完整性和简洁性方面表现优异。
大型语言模型
S
DISLab
15
7
Bart Large Cnn
MIT
这是facebook/bart-large-cnn模型的ONNX优化版本,主要用于文本摘要任务。
文本生成
Transformers

B
philipp-zettl
15
0
Bart Large Cnn Finetuned Split Laws
MIT
该模型是基于facebook/bart-large-cnn微调的文本摘要模型,擅长法律文本的摘要生成任务。
文本生成
Transformers

B
viktor-shevchuk
46
1
Rut5 Base Summarizer
Apache-2.0
基于ai-forever/ruT5-base微调的俄语文本摘要模型,训练数据约6万条样本,适用于新闻等文本的摘要生成任务。
文本生成
Transformers

其他
R
sarahai
713
5
T5 Summary En Ru Zh Base 2048
Apache-2.0
这是一个基于T5的多任务模型,支持英语、俄语和中文的文本摘要生成及互译功能,能够根据指令生成不同长度的摘要内容。
大型语言模型
Transformers

支持多种语言
T
utrobinmv
7,032
42
Ru Sum
Apache-2.0
基于google/mt5-base微调的俄语文本摘要生成模型,训练数据约5万条样本,专注于生成高质量俄语摘要。
文本生成
Transformers

其他
R
sarahai
130
2
Bart Summarizer Model
MIT
基于 facebook/bart-base 微调的文本摘要模型,擅长从长篇文本生成简洁、连贯的摘要。
文本生成
Transformers

英语
B
KipperDev
30
3
T5 Vietnamese Summarization
基于T5架构的越南语文本摘要生成模型,在未知数据集上微调,支持生成简洁的越南语摘要。
文本生成
Transformers

其他
T
pengold
510
3
Bart Large Paper2slides Summarizer
MIT
基于Bart-Large架构的摘要模型,专门用于将科研论文内容精准摘要为适合幻灯片展示的形式。
文本生成
Transformers

英语
B
com3dian
26
7
Finetuned Multi News Bart Text Summarisation
Apache-2.0
基于BART架构的多新闻文本摘要模型,在multi_news数据集上微调,擅长生成新闻文章的简洁摘要。
文本生成
Transformers

F
Madan490
75
0
T5 Portuguese Legal Summarization
MIT
基于T5架构微调的葡萄牙语法律文本摘要模型,专门用于处理司法判例的自动摘要生成
文本生成
Transformers

其他
T
stjiris
392
17
Summarization Hi Mbart Large 50 Hungarian
MIT
该模型是基于mBART-large-50微调的匈牙利语摘要生成模型,专门用于生成匈牙利语文本的抽象摘要。
文本生成
Transformers

其他
S
NYTK
185
1
T5 Large Ua News
MIT
基于mt5-large架构微调的乌克兰语新闻摘要生成模型,使用UberText语料库训练
文本生成
Transformers

其他
T
SGaleshchuk
51
3
T5 Large Korean Text Summary
基于paust/pko-t5-large模型微调的韩语文本摘要模型,能够对韩语长文本生成简洁摘要
文本生成
韩语
T
lcw99
292
7
T5 Base Korean Text Summary
基于T5架构的韩语文本摘要模型,能够对韩语长文本进行简洁摘要
文本生成
韩语
T
lcw99
1,210
11
Autotrain Hello There 1209845735
这是一个通过AutoTrain训练的文本摘要模型,能够自动生成输入文本的摘要。
文本生成
Transformers

其他
A
Jacobsith
13
0
T5 Large Finetuned Xsum Cnn
MIT
这是一个基于T5-large模型微调的摘要生成模型,在XSUM和CNN每日邮报数据集上训练,擅长生成简洁准确的摘要。
文本生成
Transformers

英语
T
sysresearch101
47
5
Test Model
Randeng-Pegasus-238M-Summary-Chinese 是一个基于PEGASUS架构的中文摘要生成模型,由IDEA-CCNL开发,专门用于生成中文文本的摘要。
文本生成
Transformers

中文
T
dongxq
16
0
Bart Large Cnn Samsum Rescom Finetuned Resume Summarizer 10 Epoch Tweak Lr 8 100 1
基于BART架构的文本摘要模型,在未知数据集上微调,擅长生成简历摘要
文本生成
Transformers

B
Ameer05
18
1
T5 Base Indonesian Summarization Cased
针对印尼语微调的T5基础摘要生成模型,基于huseinzol05的t5-base-bahasa-summarization-cased模型,使用indosum数据集进行微调。
文本生成
其他
T
panggi
301
5
Pn Summary B2b Shared
基于pnSummary数据集构建的波斯语文章摘要生成模型,适用于商业文本摘要任务。
文本生成
Transformers

其他
P
HooshvareLab
27
5
Pegasus Large Booksum
MIT
基于书籍内容生成摘要的模型,适用于长文本摘要任务
文本生成
Transformers

P
cnicu
14
0
Pn Summary Mt5 Base
该模型是基于mT5-base架构训练的波斯语文本摘要生成模型,专门针对pn_summary数据集优化,能够生成高质量的波斯语文本摘要。
文本生成
Transformers

其他
P
HooshvareLab
68
3
Bart Large Xsum
MIT
基于BART架构的大型摘要生成模型,专门在xsum数据集上微调,擅长生成简洁的新闻摘要。
文本生成
英语
B
facebook
20.44k
35
T5 V1.1 Base Dutch Cnn Test
Apache-2.0
基于T5架构的荷兰语新闻摘要模型,针对CNN每日邮报荷兰语版微调
文本生成
其他
T
yhavinga
176
3
Pegasus Summarizer
Apache-2.0
基于PEGASUS架构微调的文本摘要模型,擅长生成简洁准确的摘要
文本生成
Transformers

英语
P
tuner007
1,304
44
T5 Small Booksum
MIT
基于 BookSum 数据集的摘要生成模型,擅长从书籍内容中生成简洁准确的摘要。
文本生成
Transformers

T
cnicu
18.09k
9
Bart Base Cnn
Apache-2.0
本模型是在CNN/DailyMail摘要数据集上微调的bart-base模型,擅长文本摘要生成任务
文本生成
Transformers

英语
B
ainize
749
15
Mbart Large Cc25 Cnn Dailymail Nl
基于mbart架构微调的荷兰语新闻摘要生成模型,由ml6team开发
文本生成
Transformers

其他
M
ml6team
75
6
Kobart News
MIT
基于kobart框架微调的韩语新闻摘要生成模型,适用于从长篇新闻文章中提取关键信息生成简洁摘要。
文本生成
Transformers

韩语
K
ainize
1,241
18
Finetuned Bart
基于BART架构的序列到序列模型,在CNN/DailyMail数据集上进行了微调,适用于文本摘要任务。
大型语言模型
Transformers

F
Mousumi
19
0
Rut5 Base Headline Gen Telegram
Apache-2.0
基于rut5-base的俄语新闻标题生成模型,专为Telegram平台优化
文本生成
Transformers

其他
R
IlyaGusev
9,409
8
Bert Roberta Summarization Cnn Dailymail
基于BERT或RoBERTa架构微调的文本摘要模型,在CNN/DailyMail数据集上训练
文本生成
Transformers

B
Ayham
57
1
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文