Distilbart Multi News 12 6 2
Apache-2.0
DistilBART-CNN-12-6 是一个基于 BART 架构的轻量级摘要生成模型,专门针对 CNN/Daily Mail 数据集进行了优化。
文本生成
Transformers

英语
D
Angel0J
313
0
T5 Small Abstractive Summarizer
Apache-2.0
基于T5-small架构的文本摘要模型,在multi_news数据集上微调,擅长生成抽象式摘要
文本生成
Transformers

T
MK-5
80
0
Text Summarization
Apache-2.0
基于T5 Small架构微调的文本摘要模型,能够生成简洁连贯的输入文本摘要。
文本生成
Transformers

英语
T
Falconsai
61.66k
227
Finetuned Multi News Bart Text Summarisation
Apache-2.0
基于BART架构的多新闻文本摘要模型,在multi_news数据集上微调,擅长生成新闻文章的简洁摘要。
文本生成
Transformers

F
Madan490
75
0
Bart Multinews Model
这是一个基于multi_news数据集训练的文本摘要模型,能够从多文档输入中生成简洁的摘要。
文本生成
Transformers

B
usakha
18
0
Bart Base Multi News
Apache-2.0
基于facebook/bart-base在multi_news数据集上微调的文本摘要生成模型
文本生成
Transformers

英语
B
Ssarion
15
0
Multi News Diff Weight
Apache-2.0
该模型是基于facebook/bart-base在multi_news数据集上微调的文本摘要模型,专门用于多文档摘要任务。
文本生成
Transformers

M
cs608
15
0
Distilbart Cnn 12 6 Ftn Multi News
Apache-2.0
该模型是基于distilbart-cnn-12-6在multi_news数据集上微调的文本摘要模型,专门用于多文档摘要任务。
文本生成
Transformers

D
datien228
22
3
Lsg Bart Base 4096 Multinews
基于LSG技术的BART-base模型,专为长文本摘要任务设计,支持4096长度的输入序列
文本生成
Transformers

英语
L
ccdv
26
4
Lsg Bart Base 4096 Wcep
基于LSG-BART架构的长文本摘要生成模型,在WCEP-10数据集上微调,支持4096个token的长序列处理
文本生成
Transformers

英语
L
ccdv
27
2
Bart CaPE Cnn
Bsd-3-clause
CaPE是一种用于减少抽象摘要中幻觉的模型,通过对比参数集成技术提高摘要的准确性和可靠性。
文本生成
Transformers

英语
B
praf-choub
22
0
Mbart Large Cc25 Cnn Dailymail Nl Finetune
基于mbart架构的荷兰语新闻摘要模型,专为荷兰语文本摘要任务设计
文本生成
Transformers

其他
M
ml6team
25
12
Pegasus Multi News Headline
基于google/pegasus-multi_news微调的新闻标题生成模型,擅长从多文档输入中生成简洁标题
文本生成
Transformers

P
chinhon
18
3
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文