F

Facebook Bart Large Cnn

由 Yelyzaveta 开发
BART是一个基于Transformer的序列到序列模型,专门用于文本摘要生成任务。
下载量 24
发布时间 : 10/28/2022
模型介绍
内容详情
替代品

模型简介

BART模型在英语语言上进行了预训练,并在CNN每日邮报数据集上进行了微调,主要用于文本摘要生成任务。

模型特点

双向编码器与自回归解码器
结合了BERT的双向编码器和GPT的自回归解码器,适合生成和理解任务
去噪预训练
通过破坏文本并学习重建原始文本的方式进行预训练
CNN每日邮报微调
专门针对新闻摘要任务进行了优化

模型能力

文本摘要生成
自然语言理解

使用案例

新闻摘要
新闻文章摘要
将长篇新闻文章自动压缩为简洁的摘要
ROUGE-1得分42.9486,ROUGE-2得分20.8149