B

Bart Large Cnn

由 facebook 开发
基于英语语料预训练的BART模型,专门针对CNN每日邮报数据集进行微调,适用于文本摘要任务
下载量 3.8M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型采用Transformer编码器-解码器架构,通过去噪序列到序列预训练方法,在文本生成和理解任务中表现优异,当前版本专门优化了新闻摘要能力

模型特点

双向编码器结构
结合BERT式双向编码器,能充分理解上下文语义
自回归解码器
类似GPT的自回归生成能力,保证文本生成流畅性
专业领域微调
在CNN每日邮报新闻数据集上专门优化,摘要效果显著

模型能力

新闻文本摘要
长文本压缩
关键信息提取

使用案例

新闻媒体
新闻简报生成
将长篇新闻报道自动压缩为简洁摘要
ROUGE-L得分30.6186(CNN每日邮报测试集)
内容提要生成
为在线新闻平台自动生成文章预览
生成文本平均长度78.6个词
信息处理
文档摘要
对长文档进行关键信息提取