D

Distilbart Cnn 6 6

由 sshleifer 开发
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著提升推理速度。
下载量 48.17k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于BART架构的蒸馏模型,用于生成式文本摘要任务,特别针对新闻摘要场景优化。

模型特点

高效推理
相比原版BART提速2.54倍,参数量减少45%
多配置选择
提供6种不同参数规模的变体,平衡性能与效率
双数据集优化
分别在CNN/DailyMail和XSum数据集上专门优化的版本

模型能力

生成式文本摘要
长文本压缩
新闻要点提取

使用案例

新闻媒体
自动新闻摘要
将长篇新闻报道压缩为简洁摘要
在XSum数据集上达到22.12 ROUGE-2分数
内容分析
文档关键信息提取
从长文档中自动提取核心内容
在CNN/DailyMail数据集上达到21.26 ROUGE-2分数