D

Distilbart Xsum 6 6

由 sshleifer 开发
DistilBART 是 BART 模型的蒸馏版本,专注于文本摘要任务,在保持较高性能的同时显著减少模型大小和推理时间。
下载量 147
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DistilBART 是基于 BART 架构的轻量级文本摘要模型,通过知识蒸馏技术压缩原始模型,适用于生成简洁准确的摘要。

模型特点

高效推理
相比原始 BART 模型,推理速度提升 2.54 倍
轻量级
参数量减少约 45%,从 406M 降至 222M
性能平衡
在模型大小和摘要质量(Rouge分数)之间取得良好平衡

模型能力

文本摘要生成
长文本压缩
关键信息提取

使用案例

新闻摘要
新闻文章摘要
将长篇新闻文章自动压缩为简洁摘要
在 CNN/DailyMail 数据集上 Rouge-L 达到 33.37
内容概括
文档摘要
为长文档生成执行摘要