D

Distilbart Xsum 1 1

由 sshleifer 开发
DistilBART是BART模型的蒸馏版本,专为文本摘要任务优化,在保持较高性能的同时显著减少模型大小和推理时间。
下载量 2,198
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于BART架构的蒸馏模型,主要用于生成式文本摘要任务,支持英语文本处理。通过知识蒸馏技术压缩原始模型,实现更高效的推理。

模型特点

高效推理
相比原始BART-large模型,推理速度提升1.68倍,同时保持90%以上的Rouge分数
多版本配置
提供不同参数规模的子版本(12-1/6-6/12-3等),平衡性能与效率需求
双数据集适配
分别针对CNN/DailyMail和XSum数据集优化,适应不同摘要风格需求

模型能力

生成式文本摘要
长文本压缩
关键信息提取

使用案例

新闻媒体
新闻简报生成
自动将长篇新闻报道压缩为简洁摘要
在XSum数据集上达到22.12 Rouge-2分数
内容分析
文档概要生成
从长文档中提取核心内容形成执行摘要
在CNN/DailyMail数据集上达到21.26 Rouge-2分数