D

Distilbart Xsum 12 3

由 sshleifer 开发
DistilBART是BART模型的蒸馏版本,专门针对摘要生成任务进行了优化,在保持较高性能的同时显著减少模型参数量和推理时间。
下载量 579
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于BART架构的轻量级摘要生成模型,通过知识蒸馏技术压缩原始模型,适用于新闻摘要等文本压缩场景。

模型特点

高效推理
相比原始BART模型实现2.54倍加速,显著降低计算资源需求
性能平衡
在模型大小和摘要质量(Rouge分数)之间取得良好平衡
多版本可选
提供不同参数规模的变体以适应不同硬件条件

模型能力

新闻摘要生成
长文本压缩
关键信息提取

使用案例

媒体行业
新闻自动摘要
将长篇新闻报道压缩为简洁摘要
在XSum数据集上达到21.37 Rouge-2分数
知识管理
文档摘要
自动生成技术文档或研究报告的概要