L

Long T5 Tglobal Base 16384 Booksum V12

由 pszemraj 开发
基于T5架构优化的长文本摘要生成模型,支持处理长达16384个token的输入,在书籍摘要任务上表现优异。
下载量 109
发布时间 : 9/9/2022
模型介绍
内容详情
替代品

模型简介

该模型专门针对长文档摘要任务优化,采用T5架构并扩展了处理长文本的能力,适用于书籍、科学论文等长篇内容的概括生成。

模型特点

超长上下文处理
支持处理长达16384个token的输入文本,适合书籍章节等超长内容
专业领域优化
在BookSum数据集上专门训练,对学术文献和书籍内容摘要效果显著
多尺度摘要
可生成不同长度的摘要(8-64个token),满足多样化需求

模型能力

长文本摘要生成
内容概括
书籍章节摘要
科学论文摘要
技术文档概括

使用案例

学术研究
论文快速阅读
为长篇学术论文生成简明摘要,帮助研究者快速把握核心内容
在科学论文摘要任务上ROUGE-1得分30.00
出版行业
书籍内容摘要
自动生成书籍章节摘要,用于目录、导读等出版场景
在BookSum数据集上ROUGE-1得分36.14
政府报告
政策文件摘要
对长篇政府报告进行关键信息提取
在gov_report数据集上ROUGE-1得分37.05