L

Long T5 Tglobal Base

由 google 开发
LongT5是基于T5架构的文本到文本转换模型,采用瞬态全局注意力机制高效处理长序列输入
下载量 71.38k
发布时间 : 4/16/2022
模型介绍
内容详情
替代品

模型简介

LongT5是基于编码器-解码器架构的Transformer模型,通过局部注意力或瞬态-全局注意力机制高效处理长序列(最高16,384个标记),特别适用于需要长文本处理的生成任务

模型特点

长序列处理能力
支持最高16,384个标记的长序列输入,通过稀疏注意力机制实现高效处理
瞬态全局注意力
采用创新的瞬态-全局注意力机制,在保持性能的同时降低计算复杂度
生成式预训练
使用类似Pegasus的生成式去噪预训练方法,优化文本生成能力

模型能力

长文本摘要生成
长文档问答系统
文本到文本转换

使用案例

文本摘要
长文档自动摘要
对科研论文、法律文书等长文档生成简洁摘要
在长文本摘要任务中表现优异
问答系统
长文档问答
从长文档中提取信息回答复杂问题