L

Long T5 Tglobal Xl

由 google 开发
LongT5 是一个基于 Transformer 的文本到文本模型,专门设计用于处理长序列输入,最高支持 16384 个标记。
下载量 336
发布时间 : 6/14/2022

模型简介

LongT5 是 T5 模型的扩展版本,采用编码器-解码器架构,通过瞬态全局注意力机制高效处理长序列文本,特别适用于需要处理长输入的任务如摘要生成和问答。

模型特点

瞬态全局注意力
通过稀疏注意力模式高效处理长序列,最高支持 16384 个标记的输入。
文本到文本框架
采用统一的文本到文本转换框架,支持多种生成任务。
基于 Pegasus 的预训练
使用类似 Pegasus 的去噪生成式预训练方法。

模型能力

长文本摘要生成
长文本问答
文本去噪生成

使用案例

文本摘要
长文档摘要
从长文档(如研究报告或新闻文章)中生成简洁摘要。
问答系统
长上下文问答
基于长文档内容回答复杂问题。
AIbase
智启未来,您的人工智能解决方案智库
简体中文