M

Mlong T5 Tglobal Base

由 agemagician 开发
MLongT5 是一个多语言预训练的文本生成模型,能够高效处理长输入序列,适用于多种语言场景下的文本生成任务。
下载量 3,884
发布时间 : 5/19/2023

模型简介

MLongT5 是在多语言语料库上预训练的编码器-解码器变压器模型,支持局部注意力或瞬态全局注意力机制,能够处理长达16,384个标记的长输入序列,在文本生成任务中表现出色。

模型特点

多语言预训练
在多语言语料库上进行预训练,支持多种语言。
高效注意力机制
可使用局部注意力或瞬态全局注意力,有效处理输入序列。
长序列处理
能够处理长达16,384个标记的长输入序列,在文本生成任务中表现出色。

模型能力

文本生成
长文本处理
多语言文本处理
文本去噪
文本摘要
问答系统

使用案例

文本生成
S-去噪
使用[S2S]前缀进行序列到序列的文本去噪和生成。
生成连贯的文本补全结果。
R-去噪
使用[NLU]前缀进行自然语言理解的文本去噪和生成。
生成准确的文本补全结果。
X-去噪
使用[NLG]前缀进行自然语言生成的文本去噪和生成。
生成流畅的文本补全结果。
文本处理
长文本摘要
处理长输入序列并生成摘要。
生成准确且连贯的摘要。
AIbase
智启未来,您的人工智能解决方案智库
简体中文