M

Mgpt

由 THUMT 开发
mGPT是基于mC4数据集预训练的多语言生成模型,支持101种语言,采用类似GPT-2的Transformer架构。
下载量 147
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

mGPT是一个基于Transformer架构的多语言生成模型,通过因果语言建模目标在101种语言的mC4数据集上预训练。适用于文本生成和提示式下游任务适配。

模型特点

多语言支持
预训练涵盖101种语言,具有广泛的语言覆盖能力
无监督预训练
仅使用原始文本进行训练,无需人工标注数据
共享分词器
采用与mT5相同的分词器和词汇表,便于多模型协作

模型能力

多语言文本生成
提示式任务适配
长文本生成(最大1024 token)

使用案例

文本生成
多语言内容创作
生成不同语言的连贯文本内容
下游任务适配
提示式任务执行
通过设计提示词(prompt)适配各类NLP任务