X

Xlm Mlm 17 1280

由 FacebookAI 开发
XLM模型是基于17种语言文本训练的跨语言预训练模型,采用掩码语言建模(MLM)目标
下载量 201
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是通过掩码语言建模目标预训练的Transformer模型,支持17种语言的跨语言理解任务

模型特点

多语言支持
支持17种语言的跨语言理解任务
大规模预训练
基于大规模多语言语料库进行预训练
Transformer架构
采用16层Transformer架构,具有1280个隐藏状态

模型能力

跨语言文本理解
掩码语言建模
多语言文本表示

使用案例

自然语言处理
跨语言文本分类
在XNLI等跨语言分类任务上应用
在英语(84.8)、西班牙语(79.4)、德语(76.2)、阿拉伯语(71.5)和中文(75)上取得良好准确率
多语言文本表示
为下游NLP任务生成多语言文本表示