M

Mdeberta V3 Base

由 microsoft 开发
mDeBERTa是DeBERTa的多语言版本,采用ELECTRA式预训练与梯度解耦嵌入共享技术,在XNLI等跨语言任务中表现优异
下载量 692.08k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

基于DeBERTa架构的多语言预训练模型,支持15种语言,在零样本跨语言迁移任务中超越XLM-R等同类模型

模型特点

梯度解耦嵌入共享
采用ELECTRA式预训练方法,通过梯度解耦技术优化嵌入层共享效率
多语言支持
支持15种语言处理,在XNLI跨语言任务中平均准确率达79.8%
解耦注意力机制
改进的注意力机制分离内容和位置信息处理,增强模型理解能力

模型能力

多语言文本理解
零样本跨语言迁移
掩码语言建模
文本分类

使用案例

跨语言自然语言理解
XNLI零样本迁移
仅用英语数据训练后在其他14种语言测试
平均准确率79.8%,超越XLM-R-base的76.2%
多语言文本处理
多语言文本分类
支持15种语言的文本分类任务