V

V2xl Again Mnli

由 NDugar 开发
DeBERTa是基于解耦注意力机制的增强型BERT解码模型,通过改进注意力机制和掩码解码器,在多项自然语言理解任务中超越BERT和RoBERTa表现。
下载量 30
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DeBERTa通过解耦注意力机制和增强型掩码解码器改进了BERT与RoBERTa模型,在80GB训练数据下,其于大多数自然语言理解任务中表现优异。

模型特点

解耦注意力机制
通过解耦注意力机制改进传统BERT模型的注意力计算方式,提升模型性能。
增强型掩码解码器
采用增强型掩码解码器,进一步提升模型在自然语言理解任务中的表现。
大规模训练数据
使用80GB训练数据进行训练,在多项任务中超越BERT和RoBERTa。

模型能力

自然语言理解
文本分类
零样本分类

使用案例

自然语言处理
文本分类
可用于MNLI等文本分类任务。
在MNLI任务中达到91.3/91.1的准确率。
问答系统
可用于构建问答系统。
在SQuAD 1.1任务中达到95.5/90.1的F1/EM分数。