1

1epochv3

由 NDugar 开发
DeBERTa是基于解耦注意力机制的增强型BERT模型,在多项自然语言理解任务上超越BERT和RoBERTa表现
下载量 28
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DeBERTa通过解耦注意力机制和增强型掩码解码器改进BERT架构,特别适用于自然语言理解任务。此版本为XXLarge规模,含15亿参数

模型特点

解耦注意力机制
通过分离内容和位置注意力计算,提升模型对复杂语言结构的理解能力
增强型掩码解码器
改进的掩码语言建模目标函数,更好地捕捉上下文依赖关系
大规模预训练
使用160GB原始文本训练,在多项基准测试中达到SOTA性能

模型能力

文本分类
自然语言推理
问答系统
语义相似度计算
句子对分类

使用案例

文本理解
情感分析
判断文本情感倾向(如SST-2数据集)
97.2%准确率
自然语言推理
判断句子对间的逻辑关系(MNLI任务)
91.7%/91.9%准确率(匹配/不匹配集)
问答系统
SQuAD问答
基于段落的问答任务
SQuAD 2.0达到92.2/89.7 (F1/EM)