D

Debertav3 Mnli Snli Anli

由 NDugar 开发
DeBERTa是基于解耦注意力机制的增强型BERT解码模型,通过改进BERT与RoBERTa模型,在多数自然语言理解任务中表现更优。
下载量 26
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DeBERTa V2 XXLarge是一个拥有15亿参数的大规模自然语言理解模型,采用解耦注意力机制和增强型掩码解码器,在多个GLUE基准任务上表现优异。

模型特点

解耦注意力机制
通过分离内容和位置注意力计算,增强模型对上下文的理解能力
增强型掩码解码器
改进的掩码机制帮助模型更好地处理被掩盖的token
大规模预训练
使用160GB原始数据进行预训练,参数规模达15亿

模型能力

文本分类
自然语言推理
问答系统
语义相似度计算

使用案例

自然语言理解
文本蕴含判断
判断两个句子之间的逻辑关系(蕴含/矛盾/中立)
在MNLI任务上达到91.7/91.9的准确率
情感分析
分析文本的情感倾向
在SST-2任务上达到97.2%的准确率
问答系统
开放域问答
回答基于文本内容的问题
在SQuAD 2.0上达到92.2/89.7的F1/EM分数