D

Deberta Large Mnli Zero Cls

由 Narsil 开发
DeBERTa是基于解耦注意力机制的增强型BERT解码模型,通过改进注意力机制和掩码解码器,在多项自然语言理解任务上超越BERT和RoBERTa。
下载量 51.27k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DeBERTa通过解耦注意力机制和增强型掩码解码器改进了BERT与RoBERTa模型,支持多种自然语言理解任务。

模型特点

解耦注意力机制
通过解耦注意力机制改进传统的注意力计算方式,提升模型性能。
增强型掩码解码器
采用增强型掩码解码器,进一步提升模型在自然语言理解任务中的表现。
高性能
在多项自然语言理解任务上超越BERT、RoBERTa和XLNet等模型。

模型能力

文本分类
问答系统
自然语言推理
语义相似度计算

使用案例

自然语言处理
文本分类
用于情感分析、主题分类等任务。
在SST-2数据集上准确率达到97.2%。
问答系统
用于构建高性能的问答系统。
在SQuAD 1.1数据集上F1得分为96.1,EM得分为91.4。
自然语言推理
用于判断两个句子之间的逻辑关系。
在MNLI数据集上准确率达到91.7/91.9(匹配/不匹配)。