D

Deberta Xlarge Mnli

由 microsoft 开发
DeBERTa-XLarge-MNLI是基于解耦注意力机制的增强型BERT模型,经过MNLI任务微调,拥有750M参数,在自然语言理解任务上表现优异。
下载量 833.58k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DeBERTa通过解耦注意力机制和增强的掩码解码器改进了BERT与RoBERTa模型,在80GB训练数据下,其在大多数自然语言理解任务上超越了BERT和RoBERTa的表现。

模型特点

解耦注意力机制
通过解耦注意力机制改进了BERT与RoBERTa模型,提升了模型在自然语言理解任务上的表现。
增强的掩码解码器
采用增强的掩码解码器,进一步提升了模型的性能。
大规模训练数据
在80GB训练数据下训练,模型在多个自然语言理解任务上表现优异。

模型能力

自然语言理解
文本分类
语义相似度计算

使用案例

自然语言处理
文本蕴含识别
识别两个句子之间的逻辑关系(蕴含、矛盾或中立)。
在MNLI任务上准确率达到91.5/91.2(匹配/不匹配)。
语义相似度计算
计算两个句子之间的语义相似度。
在STS-B任务上Pearson/Spearman相关系数达到92.9/92.7。