D

Deberta V2 Xxlarge Mnli

由 microsoft 开发
DeBERTa V2 XXLarge是基于解耦注意力机制的增强型BERT变体,在自然语言理解任务上超越RoBERTa和XLNet,参数量达15亿
下载量 4,077
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

通过解耦注意力机制和增强型掩码解码器改进的预训练语言模型,特别针对MNLI任务微调,适用于各类自然语言理解任务

模型特点

解耦注意力机制
将内容与位置注意力分离计算,增强模型对位置信息的敏感度
增强型掩码解码器
改进的掩码语言建模目标,更好地捕获被掩码token的绝对位置信息
大规模预训练
使用80GB训练数据,在多项NLU任务上达到SOTA性能

模型能力

自然语言推理
文本分类
问答系统
语义相似度计算

使用案例

文本理解
情感分析
分析文本情感倾向
在SST-2数据集上达到97.2%准确率
问答系统
开放域问答任务
SQuAD 2.0上F1值92.2/EM 89.7
语义分析
文本蕴含识别
判断文本间的逻辑关系
RTE任务上93.5%准确率
语义相似度计算
计算句子间语义相似度
STS-B皮尔逊相关系数93.2