V

V3large 2epoch

由 NDugar 开发
DeBERTa是基于解耦注意力机制的增强型BERT改进模型,通过160GB训练数据和15亿参数规模,在多项自然语言理解任务中超越BERT和RoBERTa表现。
下载量 31
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

DeBERTa通过解耦注意力和增强型掩码解码器改进BERT架构,特别适用于自然语言理解任务,在GLUE基准测试中表现优异。

模型特点

解耦注意力机制
通过分离内容和位置注意力计算,增强模型对文本关系的理解能力
增强型掩码解码器
改进的掩码语言建模目标,提升模型对上下文的建模能力
大规模预训练
使用160GB原始文本数据进行预训练,参数规模达15亿

模型能力

文本分类
自然语言推理
问答系统
语义相似度计算
句子对分类

使用案例

文本理解
多体裁自然语言推理
判断两段文本之间的逻辑关系(蕴含/矛盾/中立)
在MNLI数据集上达到91.7/91.9的准确率
情感分析
分析文本情感倾向(正面/负面)
在SST-2数据集上达到97.2%准确率
问答系统
机器阅读理解
基于给定文本回答相关问题
在SQuAD 2.0上达到92.2/89.7的F1/EM分数