D

Debertav2 Base Uncased

由 mlcorelib 开发
BERT是一个基于Transformer架构的预训练语言模型,通过掩码语言建模和下一句预测任务在英语语料上训练。
下载量 21
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于英语语料库,通过掩码语言建模(MLM)目标进行预训练的Transformer模型,适用于各种自然语言处理任务。

模型特点

双向上下文理解
通过掩码语言建模任务,模型能够学习单词的双向上下文表示
多任务预训练
同时使用掩码语言建模和下一句预测两个任务进行预训练
不区分大小写
模型对输入文本的大小写不敏感,统一处理为小写形式

模型能力

文本特征提取
句子关系预测
掩码词预测
下游任务微调

使用案例

文本分类
情感分析
对文本进行正面/负面情感分类
在SST-2数据集上达到93.5准确率
问答系统
阅读理解
基于给定文本回答问题
命名实体识别
实体提取
从文本中识别人名、地名等实体