T

Testmodel

由 sramasamy8 开发
BERT是基于大规模英文语料通过自监督方式预训练的transformers模型,采用掩码语言建模和下一句预测目标进行训练
下载量 21
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型采用双向Transformer架构,通过预训练学习英语语言的内在表征,适用于需要理解完整句子语义的下游任务微调

模型特点

双向上下文理解
通过MLM目标实现双向语境捕捉,优于传统单向语言模型
多任务预训练
同时学习词汇级(MLM)和句子级(NSP)表征
不区分大小写
统一处理大小写变体,降低词汇表复杂度

模型能力

文本特征提取
句子关系判断
遮蔽词预测

使用案例

文本理解
情感分析
对评论文本进行正面/负面情感分类
在SST-2数据集达93.5准确率
问答系统
基于段落内容回答相关问题
语义匹配
复述检测
判断两个句子是否表达相同含义
在MRPC数据集达88.9准确率