B

Bert Base Uncased

由 OWG 开发
基于英语语言的BERT基础模型,采用掩码语言建模(MLM)目标进行预训练,不区分大小写形式。
下载量 15
发布时间 : 3/28/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于英语语言,采用掩码语言建模(MLM)目标进行预训练的模型。其原理首次发表于相关论文,并在代码库中首次发布。此模型为无大小写区分版本:不区分'english'和'English'等大小写形式。

模型特点

无大小写区分
模型不区分大小写形式,能够统一处理如'english'和'English'等不同大小写的输入。
基于MLM预训练
采用掩码语言建模(MLM)目标进行预训练,能够有效捕捉语言上下文信息。

模型能力

文本编码
语言理解
上下文捕捉

使用案例

自然语言处理
文本分类
用于对英语文本进行分类任务。
问答系统
用于构建英语问答系统的基础模型。