M

Mengzi Bert Base

由 Langboat 开发
基于300G中文语料预训练的BERT模型,采用MLM、POS和SOP任务训练
下载量 438
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

一个轻量级却强大的中文预训练语言模型,适用于多种中文自然语言处理任务

模型特点

中文优化
专门针对中文语言特点进行优化,基于300G中文语料训练
多任务训练
采用掩码语言建模、词性标注和句子顺序预测三种任务联合训练
轻量高效
相比同类模型具有更轻量的结构但保持强大的性能

模型能力

文本理解
文本补全
语义分析
句子关系判断

使用案例

自然语言处理
文本补全
填补文本中的[MASK]位置
如示例所示能准确理解上下文并补全内容
文本分类
对中文文本进行分类
在TNEWS等分类任务上表现优异
语义理解
自然语言推理
判断句子间的逻辑关系
在CMNLI任务上达到82.12%准确率