C

Chinese Bert Wwm

由 hfl 开发
采用全词掩码策略的中文预训练BERT模型,旨在加速中文自然语言处理研究。
下载量 28.52k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个基于全词掩码策略的中文预训练BERT模型,专为中文自然语言处理任务优化,能够更好地处理中文文本的语义理解任务。

模型特点

全词掩码策略
采用全词掩码而非单字掩码,更适合中文语言特点,提升模型对中文文本的理解能力。
中文优化
专门针对中文文本进行优化,适用于各种中文自然语言处理任务。
预训练模型
提供预训练好的模型权重,用户可以直接用于下游任务或进行微调。

模型能力

文本分类
命名实体识别
问答系统
语义理解

使用案例

自然语言处理
中文文本分类
用于对中文文本进行分类,如新闻分类、情感分析等。
命名实体识别
识别中文文本中的命名实体,如人名、地名、机构名等。