C

Chinese Roberta Wwm Ext Large

由 hfl 开发
采用全词掩码策略的中文预训练BERT模型,旨在加速中文自然语言处理研究进程。
下载量 30.27k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于BERT架构的中文预训练模型,采用全词掩码策略进行训练,适用于各种中文自然语言处理任务。

模型特点

全词掩码策略
采用全词掩码而非单字掩码,更适合中文语言特性,提升模型理解能力。
中文优化
专门针对中文语言特性进行优化,在中文NLP任务中表现优异。
预训练模型
提供预训练好的模型权重,可直接用于下游任务微调。

模型能力

文本分类
命名实体识别
问答系统
文本相似度计算
文本生成

使用案例

自然语言处理
情感分析
用于中文文本的情感倾向分析
机器阅读理解
构建中文问答系统