R

Rbtl3

由 hfl 开发
这是一个经过重新训练的三层RoBERTa-wwm-ext-large模型,采用全词掩码策略的中文预训练BERT模型,旨在加速中文自然语言处理的发展。
下载量 767
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于RoBERTa架构的中文预训练模型,采用全词掩码策略进行训练,适用于多种中文自然语言处理任务。

模型特点

全词掩码策略
采用全词掩码策略进行预训练,提高了模型对中文文本的理解能力。
三层架构
经过重新训练的三层架构,优化了模型的性能和效率。
中文优化
专门针对中文文本进行优化,适用于中文自然语言处理任务。

模型能力

文本分类
命名实体识别
文本生成
问答系统

使用案例

自然语言处理
中文文本分类
用于对中文文本进行分类,如情感分析、主题分类等。
命名实体识别
识别中文文本中的命名实体,如人名、地名、机构名等。