R

Rbt6

由 hfl 开发
这是一个经过重新训练的6层RoBERTa-wwm-ext模型,采用全词掩码技术进行中文预训练。
下载量 796
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于RoBERTa架构的中文预训练模型,采用全词掩码技术优化,适用于各种中文自然语言处理任务。

模型特点

全词掩码技术
采用全词掩码(Whole Word Masking)技术进行预训练,更适合中文语言特性。
轻量级架构
使用6层RoBERTa架构,相比完整版模型更加轻量高效。
中文优化
专门针对中文语言特性进行优化,在中文NLP任务上表现优异。

模型能力

文本理解
文本分类
命名实体识别
问答系统
文本相似度计算

使用案例

自然语言处理
中文文本分类
可用于新闻分类、情感分析等文本分类任务。
命名实体识别
适用于中文命名实体识别任务,如人名、地名、机构名识别。