R

Roberta Medium Word Chinese Cluecorpussmall

由 uer 开发
基于CLUECorpusSmall预训练的中文分词版RoBERTa中型模型,采用8层512隐藏层架构,相比字符版模型在多项任务中表现更优
下载量 293
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

中文分词版RoBERTa模型集合中的中型规格,支持掩码语言建模等自然语言处理任务,具有更快的处理速度和更好的性能表现

模型特点

分词版优势
相比字符级模型处理速度更快且性能更优,在多项中文NLP任务中平均提升1.1分
多规格选择
提供从微型(Tiny)到基础(Base)5种不同规模的预训练模型
公开训练流程
完整公开训练数据和训练参数,使用CLUECorpusSmall语料和sentencepiece分词工具

模型能力

中文文本理解
掩码词预测
文本特征提取
下游任务微调

使用案例

文本补全
句子补全
预测被掩码的词语完成句子
示例输入'[MASK]的首都是北京',模型正确预测'中国'
情感分析
评论情感判断
微调后用于商品评论情感分类
在书评情感任务中达到90.0%准确率