C

Chinese Roberta L 4 H 128

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏单元,适用于多种中文NLP任务
下载量 22
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa微型模型系列中的中型版本,采用掩码语言建模预训练,支持文本特征提取和完形填空等任务

模型特点

多尺寸选择
提供24种不同参数规模的模型选择,从超小型到基础型满足不同需求
中文优化
专门针对中文文本预训练,在CLUE基准测试中表现优异
两阶段训练
先以短序列训练再以长序列微调,提升模型对不同长度文本的处理能力

模型能力

文本特征提取
掩码语言建模
中文文本理解
完形填空

使用案例

文本理解
情感分析
分析用户评论的情感倾向
在中文情感分析任务上达到94.8%准确率
新闻分类
对新闻内容进行自动分类
在CLUE新闻分类任务上达到65.6%准确率
文本补全
智能填空
自动补全句子中的缺失部分
能准确预测上下文相关的词汇