C

Chinese Roberta L 8 H 256

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏单元,适用于多种中文NLP任务。
下载量 15
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa微型模型集中的中型版本,采用RoBERTa架构优化,支持掩码语言建模等任务。

模型特点

多尺寸选择
提供24种不同参数规模的模型选择,适应不同计算资源需求
中文优化
专门针对中文文本进行预训练优化
两阶段训练
采用128和512两种序列长度的两阶段训练策略

模型能力

中文文本理解
掩码语言建模
文本特征提取

使用案例

文本理解
文本填空
预测被掩码的词或短语
在测试中能准确预测如'北京是[MASK]国的首都'中的'中'
情感分析
评论情感判断
分析文本情感倾向
在书评情感任务上达到88.7分