C

Chinese Roberta L 4 H 256

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏层,适用于多种中文NLP任务。
下载量 70
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa微型模型集中的中型版本,采用RoBERTa架构,适用于掩码语言建模和文本特征提取等任务。

模型特点

多阶段训练
先以128序列长度训练1,000,000步,再以512序列长度追加训练250,000步,优化模型表现。
中文优化
专门针对中文文本优化,使用CLUECorpusSmall语料库训练,在中文任务上表现优异。
多种规模选择
提供从超小型到基础型的24种不同参数规模模型,满足不同计算资源需求。

模型能力

中文文本理解
掩码语言建模
文本特征提取
下游任务微调

使用案例

文本理解
中文情感分析
可用于分析中文文本的情感倾向
在中文情感分析任务上达到93.4%的准确率
新闻分类
可用于中文新闻文本分类
在新闻分类任务上达到65.1%的准确率
语言推理
自然语言推理
可用于中文文本的逻辑推理任务
在自然语言推理任务上达到69.7%的准确率