C

Chinese Roberta L 6 H 512

由 uer 开发
由UER-py预训练的中文RoBERTa模型系列中的中型版本,基于CLUECorpusSmall语料训练,适用于多种中文NLP任务。
下载量 19
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个基于RoBERTa架构的中文预训练语言模型,具有8层和512隐藏层维度,支持掩码语言建模等任务。

模型特点

多尺寸选择
提供24种不同规模的模型配置,从超小型到基础型,满足不同计算资源需求。
中文优化
专门针对中文文本进行预训练,在CLUE基准测试中表现优异。
两阶段训练
采用先短序列后长序列的两阶段训练策略,提升模型效果。

模型能力

中文文本理解
掩码语言建模
文本特征提取

使用案例

文本理解
情感分析
分析中文文本的情感倾向
在中文情感分析任务上达到93.4%准确率
新闻分类
对中文新闻文本进行分类
在CLUE新闻分类任务上达到65.1%准确率
语言推理
自然语言推理
判断句子间的逻辑关系
在CLUE自然语言推理任务上达到69.7%准确率