C

Chinese Roberta L 2 H 512

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa模型,包含8层网络和512维隐藏层,适用于多种中文NLP任务。
下载量 37
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个中文预训练语言模型,采用RoBERTa架构,支持掩码语言建模等任务,可用于文本特征提取和下游NLP任务微调。

模型特点

多尺寸模型选择
提供从超小型(2层/128维)到基础型(12层/768维)共24种不同规模的模型选择
中文优化
专门针对中文文本进行优化训练,使用CLUECorpusSmall语料库
两阶段训练
先以短序列(128)训练,再以长序列(512)微调,提升模型表现

模型能力

中文文本理解
掩码语言建模
文本特征提取
下游任务微调

使用案例

情感分析
商品评论情感分析
分析电商平台用户评论的情感倾向
在中文情感分析任务上达到94.8%准确率
文本分类
新闻分类
对新闻文章进行自动分类
在CLUE新闻分类任务上达到65.6%准确率
自然语言推理
文本蕴含识别
判断两个句子之间的逻辑关系
在CLUE自然语言推理任务上达到71.2%准确率