C

Chinese Roberta L 6 H 768

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa中型模型,具有8层网络和512维隐藏层,适用于多种中文NLP任务。
下载量 222
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个预训练的中文RoBERTa模型,采用掩码语言建模目标进行训练,可用于文本特征提取、文本分类、情感分析等自然语言处理任务。

模型特点

多尺寸模型选择
提供从超小型到基础型的24种不同参数规模的模型选择,适应不同计算资源需求
中文优化
专门针对中文文本进行优化,在中文NLP任务上表现优异
两阶段训练
采用128和512两种序列长度分阶段训练,提升模型对不同长度文本的处理能力

模型能力

文本特征提取
掩码语言建模
文本分类
情感分析
文本匹配
自然语言推理

使用案例

情感分析
商品评论情感分析
分析电商平台商品评论的情感倾向
在中文情感分析任务上达到93.4%的准确率
文本分类
新闻分类
对新闻文章进行自动分类
在CLUE新闻分类任务上达到65.1%的准确率