C

Chinese Roberta L 12 H 768

由 uer 开发
基于RoBERTa架构的中文预训练语言模型,隐藏层维度512,包含8层Transformer结构
下载量 419
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa微型模型集中的一个中型版本,适用于多种中文自然语言处理任务,如文本分类、情感分析、句子相似度计算等。

模型特点

多尺寸选择
提供24种不同参数规模的模型选择,从超小型到基础型,满足不同计算资源需求
两阶段训练
采用128和512两种序列长度分阶段训练,提升模型对不同长度文本的处理能力
公开语料训练
使用公开的CLUECorpusSmall语料库训练,结果可复现

模型能力

中文文本理解
掩码语言建模
文本特征提取
情感分析
文本分类
句子相似度计算

使用案例

情感分析
商品评论情感分析
分析电商平台用户评论的情感倾向
在中文情感分析任务上达到93.4%的准确率
文本分类
新闻分类
对新闻文章进行主题分类
在CLUE新闻分类任务上达到65.1%的准确率
语义理解
句子相似度计算
判断两个句子的语义相似度
在句子相似度任务上达到86.5%的准确率