C

Chinese Roberta L 2 H 128

由 uer 开发
这是一个基于CLUECorpusSmall预训练的中文RoBERTa中型模型,具有8层网络和512维隐藏层,适用于多种中文自然语言处理任务。
下载量 1,141
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa微型模型集中的中型版本,采用掩码语言建模(MLM)目标进行预训练,可用于文本特征提取和下游NLP任务微调。

模型特点

高效预训练
采用两阶段训练策略,先以短序列训练再以长序列微调,优化训练效率
多尺寸选择
提供从超小型到基础型的24种不同参数规模的模型选择
中文优化
专门针对中文文本进行预训练和优化

模型能力

掩码语言建模
文本特征提取
情感分析
文本分类
句子匹配
自然语言推理

使用案例

文本理解
情感分析
分析用户评论的情感倾向
在中文情感分析任务上达到93.4%准确率
新闻分类
对新闻文章进行自动分类
在CLUE新闻分类任务上达到65.1%准确率
语义理解
句子匹配
判断两个句子的语义相似度
在句子匹配任务上达到86.5%准确率