C

Chinese Roberta L 4 H 512

由 uer 开发
这是一个基于RoBERTa架构的中文预训练语言模型,参数规模为8层512隐藏单元,适用于多种中文自然语言处理任务。
下载量 873
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa微型模型集中的中型版本,采用Transformer架构,通过掩码语言建模任务在中文语料上进行预训练,可用于文本理解、分类等下游任务。

模型特点

多尺寸选择
提供从微型到基础版共24种不同规模的模型选择,满足不同计算资源需求
中文优化
专门针对中文文本进行预训练,在中文NLP任务上表现优异
两阶段训练
先以短序列训练,再以长序列微调,提升模型对不同长度文本的处理能力

模型能力

文本特征提取
掩码语言建模
文本分类
情感分析
句子匹配
自然语言推理

使用案例

文本理解
情感分析
分析用户评论的情感倾向
在中文情感分析任务上达到93.4%准确率
新闻分类
对新闻文章进行自动分类
在CLUE新闻分类任务上达到65.1%准确率
语言推理
自然语言推理
判断两个句子之间的逻辑关系
在CLUE自然语言推理任务上达到69.7%准确率