C

Chinese Roberta L 6 H 256

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏单元
下载量 58
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa系列中的中型版本,适用于多种中文自然语言处理任务,如文本分类、情感分析、文本匹配等。

模型特点

多尺寸选择
提供24种不同参数规模的模型,适应不同计算资源需求
中文优化
专门针对中文文本进行预训练和优化
两阶段训练
先以短序列训练,再以长序列微调,提升模型性能

模型能力

文本特征提取
掩码语言建模
文本分类
情感分析
文本匹配
自然语言推理

使用案例

情感分析
商品评论情感分析
分析电商平台商品评论的情感倾向
在中文情感分析任务上达到94.8%准确率
文本分类
新闻分类
对新闻文章进行自动分类
在CLUE新闻分类任务上达到65.6%准确率
语义理解
文本匹配
判断两段文本的语义相似度
在文本匹配任务上达到88.1%准确率