C

Chinese Roberta L 2 H 256

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa模型,包含8层网络和512隐藏层维度,适用于多种中文NLP任务。
下载量 26
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个由UER-py框架预训练的中文RoBERTa模型集合中的中型版本,专门针对中文文本处理优化,支持掩码语言建模和文本特征提取。

模型特点

多尺寸模型选择
提供24种不同规模配置(从2层/128隐藏单元到12层/768隐藏单元),满足不同计算资源需求
高效预训练
采用两阶段训练策略(先128后512序列长度),在CLUECorpusSmall语料上取得优于更大规模语料的性能
中文优化
专门针对中文特性设计和优化,在中文情感分析、文本匹配等任务上表现优异

模型能力

掩码语言建模
文本特征提取
中文文本理解
下游任务微调

使用案例

情感分析
商品评论情感判断
分析电商平台用户评论的情感倾向
在中文情感分析任务上达到94.8%准确率
文本匹配
问答系统匹配
计算问题与候选答案的语义相似度
在文本匹配任务上达到88.1%准确率
文本分类
新闻分类
对中文新闻稿件进行自动分类
在CLUE新闻分类任务上达到65.6%准确率