R

Roberta Small Word Chinese Cluecorpussmall

由 uer 开发
基于CLUECorpusSmall预训练的中文词级别RoBERTa中型模型,相比字符级模型在多项任务中表现更优
下载量 33
发布时间 : 3/2/2022

模型简介

该模型是中文词级别的RoBERTa预训练模型,采用中等规模架构(8层/512隐藏层),在CLUECorpusSmall语料上训练,适用于多种中文自然语言处理任务。

模型特点

词级别分词优势
相比字符级模型,词级别处理使序列更短、速度更快,且在多项任务中表现更优
多尺寸选择
提供从微型(Tiny)到基础(Base)5种不同规模的预训练模型
公开训练流程
使用公开语料和分词工具,并提供完整训练细节便于复现

模型能力

中文文本理解
掩码词预测
文本特征提取
下游任务微调

使用案例

文本分类
情感分析
用于商品评论或社交媒体文本的情感倾向判断
在中文情感分析任务中达到95.1%准确率
新闻分类
自动对新闻稿件进行主题分类
在CLUE新闻分类任务中达到67.8%准确率
文本匹配
问答系统
判断问题与候选答案的相关性
在文本匹配任务中达到88.0%准确率
AIbase
智启未来,您的人工智能解决方案智库
简体中文