C

Chinese Roberta L 8 H 512

由 uer 开发
基于CLUECorpusSmall预训练的中文RoBERTa模型,参数规模为8层512隐藏单元,支持掩码语言建模任务。
下载量 76
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是中文RoBERTa微型模型集中的中型版本,适用于中文文本理解和生成任务,特别擅长处理掩码预测任务。

模型特点

多规模选择
提供24种不同参数规模的模型选择,从超小型到基础型,满足不同计算资源需求
两阶段训练
采用先短序列后长序列的两阶段训练策略,提升模型对不同长度文本的理解能力
公开语料训练
使用公开的CLUECorpusSmall语料库训练,结果可复现

模型能力

中文文本理解
掩码语言建模
文本特征提取

使用案例

文本补全
地理知识补全
补全包含地理知识的句子,如'北京是[MASK]国的首都'
能准确预测'中'字填充掩码位置
情感分析
评论情感判断
用于判断用户评论的情感倾向
在中文情感分析任务上达到93.4%准确率