A

Albert Large Chinese Cluecorpussmall

由 uer 开发
基于UER-py框架预训练的中文ALBERT模型,使用CLUECorpusSmall语料训练,适用于中文文本处理任务。
下载量 17
发布时间 : 3/2/2022

模型简介

该模型是轻量级的ALBERT中文版本,主要用于中文文本的掩码语言建模和特征提取任务。

模型特点

轻量级设计
采用ALBERT架构,通过参数共享技术减少模型参数,保持性能的同时降低计算资源需求。
中文优化
专门针对中文文本进行预训练,使用CLUECorpusSmall语料库,适应中文语言特点。
多阶段训练
采用两阶段训练策略,先以短序列训练,再以长序列微调,提升模型性能。

模型能力

文本特征提取
掩码语言预测
中文文本理解

使用案例

文本补全
中文文本掩码预测
预测被[MASK]标记的中文词语
示例中'中国的首都是[MASK]京'预测为'北京',准确率85.28%
文本特征提取
中文文本表示学习
获取中文文本的向量表示
可用于下游任务如分类、聚类等
AIbase
智启未来,您的人工智能解决方案智库
简体中文