R

Rubert Base

由 ai-forever 开发
由SberDevices团队预训练的俄语基础版BERT模型,参数量1.78亿,基于30GB俄语文本训练
下载量 29.43k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

俄语预训练Transformer语言模型,主要用于掩码填充任务

模型特点

俄语优化
专门针对俄语特性进行预训练,在俄语NLP任务中表现优异
高效架构
基于BERT基础架构,参数量适中,推理效率高
大规模预训练
使用30GB俄语文本数据进行预训练,语言理解能力强

模型能力

文本理解
掩码填充
上下文特征提取

使用案例

自然语言处理
文本自动补全
预测文本中被掩码的单词或短语
文本特征提取
为下游NLP任务提供文本表示