R

Ruroberta Large

由 ai-forever 开发
由SberDevices团队预训练的俄语RoBERTa大模型,参数量3.55亿,基于250GB俄语文本训练
下载量 21.00k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

俄语预训练Transformer语言模型,主要用于掩码填充任务,适用于俄语NLP任务

模型特点

大规模预训练
基于250GB俄语文本数据进行预训练
高效分词
采用BBPE分词器,词表规模50,257
优化架构
基于Transformer编码器架构的RoBERTa变体

模型能力

俄语文本理解
掩码语言建模
上下文特征提取

使用案例

自然语言处理
文本分类
可用于俄语文本分类任务
命名实体识别
适用于俄语NER任务