R

Rugpt3large Based On Gpt2

由 ai-forever 开发
基于GPT-2架构的大规模俄语预训练Transformer语言模型,由SberDevices团队训练
下载量 9,985
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是一个针对俄语优化的Transformer语言模型,基于GPT-2架构,经过大规模预训练,适用于俄语文本生成和理解任务。

模型特点

大规模俄语预训练
在80B词元的俄语语料库上进行预训练,专门针对俄语优化
长上下文支持
支持1024和2048两种序列长度,适合处理长文本
高效训练
使用128个GPU进行高效训练,总训练时间约14天

模型能力

俄语文本生成
俄语文本理解
长文本处理

使用案例

文本生成
俄语文章创作
生成连贯的俄语文章或故事
语言理解
俄语文本分析
理解和分析俄语文本内容