R

Rugpt3small Based On Gpt2

由 ai-forever 开发
由SberDevices团队开发的俄语预训练Transformer语言模型,基于GPT2架构,支持1024序列长度,训练数据达800亿token。
下载量 46.92k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是一个针对俄语优化的预训练语言模型,基于GPT2架构设计,通过大规模俄语语料库训练,支持长文本生成和理解任务。

模型特点

俄语优化
专门针对俄语语言特性进行优化训练
长序列支持
支持1024序列长度,后续微调扩展到2048上下文窗口
高效训练
在32块GPU上仅需约一周完成训练

模型能力

俄语文本生成
长文本理解
语言建模

使用案例

自然语言处理
俄语文本生成
生成连贯的俄语文本内容
语言模型研究
作为俄语NLP研究的基线模型