G

Gpt2 Small Indonesian 522M

由 cahya 开发
这是一个基于印尼语维基百科数据预训练的GPT2-small模型,专注于印尼语文本生成任务。
下载量 1,900
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型采用因果语言建模(CLM)目标在522MB印尼语维基百科数据上预训练,支持印尼语文本生成。模型不区分大小写,适用于多种下游NLP任务。

模型特点

印尼语优化
专门针对印尼语进行预训练,在印尼语文本生成任务上表现良好
不区分大小写
模型对大小写不敏感,如'indonesia'和'Indonesia'会被视为相同
高效分词
采用字节级字节对编码(BPE),词汇量为52,000,能有效处理Unicode字符

模型能力

印尼语文本生成
语言模型特征提取
上下文理解

使用案例

教育/文化
历史文本生成
生成关于印尼历史的连贯文本
如示例中生成的关于Majapahit王国的历史描述
内容创作
印尼语内容自动生成
辅助创作印尼语文章、故事等内容