R

Roberta Base Japanese With Auto Jumanpp

由 nlp-waseda 开发
基于RoBERTa架构的日语预训练模型,支持自动Juman++分词,适用于日语自然语言处理任务。
下载量 536
发布时间 : 10/15/2022
模型介绍
内容详情
替代品

模型简介

这是一个基于日语RoBERTa的基础模型,预训练数据来自日语维基百科和CC-100的日语部分,支持掩码语言建模和下游任务微调。

模型特点

自动Juman++分词支持
BertJapaneseTokenizer现在支持对Juman++的自动分词,简化了日语文本处理流程。
大规模预训练数据
模型在日语维基百科和CC-100的日语部分上进行训练,覆盖广泛的日语语言特征。
优化的训练过程
使用8块NVIDIA A100 GPU训练一周,采用先进的训练策略和超参数设置。

模型能力

日语文本理解
掩码语言建模
下游任务微调

使用案例

自然语言处理
文本补全
使用掩码语言建模功能完成日语句子中的缺失部分
文本分类
通过微调模型实现日语文本分类任务