R

Roberta Base Mr

由 flax-community 开发
基于自监督方式在大规模马拉地语语料上预训练的transformers模型,主要用于掩码语言建模和下游任务微调
下载量 156
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

使用掩码语言建模(MLM)目标预训练的马拉地语模型,基于RoBERTa架构,适用于序列分类、标记分类等任务

模型特点

大规模马拉地语预训练
基于C4多语言数据集的mr子集预训练,包含140亿词符的马拉地语内容
动态掩码机制
与BERT不同,采用预训练期间动态掩码策略,增强模型泛化能力
下游任务适配性
专为需要整句理解的序列分类、标记分类等下游任务优化

模型能力

掩码语言建模
文本分类
序列标注

使用案例

新闻分类
马拉地语新闻标题分类
对新闻标题进行'州/娱乐/体育'分类
测试集准确率94.21%,优于iNLTK ULMFiT的92.4%
IndicNLP新闻分类
对新闻内容进行'生活方式/娱乐/体育'分类
测试集准确率97.48%,优于现有方案