X

Xlm Roberta Xxl

由 facebook 开发
XLM-RoBERTa-XL 是一个在包含100种语言的2.5TB过滤CommonCrawl数据上预训练的多语言模型,基于RoBERTa架构的超大版本。
下载量 13.19k
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型通过掩码语言建模(MLM)目标在100种语言上进行预训练,主要用于提取文本特征和下游任务的微调。

模型特点

多语言支持
支持100种语言的预训练和特征提取
大规模预训练
基于2.5TB过滤CommonCrawl数据进行预训练
RoBERTa架构
采用改进的RoBERTa架构,优化了训练过程

模型能力

掩码语言建模
多语言文本特征提取
下游任务微调

使用案例

自然语言处理
序列分类
可用于情感分析等文本分类任务
标记分类
适用于命名实体识别等任务
问答系统
可用于构建多语言问答系统