X

Xlm Roberta Large

由 FacebookAI 开发
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
下载量 5.3M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

XLM-RoBERTa是RoBERTa的多语言版本,支持100种语言,主要用于文本特征提取和下游任务的微调。

模型特点

多语言支持
支持100种语言,适用于多语言文本处理任务。
大规模预训练
基于2.5TB过滤CommonCrawl数据进行预训练,具有强大的语言理解能力。
掩码语言建模
采用掩码语言建模目标进行训练,能够学习句子的双向表示。

模型能力

文本特征提取
掩码语言建模
多语言文本处理

使用案例

自然语言处理
序列分类
可用于情感分析、文本分类等任务。
标记分类
适用于命名实体识别、词性标注等任务。
问答系统
可用于构建多语言问答系统。