R

Roberta Large

由 FacebookAI 开发
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
下载量 19.4M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

RoBERTa是基于海量英文语料通过自监督方式预训练的transformer模型,主要用于提取文本特征和下游任务微调

模型特点

动态掩码策略
与BERT不同,采用动态掩码机制,每轮迭代生成不同的掩码模式
大规模训练数据
使用160GB文本数据训练,包括书籍、维基百科、新闻等多种来源
优化训练过程
采用更大的批量(8K)和更长的序列(512),训练50万步

模型能力

文本特征提取
掩码词汇预测
下游任务微调

使用案例

自然语言处理
序列分类
用于情感分析、文本分类等任务
在SST-2情感分析任务上达到96.4分
问答系统
作为问答系统的基础模型
在QNLI任务上达到94.7分