R

Roberta Base

由 FacebookAI 开发
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
下载量 9.3M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

采用动态掩码策略的双向Transformer模型,优化了BERT的预训练方法,适用于序列分类、标记分类等NLP任务

模型特点

动态掩码策略
采用更高效的动态掩码方式,相比静态掩码能学习更全面的上下文表征
大规模训练数据
融合5个数据集共计160GB文本,覆盖书籍、新闻、百科等多种文体
优化训练配置
使用8K批量大小和512序列长度进行500K步训练,采用Adam优化器与学习率预热策略

模型能力

文本特征提取
掩码语言预测
序列分类
标记分类
问答任务

使用案例

文本理解
情感分析
对评论/推文进行情感倾向分类
在SST-2数据集准确率达94.8%
文本相似度计算
衡量两段文本的语义相似度
在STS-B数据集得分为91.2
信息抽取
命名实体识别
从文本中识别人物/地点/组织等实体