M

Muppet Roberta Base

由 facebook 开发
通过预微调实现的大规模多任务表征模型,基于RoBERTa架构,在GLUE和问答任务上表现优于原始roberta-base
下载量 425
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于RoBERTa架构的大规模多任务预微调版本,通过掩码语言建模目标进行预训练,适用于自然语言处理任务的特征提取和微调

模型特点

大规模多任务预微调
通过预微调阶段在多任务上训练,提升了模型在下游任务的表现
优于原始RoBERTa-base
在GLUE和问答任务上表现优于原始roberta-base,特别是在小型数据集上提升显著
双向上下文理解
采用掩码语言建模目标,能够学习句子的双向表征

模型能力

文本特征提取
句子分类
问答系统
自然语言理解

使用案例

文本分类
情感分析
对文本进行正面/负面情感分类
在SST-2数据集上达到96.7%准确率
问答系统
阅读理解
基于给定文本回答问题
在SQuAD数据集上达到86.6%准确率
自然语言推理
文本蕴含判断
判断两个句子之间的逻辑关系
在MNLI数据集上达到88.1%准确率