R

Roberta Large Semeval2012 V2 Mask Prompt E Nce

由 research-backup 开发
基于RoBERTa-large微调的关系理解模型,专注于词汇关系分类和类比问题解答
下载量 16
发布时间 : 8/18/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于RoBERTa-large架构,在SemEval2012关系相似性数据集上微调而成,主要用于关系理解任务,包括词汇关系分类和类比问题解答。

模型特点

高效的关系理解
在多个关系理解任务上表现出色,特别是在词汇关系分类任务中取得高F1分数
多任务适应性
能够处理多种关系理解任务,包括关系映射、词汇关系分类和类比问题解答
基于RoBERTa-large的微调
利用强大的RoBERTa-large预训练模型作为基础,通过特定任务微调获得优异性能

模型能力

词汇关系分类
类比问题解答
关系映射
关系相似性计算

使用案例

教育
类比问题解答
用于解答类似SAT考试的类比问题
在SAT完整版上准确率达到60.96%
自然语言处理
词汇关系分类
对词汇之间的语义关系进行分类
在BLESS数据集上F1分数达到92.65%