R

Roberta Large Conceptnet Mask Prompt E Nce

由 research-backup 开发
基于RoBERTa-large微调的关系嵌入模型,专注于词汇关系理解和类比推理任务
下载量 17
发布时间 : 8/7/2022
模型介绍
内容详情
替代品

模型简介

该模型通过在高置信度ConceptNet数据上微调RoBERTa-large,专门用于理解词汇间的关系和进行类比推理。支持多种关系分类和映射任务。

模型特点

高精度关系分类
在多个关系分类数据集上取得0.9以上的F1分数
多任务支持
同时支持关系分类、类比推理和关系映射等多种任务
基于提示的微调
使用特殊的mask提示模板进行训练,增强关系理解能力

模型能力

词汇关系分类
类比推理
关系嵌入生成
关系映射

使用案例

自然语言处理
词汇关系分类
识别词汇之间的语义关系(如同义、反义、上下位等)
在BLESS数据集上达到93%的F1分数
类比推理
解决类似'东京之于日本相当于巴黎之于?'的类比问题
在Google类比数据集上达到89.8%准确率
知识图谱
关系映射
将不同知识库中的关系进行对齐和映射
关系映射准确率达到93.25%