Roberta Large Semeval2012 V2 Mask Prompt A Nce
RelBERT是基于RoBERTa-large微调的语义关系理解模型,专门用于处理词汇关系分类和类比问题任务。
下载量 16
发布时间 : 8/17/2022
模型简介
该模型通过微调RoBERTa-large架构,专注于理解词汇间的语义关系,在多种关系分类和类比任务上表现出色。
模型特点
高性能关系理解
在多种语义关系任务上达到高准确率,如BLESS数据集F1达0.926
多任务适配
可同时处理关系分类、类比问题和关系映射等多种任务
基于提示的微调
使用特定模板进行mask提示微调,增强关系表示能力
模型能力
词汇关系分类
类比问题解答
语义关系映射
关系嵌入生成
使用案例
教育技术
SAT类比题解答
用于解答标准化考试中的词汇类比问题
SAT准确率71.8%
知识图谱
词汇关系分类
构建知识图谱时的实体关系分类
K&H+N数据集F1达0.959
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文