基于WANLI数据集微调的roberta-large模型,用于自然语言推理任务,在多个域外测试集上表现优于roberta-large-mnli。
下载量 1,195
发布时间 : 3/30/2022
模型简介
该模型是基于WANLI(Worker-AI协作自然语言推理数据集)微调的roberta-large模型,专门用于自然语言推理(NLI)任务。它在八个域外测试集上表现优异,尤其在HANS和对抗性NLI数据集上分别提升了11%和9%。
模型特点
域外性能优越
在八个域外测试集上表现优于roberta-large-mnli,特别是在HANS上提升11%,在对抗性NLI上提升9%。
基于人机协作数据集
使用WANLI数据集训练,该数据集结合了语言模型的生成能力和人类的评估能力,具有更丰富的语言多样性。
复杂推理模式
能够处理展示复杂推理模式的自然语言推理任务。
模型能力
自然语言推理
文本分类
句子对关系判断
使用案例
自然语言处理
矛盾检测
判断两个句子之间是否存在矛盾关系。
能够准确识别句子间的矛盾关系。
蕴含关系判断
判断一个句子是否蕴含另一个句子的意思。
能够准确判断句子间的蕴含关系。
中立关系判断
判断两个句子是否表达中立关系。
能够准确识别句子间的中立关系。
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文