D

Deberta Base Long Nli

由 tasksource 开发
基于DeBERTa-v3-base模型,上下文长度扩展至1280,并在tasksource数据集上进行了25万步的微调,专注于自然语言推理和零样本分类任务。
下载量 541
发布时间 : 6/28/2024
模型介绍
内容详情
替代品

模型简介

该模型在多项NLI任务上展现出强大的零样本验证性能,可用于基于蕴含关系的任意标签零样本分类、自然语言推理以及在新任务上的进一步微调。

模型特点

长文本处理能力
上下文长度扩展至1280,特别适合处理长文本NLI任务
多任务训练
在tasksource的多样化NLI数据集上进行训练,涵盖逻辑推理、事实核查等多种任务类型
强大的零样本能力
在WNLI等任务上达到70%准确率,无需特定任务微调即可获得良好表现

模型能力

零样本分类
自然语言推理
逻辑推理
事实核查
文本蕴含判断

使用案例

文本分类
零样本情感分析
无需训练即可对文本进行情感分类
在chatbot_arena_conversations数据集上达到72.2%准确率
逻辑推理
逻辑问题解答
解决需要逻辑推理的NLI问题
在FOLIO数据集上达到61.8%准确率
事实核查
文档级事实核查
处理长文档的事实核查任务
在doc-nli数据集上达到90%准确率