D

Deberta Small Long Nli

由 tasksource 开发
基于DeBERTa-v3-small模型,扩展上下文长度至1680标记,在tasksource数据集上微调,适用于长文本自然语言推理任务
下载量 40.85k
发布时间 : 1/31/2024
模型介绍
内容详情
替代品

模型简介

该模型是专为长上下文自然语言推理任务优化的DeBERTa变体,支持零样本分类、自然语言推理等多种任务,可作为奖励模型或分类器微调的基础模型

模型特点

长上下文支持
上下文长度扩展至1680个标记,适合处理长文本推理任务
多任务训练
在tasksource数据集上进行了25万步微调,涵盖多种NLI任务
零样本能力
在多项任务上展现出强大的零样本性能,如WNLI上达到70%准确率

模型能力

自然语言推理
零样本分类
文本分类
多任务学习

使用案例

文本分析
零样本分类
使用蕴含关系对任意标签进行零样本分类
在WNLI等任务上达到70%准确率
逻辑推理
处理需要逻辑推理的长文本任务
在FOLIO等逻辑推理任务上表现良好
模型开发
奖励模型基础
可作为奖励模型或分类器微调的基础模型