D

Distilbert Base Uncased Finetuned Rte

由 anirudh21 开发
该模型是基于DistilBERT在GLUE数据集RTE任务上微调的文本分类模型,准确率为61.73%
下载量 20
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

一个轻量级的文本分类模型,专门用于识别文本蕴含关系(RTE任务)

模型特点

轻量高效
基于DistilBERT架构,比标准BERT体积小40%但保留97%的性能
特定任务优化
专门针对GLUE数据集中的RTE(文本蕴含识别)任务进行微调

模型能力

文本分类
文本蕴含识别
自然语言推理

使用案例

自然语言处理
文本蕴含判断
判断前提文本是否蕴含假设文本
在GLUE RTE任务上达到61.73%准确率
问答系统支持
辅助问答系统判断答案是否与问题相关