T

Tecoa4 Clip

由 chs20 开发
TeCoA是基于OpenAI CLIP初始化的视觉语言模型,通过监督式对抗微调提升鲁棒性
下载量 51
发布时间 : 2/23/2024
模型介绍
内容详情
替代品

模型简介

该模型基于CLIP ViT-L/14架构,在ImageNet上采用无穷范数和半径4/255进行对抗微调,增强了对抗攻击的鲁棒性。主要用于零样本图像分类任务。

模型特点

对抗鲁棒性
通过无穷范数和半径4/255的对抗训练,显著提升了模型对对抗攻击的抵抗能力
零样本能力
保留CLIP模型的零样本分类能力,无需特定任务微调即可应用于新类别
监督式微调
在ImageNet数据集上进行有监督的对抗微调,平衡了准确性和鲁棒性

模型能力

零样本图像分类
对抗鲁棒图像识别
跨模态理解(图像-文本)

使用案例

计算机视觉
安全关键系统图像识别
在对抗环境下进行可靠的图像分类,适用于自动驾驶、安防等场景
相比标准CLIP模型,在对抗攻击下保持更高准确率
开放域图像理解
利用零样本能力识别未见过的物体类别