F

FARE4 ViT B 32 Laion2b S34b B79k

由 chs20 开发
基于CLIP模型的鲁棒感知度量模型,通过对抗性微调提升对抗攻击下的性能
下载量 45
发布时间 : 8/14/2024
模型介绍
内容详情
替代品

模型简介

该模型是基于CLIP架构的视觉语言模型,采用FARE方法在ImageNet数据集上进行了对抗性微调,特别增强了在对抗攻击条件下的鲁棒性。主要用于感知相似性任务和零样本图像分类。

模型特点

对抗鲁棒性
采用FARE方法进行对抗性微调,在L-无穷范数和L2范数攻击下保持较高性能
感知相似性度量
在NIGHTS数据集上表现出色,能够准确评估图像感知相似性
零样本能力
基于CLIP架构,具备强大的零样本图像分类能力

模型能力

零样本图像分类
图像感知相似性度量
对抗鲁棒性评估

使用案例

计算机视觉
图像分类
在零样本设置下对图像进行分类
在对抗攻击条件下保持较高准确率
图像相似性评估
评估两幅图像在人类感知上的相似程度
在NIGHTS数据集上达到91.1的原始性能
安全研究
对抗鲁棒性测试
评估模型在对抗攻击下的稳定性
在L-无穷范数攻击(eps=4/255)下保持71.8的性能