V

Vit L 14 CLIPA 336 Datacomp1b

由 UCSC-VLAA 开发
CLIPA-v2模型,一种高效的对比式图文模型,专注于零样本图像分类任务。
下载量 239
发布时间 : 10/17/2023
模型介绍
内容详情
替代品

模型简介

该模型是基于CLIPA-v2架构的对比式图文模型,主要用于零样本图像分类。它通过大规模数据集训练,能够在不进行微调的情况下对图像进行分类。

模型特点

高效零样本分类
能够在不需要微调的情况下直接进行图像分类任务。
大规模训练数据
使用mlfoundations/datacomp_1b数据集进行训练,覆盖广泛的视觉概念。
反比例缩放优化
采用CLIPA-v2的反比例缩放训练方法,实现高效性能。

模型能力

零样本图像分类
图文对比学习
多标签图像识别

使用案例

图像分类
零样本图像分类
无需训练即可对图像进行分类,适用于快速部署场景。
在ImageNet上达到81.1%的零样本准确率
内容理解
图文匹配
判断图像与文本描述的匹配程度。