V

Vit Base Patch16 Clip 224.metaclip 400m

由 timm 开发
基于MetaCLIP-400M数据集训练的双框架兼容视觉模型,支持OpenCLIP和timm框架
下载量 1,206
发布时间 : 10/23/2024
模型介绍
内容详情
替代品

模型简介

这是一个基于Vision Transformer架构的视觉模型,专门用于零样本图像分类任务。模型在MetaCLIP-400M数据集上训练,兼容OpenCLIP和timm两种框架。

模型特点

双框架兼容
同时支持OpenCLIP和timm框架,提供更灵活的使用方式
零样本学习能力
无需特定类别训练即可对新类别进行分类
快速GELU激活
采用quickgelu变体,可能提供更快的训练和推理速度

模型能力

零样本图像分类
图像特征提取
跨模态表示学习

使用案例

计算机视觉
开放域图像分类
对任意类别图像进行分类而无需特定训练
图像检索
基于语义相似度的图像搜索
多模态应用
图文匹配
评估图像与文本描述的匹配程度