V

Vit Large Patch14 Clip 224.laion400m E32

由 timm 开发
基于LAION-400M数据集训练的大型视觉Transformer模型,支持零样本图像分类任务
下载量 1,208
发布时间 : 10/23/2024
模型介绍
内容详情
替代品

模型简介

这是一个基于Vision Transformer架构的双用途模型,兼容open_clip和timm框架,主要用于零样本图像分类任务。

模型特点

双框架兼容
同时支持open_clip和timm框架,提供更灵活的使用方式
零样本学习
无需特定训练即可对新类别进行图像分类
大规模预训练
基于LAION-400M大规模数据集训练,具有强大的视觉表示能力

模型能力

图像分类
视觉特征提取
零样本学习

使用案例

计算机视觉
通用图像分类
对任意图像进行分类,无需特定领域训练
内容理解
理解图像内容并生成相关描述