V

Vit Huge Patch14 Clip 224.metaclip Altogether

由 timm 开发
基于ViT-Huge架构的CLIP模型,支持零样本图像分类任务
下载量 171
发布时间 : 12/23/2024

模型简介

该模型是OpenCLIP和timm的双用途视觉语言模型,基于ViT-Huge架构,使用MetaCLIP数据集训练,支持零样本图像分类任务。

模型特点

双框架兼容
同时支持OpenCLIP和timm框架使用
零样本能力
无需特定训练即可执行图像分类任务
大规模预训练
使用MetaCLIP数据集训练,具有广泛视觉概念理解能力

模型能力

零样本图像分类
图像-文本匹配
跨模态理解

使用案例

内容理解
图像自动标注
为未标注图像生成描述性标签
可识别数千种常见物体和场景
视觉搜索
基于文本的图像检索
使用自然语言查询查找相关图像
无需训练即可实现跨模态检索
AIbase
智启未来,您的人工智能解决方案智库
简体中文