C

Clip Vit Large Patch14

由 openai 开发
CLIP是由OpenAI开发的视觉-语言模型,通过对比学习将图像和文本映射到共享的嵌入空间,支持零样本图像分类
下载量 44.7M
发布时间 : 3/2/2022
模型介绍
内容详情
替代品

模型简介

CLIP模型通过联合训练图像编码器和文本编码器,学习图像和文本之间的语义对应关系,可用于零样本图像分类、跨模态检索等任务。

模型特点

零样本学习能力
无需特定任务微调即可执行新的图像分类任务
多模态理解
同时理解视觉和文本信息,建立跨模态关联
强泛化性
在广泛的数据集上展示出良好的泛化性能

模型能力

零样本图像分类
图像-文本匹配
跨模态检索
多模态特征提取

使用案例

计算机视觉研究
鲁棒性研究
研究计算机视觉模型的鲁棒性和泛化性
在30+个数据集上评估了性能
零样本分类
无需训练即可对任意类别进行图像分类
跨模态应用
图像搜索
使用自然语言查询搜索相关图像