E

Eva02 Enormous Patch14 Clip 224.laion2b S4b B115k

由 timm 开发
基于EVA02架构的大规模视觉-语言模型,支持零样本图像分类任务
下载量 130
发布时间 : 4/10/2023
模型介绍
内容详情
替代品

模型简介

该模型是基于CLIP框架的视觉-语言预训练模型,采用EVA02架构,能够理解图像和文本的关联,适用于零样本图像分类等跨模态任务。

模型特点

零样本学习能力
无需特定任务的微调即可执行图像分类任务
大规模预训练
在LAION-2B等大规模数据集上预训练
跨模态理解
能够同时处理和理解视觉和文本信息

模型能力

零样本图像分类
图像-文本匹配
跨模态检索

使用案例

内容理解与检索
智能图像搜索
使用自然语言描述搜索相关图像
高精度的跨模态检索效果
自动图像标注
为图像生成描述性标签
无需训练即可生成相关标签
教育研究
视觉概念学习
研究视觉和语言概念的关联表示
为认知科学研究提供工具