S

Siglip So400m Patch14 224

由 google 开发
SigLIP是基于CLIP改进的多模态模型,采用更优的Sigmoid损失函数,在WebLi数据集上预训练完成,适用于零样本图像分类和图像-文本检索等任务。
下载量 6,654
发布时间 : 8/23/2024
模型介绍
内容详情
替代品

模型简介

SigLIP是CLIP的改进版本,采用Sigmoid损失函数优化图像-文本对处理,无需全局归一化,在小批量和扩大批处理规模时表现更佳。

模型特点

优化的损失函数
采用Sigmoid损失函数,仅作用于图像-文本对,无需全局归一化,在小批量和大批量情况下均表现优异。
形状优化架构
基于SoViT-400m架构,这是经过计算优化的模型设计,提高了效率。
多模态能力
同时处理图像和文本,支持零样本图像分类和图像-文本检索等任务。

模型能力

零样本图像分类
图像-文本检索
多模态理解

使用案例

图像分类
动物识别
识别图像中的动物种类,如猫、狗等。
高准确率的零样本分类能力。
场景识别
识别图像中的场景,如天空、花朵等。
能够准确区分不同场景。
图像-文本检索
图像搜索
根据文本描述搜索相关图像。
高效的图像-文本匹配能力。