V

Vit B 16 SigLIP 512

由 timm 开发
基于WebLI数据集训练的SigLIP(Sigmoid损失语言图像预训练)模型,用于零样本图像分类任务
下载量 3,787
发布时间 : 10/16/2023
模型介绍
内容详情
替代品

模型简介

这是一个对比图像-文本模型,使用Sigmoid损失进行语言图像预训练,特别适合零样本图像分类任务。模型从JAX检查点转换为PyTorch格式,可在OpenCLIP和timm中使用。

模型特点

Sigmoid损失函数
采用Sigmoid损失而非传统的Softmax损失进行语言图像预训练,提高了模型性能
零样本分类能力
无需特定任务微调即可直接应用于新的图像分类任务
多框架支持
同时支持OpenCLIP(图像+文本)和timm(仅图像)框架

模型能力

零样本图像分类
图像特征提取
文本特征提取
图像-文本匹配

使用案例

图像识别
食品识别
识别图像中的食品类别,如甜甜圈、贝涅饼等
可输出各类别的概率分布
内容审核
不当内容检测
检测图像中是否包含特定类别的不当内容