T

Tic CLIP Bestpool Sequential

由 apple 开发
TiC-CLIP是基于TiC-DataComp-Yearly数据集训练的视觉语言模型,采用持续学习策略保持模型与最新数据同步
下载量 280
发布时间 : 6/5/2024
模型介绍
内容详情
替代品

模型简介

该模型是用于视觉语言任务的持续学习模型,通过时间连续数据训练,避免传统重训练的高昂成本,支持零样本图像分类和跨模态检索

模型特点

持续学习策略
采用经验回放策略进行持续训练,相比传统从头训练减少2.5倍计算量
时间鲁棒性
专门设计用于处理时间变化数据,在较新数据上表现优于传统CLIP模型
大规模训练数据
基于TiC-DataComp数据集训练,包含2014-2022年间127亿条时间戳图像-文本对

模型能力

零样本图像分类
图像-文本检索
跨模态表示学习

使用案例

计算机视觉
时间敏感图像分类
对随时间变化的概念和趋势进行图像分类
在2021-2022数据上比传统CLIP模型准确率提高约8%
信息检索
跨时间图像检索
基于文本查询检索不同时间段的图像