T

Tic CLIP Bestpool Cumulative

由 apple 开发
TiC-CLIP是基于OpenCLIP改进的视觉语言模型,采用持续训练策略在时间序列数据上训练,有效降低了模型更新的计算成本。
下载量 313
发布时间 : 6/5/2024
模型介绍
内容详情
替代品

模型简介

该模型是用于持续训练视觉语言模型的基准套件,包含跨越9年(2014-2022)的时间戳图像-文本对数据,支持零样本图像分类和跨模态检索任务。

模型特点

时间持续训练
采用持续训练策略避免完全重训练,相比标准方法减少2.5倍计算量
大规模时间序列数据
基于TiC-DataComp数据集,包含2014-2022年间的127亿条时间戳图像-文本对
高效回放策略
通过从最后检查点继续训练并重放旧数据的方式保持模型性能

模型能力

零样本图像分类
图像-文本匹配
跨模态检索
持续学习

使用案例

计算机视觉研究
持续学习方法开发
研究人员可利用该模型加速持续学习方法的开发
从预训练检查点出发,在后续年度/月度数据上进行持续训练
跨模态应用
图像检索系统
构建基于时间序列的图像检索系统
在2021-2022检索任务上比传统CLIP模型提高8%准确率