L

Llm Jp Clip Vit Base Patch16

由 llm-jp 开发
日语CLIP模型,基于OpenCLIP框架训练,支持零样本图像分类任务
下载量 40
发布时间 : 12/17/2024
模型介绍
内容详情
替代品

模型简介

这是一个日语视觉语言模型,能够将图像与日语文本进行关联,特别适用于零样本图像分类任务。模型在14.5亿日语图文对数据集上训练,总参数量为248M。

模型特点

日语专用
专门针对日语优化的CLIP模型,在日语文本理解方面表现优异
大规模训练数据
使用14.5亿日语图文对数据集训练,覆盖广泛视觉概念
零样本能力
无需特定训练即可执行新类别的图像分类任务

模型能力

零样本图像分类
图像-文本匹配
跨模态检索

使用案例

图像分类
日语标签图像分类
使用日语文本标签对图像进行分类
在ImageNet日语分类任务上达到54.2%准确率
跨模态检索
图像搜索
使用日语文本查询检索相关图像
在XM3600数据集上图到文检索任务中达到73.6%准确率