L

Llm Jp Clip Vit Large Patch14

由 llm-jp 开发
基于OpenCLIP框架训练的日语CLIP模型,在14.5亿日文图文对数据集上训练,支持零样本图像分类和图文检索任务
下载量 254
发布时间 : 12/27/2024
模型介绍
内容详情
替代品

模型简介

这是一个日语视觉语言模型,能够将图像和日文文本映射到共享的嵌入空间,实现零样本图像分类和跨模态检索功能

模型特点

大规模日语训练数据
使用15亿日文图文对数据集训练,通过高质量机器翻译获得
高性能视觉语言理解
在多个基准测试中表现优异,尤其在日本文化相关任务上
零样本分类能力
无需特定任务微调即可执行图像分类任务

模型能力

零样本图像分类
图文相似度计算
跨模态检索
图像语义理解

使用案例

内容审核
违规内容检测
通过文本描述检测图像中的违规内容
电子商务
商品搜索
通过自然语言描述查找相关商品图片
媒体分析
图像标注
自动为图像生成日文描述标签