V

Vit Base Patch16 224 Finetuned

由 clp 开发
基于Google Vision Transformer (ViT)模型微调的图像分类模型,在自定义图像数据集上进行了训练
下载量 30
发布时间 : 11/28/2022
模型介绍
内容详情
替代品

模型简介

该模型是在图像文件夹数据集上对google/vit-base-patch16-224进行微调的版本,主要用于图像分类任务

模型特点

基于ViT架构
使用Vision Transformer架构,适合处理图像分类任务
微调模型
在特定图像数据集上进行微调,适应特定分类需求
中等规模
基于ViT-base模型,平衡了性能和计算资源需求

模型能力

图像分类
视觉特征提取

使用案例

图像识别
通用图像分类
对输入的图像进行分类识别
在评估集上达到33.33%的准确率