V

Vit Base Patch16 224 In21k Finetuned Cassava3

由 siddharth963 开发
基于Google Vision Transformer (ViT)架构的图像分类模型,在图像文件夹数据集上微调,准确率达88.55%
下载量 13
发布时间 : 10/12/2022
模型介绍
内容详情
替代品

模型简介

该模型是基于Google的ViT-base-patch16-224-in21k预训练模型在特定图像分类任务上微调的版本,主要用于图像分类任务。

模型特点

高准确率
在评估集上达到88.55%的分类准确率
基于ViT架构
使用Vision Transformer架构,适合处理图像数据
迁移学习
基于预训练模型微调,适应特定分类任务

模型能力

图像分类
视觉特征提取

使用案例

农业
木薯病害识别
基于模型名称推断可能用于木薯作物病害分类
88.55%的分类准确率
通用图像分类
通用物体识别
可用于各种图像分类任务