V

Vit Base Patch16 224 Finetuned Og Dataset 10e

由 Gokulapriyan 开发
基于Google的ViT模型在自定义图像数据集上微调的视觉Transformer模型,评估准确率达97.7%
下载量 17
发布时间 : 2/18/2023
模型介绍
内容详情
替代品

模型简介

该模型是基于Google的ViT-base-patch16-224架构在图像分类任务上微调的版本,适用于通用图像识别任务

模型特点

高准确率
在评估集上达到97.7%的分类准确率
高效推理
每秒可处理46.82个样本,适合实时应用
基于Transformer架构
采用先进的视觉Transformer架构,具有强大的特征提取能力

模型能力

图像分类
特征提取
迁移学习

使用案例

计算机视觉
通用图像分类
对各类图像进行分类识别
评估准确率97.7%
迁移学习基础模型
可作为其他视觉任务的预训练模型