V

Vit Base Patch16 224 In21k Lcbsi

由 polejowska 开发
基于Google Vision Transformer (ViT)架构的微调模型,适用于图像分类任务
下载量 33
发布时间 : 12/14/2022
模型介绍
内容详情
替代品

模型简介

该模型是在google/vit-base-patch16-224-in21k基础上微调的版本,主要用于图像分类任务,在评估集上达到了98.53%的准确率

模型特点

高准确率
在评估集上达到了98.53%的分类准确率
基于ViT架构
采用Vision Transformer架构,利用自注意力机制处理图像
预训练模型微调
基于google/vit-base-patch16-224-in21k预训练模型进行微调

模型能力

图像分类
视觉特征提取

使用案例

计算机视觉
通用图像分类
对输入图像进行分类识别
评估准确率98.53%