F

Finetuned Affecthq

由 Piro17 开发
基于google/vit-base-patch16-224-in21k微调的图像分类模型,在图像文件夹数据集上训练,评估准确率达71.79%。
下载量 18
发布时间 : 2/16/2023
模型介绍
内容详情
替代品

模型简介

该模型是基于Vision Transformer (ViT)架构的图像分类模型,经过微调后适用于特定图像分类任务。

模型特点

高精度分类
在评估集上达到71.79%的准确率和71.67%的F1值
基于ViT架构
采用Vision Transformer架构,具有强大的图像特征提取能力
精细调优
在google/vit-base-patch16-224-in21k基础上进行微调,适应特定分类任务

模型能力

图像分类
视觉特征提取
多类别识别

使用案例

图像分析
通用图像分类
对输入的图像进行分类识别
准确率71.79%