V

Vit Base Patch16 224 In21k Iiii

由 Imene 开发
该模型是基于google/vit-base-patch16-224-in21k微调的视觉Transformer模型,主要用于图像分类任务。
下载量 21
发布时间 : 9/2/2022
模型介绍
内容详情
替代品

模型简介

这是一个基于Vision Transformer架构的图像分类模型,经过特定数据集的微调,可用于图像识别和分类任务。

模型特点

基于ViT架构
采用Vision Transformer架构,利用自注意力机制处理图像数据
迁移学习
基于预训练的vit-base-patch16-224-in21k模型进行微调
混合精度训练
使用mixed_float16精度进行训练,提高训练效率

模型能力

图像分类
特征提取

使用案例

计算机视觉
通用图像分类
对输入图像进行分类识别
在验证集上达到39.07%的准确率