V

Vit Base Patch16 224 In21k Mobile Eye Tracking Dataset V0

由 julienmercier 开发
基于Google Vision Transformer (ViT)架构微调的眼动追踪图像分类模型
下载量 24
发布时间 : 3/8/2023
模型介绍
内容详情
替代品

模型简介

该模型是基于Google的ViT-base-patch16-224-in21k预训练模型进行微调,专门用于眼动追踪相关的图像分类任务。在评估集上表现出较高的准确率(93.49%)和较低的验证损失(0.2002)。

模型特点

高准确率
在评估集上达到93.49%的分类准确率
基于ViT架构
采用Vision Transformer架构,适合处理图像数据
迁移学习
基于预训练模型微调,适合小规模数据集

模型能力

图像分类
眼动追踪数据分析

使用案例

人机交互研究
眼动追踪实验分析
用于分析眼动追踪实验中收集的视觉数据
93.49%的分类准确率
心理学研究
视觉注意力研究
分析受试者在视觉任务中的注意力分布