S

Swinv2 Large Patch4 Window12to16 192to256 22kto1k Ft

由 microsoft 开发
Swin Transformer v2是一种视觉Transformer模型,通过分层特征图和局部窗口自注意力机制实现高效的图像分类和密集识别任务。
下载量 812
发布时间 : 6/16/2022
模型介绍
内容详情
替代品

模型简介

该模型在ImageNet-21k上进行了预训练,并在256x256分辨率的ImageNet-1k上进行了微调,适用于图像分类任务。

模型特点

分层特征图
通过在更深层合并图像块构建分层特征图,提高特征提取效率。
局部窗口自注意力
仅在局部窗口内计算自注意力,计算复杂度与输入图像大小呈线性关系。
残差后归一化
采用残差后归一化方法结合余弦注意力,提高训练稳定性。
对数间隔连续位置偏置
有效将低分辨率图像预训练的模型迁移到高分辨率输入的下游任务。
自监督预训练
采用SimMIM自监督预训练方法,减少对大量标注图像的需求。

模型能力

图像分类
视觉特征提取

使用案例

图像识别
动物识别
识别图像中的动物种类,如老虎。
物体识别
识别日常物体,如茶壶。
场景识别
识别复杂场景,如宫殿。