ViT骨干网络
Checkpoint Aerial Mast3r
AerialMegaDepth是一个专注于空地重建与视角合成的深度学习模型,能够从航拍图像中重建3D场景并生成新视角。
3D视觉
C
kvuong2711
15
0
Dpt Large Ade20k
MIT
基于Transformer架构的语义分割模型,专为ADE20K数据集优化
图像分割
D
smp-hub
279
0
Vit Large Patch16 224.orig In21k
Apache-2.0
基于Vision Transformer(ViT)的图像分类模型,由Google Research在JAX框架下使用ImageNet-21k预训练,后移植到PyTorch。
图像分类
Transformers
V
timm
584
2
Vit Base Patch32 224.orig In21k
Apache-2.0
基于Vision Transformer (ViT)的图像分类模型,在ImageNet-21k上预训练,适用于特征提取和微调场景。
图像分类
Transformers
V
timm
438
0
Vit Base Patch16 224.orig In21k
Apache-2.0
基于Vision Transformer的图像分类模型,在ImageNet-21k上预训练,适用于特征提取和微调
图像分类
Transformers
V
timm
23.07k
1
Samvit Huge Patch16.sa1b
Apache-2.0
Segment-Anything视觉变换器(SAM ViT)图像特征模型,仅包含特征提取和微调功能,不包含分割头。
图像分割
Transformers
S
timm
131
1
Samvit Base Patch16.sa1b
Apache-2.0
Segment-Anything视觉变换器(SAM ViT)图像特征模型,仅包含特征提取和微调功能,不包含分割头。
图像分割
Transformers
S
timm
2,756
1
Vit Base Patch14 Dinov2.lvd142m
Apache-2.0
基于Vision Transformer(ViT)的图像特征模型,采用自监督DINOv2方法在LVD-142M数据集上预训练
图像分类
Transformers
V
timm
50.71k
4
Owlvit Base Patch16
Apache-2.0
OWL-ViT是一个零样本文本条件目标检测模型,可通过文本查询在图像中检测物体。
文本生成图像
Transformers
O
google
4,588
12