场景理解
Multilabel GeoSceneNet
Apache-2.0
基于SigLIP架构微调的多标签图像分类模型,可识别7种地理场景元素
图像分类
Transformers
支持多种语言
M
prithivMLmods
26
3
Depthpro ONNX
DepthPro 是一个用于深度估计的视觉模型,能够从单张图像预测场景的深度信息。
3D视觉
Transformers
D
onnx-community
146
10
Depth Anything V2 Base
Depth-Anything-V2-Base 是一个基于 ONNX 格式的深度估计模型,适配 Transformers.js,用于在 Web 端进行图像深度估计。
3D视觉
Transformers
D
onnx-community
56
0
Nebula
MIT
该模型是一个图像转文本模型,专注于生成图像的字幕描述。
图像生成
Transformers
N
SRDdev
17
0
Segformer B0 Person Segmentation
Openrail
基于 Segformer 架构的语义分割模型,用于为图像中的每个像素分配语义类别标签。
图像分割
Transformers
英语
S
s3nh
3,187
2
Vit Rugpt2 Image Captioning
这是一个基于COCO2014数据集翻译版(英俄)训练的图片描述生成模型,能够为输入的图像生成俄语描述。
图像生成文本
Transformers
其他
V
tuman
111
13
Upernet Swin Large
MIT
UperNet是一种用于语义分割的框架,结合Swin Transformer骨干网络实现像素级场景理解
图像分割
Transformers
英语
U
openmmlab
3,251
0
Upernet Swin Base
MIT
UperNet是一种用于语义分割的框架,采用Swin Transformer作为骨干网络,能够高效地进行像素级语义标注。
图像分割
Transformers
英语
U
openmmlab
700
2
Upernet Swin Tiny
MIT
UperNet是一种语义分割框架,采用Swin Transformer作为骨干网络,能够实现像素级语义标签预测。
图像分割
Transformers
英语
U
openmmlab
4,682
3
Upernet Convnext Xlarge
MIT
UperNet是一种用于语义分割的框架,采用ConvNeXt作为骨干网络,能够预测每个像素的语义标签。
图像分割
Transformers
英语
U
openmmlab
659
2
Upernet Convnext Base
MIT
UperNet是一种用于语义分割的框架,采用ConvNeXt作为骨干网络,能够预测每个像素的语义标签。
图像分割
Transformers
英语
U
openmmlab
178
1
Upernet Convnext Tiny
MIT
UperNet是一种用于语义分割的框架,采用ConvNeXt作为骨干网络,能够为每个像素预测一个语义标签。
图像分割
Transformers
英语
U
openmmlab
3,866
3