单目深度估计
Distill Any Depth Large Hf
MIT
Distill-Any-Depth是一种新的SOTA单目深度估计模型,采用知识蒸馏算法训练而成。
3D视觉
Transformers
D
xingyang1
2,322
2
Distill Any Depth Small Hf
MIT
Distill-Any-Depth是一种基于知识蒸馏算法训练的SOTA单目深度估计模型,能够高效准确地进行深度估计。
3D视觉
Transformers
D
xingyang1
1,214
3
Depthmaster
Apache-2.0
DepthMaster是一个经过驯化的单步扩散模型,将扩散模型中的生成特征定制化以适应判别式深度估计任务。
3D视觉
英语
D
zysong212
50
9
Coreml DepthPro
DepthPro 是一种单目深度估计模型,能够通过单张图像预测深度。
3D视觉
C
KeighBee
17
4
Depthpro ONNX
DepthPro 是一个用于深度估计的视觉模型,能够从单张图像预测场景的深度信息。
3D视觉
Transformers
D
onnx-community
146
10
Marigold E2e Ft Depth
Apache-2.0
一个基于Apache-2.0许可证的单目深度估计模型,适用于野外场景的零样本深度估计任务。
3D视觉
M
GonzaloMG
1,467
6
Depth
Depth Anything V2是目前最强大的单目深度估计模型,基于59.5万张合成标注图像和6200万+真实无标注图像训练而成,具有更精细的细节和更强的鲁棒性。
3D视觉
Transformers
D
scenario-labs
75
0
Depth Anything V2 Large Hf
Depth Anything V2是目前最强大的单目深度估计(MDE)模型,基于59.5万张合成标注图像和6200万+真实无标注图像训练而成,具有更精细的细节和更强的稳健性。
3D视觉
Transformers
D
depth-anything
83.99k
19
Depth Anything V2 Base Hf
Depth Anything V2 是目前最强大的单目深度估计模型,基于59.5万张合成标注图像和6200万+真实无标注图像训练而成,具有更精细的细节和更强的鲁棒性。
3D视觉
Transformers
D
depth-anything
47.73k
1
Depth Anything V2 Small Hf
Apache-2.0
Depth Anything V2是目前最强大的单目深度估计模型,基于59.5万张合成标注图像和6200万+真实无标注图像训练而成,具有精细细节和鲁棒性。
3D视觉
Transformers
D
depth-anything
438.72k
15
Depth Anything V2 Base
Depth-Anything-V2-Base 是一个基于 ONNX 格式的深度估计模型,适配 Transformers.js,用于在 Web 端进行图像深度估计。
3D视觉
Transformers
D
onnx-community
56
0
Depth Anything V2 Large
Depth Anything V2 是目前最强大的单目深度估计模型,基于大量合成和真实图像训练,提供精细的深度细节和高鲁棒性。
3D视觉
英语
D
depth-anything
130.54k
94
Depth Anything V2 Base
Depth Anything V2是目前最强大的单目深度估计(MDE)模型,基于59.5万张合成标注图像与6200万+真实无标注图像训练而成
3D视觉
英语
D
depth-anything
66.95k
17
Depth Anything V2 Small
Apache-2.0
Depth Anything V2 是目前性能最强的单目深度估计模型,基于大规模合成与真实图像训练,相比V1版本能捕捉更精细的细节且更鲁棒。
3D视觉
英语
D
depth-anything
55.22k
64
Coreml Depth Anything Small
Apache-2.0
Depth Anything 是一种基于 DPT 架构和 DINOv2 骨干网络的深度估计模型,在约 6200 万张图像上训练,在相对和绝对深度估计任务中取得最先进结果。
3D视觉
C
apple
51
36
Zoedepth Nyu Kitti
MIT
ZoeDepth是基于NYU和KITTI数据集微调的深度估计模型,能够以实际度量单位估计深度值。
3D视觉
Transformers
Z
Intel
20.32k
5
Zoedepth Kitti
MIT
ZoeDepth是一个用于单目深度估计的视觉模型,在KITTI数据集上进行了微调,能够实现零样本迁移的度量深度估计。
3D视觉
Transformers
Z
Intel
7,037
2
Zoedepth Nyu
MIT
ZoeDepth是一个用于单目深度估计的模型,特别在NYU数据集上进行了微调,能够实现零样本迁移和度量深度估计。
3D视觉
Transformers
Z
Intel
1,279
1
Marigold Depth Lcm V1 0
Apache-2.0
基于潜在一致性蒸馏方法微调的单目深度估计模型,用于从单张图像生成深度图
3D视觉
英语
M
prs-eth
22.45k
55
Depth Anything Large Hf
基于Transformers.js的深度估计模型ONNX版本,适用于网页端应用
3D视觉
Transformers
D
Xenova
19
3
Depth Anything Base Hf
基于Transformers.js的深度估计模型,适配ONNX权重版本,用于从图像中预测深度信息。
3D视觉
Transformers
D
Xenova
53
0
Depth Anything Small Hf
基于ONNX格式的小型深度估计模型,适配Transformers.js框架,适用于网页端深度图预测
3D视觉
Transformers
D
Xenova
4,829
8
Depth Anything Vitl14
Depth Anything 是一个强大的深度估计模型,利用大规模无标签数据释放深度估计的潜力。
3D视觉
Transformers
D
LiheYoung
16.70k
42
Depth Anything Vitb14
Depth Anything 是一个基于大规模无标签数据训练的深度估计模型,能够从单张图像中预测深度信息。
3D视觉
Transformers
D
LiheYoung
7,152
3
Depth Anything Vits14
Depth Anything是一种深度估计模型,利用大规模无标记数据提升性能,适用于单目深度估计任务。
3D视觉
Transformers
D
LiheYoung
8,130
6
Sentis MiDaS
MIT
将 MiDaS 模型转换为 ONNX 格式,用于在 Unity Sentis 中进行单目深度估计
3D视觉
S
julienkay
31
5
Dpt Swinv2 Large 384
MIT
基于SwinV2骨干网络的DPT模型,用于单目深度估计,在140万张图像上训练
3D视觉
Transformers
D
Intel
84
0
Dpt Swinv2 Tiny 256
MIT
基于SwinV2骨干网络的DPT模型,用于单目深度估计,在140万张图像上训练。
3D视觉
Transformers
D
Intel
2,285
9
Dpt Swinv2 Base 384
MIT
DPT (密集预测变换器) 模型在140万张图像上训练,用于单目深度估计。
3D视觉
Transformers
D
Intel
182
0
Dpt Beit Base 384
MIT
DPT是基于BEiT骨干网络的密集预测变换器模型,用于单目深度估计,在140万张图像上训练。
3D视觉
Transformers
D
Intel
25.98k
1
Dpt Beit Large 384
MIT
基于BEiT骨干网络的单目深度估计模型,能够从单张图像推断详细深度信息
3D视觉
Transformers
D
Intel
135
0
Dpt Hybrid Midas
Apache-2.0
基于视觉变换器(ViT)的单目深度估计模型,在140万张图像上训练
3D视觉
Transformers
D
Intel
224.05k
94
Glpn Kitti
Apache-2.0
GLPN是一种用于单目深度估计的模型,采用SegFormer作为主干网络,顶部添加轻量级头部进行深度预测。
3D视觉
Transformers
G
vinvino02
3,401
7
Glpn Nyu
Apache-2.0
GLPN模型在NYUv2数据集上训练,用于单目深度估计,结合全局和局部路径网络实现高精度深度预测。
3D视觉
Transformers
G
vinvino02
7,699
22