Depth Anything V2 Metric Indoor Large Hf
基于Depth Anything V2使用合成Hypersim数据集进行室内度量深度估计的微调版本,兼容transformers库。
3D视觉
Transformers
D
depth-anything
47.99k
9
Depth Anything V2 Metric Indoor Base Hf
基于Depth Anything V2模型,针对室内度量深度估计任务使用Hypersim合成数据集微调的版本
3D视觉
Transformers
D
depth-anything
9,056
1
Depth Anything V2 Metric Indoor Small Hf
基于Depth Anything V2针对室内度量深度估计任务进行微调的模型,使用合成数据集Hypersim训练,兼容transformers库。
3D视觉
Transformers
D
depth-anything
750
2
Depth Anything V2 Metric Outdoor Small Hf
基于Depth Anything V2的微调版本,专为户外场景度量深度估计设计,使用合成数据集Virtual KITTI进行训练。
3D视觉
Transformers
D
depth-anything
459
1
Depth Anything V2 Metric Outdoor Base Hf
基于Depth Anything V2使用合成Virtual KITTI数据集针对室外度量深度估计任务微调的版本,兼容transformers库
3D视觉
Transformers
D
depth-anything
436
0
Depth Anything V2 Metric Outdoor Large Hf
Apache-2.0
基于Depth Anything V2针对户外度量深度估计任务进行微调的版本,使用合成数据集Virtual KITTI进行训练
3D视觉
Transformers
D
depth-anything
3,662
6
Coreml Depth Anything V2 Small
Apache-2.0
Depth Anything V2 是基于 DPT 架构的深度估计模型,采用 DINOv2 骨干网络,通过大规模合成和真实数据训练,实现精细且鲁棒的深度预测。
3D视觉
C
apple
67
58
Coreml Depth Anything Small
Apache-2.0
Depth Anything 是一种基于 DPT 架构和 DINOv2 骨干网络的深度估计模型,在约 6200 万张图像上训练,在相对和绝对深度估计任务中取得最先进结果。
3D视觉
C
apple
51
36
Zoedepth Nyu
MIT
ZoeDepth是一个用于单目深度估计的模型,特别在NYU数据集上进行了微调,能够实现零样本迁移和度量深度估计。
3D视觉
Transformers
Z
Intel
1,279
1
Depth Anything Large Hf
Apache-2.0
Depth Anything是基于DPT架构和DINOv2骨干网络的深度估计模型,在约6200万张图像上训练,在相对和绝对深度估计任务中取得了最先进的结果。
3D视觉
Transformers
D
LiheYoung
147.17k
51
Depth Anything Base Hf
Apache-2.0
Depth Anything是一种基于DPT架构和DINOv2主干网络的深度估计模型,在约6200万张图像上训练,实现了零样本深度估计的先进性能。
3D视觉
Transformers
D
LiheYoung
4,101
10
Depth Anything Small Hf
Apache-2.0
Depth Anything是基于DPT架构的深度估计模型,采用DINOv2骨干网络,在约6200万张图像上训练,在相对和绝对深度估计任务上表现优异。
3D视觉
Transformers
D
LiheYoung
97.89k
29