CLIP骨干网络
Owlv2 Base Patch16 Ensemble
Apache-2.0
OWLv2是一种零样本文本条件目标检测模型,可通过文本查询在图像中定位物体。
目标检测
Transformers
O
upfeatmediainc
15
0
Owlv2 Large Patch14 Finetuned
Apache-2.0
OWLv2是一个零样本文本条件目标检测模型,可通过文本查询在图像中检测物体,无需特定类别的训练数据。
文本生成图像
Transformers
O
google
1,434
4
Owlv2 Large Patch14 Ensemble
Apache-2.0
OWLv2是一个零样本文本条件目标检测模型,可通过文本查询在图像中定位对象。
文本生成图像
Transformers
O
google
262.77k
25
Owlv2 Large Patch14
Apache-2.0
OWLv2是一个零样本文本条件目标检测模型,可通过文本查询在图像中检测对象,无需特定类别的训练数据。
文本生成图像
Transformers
O
google
3,679
5
Owlv2 Base Patch16 Finetuned
Apache-2.0
OWLv2是一个零样本文本条件目标检测模型,可通过文本查询检索图像中的对象。
目标检测
Transformers
O
google
2,698
3
Owlv2 Base Patch16 Ensemble
Apache-2.0
OWLv2是一种零样本文本条件目标检测模型,可通过文本查询在图像中定位对象。
文本生成图像
Transformers
O
google
932.80k
99
Owlvit Large Patch14
Apache-2.0
OWL-ViT是一个零样本文本条件目标检测模型,可通过文本查询检索图像中的对象。
文本生成图像
Transformers
O
google
25.01k
25
Owlvit Base Patch32
Apache-2.0
OWL-ViT是一个零样本文本条件目标检测模型,可以通过文本查询搜索图像中的对象,无需特定类别的训练数据。
文本生成图像
Transformers
O
google
764.95k
129