🚀 时尚目标检测模型
本项目基于transformers
库,提供了一个用于时尚目标检测的微调模型。该模型以microsoft/conditional-detr-resnet-50
为基础,可检测时尚图像中的各类物品,如包、上衣、裤子等,在时尚搜索等领域具有重要价值。
🚀 快速开始
本模型是microsoft/conditional-detr-resnet-50
的微调版本。
你可以在这个GitHub仓库中找到模型的详细信息 -> fashion-visual-search
同时,你还能找到时尚图像特征提取器模型 -> yainage90/fashion-image-feature-extractor
本模型使用两个数据集组合进行训练:modanet 和 fashionpedia
模型可检测的标签有 ['包', '下装', '连衣裙', '帽子', '鞋子', '外套', '上衣']
在总共100个训练轮次中的第96轮,模型取得了最佳成绩,平均精度均值(mAP)为0.7542。因此,认为模型在性能上仍有一定的提升空间。
💻 使用示例
基础用法
from PIL import Image
import torch
from transformers import AutoImageProcessor, AutoModelForObjectDetection
device = 'cpu'
if torch.cuda.is_available():
device = torch.device('cuda')
elif torch.backends.mps.is_available():
device = torch.device('mps')
ckpt = 'yainage90/fashion-object-detection'
image_processor = AutoImageProcessor.from_pretrained(ckpt)
model = AutoModelForObjectDetection.from_pretrained(ckpt).to(device)
image = Image.open('<path/to/image>').convert('RGB')
with torch.no_grad():
inputs = image_processor(images=[image], return_tensors="pt")
outputs = model(**inputs.to(device))
target_sizes = torch.tensor([[image.size[1], image.size[0]]])
results = image_processor.post_process_object_detection(outputs, threshold=0.4, target_sizes=target_sizes)[0]
items = []
for score, label, box in zip(results["scores"], results["labels"], results["boxes"]):
score = score.item()
label = label.item()
box = [i.item() for i in box]
print(f"{model.config.id2label[label]}: {round(score, 3)} at {box}")
items.append((score, label, box))

📄 许可证
本项目采用MIT许可证。