Y

Yolos Base

由 hustvl 开发
YOLOS是一种基于视觉Transformer(ViT)的目标检测模型,通过DETR损失训练,在COCO数据集上达到42 AP的性能。
下载量 2,638
发布时间 : 4/26/2022

模型简介

YOLOS是一种使用DETR损失训练的视觉Transformer(ViT),专为目标检测任务设计。该模型在COCO 2017验证集上表现出色,与DETR及Faster R-CNN等复杂框架性能相当。

模型特点

基于Transformer的目标检测
YOLOS采用视觉Transformer架构,将目标检测任务转化为序列预测问题,简化了传统检测框架的复杂性。
二分匹配损失
使用匈牙利匹配算法建立预测与标注间的最优对应关系,结合交叉熵损失与L1及广义IoU损失优化模型参数。
高性能
在COCO 2017验证集上达到42 AP的性能,与DETR及更复杂的Faster R-CNN框架相当。

模型能力

目标检测
图像分析
边界框预测

使用案例

计算机视觉
场景理解
检测图像中的物体及其位置,适用于监控、自动驾驶等场景。
能够准确识别并定位图像中的多个物体。
图像标注
自动为图像生成包含物体类别和位置的标注信息。
提供高质量的图像标注,减少人工标注成本。
AIbase
智启未来,您的人工智能解决方案智库
简体中文