M

Minh

由 minh14122003 开发
YOLOS是基于视觉Transformer(ViT)的目标检测模型,采用DETR损失训练,在COCO数据集上表现优异。
下载量 14
发布时间 : 12/1/2024
模型介绍
内容详情
替代品

模型简介

YOLOS是一种使用DETR损失训练的视觉Transformer模型,专为目标检测任务设计,可直接用于检测图像中的物体。

模型特点

基于Transformer的视觉模型
采用视觉Transformer架构,将图像处理为序列数据,实现端到端的目标检测。
二分匹配损失训练
使用匈牙利匹配算法优化查询与标注的映射,结合交叉熵和边界框损失进行训练。
简单高效
结构简单但性能优异,与复杂框架如Faster R-CNN相当。

模型能力

目标检测
图像分析
物体定位

使用案例

通用目标检测
日常场景物体检测
检测图像中的常见物体,如人、动物、交通工具等。
在COCO验证集上达到28.7 AP
监控视频分析
用于监控视频中的物体检测与跟踪。