YOLO
YOLO(You Only Look Once)是一种用于实时物体检测的算法,由Joseph Redmon等人提出。它能够同时进行物体分类和定位,并且因其速度和效率而广受赞誉。
工作原理
假设我们要对这张猫的图片完成目标检测,需要框选出其位置,我们需要得到的内容为目标框左上角的坐标和右下角的坐标,这样就可以完成唯一确定这个框,这个过程相当于是回归得到坐标结果的过程。
YOLO的名字You Only Look Once意为只看一次就好,one-stage特性意味着它将物体检测任务视为一个单一的回归问题,直接从图像像素到边界框坐标和类概率的映射。one-stage是相对于Faster-RCNN等two-stage类型的目标检测算法而言,只需要进行一次神经网络的传播即可完成整个过程,运行效率更高,适合做实时检测任务(针对视频),但相对而言,YOLO的准确率不会比two-stage类型的模型高。
检测指标
map:综合衡量精度和召回率,
IOU(Interception Of Union): 交集/并集,真实值和预测值的交并集,IOU越高越好
设定一个置信度阈值,利用这个值对预测的结果框计算其精准度和召回率,利用其构建不同阈值置信度的PR图,
对于每个类别,AP是通过计算该类别下Precision-Recall曲线下的面积得到的。Precision-Recall曲线展示了当调整分类阈值时,Precision和Recall的变化关系。AP值越高,表示模型对该类别的检测效果越好。
map就是上述PR图中面积,map的值最大值为1,越大越好