yolov2算法详解

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了yolov2算法详解相关的知识,希望对你有一定的参考价值。

参考技术A yolov2原文叫 《YOLO9000:Better, Faster, Stronger》

yolov2相对于yolo来说的优势就是文章题目所说的,更好,更快,更强。下面来看看yolov2如何达到这个目的的。

随着BN的提出,且在各种网络大量的引入,yolov2引入了BN(batch normalization)。文章还发现BN不仅改善了网络性能,还有一定的正则化的作用,因此文章移除了yolo中使用的dropout操作。

关于BN具体的计算,可以参考 BN及其改进算法

在yolov1的时候采用的是 大小的图片来进行分类任务, 大小的图片来进行检测任务。

文章认为直接切换为高分辨率,可能对网络性能有所伤害。yolov2在使用了 大小的图片训练的分类网络中,再用 大小的图片来训练10轮分类网络,之后用得到的网络来训练检测网络。

借助fasterrcnn的思想,预测坐标的偏移量比直接预测坐标更容易学习,所以yolov2引入anchor的思想。

fasterrcn预测方式如下:

上式中,x,y是预测的框中心, 、 是anchor框的中心点坐标, 、 是anchor框的宽和高, , 是网络的输出。

注意:这里与yolo9000原文不同的是,上式中是‘-’号,但是按照fasterrcnn的公式推导其实应该为‘+’,这样更好理解

fasterrcnn这种训练方式对于 和 没有约束,使得训练早期坐标不容易稳定。

所以yolov2的预测方式如下:

上式中, 分别为预测参数, 为归一化的预测框的中心坐标和长宽, 是当前网格距离左上角的距离,该距离也为规划化后的距离, 表示anchor的长宽, 表示sigmoid函数。上述中的归一化指的是每个网格的长宽为1。这里可以看出因为加了sigmoid函数,使得预测出的 始终为0-1的,就不容易造成训练早期的坐标不稳定了。

在yolov1中,因为每个网格负责预测两个框,对于大小为 大小的featuremap来说,yolov1只能预测出 个预测框。但是引入anchor后,对于 的featuremap来说,可以预测出 个预测框(这里假定使用更大的分辨率图像作为输入,且anchor类型有9累)。所以引入anchor对于模型性能的提升,增大了优化的空间。(虽然引入anchor,使得文章的map下降了,但是召回升高了很多)

yolov2中anchor定义不同于fasterrcnn是人工预设的比例和大小,文中通过k-means来聚类出k类anchor类,文章最终k=5。这里聚类时距离的度量值如下定义:

上式中centroid为聚类中心,box为其它待聚类的框,IOU为iou计算公式。可以看出IOU越大,两个框越近。

为了对小物体有更好的检测效果,文章想直接利用更为精细的特征来检测小物体,所以在进行最终的下采样之前,引入了passthrough的方法,该方法利用了下采样之前的特征是的对小物体的检测更为精确。
关于passthrough方法,网友给出的图非常详细,如下图所示:

yolov1中对于检测任务采用的是 来训练网络。yolov2为了适应多尺度的物体检测,网络的训练时采用多种图片尺寸,这些尺寸为32的倍数,有 。训练过程中,每10个batches后随机选择这些尺度中的一个输入网络进行训练。

文中提出了一个新的网络结构叫做Darknet-19,网络结构如下图所示。

表中展示的是分1000类的网络结构。

对于检测任务,网络结构相对上述分类结构有所改动。

文章的这部分主要是用来证明yolov2有较强的特征提取性能,采用了一些整理标签的方法,融合了COCO和Imagenet来做一些实验。

以上是关于yolov2算法详解的主要内容,如果未能解决你的问题,请参考以下文章

yolov3算法详解

YOLO v2算法详解

辐射神经场算法——NeRF算法详解

辐射神经场算法——NeRF算法详解

线性回归算法和逻辑斯谛回归算法详细介绍及其原理详解

YOLO v1深入理解