YOLOP——全景驾驶感知理论解读与实践上手

Posted zstar-_

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了YOLOP——全景驾驶感知理论解读与实践上手相关的知识,希望对你有一定的参考价值。

前言

YOLOP是华中科技大学研究团队在2021年开源的研究成果,其将目标检测/可行驶区域分割和车道线检测三大视觉任务同时放在一起处理,并且在Jetson TX2开发板子上能够达到23FPS。

论文标题:YOLOP: You Only Look Once for Panoptic Driving Perception
论文地址: https://arxiv.org/abs/2108.11250
官方代码: https://github.com/hustvl/YOLOP

网络结构

相比于其它论文,YOLOP的论文很容易阅读。YOLOP的核心亮点就是多任务学习,而各部分都是拿其它领域的成果进行缝合,其网络结构如下图所示:


三个子任务共用一个Backbone和Neck,然后分出来三个头来执行不同的任务。

Encoder

根据论文所述,整个网络可以分成一个Encoder和3个Decoder。
Encoder包含Backbone和Neck,Backbone照搬了YOLOv4所采用的CSPDarknet,Neck也和YOLOv4类似,使用了空间金字塔(SPP)模块和特征金字塔网络(FPN)模块。

Decoders

Decoders即三个任务头

Detect Head

目标检测头使用了Path Aggregation Network (PAN)结构,这个结构可以将多个尺度特征图的特征图进行融合,其实还是YOLOv4那一套。

Drivable Area Segment Head & Lane Line Segment Head

可行驶区域分割头和车道线检测头都属于语义分割任务,因此YOLOP使用了相同的网络结构,经过三次上采样,将输出特征图恢复为(W, H, 2)的大小,再进行具体任务的处理。

Loss Function

损失函数包括三部分,即三个任务的损失。

目标检测损失

目标检测是直接照搬YOLOv4的,因此和YOLOv4采用的损失一样,经典的边界框损失、目标损失和类别损失,各自加了个权重。

语义分割损失

另外两个语义分割损失采用的均是交叉熵损失。

总体损失

总体损失为三部分损失之和:

实验数据对比

作者后续做了一些对比实验,实际上,这样的对比实验并不“公平”,YOLOP是多任务,其它算法基本上都是单任务。

目标检测对比


首先是在目标检测方面和其它主流算法进行对比,可以看到YOLOP的速度和准确率还不如YOLOv5s,但是召回率却比它要高,这意味着YOLOP能够有更少的漏检目标。

语义分割对比


语义分割方面,可以看到YOLOP无论是速度还是准确性上都是完胜的。

对比效果可视化

最后作者用大量的篇幅分别针对白天和黑夜场景下的三个子任务,和主流算法进行对比。

目标检测对比

作者和Faster R-CNN进行对比,可以看到两者差别并不是非常明显。

可行驶区域分割对比

作者和PSPNet进行对比,可以看到YOLOP效果更好,图中黄线圈出的是漏检,红线框出的是误检。

车道线分割对比

作者和ENet-SAD进行对比,可以看到这方面也是YOLOP取得明显优势。

实践上手

YOLOP的代码结构和YOLOv6差不多,贴心的作者不仅提供了测试样例,而且还提供了训练好的模型权重,直接放在代码仓库里面,无需额外进行下载。

实现推理是需要运行demo.py这个主函数,超参数根据自己的路径进行调整:

效果演示

我将YOLOP输出的结果和之前multiyolov5输出的结果进行对比,效果可以参见下面的视频。

【Demo】YOLOP&multiyolov5行车场景效果演示

以上是关于YOLOP——全景驾驶感知理论解读与实践上手的主要内容,如果未能解决你的问题,请参考以下文章

论文解读+实践YOLOP 全景驾驶感知 同时处理三大视觉任务

全景驾驶感知网络YOLOP部署与实现(交通目标检测可驾驶区域分割车道线检测)

YOLOP 解读You Only Look Once for Panoptic Driving Perception

YOLOP 解读You Only Look Once for Panoptic Driving Perception

综述:用于自动驾驶的全景鱼眼相机的理论模型和感知介绍

综述:用于自动驾驶的全景鱼眼相机的理论模型和感知介绍