多模态路沿检测与滤波方法

Posted Being_young

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了多模态路沿检测与滤波方法相关的知识,希望对你有一定的参考价值。

文章:Multi-modal curb detection and filtering

作者:Sandipan Das , Navid Mahabadi , Saikat Chatterjee , Maurice Fallon

编译:点云PCL

来源:arXiv 2022

本文仅做学术分享,如有侵权,请联系删除。欢迎各位加入免费知识星球,获取PDF论文,欢迎转发朋友圈。内容如有错误欢迎评论留言,未经作者允许请勿转载,欢迎各位同学积极分享和交流。

公众号致力于分享点云处理,SLAM,三维视觉,高精地图相关的文章与技术,欢迎各位加入我们,一起每交流一起进步,有兴趣的可联系微信:920177957。本文来自点云PCL博主的分享,未经作者允许请勿转载,欢迎各位同学积极分享和交流。

摘要

稳定可靠的道路路沿先验信息对于自动驾驶车辆导航是至关重要,本文提出了一种基于相机语义信息和稠密的激光雷达点云融合的鲁棒路沿检测和滤波技术。通过融合多个激光雷达获取的点云数据,以实现稳健的特征检测。摄像头语义信息是基于改进的EfficientNet架构,该架构使用从车载鱼眼摄像头获取的标记数据进行训练,在使用鱼眼模型投影到图像空间后,使用L2范数分析将点云与最近的路沿段相关联起来。然后,使用基于密度的无监督空间聚类对所选点云进行聚类,以检测不同的路沿区域,当在连续帧中检测到新路沿点时,它们将使用时间可达性约束与现有路沿簇相关联,如果未找到可达性约束,则从这些新点形成新的路沿群集,这确保了我们可以检测由多条车道组成的路段中存在的多个路沿,如果它们位于传感器的视野范围内。最后,将Delaunay滤波应用于离群点的去除,并将其性能与传统的基于RANSAC的滤波进行了比较。使用包含从商业地图供应商处获得的地面真实限制点的高精地图,对提出的解决方案进行客观评估,该系统已被证明能够在复杂的城市道路场景中检测任何方向的路沿,包括直线道路、曲线道路和与交通岛的交叉口。

主要贡献

稳健的环境感知是自动驾驶的一个基本方面,对道路安全和效率非常重要,并会影响路径规划、控制和定位等技术问题。高度动态的驾驶环境会给自动驾驶车辆带来严重的安全挑战。对象(静止或移动)以及道路构造可能会更改道路的几何图形,并影响定位和路径规划性能下降。路沿是界定道路边界,并为车辆导航提供有用信息;因此,准确地检测和跟踪它们非常重要。在过去几年中,已经提出了许多方法来使用单个传感器或传感器模式的组合来检测和提取路沿特征,大多数路缘检测系统使用激光雷达和相机,激光雷达传感器经常用于检测路沿特征,因为路沿本身具有几何特征,还提出了基于视觉的处理技术,由于激光雷达和视觉具有不同的故障模式,传感器融合近年来变得很流行,它利用了两种传感器的最佳特性-相机图像的语义信息和激光雷达的深度信息。

图1:顶部:数据采集车的路线,底部:使用提出的方法(蓝点)和商业地图供应商提供的地面真实路缘特征(绿点)检测路沿特征

本文的工作属于相机的语义信息与激光雷达深度的融合技术,在图1中展示了我们提出的方法的结果。具体贡献:

  •  使用无监督DBSCAN聚类检测和关联多个路沿。

  • 使用基于Delaunay的过滤方法去除异常值,与基于RANSAC的多项式拟合回归约束相比,该方法需要更少的参数调整。

主要内容

传感器的事先标定是传感器融合的基本前提,此外,我们用特征关联的融合技术的一个重要特征是:对激光雷达点云进行运动校正和变换,以便与可用相机帧的时间戳处记录的数据等效,这有助于所有传感器的数据都需要正确的时间同步。

图2:位于采集车辆周围的两个前激光雷达和四个摄像头的FoV示意图。然而,我们的实验只使用了两个前置摄像头,车辆基架B位于后轴的中心,激光雷达的传感器框架为LL和LR,分别代表左前和右前激光雷达。GNSS的IMU框架表示为I

A,传感器配置和参考帧

数据采集车由两个激光雷达和两个摄像头组成。传感器的参考坐标系和视野(FoV)如图2所示。车辆基架B位于车辆后轴的中心。激光雷达和摄像头的传感器读数在底架B中分别表示为LB k和CB k,其中k表示传感器在车辆中的位置。例如,LL和LR表示左前和右前激光雷达帧,来自GNSS的位姿信息在UTM在世界帧中发布,GNSS的IMU帧I如图2所示,所有传感器间转换都是使用之前的校准参数执行。

B、 激光雷达点云的语义关联

通过将投影后点云与分割后的相机图像语义信息相关联来提取激光雷达的语义特征,利用训练好的 Efficient-Net 模型进行图像分割。

1) 语义分割的 Efficient-Net :自AlexNet赢得2012年ImageNet竞赛以来,卷积神经网络(ConvNet)已越来越多地被用作图像分割任务的标准,虽然更高的精度对于自动驾驶应用至关重要,但我们已经达到了使用ConvNets进行图像分割任务的硬件内存限制。因此,进一步提高精度需要更高的效率。EfficientNet的作者指出,可以通过仔细平衡网络深度、宽度和分辨率来实现模型缩放,从而在固定的计算资源量下获得更好的性能。在此基础上,我们使用了一种改进的EfficientNet体系结构进行语义分割。

表一:EfficientNet-B0基线网络架构

EfficientNet架构如表I所示,为了将网络输出采样到其原始输入分辨率,解码器架构中使用了双线性插值,为了实现稳健性,我们在多种场景(城市驾驶、雪地条件、郊区)上训练了EfficientNet模型,总体训练准确率79.10%,平均IoU为0.495,对于路沿等级,精度为67.20%,IoU为0.557,样本帧上的分割结果可以在图3a中可视化。

图3:与激光雷达点云的语义关联图示

2) 路沿语义与激光雷达深度的关联:安装在我们平台上的摄像头有鱼眼镜头,因此,我们通过在图像空间中对融合的lidar点进行鱼眼投影来提取路沿点,并在±3像素的范围内选择更靠近路缘像素的点云,最后,将路沿点重新投影回基架B坐标系下,图3显示了从语义关联中提取路沿的结果。

C、 无监督聚类和滤波

由于各种原因,例如日志的同步质量、校准参数或相机投影模型,点云关联技术可能会给我们带来噪声点云,为了去除异常值,可以根据路沿的几何结构进行过滤,然而,由于我们事先不知道路沿的预定义数量,因此很难对提取的路沿点应用多项式拟合,为了克服这个问题,我们首先找到一组无监督聚类,并根据空间密度将新检测到的路沿点关联到相关聚类中。

1) 迭代聚类关联:我们迭代选择提取的路沿点云,并应用无监督的空间聚类,簇的边界点是距离簇质心最远的点,如果新簇中边界点的L2范数小于旧簇边界点的预定义阈值,则合并簇,此操作有助于识别路沿段的数量。图4显示了我们使用DBSCAN进行聚类的结果。

图4:使用DBSCAN随机颜色的迭代特征点聚类表示检测到的不同聚类结果

2) Delaunay滤波:

Delaunay四面体的Voronoi子图是通过从计算的中心过滤大半径的外接球体来计算的,这将删除点体积外的四面体并删除异常值,Voronoi子图中连接起点和终点的最短欧氏路径为我们提供了中轴,靠近中轴的点为我们提供了与路沿相对应的滤波点云,该过程的图示如图5所示

图5:使用Delaunay滤波的路沿点云

实验

A、 数据集

我们从Scania州一个装有两个激光雷达和两个前置摄像头的自动公交站台收集数据,路线长度为1.5公里,地面实况(GT)路沿特征由地图供应商提供,所有传感数据均采用PTP(精密时间协议)同步,并转换为ROSPAGS进行评估,我们通过手动选择相应的GT路沿点来评估生成的路路沿点,用于关联的点云选择工具是使用open3d开发的,由于手动关联是一个繁琐的过程,我们还提出了一种自动评估集群的机制,聚类算法在scikit learn软件包中离线评估。

B、 手动分段关联和评估

我们将地图供应商的GT点分段关联,为了评估效果,我们将多项式拟合到GT点,然后,我们从多项式中采样点,并将其与Delaunay过滤点和RANSAC过滤点关联,如图6所示,我们计算评估指标的规范化L2范数(基于所选点数)。

图6:通过应用RANSAC(蓝色点)和Delaunay滤波(红色点)提取路沿点

C、 自动分段关联和评估

为了自动评估生成的路沿点,我们测量每个簇段的 Chamfer 距离(CD)。Chamfer 距离的定义为

我们还评估了不同无监督聚类算法的效果,包括 Agglomerative Clustering , BIRCH , DBSCAN  和 OPTICS,表II中报告了我们评估的CD和检测到的过滤路沿点数量。

我们观察到,对于手动和自动分段关联,Delaunay过滤比基于RANSAC的通用过滤更接近GT点,因为Delaunay过滤的L2范数和CD低于RANSAC。我们还观察到,与RANSAC相比,Delaunay滤波选择的内部点较少。如图6所示,入口与GT点更接近。我们得出结论,基于密度的无监督分段聚类算法最适合基于计算的CD拟合任意数量的路沿。

总结

本文提出了一种基于三维Delaunay四面体的多模态路沿检测和建图算法,我们演示了使用我们的聚类方法检测任意数量的路沿,评估表明Delaunay滤波在抑制异常值去除方面优于传统的基于RANSAC的滤波方法,为了进一步扩展这项工作,我们将研究在不同噪声条件下中轴产生的不稳定性,我们还想将语义关联扩展到其他基础设施功能,如道路线、红绿灯、人行道,我们正努力通过在反畸变的图像上重新训练语义分割模型,在开源数据集上测试我们的解决方案。

资源

三维点云论文及相关应用分享

【点云论文速读】基于激光雷达的里程计及3D点云地图中的定位方法

3D目标检测:MV3D-Net

三维点云分割综述(上)

3D-MiniNet: 从点云中学习2D表示以实现快速有效的3D LIDAR语义分割(2020)

win下使用QT添加VTK插件实现点云可视化GUI

JSNet:3D点云的联合实例和语义分割

大场景三维点云的语义分割综述

PCL中outofcore模块---基于核外八叉树的大规模点云的显示

基于局部凹凸性进行目标分割

基于三维卷积神经网络的点云标记

点云的超体素(SuperVoxel)

基于超点图的大规模点云分割

更多文章可查看:点云学习历史文章大汇总

SLAM及AR相关分享

【开源方案共享】ORB-SLAM3开源啦!

【论文速读】AVP-SLAM:自动泊车系统中的语义SLAM

【点云论文速读】StructSLAM:结构化线特征SLAM

SLAM和AR综述

常用的3D深度相机

AR设备单目视觉惯导SLAM算法综述与评价

SLAM综述(4)激光与视觉融合SLAM

Kimera实时重建的语义SLAM系统

SLAM综述(3)-视觉与惯导,视觉与深度学习SLAM

易扩展的SLAM框架-OpenVSLAM

高翔:非结构化道路激光SLAM中的挑战

SLAM综述之Lidar SLAM

基于鱼眼相机的SLAM方法介绍

如果你对本文感兴趣,请后台发送“知识星球”获取二维码,务必按照“姓名+学校/公司+研究方向”备注加入免费知识星球,免费下载pdf文档,和更多热爱分享的小伙伴一起交流吧!

以上内容如有错误请留言评论,欢迎指正交流。如有侵权,请联系删除

扫描二维码

                   关注我们

让我们一起分享一起学习吧!期待有想法,乐于分享的小伙伴加入免费星球注入爱分享的新鲜活力。分享的主题包含但不限于三维视觉,点云,高精地图,自动驾驶,以及机器人等相关的领域。

分享及合作方式:微信“920177957”(需要按要求备注) 联系邮箱:dianyunpcl@163.com,欢迎企业来联系公众号展开合作。

点一下“在看”你会更好看耶

以上是关于多模态路沿检测与滤波方法的主要内容,如果未能解决你的问题,请参考以下文章

实时车辆行人多目标检测与跟踪系统-上篇(UI界面清新版,Python代码)

目标检测与识别车辆信息原理与实践详解

Kalman Filters

车辆计数基于matlab GUI背景差分法道路行驶多车辆检测含Matlab源码 1911期

高通滤波法微分算子法神经网络方法实现边缘检测

高通滤波法微分算子法神经网络方法实现边缘检测