AirVO: An Illumination-Robust Point-Line Visual Odometry 论文笔记

Posted Kris_u

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了AirVO: An Illumination-Robust Point-Line Visual Odometry 论文笔记相关的知识,希望对你有一定的参考价值。

论文PDF:https://arxiv.org/pdf/2212.07595.pdf

GitHub  :GitHub - xukuanHIT/AirVO: An Illumination-Robust Point-Line Visual Odometry

ABSTRACT

         AirVO,  一个基于点、线特征具有光照鲁棒性行且精确的双目视觉里程计系统。为了实现对于光照变化的鲁棒性,我们引入了基于学习的特征提取和匹配方法,并设计了一个新颖的视觉里程计管道:包括特征跟踪、三角测量、关键帧选择和图形优化等。我们还采用了环境中的长线特征来提高系统的准确性。我们提出了一个光照鲁棒性的线追踪方法,其中点特征追踪、点分布和线特征被用来实现线的匹配。

INTRODUCTION

        由于低成本和精确性,视觉里程计被广泛应用于各类应用中,尤其是增强现实和机器人技术领域。尽管已经有一些优秀的解决方案如MSCKF、VINS-Mono、OKVIS等,但是现有的方案对时间较长的应用鲁棒性的要求无法满足,例如,在光照一直变化的环境中,视觉追踪变得更加具有艰难,而且轨迹估计的质量也受到严重的影响。

        另一方面,卷积神经网络在许多机器视觉任务中已经取得了重大贡献,已经促成了另一个研究趋势。虽然许多基于学习的特征提取和匹配方法已经被提出来,并在许多应用方面获得了优越的性能。然而,其往往需要巨大的计算资源,也使得其在拥有低算力的机器人如无人机上实时性无法实现。因此,我们诉诸使用一个既拥有传统优化的高效性又拥有基于学习方法的鲁棒性的杂交方案。

        文章中,我们提出了AirVO,一个具有光照鲁棒性和精确性的双目视觉里程计,基于学习的特征提取和匹配算法。相较于视觉里程计和SLAM中的手工特征如FAST和ORB,基于学习的特征在光照变化剧烈的情况下鲁棒性更好。在特征追踪阶段,基于学习的方法不但可以使用特征的外观信息还有几何信息,所以它的性能跟好,相比于传统的数据关联方法如光流追踪法和最小化特征算子距离 。为了更好的将学习方法应用到我们的系统,我们改进了框架中的追踪、特征三角测量和关键帧选择。为了提高准确性,我们使用线特征并提出了一个新颖的线处理管道来实现线追踪在光照不稳定环境中的鲁棒性。最后,使用传统的SLAM后端实现局部地图的优化。

METHODOLOGY

框架如图所示: Fig:2是一个杂交视觉里程计系统。既使用了基于学习的前端还有传统的后端优化。对于每个双目图像组,我们先使用一个CNN(SuperPoint)来提取特征点,并且使用一个特征匹配网络(SuperGlue)取匹配特征点。我们使用预训练模型跳过了关键点检测和匹配网络的细节,线特征用来提升我们系统的准确性。

以上是关于AirVO: An Illumination-Robust Point-Line Visual Odometry 论文笔记的主要内容,如果未能解决你的问题,请参考以下文章

AirVO环境搭建

an适合啥样的人物模型

the/an/a用法及区别

TypeError: undefined is not an object , item is from an array from an API

Search an Element in an array

[Creating an image format with an unknown type is an error] on cordova, ios 10