通俗理解卡尔曼滤波(无人驾驶感知融合的经典算法)

Posted v_JULY_v

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了通俗理解卡尔曼滤波(无人驾驶感知融合的经典算法)相关的知识,希望对你有一定的参考价值。

前言

 

        我个人有近10年AI教育经验了,中间获得过一些名号,比如北理工校外导师,微软MVP兼CSDN技术专家,本博客也有1700多万PV了,在AI圈内有极高知名度。后2015年和团队一块创业创办AI职教平台「七月在线」,至今已近7年,这6 7年我们把AI职教做透了,同行没做的我们做,同行没有的广度我们有,同行不到的深度我们到(本处同行仅指AI社会培训机构)。

        六年多来,在专注成人AI职教的同时,面对过很多行业的刺激,但自始至终都坚持专注AI。可过程中也越发深刻意识到,AI只有与行业深度结合绑定才能真正发挥出超级价值,考虑到我们的使命始终是“推动社会智能化发展”,加之国家的制造强国战略特别提到新能源汽车、智能汽车,而AI可以很好的赋能自动驾驶,所以一个月前我司平台的定位由“AI职教平台”改为“AI与汽车职教平台”(后最终为:智能时代在线职教平台)。

        一个月的时间,我们组织了50位汽车专家/讲师(年底100人),与原有的200+AI专家/讲师区分开,大家讨论中都深感传统车企向智能化转型的急迫。偶然中,在一车企客户现场聊到感知融合的经典算法:卡尔曼滤波(Kalman Filter),故新一篇博客就写这个。这算法神到什么程度呢,比如有人号称当年阿波罗就靠它登陆上的月球  :) ​​​​ 

        关于卡尔曼滤波,网上有一篇经典文章《How a Kalman filter works, in pictures》,也有不少朋友对它进行过翻译。我看过几遍,觉得还可以把卡尔曼滤波解释的更通俗些,毕竟把相对复杂的算法尽可能解释的更通俗易懂,从而让更多初学者更好更快的理解,是我现在继续更新博客的唯一动力了。

        此外,为照顾一些传统汽车人甚至之前没听说过智能网联、自动驾驶的朋友也能从本文有所收获,故我会从智能网联、无人驾驶开始讲起,直到讲透卡尔曼滤波算法,最后到卡尔曼滤波的相关扩展算法,且过程中得到了盛、晓、叶等相关七月讲师的校正,也欢迎读者批评指正,thanks。

第一部分 智能网联与无人驾驶

1.1 什么是自动驾驶/无人驾驶

一般而言,智能网联包含了自动驾驶和车联网,高级别的自动驾驶又称无人驾驶。

现在是个车企都在往自动驾驶方面投入(动辄就是上百亿),到了好像没有自动驾驶,就不是一辆可以上得了台面的车,毕竟智能三电(电池、电机、电控)、智能座舱、自动驾驶已代表未来汽车的发展趋势,所谓没自动驾驶没未来。而自动驾驶的门槛相对高,技术种类也不少,所以市面上类似的书、课程都不多(比如有一本《第一本无人驾驶技术书》,七月在线也曾于2019年推出过一个《无人驾驶实战》,后面则陆续推出过目标检测目标跟踪slam感知融合等等小课)。

而无人驾驶的软件系统一般会被定义为六大模块(当然,有的模块会在不同的场景中合并)

  1. 高精度地图(即high dimensional map,此处的高精度地图不同于咱们日常生活中的那种导航地图,而是有着更高维度的信息),地图是感知、定位、预测、规划的基础
  2. 定位,包括且不限于卫星导航(比如美国GPS、俄罗斯“格洛纳斯”、欧洲“伽利略”、中国“北斗”)、惯导(IMU)、轮速计、视觉和激光雷达定位(比如激光雷达会根据激光照射到墙壁后反射回来的时间,来判断自己和墙壁之间的距离,从而判断出自己所处的位置、实现定位)
  3. 感知, 估计周围物体的状态(比如位置、速度、朝向等),一般分为两个阶段:目标检测(常用手段包括各种深度学习方法,比如图像2d、图像3d、激光雷达3d、毫米波点云),和目标跟踪(常用手段包括贝叶斯滤波/卡尔曼滤波,以及深度学习相关方法,例如行人重识别person reid),且后者跟踪基于前者的检测结果
  4. 行为预测,预测周围行人和车辆的未来轨迹(位置、速度)
  5. 决策规划,包括如何自主避障、如何达到目的地的路径规划(比如A*Dijkstra等算法)
  6. 控制,通过控制执行机构(油门、刹车、方向盘)来完成规划的加速、减速、转弯等操作

在无人驾驶里有存在四大状态的估计问题:1) 定位,估计自身状态;2)跟踪,估计周围物体状态(比如随时间变化的位置速度等);3)建图,估计周围静态环境状态;4)标定,估计传感器之间的时空关系。而下文将提到的SLAM(同时定位与构图技术)便是解决同时定位与建图的问题。

 更具体的,之前七月在线《无人驾驶实战》的授课老师盛老师有写过一篇关于自动驾驶L4级技术的短文,现引用部分内容如下:

无人驾驶要解决4 个关键问题:我在哪?我周围有什么?接下来会发生什么?我应该怎么做?

我在哪?定位、高精地图

定位需要依靠一种称为高精地图的技术,该技术会将无人车要走的所有静态环境进行描述,包括车道线、行人斑马线、标志牌等等。这些静态信息可以提供交通信号的关键信息,也会作为定位方案的锚定物对自身的位置进行校准,比如通过摄像头看到距离左边标志牌的距离是2.5m,那么在地图中知道了标志牌的坐标也就知道了自身车辆的坐标。同时,还会依靠GPS/IMU等全局设备来定位自身位置,不过这可比我们目前智能手机里的GPS精度要求高很多,通过差分融合技术可以达到厘米级精度。

我周围有什么?视觉感知、激光雷达等
有了定位后,无人车的感知系统将通过传感器和AI算法将周围的障碍物位置、大小、状态、类别等标识出来。目前主流L4级别的传感器包括GPS/IMU、LIDAR、Camera、Radar等,后三者都是用于感知周围障碍物的主要传感器,分别在不同环境下能够有不同的优势。这些信息犹如人类驾驶员的眼睛一样看到周围动态环境物体,并将其识别出来,比如精准识别车辆后方任何物体、同时关注左右两边的车辆状态,在黑暗状态时可以通过激光雷达精准识别。

接下来会发生什么?行为预测、速度预测
    无人车知道周围动态物体后,还需要能够尽可能的预测这些物体的走向,包括行为预测和速度预测。例如这辆车是要左转还是直行,那辆车会不会闯红灯等等,汇入车流时速度是多少。这些问题都将决定我们无人车后续应该怎么走,如何避免碰撞发生危险。

我应该怎么做?决策、规划、控制
    最后一步就是根据上述信息综合来选择一条最适合无人车的道路,如同人类的大脑一样对车辆最终的行为负责,选择最合适的方式达到目的地。这需要考虑行车的体感、安全和快捷等因素,通过最优化算法、搜索算法、蒙特卡洛树采样等多种算法来得到未来的驾驶行为。

1.2 智能网联相关岗位

针对上文智能网联汽车的定义,可以看出涉及的技术不少,每项技术背后都对应着一个个岗位

我们来具体分析其中几个岗位,比如视觉SLAM算法工程师。

那什么是slam呢?我们知道,传统的图像处理基本上是基于二维图像,而人眼是通过两只眼睛的视差(双目立体视觉)来感知周围的三维空间。随着三维视觉传感器的飞速发展,三维视觉核心技术:SLAM(全称 Simultaneous Localization And Mapping,译为同时定位与地图构建)技术,本质是对运动主体自身和周遭环境不确定性的估计,相当于核心解决两个问题:1 因为地图是未知的,所以需要估计地图(周遭环境),2 位置也是未知的,所以需要估计位置。至于常用手段则有摄像头,也有通过各种激光雷达探测距离或获取周遭环境图像的。

视觉SLAM中的传感器即为摄像头(通过摄像头同时解决定位与地图的问题)

  • 摄像头如果使用深度相机,可以直接获取障碍物的距离,生成点云数据
  • 当然也有用单目、双目、鱼眼摄像机的视觉SLAM ,这些摄像头需要用其他的方法才能间接的获取周围障碍物的距离

可能有同学问了,如果从零学视觉SLAM都要求掌握哪些技术呢(当然,以下所有这些技术都可以通过这个slam课掌握好)?

  1. 常用的操作系统也是Linux,这和我们做IT后台开发或AI算法研发一样,不懂Linux寸步难行,学校没学的,都得在找工作中或公司里抽时间恶补;
  2. 编程语言:C、C++,在如今AI特别火的时代,Python可以说是数据科学领域第一语言了,通过Python入门AI确实是不错的选择,但入门之后,真想在IT、AI、汽车行业真正深入发展,只懂一门Python可能就不够了,第二门语言可以是C/C++(C++ primer、深度理解C++对象模型等经典书都不错),也可以是Java(这里也有个Java与数据结构课)
  3. SLAM相关的数学知识,包括且不限于:线性代数基础(矩阵操作)、三维空间的刚体运动、SLAM中空间点与不同的坐标系、旋转的表达(四元数、旋转矩阵、旋转向量、欧拉角)、李群与李代数、相机成像及常用视觉传感器、最小二乘法
  4. SLAM核心技术点:视觉里程计、多视角几何、视觉里程计中的位姿估计方法 、非线性优化(比如卡尔曼滤波)、回环检测与重建常用的vSLAM算法,如ORB-SLAM、SVO、DSO、MonoSLAM,VINS以及RGB-D相机等
  5. 卡尔曼滤波算法的相关算法,比如扩展卡尔曼滤波、无迹卡尔曼滤波、误差状态卡尔曼滤波器,英文简写分别为EKF、UKF、ESKF等
  6. ROS机器人操作系统;

对于以上六点,有两点值得再提的是:比如针对第3点,不要忌惮数学,因为凡是涉及到数据相关的技术,最后都是算法,最深入都是数学(可能你此刻还不这么觉得,但当你看完全文后你一定会深以为然);针对第4点,下面是“RGB-D相机中的直接法运用”的示意图

 再比如视觉感知算法工程师,会涉及

  1. 感知算法研发和系统实现,基于视觉的障碍物检测、跟踪、行为预测等;
  2. 感知的视觉几何计算三维重建,目标检测跟踪、图像分割、图像识别等算法研发;

最后,再比如传感器融合算法高级工程师,这个岗位的岗位职责一般是:通过融合摄像头、激光雷达、毫米波雷达等传感器的感知信息,实现对周围动静环境的精确描述及预测,具体包括

  1. 多传感器多目标跟踪与意图预测,涉及感知信息的预处理、目标创建、关联、状态估计、合并与删除等等;
  2. 构建高性能的3D感知融合系统;
  3. 设计开发基于毫米波雷达稀疏点云的目标检测;
  4. 栅格地图\\静态环境实时构建。

反应到岗位要求,一般有以下几点

  1. 扎实的编程能力,熟悉在Linux环境下进行C++\\Python开发,理解常用数据结构及STL使用;
  2. 深入理解卡尔曼滤波等贝叶斯滤波算法,能够熟练地进行数学建模及其状态估计,深入理解常用的数据关联算法与距离计算方法;
  3. 熟悉摄像头、激光雷达、毫米波雷达等传感器,熟悉计算机视觉及其应用,有SLAM\\Deep Learning基础更佳;

可见,卡尔曼滤波在感知融合里应用很广,可以对各种传感器获取到的数据进行进一步的综合处理,达到更佳的估计状态。

第二部分 卡尔曼滤波算法

2.1 什么是卡尔曼滤波

关于什么是卡尔曼滤波,下面是维基百科上的解释(当然,为了通俗起见,我修改了部分描述)

​卡尔曼滤波(Kalman filter)是一种高效率的递归滤波器(自回归滤波器),它能够从一系列的不完全及包含噪声的测量中,估计动态系统的状态。卡尔曼滤波会根据各测量量在不同时间下的值,考虑各时间下的联合分布,再产生对未知变数的估计,因此会比只以单一测量量为基础的估计方式要准。卡尔曼滤波得名自主要贡献者之一的鲁道夫·卡尔曼。

卡尔曼滤波的算法程序有两个步骤,分别是估计、更新:

  1. 在估计步骤中,卡尔曼滤波会产生有关目前状态的估计,其中也包括不确定性;
  2. 在更新步骤中,只要观察到下一个量测(其中一定含有某种程度的误差,包括随机噪声),会通过加权平均来修正估计值,而确定性越高的量测加权比重也越高。

算法是迭代的,可以在实时控制系统中执行,只需要目前的输入量测、以往的计算值以及其不确定性矩阵,不需要其他以往的资讯。

卡尔曼滤波之后,后续发展了一些扩展或是广义的卡尔曼滤波,例如运作在非线性系统的扩展卡尔曼滤波及无迹卡尔曼滤波(Unscented Kalman filter)。底层的模型类似隐马尔可夫模型,不过潜在变量的状态空间是连续的,而且所有潜在变量及可观测变数都是正态分布。

恩,Wikipedia上的定义向来准确严谨,唯一问题就是不够通俗、不够易懂,怎么理解更好懂呢?很简单,抽丝剥茧,一个算法相对复杂,一般来讲是因为涉及的背景知识比较多,那咱们就来一一剖析,切开了揉碎了自然就好懂了。

首先,回顾一下正太分布(又称高斯分布,一个意思)的定义

至于数学期望和方差则分别如下图所示

 其次,通过一个例子理解下卡尔曼滤波的思想。

1  假设你现在有一辆车,并且已知小车在初始状态的位置如下图所示(小车的位置服从正态分布,比如可能位于正态分布的均值附近),横坐标为小车前进坐标。

有人会问,为什么是正态分布而不是确定点呢?因为在这里我们给出的是它此刻的状态估计量,对于地图上的物体,我们无法确切得出其具体的位置信息,即便你使用GPS来定位也始终会有一定的误差。因此你只能通过系统的输入(如小车的速度)和系统的输出(GPS给定的位置信息)来估算它当前的状态(真实的位置信息)

 2  然后,根据初始时刻小车的位置,我们可以预测出它在下一个时间步长的可能的位置分布。下图中可以看出,它的正态分布函数明显比上一时刻来的更宽一些。这是因为在小车运动过程中会不可避免地遇到一些随机因素的干扰,如坑洼、风、轮子打滑等,因此我们估算的位置值的不确定性变大,小车实际经过的距离与模型预测的距离不同。

3  到此刻为止,上述过程均是由我们的数学模型推算估计出来的结果,但实际上,相同的数据也可以通过传感器测量来获取,而测量值往往也呈正态分布(总之,频率派里未知值是一个确定的值,在贝叶斯派里,未知值都是一个概率分布,此点不用皱眉,很快你会有更深刻的认知),并且与我们的模型预测值有所不同,如下图中红色正态分布曲线所示,方差表示噪声测量中的不确定性。

4 这个时候咋办呢?可能你会脱口而出:将数学模型的预测值与传感器的测量值相互结合起来来获得小车的最佳位置估计值,怎么结合呢?加权平均再迭代!具体到这个例子中,咱们把这两者的概率密度函数相乘得出了当前时刻的最佳状态估计值,如图中灰色正态分布曲线所示,这就是卡尔曼滤波的核心思想,因此卡尔曼滤波也经常被称作传感器融合算法。

再然后,我们把前面的时间信息换一下,比如我们知道了上一时刻即k-1时刻小车的位置估算值,并且通过数学模型预测得到了k时刻的位置估算值,然后将其与小车传感器的测量值进行结合,得到了当前k时刻小车的最佳位置估算值。

那么问题来了,这里我们并没有给出初始状态,因此k-1时刻的位置估算值又是怎么来的呢?没错,我们是通过k-2时刻的状态量估算得来了。

2.2 卡尔曼滤波的完整流程与数学推导

通过上一节的例子,我们知晓了卡尔曼滤波的核心思想,接下来我们通过另一个例子来讨论其完整流程与数学建模推导下的细节、原理。

2.2.1 针对机器人的位置和速度建模

假如你开发了一款小型机器人,它可以在树林里自主移动。

我们可以通过一组状态变量来描述机器人的状态,包括位置和速度:

下面,我们需要机器人需要明确自己的位置以便进行导航。怎么确定位置呢?

首先,我们给机器人安了一个GPS传感器,但精度只在10m。考虑到对于在机器人所处的树林里有很多溪谷和断崖,如果机器人对位置误判了哪怕只是几步远的距离,它都有可能掉到坑里,所以仅靠这个精度的GPS来定位是不够的。

我们得有更多的办法确定位置。比如我们可以获取到一些机器人的运动的信息:驱动轮子的电机指令。如果没有外界干扰,仅仅是朝一个方向前进,那么下一个时刻的位置只是比上一个时刻的位置在该方向上移动了一个固定距离。但如果有外界干扰呢?比如逆风行驶,轮子打滑,滚落颠簸地形……所以轮子转过的距离并不能完全表示机器人移动的距离,这就导致通过轮子转动预测机器人的位置不会非常准确。

如此,相当于

  • GPS传感器会告知我们一些关于机器人状态的信息,但是GPS可能不准;
  • 另外,通过轮子转动可以预知机器人运动的距离,可同样也有一定的不准确度(受外力干扰)。

行到水穷处换个思路:如果我们综合“GPS + 轮子转动预测”两者的信息呢?是否可以得到比只依靠单独一个信息来源更精确的结果?显然,这就是卡尔曼滤波要解决的问题。

强调一下,前言中所说的这篇文章《How a Kalman filter works, in pictures》,形象的阐述了卡尔曼滤波的算法流程,我看过几遍,觉得还可以把卡尔曼滤波解释的更通俗些,所以我在原文图片和公式的基础上加了很多原文没有且网上其他文章也没有的大量解释、说明,以提高文章的可读性。

针对上边的系统,我们建立包括位置和速度的系统状态:

我们不知道位置和速度的准确值,但是我们可以列出一个准确数值可能落在的区间范围。在这个区间范围里,一些数值组合的可能性要高于另一些组合的可能性。

卡尔曼滤波假设所有的变量(在我们的例子中为位置和速度)是随机的且符合正态分布。每个变量有一个均值u 代表了随机分布的中心值(代表这是可能性最大的值),和一个方差 ,用于衡量不确定度。

在上图中,位置和速度是不相关的,这意味着我们不能从一个变量推测另一个变量。

实际上呢,位置和速度是相关的。比如已知上一个状态的位置值,现在要预测下一个状态的位置值:

  • 如果机器人的速度很快,一定的时间内,机器人可能移动得很远;
  • 相反,如果速度很慢,同样的时间内,机器人会移动的很近。

这种关系在跟踪系统状态时很重要,因为它给了我们更多的信息:一个测量值告诉我们另一个测量值可能是什么样子。

为了捕获这种相关性,我们可以使用协方差矩阵。简而言之,矩阵中的每个元素表示了第个变量和第个变量之间的关系(协方差矩阵是对称的,即交换下标并无任何影响)。

协方差矩阵通常表示为Σ,它的元素则表示为 ,从而有

2.2.2 利用矩阵进一步描述系统状态

为了把以上关于状态的信息建模为正态分布,所以在k时刻我们需要两个信息:最佳预估值 (均值,也就是u),和它的协方差矩阵

(这里我们只记录了位置和速度,但只要和问题相关,我们可以把任何数据变量放进系统状态里)

接下来,我们要通过k-1时的状态来预测下一个状态(k时)。但我们不知道状态的准确值,怎么办呢?预测函数会对k-1时刻所有可能值的范围进行预测,然后得出一个k时刻新值的分布范围。

我们可以通过一个状态转移矩阵来表示这个预测过程,把k-1时刻所有可能的状态值转移到一个新的范围内(它从原始预测中取每一点,并将其移动到新的预测位置),这个新的范围代表了系统新的状态值可能存在的范围,如果k-1时刻估计值的范围是准确的话。  

考虑到匀速状态下,S(路程)=v(速度)x t(时间),我们通过下述公式来描述这个"预测下个状态"的过程(别忘了,): 

进而整理为矩阵则是:

我们现在有了一个预测矩阵,可以简单预测下个状态,但怎么更新协方差矩阵呢?

试想,如果我们对每个点进行矩阵A转换,它的协方差矩阵Σ会发生什么变化,比如

结合(4)和(3):

2.2.3 不确定外部因素的估计:贝叶斯理论

到目前为止,我们还没有考虑到所有的影响因素,因为系统状态的改变并不只依赖上一个系统状态,外界作用力也可能会影响系统状态的变化。外界作用力分两种

  • 第一种是人为指令,例如,在我们跟踪一列火车的运动状态时,火车驾驶员可能踩了油门使火车提速。
  • 第二种是不受人为控制,比如2.1节提到的坑洼、风、轮子打滑等等,其所带来的变化是未知且不好预测的,没法严格确定到某个具体的值。恩,有没有熟悉的贝叶斯理论的味道了?

对于贝叶斯的理论有必要提一下(特引用我之前写的一篇贝叶斯笔记,详见参考文献5)

先看两个例子

比如有一个袋子,里面装着若干个白球和黑球,请问从袋子中取得白球的概率θ是多少?”

频率派的人会想都不用想而立马告诉你,取出白球的概率就是1/2,要么取到白球,要么取不到白球,即θ只能有一个值,而且不论你取了多少次,取得白球的概率θ始终都是1/2,即不随观察结果X 的变化而变化。 

贝叶斯的理论则认为取得白球的概率是个不确定的值,因为其中含有机遇的成分。

再比如,一个朋友创业,你明明知道创业的结果就两种,即要么成功要么失败,但你依然会忍不住去估计他创业成功的几率有多大?你如果对他为人比较了解,而且有方法、思路清晰、有毅力、且能团结周围的人,你会不由自主的估计他创业成功的几率可能在80%~90%这个区间范围。这种不同于最开始的“非黑即白、非0即1”的思考方式,便是贝叶斯式的思考方式。

换言之

  • 频率派把需要推断的参数θ看做是固定的未知常数,即概率虽然是未知的,但最起码是确定的一个值,同时,样本X 是随机的,所以频率派重点研究样本空间,大部分的概率计算都是针对样本X 的分布;
  • 而贝叶斯派的观点则截然相反,他们认为参数是随机变量,而样本X 是固定的,由于样本是固定的,所以他们重点研究的是参数的分布。

针对第一种外力,在我们机器人例子中,导航软件可能发出一些指令启动或者制动轮子。这个好解决,通过一个向量 来描述这些信息,把它添加到我们的预测方程里作为一个修正。 

假如我们通过发出的指令得到预期的加速度a,根据速度-加速度公式,以及加速度-位移公式,上边的运动方程可以变化为: 

再次整理为矩阵则是:

称作控制矩阵, 称作控制向量(当没有任何外界动力影响的系统时,则可以忽略该项)。

针对第二种外力,则相对麻烦些了,比如受到风力影响或轮子打滑、地面上的坑坑洼洼、突起异物都使得我们跟踪的物体的速度发生不可控的变化。

怎么办呢?可以把“世界”中的这些不确定性统一建模,在预测步骤中增加一个不确定项。

相当于原始状态中的每一个点可以都预测转换到一个范围,而不是某个确定的点。转换为数学表达是: 中的每个点移动到一个符合协方差的高斯分布里(也就是蓝色的高斯分布移动到紫色高斯分布的位置),或者说,把这些不确定的外部因素描述为协方差为的高斯噪声,具体根据预测的传感器噪声来定(比如imu或者轮速计): 

这个紫色的高斯分布拥有和原蓝色的高斯分布相同的均值,但协方差不同。

简单叠加,可以拿到扩展的协方差,这样就得到了预测步骤的完整表达式:

解释下上面(7)中的那两个式子

  • 新的最佳估计是在原最佳估计的基础上,通过已知的外部影响校正得到的预测值。
  • 新的不确定性则综合了原不确定性和不确定的外部因素的影响得到的预测。

到这里,我们得到了一个模糊的估计范围,一个通过描述的范围。如果再结合我们传感器的数据呢?

2.2.4 数学模型之外再通过测量值修正预测值

实际生活当中,我们经常会用到不止一种手段来多方论证我们的预测结果,上节我们通过建立数学模型预测,此外,我们可能还有一些传感器来测量系统的状态。

当然,我们可能有好几个传感器,比如一个测量位置一个测量速度,每个传感器可以提供一些关于系统状态的数据信息(每个传感器检测一个系统变量并且产生一些读数)。

考虑到传感器测量的范围和单位可能与我们跟踪系统变量所使用的范围和单位不一致,所以需要对传感器做下建模:通过矩阵

初学者刚看到这的时候可能会有疑问,这个到底是干啥用的?

通过上文2.1节,我们已经知晓,卡尔曼滤波实质就是将预测状态量的高斯分布和观测量的高斯分布做融合,生成一个新的高斯分布。

而很快你会通过下文发现,这个新的高斯分布的均值和方差是两个独立的高斯分布的相关参量的加权,这个加权就是卡尔曼增益,但是预测状态量和观测量可能维度不同,需要将他们同时转换到一个向量空间中,所以观测量有了线性变换矩阵,相当于状态域通过转换到观测域。  

为避免降低本文的可读性,再举个例子,比如车速可以映射到轮速计的转速,车速到转速的转换关系就可以通过表达。

把得到的传感器读数的分布范围转换为一般形式:

换言之,我们的传感器也是有自己的精度范围的,对于一个真实的位置和速度,传感器的读数受到高斯噪声的影响会在某个范围内波动。

我们观测到的每个数据,可以认为其对应某个真实的状态。但是因为存在不确定性,某些状态的可能性比另外一些的可能性更高。

我们将这种测量值与真实值之间的不确定性(即观测传感器噪声)的协方差设为,均值设为,具体根据观测传感器的噪声来定(比如相机、lidar)。

所以现在我们有了两个数据,一个来自于我们通过数学模型的预测值,另一个来自传感器的测量值。

我们必须尝试去把两者的数据预测值(粉色)与测量值(绿色)融合起来。

实际上对于任何状态,都有两个可能性:

  1. 传感器读数更接近系统真实状态
  2. 预测值更接近系统真实状态

怎么融合呢?概率论里,两个事件如果同时发展则相乘,所以我们尝试将两个高斯块(Gaussian blob)相乘试下:

相乘之后得到的即为重叠部分,这个区域同时属于两个高斯块,并且比单独任何一个区域都要精确。这个区域的平均值取决于我们更取信于哪个数据来源,这样通过我们手中的数据得到了一个最好的估计值。

恩,又是另一个高斯块。

事实证明,当你把两个高斯分布相乘时(各自的均值和协方差矩阵相乘),你会得到一个拥有独立均值和协方差矩阵的新高斯分布。最后剩下的问题就不难解决了:新高斯分布的均值和方差均可以通过老的均值方差求得!

2.2.5 融合两个高斯斑:卡尔曼增益出场

首先,针对一维数据开始,一维高斯(均值u,方差)的方程被定义为:

如果两个高斯分布相乘会发生什么呢(如之前所说,预测值是粉红色,测量值是绿色),下图的蓝色曲线代表了两个高斯分布的交集部分:

把(9)带入(10)然后做一些变换,可以得到

且慢,上述公式11的推导如果不一步步展开,则会导致初学的你在千篇一律的人云亦云中看的还是很头疼,所以我们把上面的变换展开下:

其中,A代表其它项,从而有

因式分解出一个部分,这部分用k表示:

相当于如果是一维数据下,对于之前的预测值,仅仅是简单将两者叠加相乘就可以得到新的预测值。

如果是一个多维矩阵呢?我们将(12)与(13)表示为矩阵形式。Σ表示协方差矩阵, 表示平均向量:

上述的这个矩阵K 就是卡尔曼增益。

现在,我们有两个独立的维度去估计系统状态:

预测值

测量值

将两者相乘带入(15)寻找他们的重叠区域:

从(14)可知,卡尔曼增益为

到了关键步骤!原文是一句带过,但为本文的通俗考虑,我多解释两句:

  1. 将(16)的第一个公式的两边都除以可得到(18)的第一个公式(注意,其中定义了,所以结合了),同时(16)的第二个公式的左右两边都约掉,可以得到(18)的第二个公式(一样结合了这个定义
  2. 然后对(17)的两边也都同时除以(结合了上面的定义),可以得到(19)   

以为就这样了?我对正在读此文的你提一个问题,上面为何要从(16)(17)除以变到(18)(19)呢,这就要谈到卡尔曼增益的本质了。卡尔曼增益的本质其实就是把(11)里面经常用到的一个中间结果定义了一个变量,它的物理意义在于:

  1. 根据两方面的方差来决定最终的权重,这个相信大家都已理解了;
  2. 把观测域变回到状态域:即(16)是在观测域, 除以 就可以变回到状态域(18)。可能立马就有同学疑问了,啥,为啥?这个时候别忘了之前的定义:状态域通过乘以转换到观测域,反过来观测域除以则变回到状态域。 

2.2.6 全流程回顾:从预测传感器噪声到观测传感器噪声

至此,原外文针对卡尔曼滤波的过程差不多了,但为考虑增加本文的可读性,所以我再总结如下:

回顾下整个过程

  • 最开头,我们分别建立了系统的协方差矩阵,以及状态转移/预测矩阵预测传感器不确定的外部因素描述为协方差为的高斯噪声
  • 随后把预测状态量到观测量的变换矩阵设为测量值与真实值之间的不确定性(即观测传感器噪声)的协方差设为 ,读数的平均值为

进而求出了卡尔曼增益的计算公式: 

再回到递推公式(核心思想就是用测量值修正预测值)

从而有

  • 特别大的时候(测量值相对不靠谱,毕竟R代表传感器噪声,R越大代表噪声越大,也就意味着测量值越不靠谱),卡尔曼增益趋于零,也就是去更多相信预测值
  • 特别小的时候(测量值相对靠谱),卡尔曼增益就是  ,从而代入递推公式,可得

也算是再次验证了卡尔曼滤波里的数据融合思想。

终于,我们得到了最佳预测值,可以把它继续放进去做另一轮预测,持续迭代(独立于)。

以上所有公式,仅需要实现(7)(18)(19),这使你可以对任何线性系统建模。

公式7类似于预测未来,公式18、19类似修正当下,简言之,则是前者预测 后者更新。

另外,有一点值得一提的是,公式18中括号里的部分就是所谓的“更新量”,这个更新量的物理意义是实际与期望测量值的误差,而卡尔曼增益则是这部分更新量对于预测值的权重。

当然,卡尔曼滤波的推导思路很多:1 从加权的角度;2 从贝叶斯的角度;3 从最小二乘角度。限于篇幅,本文只介绍加权的角度,至于后两者,读者可以自行查阅相关文章,比如参考文献14的《机器人学中的状态估计》,这本书讲得不错,可能相关符号的表示有所差别(比如本文里的在书中分别是),但不影响理解,拍图如下,最后还可以看下参考文献18、19。 

 至于非线性系统,则可以使用扩展卡尔曼滤波(Extended Kalman Filter,EKF),相当于对测量和预测值的平均值进行简单线性化,下部分会详细介绍。

第三部分 卡尔曼滤波的相关扩展算法

3.1 扩展卡尔曼滤波EKF

3.1.1 什么是EKF:KF的非线性扩展

还记得

以上是关于通俗理解卡尔曼滤波(无人驾驶感知融合的经典算法)的主要内容,如果未能解决你的问题,请参考以下文章

通俗理解卡尔曼滤波(无人驾驶感知融合的经典算法)

通俗理解感知融合的经典算法:卡尔曼滤波

无人驾驶(三)行人跟踪算法

自动驾驶 Apollo 源码分析系列,感知篇:感知融合中的数据关联细节

自动驾驶 Apollo 源码分析系列,感知篇:感知融合中的数据关联细节

自动驾驶 Apollo 源码分析系列,感知篇:感知融合中的数据关联细节