orbslam里为啥要分单应矩阵和本质矩阵来分别恢复R和T

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了orbslam里为啥要分单应矩阵和本质矩阵来分别恢复R和T相关的知识,希望对你有一定的参考价值。

参考技术A 单应矩阵隐式的约束了世界的不同点之间的关系(平面假设)。不同视角下的点满足单应关系。,表示当前图像中的点,表示参考图像中的点,表示单应矩阵。
基础矩阵表示了同一个点在不同视角下的关系,满足,表示基础矩阵。
初始化的时候,这种两视图几何可以有两种表示方法,这两种方法适用于不同的情况(有平面,非平面情况)。如相机俯视地面时可以近似为平面的情况。室外平视时存在很多近点以及无穷远点,可以视为非平面情况。本回答被提问者采纳

OpenCV单应性矩阵发现参数估算方法详解

关注获取更多计算机视觉与深度学习知识

单应性矩阵计算函数与应用

OpenCV在通过特征描述子完成描述子匹配之后,会得到一些关键点对,我们会把这些关键点对分别添加到两个vector对象中,作为输入参数,调用单应性矩阵发现函数来发现一个变换矩阵H,函数 findHomography 就完成了这样的功能,常见的调用代码如下:

 1//-- Localize the object
2std::vector<Point2f> obj_pts;
3std::vector<Point2f> scene_pts;
4for (size_t i = 0; i < goodMatches.size(); i++)
5{
6         //-- Get the keypoints from the good matches
7         obj_pts.push_back(keypoints_obj[goodMatches[i].queryIdx].pt);
8         scene_pts.push_back(keypoints_sence[goodMatches[i].trainIdx].pt);
9}
10Mat H = findHomography(obj_pts, scene_pts, RHO);

有了变换矩阵H之后,我们就可以根据输入图像四点坐标,从场景图像上得到特征匹配图像的四点坐标,代码实现如下:

1//-- Get the corners from the image_1 ( the object to be "detected" )
2std::vector<Point2f> obj_corners(4);
3obj_corners[0] = Point(00); obj_corners[1] = Point(box.cols, 0);
4obj_corners[2] = Point(box.cols, box.rows); obj_corners[3] = Point(0, box.rows);
5std::vector<Point2f> scene_corners(4);
6perspectiveTransform(obj_corners, scene_corners, H);

其中scene_corners为对象在场景图像中的四点坐标,获得坐标以后就可以绘制对应的矩形,从而在场景图像中绘制对象的外接矩形区域。运行结果如下:

OpenCV单应性矩阵发现参数估算方法详解

上述步骤中最重要的就是单应性矩阵H的计算,这里我们首先来看一下该函数与其各个参数解释:

1Mat cv::findHomography       (       
2     InputArray      srcPoints,
3     InputArray      dstPoints,
4     int   method = 0,
5     double    ransacReprojThreshold = 3,
6     OutputArray   mask = noArray(),
7     const int         maxIters = 2000,
8     const double  confidence = 0.995
9)

参数解释如下:
srcPoints:特征点集合,一般是来自目标图像
dstPoints:特征点集合,一般是来自场景图像
method:表示使用哪种配准方法,支持有四种方法(后续详细说)

  • 0 – 使用所有的点,比如最小二乘

  • RANSAC – 基于随机样本一致性

  • LMEDS – 最小中值

  • RHO –基于渐近样本一致性

ransacReprojThreshold:该参数只有在method参数为RANSAC与RHO的时启用,默认为3
mask:遮罩,当method方法为RANSAC 或 LMEDS可用
maxIters:最大迭代次数,当使用RANSAC方法
confidence:置信参数,默认为0.995

单应性矩阵H发现方法

首先简单的解释一下H的作用,假设在特征匹配或者对齐,视频移动估算中有两张图像image1与image2,image1上有特征点(x1,y1)匹配image2上的特征点(x2,y2),现在我们需要在两者之间建立一种视图变换关系(透视变换),图示如下(图二):

OpenCV单应性矩阵发现参数估算方法详解

其中H是一个3x3的矩阵

这样为了求出H中的参数,需要两个点对集合,就是findHomography函数中前两个输入参数,理想情况下,通过特征提取得到特征点会再下一帧或者场景图像中保持不变,但是实际情况下,收到各种因素的影响,会额外产生很多特征点或者干扰点,如果正确的剔除这些干扰点,得到正确匹配的点,利用正确匹配点计算出H才是比较稳定的方式。

01

最小二乘拟合


很明显,图二所示的是一个过约束问题,如果没有干扰点的话,就可以通过最小二乘进行直接拟合,求的参数,其中错误计算如下:

OpenCV单应性矩阵发现参数估算方法详解

基于过约束方程计算得到错误,反向传播不断更新参数,直到两次错误差值满足要求阈值为止。

02

RANSAC


最小二乘方法在描述子匹配输出的点对质量很好,理想情况下是图像没有噪声污染与像素迁移与光线恒定,但是实际情况下图像特别容易受到光线、噪声导致像素迁移,从而产生额外的多余描述子匹配,这些点对可以分为outlier跟inlier两类,基于RANSAC(Random Sample Consensus)可以很好的过滤掉outlier点对,使用合法的点对得到最终的变换矩阵H。RANSAC算法基本思想是,它会从给定的数据中随机选取一部分进行模型参数计算,然后使用全部点对进行计算结果评价,不断迭代,直到选取的数据计算出来的错误是最小,比如低于0.5%即可,完整的算法流程步骤如下:

  1. 选择求解模型要求的最少要求的随机点对

  2. 根据选择随机点对求解/拟合模型得到参数

  3. 根据模型参数,对所有点对做评估,分为outlier跟inlier

  4. 如果所有inlier的数目超过预定义的阈值,则使用所有inlier重新评估模型参数,停止迭代

  5. 如果不符合条件则继续1~4循环。

通常迭代次数N会选择一个比较高的值,OpenCV中默认迭代次数为200,确保有一个随机选择点对不会有outlier数据,

03

PROSAC(RHO)


注意有时候RANSAC方法不会收敛,导致图像对齐或者配准失败,原因在于RANSAC是一种全随机的数据选取方式,完全没有考虑到数据质量不同。对RANSAC算法的改进算法就是PROSAC(Progressive Sampling Consensus)即渐近样本一致性,该方法采用半随机方法,对所有点对进行质量评价计算Q值,然后根据Q值降序排列,每次只在高质量点对中经验模型假设与验证,这样就大大降低了计算量,在RANSAC无法收敛的情况下,PROSAC依然可以取得良好的结果。OpenCV中的RHO方法就是基于PROSAC估算。

04

LMEDS


最小中值方法拟合,该方法可以看成是最小二乘法的改进,原因在于计算机视觉的输入数据是图像,一般都是各自噪声,这种情况下最小二乘往往无法正确拟合数据,所以采用最小中值方法可以更好实现拟合,排除outlier数据。但是它是对高斯噪声敏感算法。它的最主要步骤描述如下:

  1. 随机选取很多个子集从整个数据集中

  2. 根据各个子集数据计算参数模型

  3. 使用计算出来的参数对整个数据集计算中值平方残差

  4. 最终最小残差所对应的参数即为拟合参数。

05

对比测试


最后看一下OpenCV中使用单应性矩阵发现对相同的特征点对,分别使用RANSAC、PROSAC、LMEDS进行参数矩阵H的求解结果对比,显示如下:

OpenCV单应性矩阵发现参数估算方法详解

总数446个匹配点对,三种评估方式生成的H矩阵(3x3)很明显值都不尽相同。


一般情况下在,推荐大家使用RANSAC或者RHO。默认的0表示最小二乘方法,对图像匹配在实际应用中一般都是翻车!LMEDS方法只有在inlier超过50%以上情况下才会拟合生成比较好的H参数,而RANSAC或者RHO不管outlier跟inlier比率是多少都会可以适用,可以大家也都注意到h33总是等于1,因为h33在这里作用是保持标准化尺度。在OpenCV中如果无法正确估算参数H,会返回空Mat对象。

单应性矩阵应用

图像透视变换与对象匹配

OpenCV单应性矩阵发现参数估算方法详解

图像拼接

最后的话

我在2019年的文章汇总中说,2020年少写废话,但愿此篇不是废话,我为了写好它也是伤神很久,算是自己尽力了,也是回答了平时一些人总问我的问题,欢迎大家指正与反馈!如果觉得不错,点个赞我就很满足了!


读书欲精不欲博

用心欲专不欲杂


 推荐阅读 





以上是关于orbslam里为啥要分单应矩阵和本质矩阵来分别恢复R和T的主要内容,如果未能解决你的问题,请参考以下文章

立体视觉入门指南:关键矩阵(本质矩阵,基础矩阵,单应矩阵)

立体视觉入门指南:关键矩阵(本质矩阵,基础矩阵,单应矩阵)

OpenCV单应性矩阵发现参数估算方法详解

单应矩阵是啥?怎么用呀

单应矩阵(Homography)基本概念和代码测试

单应矩阵(Homography)基本概念和代码测试