PCL中点云关键点提取

Posted Roar冷颜

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PCL中点云关键点提取相关的知识,希望对你有一定的参考价值。


  关键点也称为兴趣点,它是2D图像、3D点云或曲面模型上,可以通过定义检测标准来获取的具有稳定性、区别性的点集。从技术上来说,关键点的数量相比于原始点云或图像的数据量小很多,它与局部特征描述子结合在一起,组成关键点描述子,常用来形成原始数据的紧凑表示,而且不失代表性与描述性,从而可以加快后续识别、追踪等对数据的处理速度。关键点提取是2D与3D信息中不可或缺的关键技术。

  本篇文章首先对PCL中涉及的点云关键点提取方法的概念进行简介,其次对PCL中的keypoints相关模块及类进行简单介绍,最后通过实例来展示如何对PCL中的keypoints模块进行灵活运用。

1 关键点概念及相关算法

1.1 NARF关键点

  NARF(Normal Aligned Radial Feature)关键点是为了从深度图像中识别物体而提出来的,关键点探测的重要一步是减少特征提取时的搜索空间,把重点放在重要的结构上,对NARF关键点提取过程有以下要求:提取的过程必须将边缘及物体表面变化信息考虑在内;关键点的位置必须稳定,可以被重复探测,即使换了不同的视角;关键点所在的位置必须有稳定的支持区域,可以计算描述子并进行唯一的法向量估计。为了满足以上要求,提出以下探测步骤来进行关键点提取:
  (1)遍历每个深度图像点,通过寻找在近邻区域有深度突变的位置进行边缘检测。
  (2)遍历每个深度图像点,根据近邻区域的表面变化决定一种测度表面变化的系数,以及变化的主方向。
  (3)根据第二步找到的主方向计算兴趣值,表征该方向与其他方向的不同,以及该处表面的变化情况,即该点有多稳定。
  (4)对兴趣值进行平滑过滤。
  (5)进行无最大值压缩找到最终的关键点,即为NARF关键点。

1.2 Harris关键点

  Harris关键点检测算法于1988年由Chris Harris和Mike Stephens提出,也称为Plessey关键点检测算法,是早期经典的一种关键点检测算法。公式1为Harris矩阵,Harris关键点检测通过计算图像点的Harris矩阵和矩阵对应的特征值来判断是否为关键点。如果Harris矩阵的两个特征值都很大,则该点是关键点。在应用中。一般可用公式2来代替Harris矩阵的特征值的计算。当 m k > 0 m_{k}>0 mk>0 时,则判断该点为关键点。
A = [ I x I y ] [ I x I y ] T = [ I x 2 I x I y I y I x I y 2 ] (1) A=\\begin{bmatrix}I_{x}\\\\I_{y}\\end{bmatrix} \\begin{bmatrix}I_{x}\\\\I_{y}\\end{bmatrix}^{T}=\\begin{bmatrix} I_{x}^{2} & I_{x}I_{y}\\\\ I_{y}I_{x} & I_{y}^{2} \\end{bmatrix} \\tag{1} A=[IxIy][IxIy]T=[Ix2IyIxIxIyIy2](1)
m k = d e t ( A ) − k t r 2 ( A ) (2) m_{k}=det(A)-ktr^{2}(A) \\tag{2} mk=det(A)ktr2(A)(2)
  这里 A A A表示点的Harris矩阵, d e t ( A ) det(A) det(A) 表示Harris矩阵的行列式, t r ( A ) tr(A) tr(A) 表示Harris矩阵的迹。 I x I_{x} Ix I y I_{y} Iy分别为像素点在 x x x y y y 方向上的梯度。Harris关键点检测只对图像旋转变换保持较好的检测重复率,但不适合尺度变化的关键点检测。

  点云中的3D Harris关键点检测借鉴了2D Harris关键点检测的思想,不过3D Harris关键点使用的是点云表面法向量的信息,而不是2D Harris关键点检测使用的图像梯度。

1.3 PCL中keypoints模块及类介绍

  PCL中的pcl_keypoints库目前提供了几种常用的关键点检测算法,随着其快速的开发,将来会有更多算法加入。pcl_keypoints模块利用了大概19个类实现了利用几种关键点检测算法相关的数据结构与检测算法,其依赖于CommonSearchKdTreeOctreeRange ImageFeaturesFilters模块。类和函数的具体说明可以参考官网

2 关键点入门级实例解析

2.1 如何从深度图像中提取NARF关键点

  本小节将展示如何从深度图像中提取NARF关键点。可执行程序能够加载原始点云数据(如果没有的话就创建随机点云),提取上面的特征点,并且用图像和3D显示方式进行可视化,从而可以直观的观察到关键点的位置和数量。

  首先创建一个工作空间narf_keypoint_extraction,然后再在工作空间创建一个文件夹src用于存放源代码:

mkdir -p narf_keypoint_extraction/src

  接着,在narf_keypoint_extraction/src路径下,创建一个文件并命名为narf_keypoint_extraction.cpp,拷贝如下代码:

#include <iostream>

#include <pcl/range_image/range_image.h>
#include <pcl/io/pcd_io.h>
#include <pcl/visualization/range_image_visualizer.h>
#include <pcl/visualization/pcl_visualizer.h>
#include <pcl/features/range_image_border_extractor.h>
#include <pcl/keypoints/narf_keypoint.h>
#include <pcl/console/parse.h>
#include <pcl/common/file_io.h>

typedef pcl::PointXYZ PointType;

/* 定义全局变量 */
float angular_resolution = 0.5f;    // 角坐标分辨率
float support_size = 0.2f;          // 感兴趣点的尺寸(球面的直径)
pcl::RangeImage::CoordinateFrame coordinate_frame = pcl::RangeImage::CAMERA_FRAME;  //坐标框架:相机框架(而不是激光框架)
bool setUnseenToMaxRange = false;   // 是否将所有不可见的点看作最大距离


void printUsage (const char* progName)
{
  std::cout << "\\n\\nUsage: "<<progName<<" [options] <scene.pcd>\\n\\n"
            << "Options:\\n"
            << "-------------------------------------------\\n"
            << "-r <float>   angular resolution in degrees (default "<<angular_resolution<<")\\n"
            << "-c <int>     coordinate frame (default "<< (int)coordinate_frame<<")\\n"
            << "-m           Treat all unseen points as maximum range readings\\n"
            << "-s <float>   support size for the interest points (diameter of the used sphere - "
            <<                                                     "default "<<support_size<<")\\n"
            << "-h           this help\\n"
            << "\\n\\n";
}

int main (int argc, char** argv)
{

    /* 解析命令行参数 */
    if (pcl::console::find_argument (argc, argv, "-h") >= 0)
    {
        printUsage (argv[0]);
        return 0;
    }
    if (pcl::console::find_argument (argc, argv, "-m") >= 0)
    {
        setUnseenToMaxRange = true;
        std::cout << "Setting unseen values in range image to maximum range readings.\\n";
    }
    int tmp_coordinate_frame;
    if (pcl::console::parse (argc, argv, "-c", tmp_coordinate_frame) >= 0)
    {
        coordinate_frame = pcl::RangeImage::CoordinateFrame (tmp_coordinate_frame);
        std::cout << "Using coordinate frame "<< (int)coordinate_frame<<".\\n";
    }
    if (pcl::console::parse (argc, argv, "-s", support_size) >= 0)
        std::cout << "Setting support size to "<<support_size<<".\\n";
    if (pcl::console::parse (argc, argv, "-r", angular_resolution) >= 0)
        std::cout << "Setting angular resolution to "<<angular_resolution<<"deg.\\n";
    angular_resolution = pcl::deg2rad (angular_resolution);
    
    /* 读取pcd文件;如果没有指定文件,就创建样本点 */
    pcl::PointCloud<PointType>::Ptr point_cloud_ptr (new pcl::PointCloud<PointType>);
    pcl::PointCloud<PointType>& point_cloud = *point_cloud_ptr;
    pcl::PointCloud<pcl::PointWithViewpoint> far_ranges;
    Eigen::Affine3f scene_sensor_pose (Eigen::Affine3f::Identity ());
    std::vector<int> pcd_filename_indices = pcl::console::parse_file_extension_argument (argc, argv, "pcd");
    if (!pcd_filename_indices.empty ())
    {
        std::string filename = argv[pcd_filename_indices[0]];
        if (pcl::io::loadPCDFile (filename, point_cloud) == -1)
        {
            std::cerr << "Was not able to open file \\""<<filename<<"\\".\\n";
            printUsage (argv[0]);
            return 0;
        }
        scene_sensor_pose = Eigen::Affine3f (Eigen::Translation3f (point_cloud.sensor_origin_[0],
                                                                   point_cloud.sensor_origin_[1],
                                                                   point_cloud.sensor_origin_[2])) *
                            Eigen::Affine3f (point_cloud.sensor_orientation_);
        std::string far_ranges_filename = pcl::getFilenameWithoutExtension (filename)+"_far_ranges.pcd";
        if (pcl::io::loadPCDFile (far_ranges_filename.c_str (), far_ranges) == -1)
            std::cout << "Far ranges file \\""<<far_ranges_filename<<"\\" does not exists.\\n";
    }
    else
    {
        setUnseenToMaxRange = true;
        std::cout << "\\nNo *.pcd file given => Generating example point cloud.\\n\\n";
        for (float x=-0.5f; x<=0.5f; x+=0.01f)
        {
            for (float y=-0.5f; y<=0.5f; y+=0.01f)
            {
                PointType point;  point.x = x;  point.y = y;  point.z = 2.0f - y;
                point_cloud.points.push_back (point);
            }
        }
        point_cloud.width = point_cloud.size ();  point_cloud.height = 1;
    }
    
    /* 从点云数据,创建深度图像 */
    float noise_level = 0.0;
    float min_range = 0.0f;
    int border_size = 1;
    pcl::RangeImage::Ptr range_image_ptr (new pcl::RangeImage);
    pcl::RangeImage& range_image = *range_image_ptr;   
    range_image.createFromPointCloud (point_cloud, angular_resolution, pcl::deg2rad (360.0f), pcl::deg2rad (180.0f),
                                    scene_sensor_pose, coordinate_frame, noise_level, min_range, border_size);
    range_image.integrateFarRanges (far_ranges);
    if (setUnseenToMaxRange)
        range_image.setUnseenToMaxRange ();
    
    /* 打开3D可视化窗口,并添加点云 */
    pcl::visualization::PCLVisualizer viewer ("3D Viewer");
    viewer.setBackgroundColor (1, 1, 1);
    pcl::visualization::PointCloudColorHandlerCustom<pcl::PointWithRange> range_image_color_handler (range_image_ptr, 0, 0, 0);
    viewer.addPointCloud (range_image_ptr, range_image_color_handler, "range image");
    viewer.setPointCloudRenderingProperties (pcl::visualization::PCL_VISUALIZER_POINT_SIZE, 1, "range image");
    //viewer.addCoordinateSystem (1.0f, "global");
    //PointCloudColorHandlerCustom<PointType> point_cloud_color_handler (point_cloud_ptr, 150, 150, 150);
    //viewer.addPointCloud (point_cloud_ptr, point_cloud_color_handler, "original point cloud");
    viewer.initCameraParameters ();
    //setViewerPose (viewer, range_image.getTransformationToWorldSystem ());
    
    /* 显示深度图像 */
    pcl::visualization::RangeImageVisualizer range_image_widget ("Range image");
    range_image_widget.showRangeImage (range_image);
    
    /* 提取NARF关键点 */
    pcl::RangeImageBorderExtractor range_image_border_extractor;    // 创建深度图像的边界提取器,用于提取NARF关键点
    pcl::NarfKeypoint narf_keypoint_detector (&range_image_border_extractor);   // 创建NARF对象
    narf_keypoint_detector.setRangeImage (&range_image);
    narf_keypoint_detector.getParameters ().support_size = support_size;
    //narf_keypoint_detector.getParameters ().add_points_on_straight_edges = true;
    //narf_keypoint_detector.getParameters ().distance_for_additional_points = 0.5;
    
    pcl::PointCloud<int> keypoint_indices;              // 用于存储关键点的索引
    narf_keypoint_detector.compute (keypoint_indices);  // 计算NARF关键点
    std::cout << "Found "<<keypoint_indices.size ()<<" key points.\\n";

    /* 在range_image_widget中显示关键点 */
    //for (std::size_t i=0; i<keypoint_indices.size (); ++i)
        //range_image_widget.markPoint (keypoint_indices[i]%range_image.width,
                                    //keypoint_indices[i]/range_image.width);
    
    /* 在3D viwer窗口中显示关键点 */
    pcl::PointCloud<pcl::PointXYZ>::Ptr keypoints_ptr (new pcl::PointCloud<pcl::PointXYZ>);
    pcl::PointCloud<pcl::PointXYZ>& keypoints = *keypoints_ptr;
    keypoints.resize (keypoint_indices.size 以上是关于PCL中点云关键点提取的主要内容,如果未能解决你的问题,请参考以下文章

PCL系列——从深度图像(RangeImage)中提取NARF关键点

如何改变pcd中点的颜色?

PCL学习笔记:平面和直线提取

PCL学习笔记:平面和直线提取

PCL Harris关键点提取

PCL学习笔记:地面提取