PCL Harris关键点提取
Posted 大鱼BIGFISH
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PCL Harris关键点提取相关的知识,希望对你有一定的参考价值。
文章目录
一、简介
Harris关键点检测于1988年Chair Harris和Mike Stephens提出,是早期非常经典的一种关键点检测算法。在二维图像中,Harris关键点检测通过计算图像点的Harris矩阵和矩阵对应的特征值来判断是否为关键点。如果Harris矩阵特征的两个特征值都很大,则该点为关键点。一般可以用下面的公式来代替Harris矩阵的特征值计算。
A = [ I x
PCL中点云关键点提取
PCL中点云关键点提取
关键点也称为兴趣点,它是2D图像、3D点云或曲面模型上,可以通过定义检测标准来获取的具有稳定性、区别性的点集。从技术上来说,关键点的数量相比于原始点云或图像的数据量小很多,它与局部特征描述子结合在一起,组成关键点描述子,常用来形成原始数据的紧凑表示,而且不失代表性与描述性,从而可以加快后续识别、追踪等对数据的处理速度。关键点提取是2D与3D信息中不可或缺的关键技术。
本篇文章首先对PCL中涉及的点云关键点提取方法的概念进行简介,其次对PCL中的keypoints
相关模块及类进行简单介绍,最后通过实例来展示如何对PCL中的keypoints
模块进行灵活运用。
1 关键点概念及相关算法
1.1 NARF关键点
NARF(Normal Aligned Radial Feature)
关键点是为了从深度图像中识别物体而提出来的,关键点探测的重要一步是减少特征提取时的搜索空间,把重点放在重要的结构上,对NARF关键点提取过程有以下要求:提取的过程必须将边缘及物体表面变化信息考虑在内;关键点的位置必须稳定,可以被重复探测,即使换了不同的视角;关键点所在的位置必须有稳定的支持区域,可以计算描述子并进行唯一的法向量估计。为了满足以上要求,提出以下探测步骤来进行关键点提取:
(1)遍历每个深度图像点,通过寻找在近邻区域有深度突变的位置进行边缘检测。
(2)遍历每个深度图像点,根据近邻区域的表面变化决定一种测度表面变化的系数,以及变化的主方向。
(3)根据第二步找到的主方向计算兴趣值,表征该方向与其他方向的不同,以及该处表面的变化情况,即该点有多稳定。
(4)对兴趣值进行平滑过滤。
(5)进行无最大值压缩找到最终的关键点,即为NARF关键点。
1.2 Harris关键点
Harris
关键点检测算法于1988年由Chris Harris和Mike Stephens提出,也称为Plessey
关键点检测算法,是早期经典的一种关键点检测算法。公式1为Harris
矩阵,Harris
关键点检测通过计算图像点的Harris
矩阵和矩阵对应的特征值来判断是否为关键点。如果Harris
矩阵的两个特征值都很大,则该点是关键点。在应用中。一般可用公式2来代替Harris
矩阵的特征值的计算。当
m
k
>
0
m_{k}>0
mk>0 时,则判断该点为关键点。
A
=
[
I
x
I
y
]
[
I
x
I
y
]
T
=
[
I
x
2
I
x
I
y
I
y
I
x
I
y
2
]
(1)
A=\\begin{bmatrix}I_{x}\\\\I_{y}\\end{bmatrix} \\begin{bmatrix}I_{x}\\\\I_{y}\\end{bmatrix}^{T}=\\begin{bmatrix} I_{x}^{2} & I_{x}I_{y}\\\\ I_{y}I_{x} & I_{y}^{2} \\end{bmatrix} \\tag{1}
A=[IxIy][IxIy]T=[Ix2IyIxIxIyIy2](1)
m
k
=
d
e
t
(
A
)
−
k
t
r
2
(
A
)
(2)
m_{k}=det(A)-ktr^{2}(A) \\tag{2}
mk=det(A)−ktr2(A)(2)
这里
A
A
A表示点的Harris
矩阵,
d
e
t
(
A
)
det(A)
det(A) 表示Harris
矩阵的行列式,
t
r
(
A
)
tr(A)
tr(A) 表示Harris
矩阵的迹。
I
x
I_{x}
Ix、
I
y
I_{y}
Iy分别为像素点在
x
x
x、
y
y
y 方向上的梯度。Harris
关键点检测只对图像旋转变换保持较好的检测重复率,但不适合尺度变化的关键点检测。
点云中的3D Harris
关键点检测借鉴了2D Harris
关键点检测的思想,不过3D Harris
关键点使用的是点云表面法向量的信息,而不是2D Harris
关键点检测使用的图像梯度。
1.3 PCL中keypoints模块及类介绍
PCL中的pcl_keypoints
库目前提供了几种常用的关键点检测算法,随着其快速的开发,将来会有更多算法加入。pcl_keypoints
模块利用了大概19个类实现了利用几种关键点检测算法相关的数据结构与检测算法,其依赖于Common
、Search
、KdTree
、Octree
、Range Image
、Features
、Filters
模块。类和函数的具体说明可以参考官网。
2 关键点入门级实例解析
2.1 如何从深度图像中提取NARF关键点
本小节将展示如何从深度图像中提取NARF关键点。可执行程序能够加载原始点云数据(如果没有的话就创建随机点云),提取上面的特征点,并且用图像和3D显示方式进行可视化,从而可以直观的观察到关键点的位置和数量。
首先创建一个工作空间narf_keypoint_extraction
,然后再在工作空间创建一个文件夹src
用于存放源代码:
mkdir -p narf_keypoint_extraction/src
接着,在narf_keypoint_extraction/src
路径下,创建一个文件并命名为narf_keypoint_extraction.cpp
,拷贝如下代码:
#include <iostream>
#include <pcl/range_image/range_image.h>
#include <pcl/io/pcd_io.h>
#include <pcl/visualization/range_image_visualizer.h>
#include <pcl/visualization/pcl_visualizer.h>
#include <pcl/features/range_image_border_extractor.h>
#include <pcl/keypoints/narf_keypoint.h>
#include <pcl/console/parse.h>
#include <pcl/common/file_io.h>
typedef pcl::PointXYZ PointType;
/* 定义全局变量 */
float angular_resolution = 0.5f; // 角坐标分辨率
float support_size = 0.2f; // 感兴趣点的尺寸(球面的直径)
pcl::RangeImage::CoordinateFrame coordinate_frame = pcl::RangeImage::CAMERA_FRAME; //坐标框架:相机框架(而不是激光框架)
bool setUnseenToMaxRange = false; // 是否将所有不可见的点看作最大距离
void printUsage (const char* progName)
{
std::cout << "\\n\\nUsage: "<<progName<<" [options] <scene.pcd>\\n\\n"
<< "Options:\\n"
<< "-------------------------------------------\\n"
<< "-r <float> angular resolution in degrees (default "<<angular_resolution<<")\\n"
<< "-c <int> coordinate frame (default "<< (int)coordinate_frame<<")\\n"
<< "-m Treat all unseen points as maximum range readings\\n"
<< "-s <float> support size for the interest points (diameter of the used sphere - "
<< "default "<<support_size<<")\\n"
<< "-h this help\\n"
<< "\\n\\n";
}
int main (int argc, char** argv)
{
/* 解析命令行参数 */
if (pcl::console::find_argument (argc, argv, "-h") >= 0)
{
printUsage (argv[0]);
return 0;
}
if (pcl::console::find_argument (argc, argv, "-m") >= 0)
{
setUnseenToMaxRange = true;
std::cout << "Setting unseen values in range image to maximum range readings.\\n";
}
int tmp_coordinate_frame;
if (pcl::console::parse (argc, argv, "-c", tmp_coordinate_frame) >= 0)
{
coordinate_frame = pcl::RangeImage::CoordinateFrame (tmp_coordinate_frame);
std::cout << "Using coordinate frame "<< (int)coordinate_frame<<".\\n";
}
if (pcl::console::parse (argc, argv, "-s", support_size) >= 0)
std::cout << "Setting support size to "<<support_size<<".\\n";
if (pcl::console::parse (argc, argv, "-r", angular_resolution) >= 0)
std::cout << "Setting angular resolution to "<<angular_resolution<<"deg.\\n";
angular_resolution = pcl::deg2rad (angular_resolution);
/* 读取pcd文件;如果没有指定文件,就创建样本点 */
pcl::PointCloud<PointType>::Ptr point_cloud_ptr (new pcl::PointCloud<PointType>);
pcl::PointCloud<PointType>& point_cloud = *point_cloud_ptr;
pcl::PointCloud<pcl::PointWithViewpoint> far_ranges;
Eigen::Affine3f scene_sensor_pose (Eigen::Affine3f::Identity ());
std::vector<int> pcd_filename_indices = pcl::console::parse_file_extension_argument (argc, argv, "pcd");
if (!pcd_filename_indices.empty ())
{
std::string filename = argv[pcd_filename_indices[0]];
if (pcl::io::loadPCDFile (filename, point_cloud) == -1)
{
std::cerr << "Was not able to open file \\""<<filename<<"\\".\\n";
printUsage (argv[0]);
return 0;
}
scene_sensor_pose = Eigen::Affine3f (Eigen::Translation3f (point_cloud.sensor_origin_[0],
point_cloud.sensor_origin_[1],
point_cloud.sensor_origin_[2])) *
Eigen::Affine3f (point_cloud.sensor_orientation_);
std::string far_ranges_filename = pcl::getFilenameWithoutExtension (filename)+"_far_ranges.pcd";
if (pcl::io::loadPCDFile (far_ranges_filename.c_str (), far_ranges) == -1)
std::cout << "Far ranges file \\""<<far_ranges_filename<<"\\" does not exists.\\n";
}
else
{
setUnseenToMaxRange = true;
std::cout << "\\nNo *.pcd file given => Generating example point cloud.\\n\\n";
for (float x=-0.5f; x<=0.5f; x+=0.01f)
{
for (float y=-0.5f; y<=0.5f; y+=0.01f)
{
PointType point; point.x = x; point.y = y; point.z = 2.0f - y;
point_cloud.points.push_back (point);
}
}
point_cloud.width = point_cloud.size (); point_cloud.height = 1;
}
/* 从点云数据,创建深度图像 */
float noise_level = 0.0;
float min_range = 0.0f;
int border_size = 1;
pcl::RangeImage::Ptr range_image_ptr (new pcl::RangeImage);
pcl::RangeImage& range_image = *range_image_ptr;
range_image.createFromPointCloud (point_cloud, angular_resolution, pcl::deg2rad (360.0f), pcl::deg2rad (180.0f),
scene_sensor_pose, coordinate_frame, noise_level, min_range, border_size);
range_image.integrateFarRanges (far_ranges);
if (setUnseenToMaxRange)
range_image.setUnseenToMaxRange ();
/* 打开3D可视化窗口,并添加点云 */
pcl::visualization::PCLVisualizer viewer ("3D Viewer");
viewer.setBackgroundColor (1, 1, 1);
pcl::visualization::PointCloudColorHandlerCustom<pcl::PointWithRange> range_image_color_handler (range_image_ptr, 0, 0, 0);
viewer.addPointCloud (range_image_ptr, range_image_color_handler, "range image");
viewer.setPointCloudRenderingProperties (pcl::visualization::PCL_VISUALIZER_POINT_SIZE, 1, "range image");
//viewer.addCoordinateSystem (1.0f, "global");
//PointCloudColorHandlerCustom<PointType> point_cloud_color_handler (point_cloud_ptr, 150, 150, 150);
//viewer.addPointCloud (point_cloud_ptr, point_cloud_color_handler, "original point cloud");
viewer.initCameraParameters ();
//setViewerPose (viewer, range_image.getTransformationToWorldSystem ());
/* 显示深度图像 */
pcl::visualization::RangeImageVisualizer range_image_widget ("Range image");
range_image_widget.showRangeImage (range_image);
/* 提取NARF关键点 */
pcl::RangeImageBorderExtractor range_image_border_extractor; // 创建深度图像的边界提取器,用于提取NARF关键点
pcl::NarfKeypoint narf_keypoint_detector (&range_image_border_extractor); // 创建NARF对象
narf_keypoint_detector.setRangeImage (&range_image);
narf_keypoint_detector.getParameters ().support_size = support_size;
//narf_keypoint_detector.getParameters ().add_points_on_straight_edges = true;
//narf_keypoint_detector.getParameters ().distance_for_additional_points = 0.5;
pcl::PointCloud<int> keypoint_indices; // 用于存储关键点的索引
narf_keypoint_detector.compute (keypoint_indices); // 计算NARF关键点
std::cout << "Found "<<keypoint_indices.size ()<<" key points.\\n";
/* 在range_image_widget中显示关键点 */
//for (std::size_t i=0; i<keypoint_indices.size (); ++i)
//range_image_widget.markPoint (keypoint_indices[i]%range_image.width,
//keypoint_indices[i]/range_image.width);
/* 在3D viwer窗口中显示关键点 */
pcl::PointCloud<pcl::PointXYZ>::Ptr keypoints_ptr (new pcl::PointCloud<pcl::PointXYZ>);
pcl::PointCloud<pcl::PointXYZ>& keypoints = *keypoints_ptr;
keypoints.resize (keypoint_indices.size 以上是关于PCL Harris关键点提取的主要内容,如果未能解决你的问题,请参考以下文章