2将图像转换为点云

Posted 郭润

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了2将图像转换为点云相关的知识,希望对你有一定的参考价值。

1、它是后面处理地图的基础,最简单的点云地图就是把不同位置的点云进行拼接得到的。

2、由于从RGB-D相机里可以采集到两种形式的数据:彩色图像和深度图像。如果有kinect和ros,那么可以运行如下

roslaunch openni_launch openni.launch

来使Kinect工作。如果PC机连上Kinect,那么彩色图像和深度图像会发布在/camera/rgb/image_color 和 /camera/depth_registered/image_raw 中;可以通过运行如下

 rosrun image_view image_view image:=/camera/rgb/image_color

来显示彩色图像,或者也可以在Rviz里看到图像与点云的可视化数据。

3、rgb图像与对应的深度图像,如下

这两张图是来自于数据集nyuv2:http://cs.nyu.edu/~silberman/datasets/ 原图格式是ppm和pgm的,目前格式是png。

在实际的Kinect里(或其他rgb-d相机里)直接采到的RGB图和深度图可能会有些小问题,比如

1)有一些时差(约几到十几个毫秒)。这个时差的存在,会产生“RGB图已经向右转了,深度图还没转”的感觉。

2)光圈中心未对齐。因为深度毕竟是靠另一个相机获取的,所以深度传感器和彩色传感器参数可能不一致。

3)深度图里有很多“洞”。因为RGB-D相机不是万能的,它有一个探测距离的限制啦!太远或太近的东西都是看不见的呢。关于这些“洞”,我们暂时睁一只眼闭一只眼,不去理它。以后我们也可以靠双边bayes滤波器去填这些洞。但是!这是RGB-D相机本身的局限性。软件算法顶多给它修修补补,并不能完全弥补它的缺陷。

在以上给出的图当中,都进行了预处理,可以认为“深度图就是彩色图里每个像素距传感器的距离“。

4、现在需要把这两个图转成点云,因为计算每个像素的空间点位置,是后面配准、拼图等一系列事情的基础,比如:在配准时,必须知道特征点的3D位置,这时候就需要用到这里讲的东西。

5、从2D到3D(数学部分)

上面两张图像给出了机器人外部世界的一个局部信息,假设这个世界由一个点云来描述:X={x1,x2,...xn}。其中每一个点由六个分量组成:r,g,b,x,y,z,分别表示该点的颜色与空间位置;颜色方面,主要由彩色图像记录;而空间位置,可由图像和相机模型、姿态一起计算出来

对于常规相机,SLAM里使用针孔相机模型(图来自http://www.comp.nus.edu.sg/~cs4243/lecture/camera.pdf ):

 

一个空间点[x,y,z]和它在图像中的像素坐标[u,v,d](d指深度数据)的对应关系式这样的:

其中,fx,fy指相机在x,y两个轴上的焦距,cx,cy指相机的光圈中心,s指深度图的缩放因子。

上面的公式是从(x,y,z)推导到(u,v,d),反之,也可以已知(u,v,d),推导到(x,y,z)的方式,推导如下

那么就可以根据上式构建点云了。

通常把fx,fy,cx,cy这四个参数定义为相机的内参矩阵C,也就是相机做好之后就不会变得参数。相机的内参可以用很多方法来标定,详细的步骤比较繁琐;在给定内参之后,每个点的空间位置与像素坐标就可以用简单的矩阵模型来表示了:

其中,R和t是相机的姿态。R代表旋转矩阵,t代表位置矢量。目前我们做的是单幅图像的点云,故认为相机没有旋转和平移;所以把R射程单位矩阵I,把t设成了零。s是scaling factor,即深度图里给的数据与实际距离的比例。由于深度图给的都是short (mm单位),s通常为1000。

如果相机发生了位移和旋转,那么只要对这些点进行位移和旋转操作即可。

6、从2D到3D (编程部分)

完成从图像到点云的转换,在上一节讲到的代码根目录/src/ 文件夹中新建一个generatePointCloud.cpp文件:

touch src/generatePointCloud.cpp

在一个工程里可以有多个main函数,因为cmake允许你自己定义编译的过程,我们会把这个cpp也编译成一个可执行的二进制,只要在cmakelists.txt里作相应的更改便行了,更改如下

然后在新建的文件generatePointCloud.cpp里面编写如下代码

//c++标准库 

#include<iostream>

#include<string>

using namespace std;

//opencv库

#include<opencv2/core/core.cpp>

#include<opencv2/highgui/highgui.hpp>

//PCL库

#include<pcl/io/pcd_io.h>

#include<pcl/point_types.h>

//定义点云类型

typedef pcl::PointXYZRGBA PointT;

typedef pcl::PointCloud<PointT> PointCloud;

//相机内参

const double camera_factor=1000;

const double camera_cx=325.5;

const double camera_cy=253.5;

const double camera_fx=518.0;

const double camera_fy=519.0;

//主函数

int main(int argc,char** argv)

{

 //读取./data/rgb.png和./data/depth.png,并转化为点云

//图像矩阵

cv::Mat rgb,depth;

//使用cv::imread()来读取图像

//rgb图像是8UC3的彩色图像

rgb=cv::imread(./data/rgb.png);

//depth是16UC1的单通道图像,注意flags设置为-1,表示读取原始数据不做修改

depth=cv::imread("./data/depth.png",-1);

//点云变量

//使用智能指针,创建一个空点云。这种指针用完会自动释放

PointCloud::Ptr cloud(new PointCloud);

//遍历深度图

for(int m=0;m<depth.rows;m++)

   for(int n=0;n<depth.cols;n++)

  {

   //获取深度图中(m,n)处的值

ushort d=depth.ptr<ushort>(m)[n];

//d可能没有值,若如此,跳过此点

if(d==0)

   continue;

//d存在值,则向点云增加一个点

PointT p;

//计算这个点的空间坐标

p.z=double(d)/camera_factor;

p.x=(n-camera_cx)*p.z/camera_fx;

p.y=(m-camera_cy)*p.z/camera_fy;

//从rgb图像中获取它的颜色

//rgb是三通道的BGR格式图,所以按下面的顺序获取颜色

p.b=rgb.ptr<uchar>(m)[n*3];

p.g=rgb.ptr<uchar>(m)[n*3+1];

p.r=rgb.ptr<uchar>(m)[n*3+2];

//把p加入到点云中

cloud->points.push_back(p);

 }

//设置并保存点云

cloud->height=1;

cloud->width=cloud->points.size();

cout<<"point cloud size="<<cloud->points.size()<<endl;

cloud->is_dense=false;

pcl::io::savePCDFile("./pointcloud.pcd",*cloud);

//清楚数据并保存

cloud->points.clear();

cout<<"Point cloud saved."<<endl;

return 0;

}

分析:

1.我们使用OpenCV的imread函数读取图片。在OpenCV2里,图像是以矩阵(cv::MAt)作为基本的数据结构。Mat结构既可以帮你管理内存、像素信息,还支持一些常见的矩阵运算,是非常方便的结构。彩色图像含有R,G,B三个通道,每个通道占8个bit(也就是unsigned char),故称为8UC3(8位unsigend char, 3通道)结构。而深度图则是单通道的图像,每个像素由16个bit组成(也就是C++里的unsigned short),像素的值代表该点离传感器的距离。通常1000的值代表1米,所以我们把camera_factor设置成1000. 这样,深度图里每个像素点的读数除以1000,就是它离你的真实距离了。

2.在遍历深度图的时候,是按照“先列后行”的顺序,由于m指图像的行,n指图像的列,它和空间点的坐标关系是如下:

对于深度图第m行,第n列的数据可以用depth.ptr<ushort>(m)[n]来获取。其中,cv::Mat的ptr函数会返回指向该图像第m行数据的头指针。然后加上位移n后,这个指针指向的数据就是我们需要读取的数据。

计算三维点坐标的公式我们已经给出过了,代码里原封不动地实现了一遍。我们根据这个公式,新增了一个空间点,并放入了点云中。最后,把整个点云存储为 ./data/pointcloud.pcd 文件。

7、编译并运行

cd build

cmake ..

make

编译通过后,就可以到bin目录下运行generate_pointcloud;运行之后,就可以在data目录下生成点云文件。安装了pcl的话,就可以通过如下命令来查看点云文件

pcl_viewer pointcloud.pcd

TIPS:

  • 如果你打开点云,只看到红绿蓝三个方块,请按R重置视角。刚才你是站在原点盯着坐标轴看呢。
  • 如果点云没有颜色,请按5显示颜色。
  • cmake过程可能有PCL的警告,如果你编译成功了,无视它即可。这是程序员的本能。

 

以上是关于2将图像转换为点云的主要内容,如果未能解决你的问题,请参考以下文章

开放式简历; C++;从线性三角剖分法的矩阵中提取点云点(x,y,z)

你好,问一下,现在你知道如何保存kinect的深度图像-并用pcl转化为点云pcd格式了吗

基于Python深度图生成3D点云

MATLAB点云处理:为点云添加高斯噪声

笔记一:点云环境搭建及法向量获取

请教高手!急!!! 请问如何将matlab中的矩阵数据转化为点云数据?