使用cv :: rgbd :: Odometry :: compute
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用cv :: rgbd :: Odometry :: compute相关的知识,希望对你有一定的参考价值。
我正在使用C ++和OpenCV与ROS的组合。我使用来自相机的实时图像(intel realsense R200)。我从相机中获取深度和RGB图像。在我的c ++代码中,我想使用这些图像来获取odometry数据并从中获取轨迹。
我试图使用“cv :: rgbd :: Odometry :: compute”函数进行odometry,但我总是得到false作为返回值(代码中的“isSuccess”值始终为0)。但我不知道哪个部分我做错了。
我使用ROS从相机读取我的图像,然后在回调函数中,首先我将所有图像转换为灰度,然后使用Surf功能检测功能。然后我想使用“compute”来获得当前帧和前一帧之间的转换。
据我所知,“Rt”和“inintRt”是函数的输出,所以足以用正确的大小来构造它们。
有谁能看到这个问题?我错过了什么吗?
boost::shared_ptr<rgbd::Odometry> odom;
Mat Rt = Mat(4,4, CV_64FC1);
Mat initRt = Mat(4,4, CV_64FC1);
Mat prevFtrM; //mask Matrix of previous image
Mat currFtrM; //mask Matrix of current image
Mat tempFtrM;
Mat imgprev;// previous depth image
Mat imgcurr;// current depth image
Mat imgprevC;// previous colored image
Mat imgcurrC;// current colored image
void Surf(Mat img) // detect features of the img and fill currFtrM
{
int minHessian = 400;
Ptr<SURF> detector = SURF::create( minHessian );
vector<KeyPoint> keypoints_1;
currFtrM = Mat::zeros(img.size(), CV_8U); // type of mask is CV_8U
Mat roi(currFtrM, cv::Rect(0,0,img.size().width,img.size().height));
roi = Scalar(255, 255, 255);
detector->detect( img, keypoints_1, currFtrM );
Mat img_keypoints_1;
drawKeypoints( img, keypoints_1, img_keypoints_1, Scalar::all(-1), DrawMatchesFlags::DEFAULT );
//-- Show detected (drawn) keypoints
imshow("Keypoints 1", img_keypoints_1 );
}
void Callback(const sensor_msgs::ImageConstPtr& clr, const sensor_msgs::ImageConstPtr& dpt)
{
if(!imgcurr.data || !imgcurrC.data) // first frame
{
// depth image
imgcurr = cv_bridge::toCvShare(dpt, sensor_msgs::image_encodings::TYPE_32FC1)->image;
// colored image
imgcurrC = cv_bridge::toCvShare(clr, "bgr8")->image;
cvtColor(imgcurrC, imgcurrC, COLOR_BGR2GRAY);
//find features in the image
Surf(imgcurrC);
prevFtrM = currFtrM;
//scale color image to size of depth image
resize(imgcurrC,imgcurrC, imgcurr.size());
return;
}
odom = boost::make_shared<rgbd::RgbdOdometry>(imgcurrC, Odometry::DEFAULT_MIN_DEPTH(), Odometry::DEFAULT_MAX_DEPTH(), Odometry::DEFAULT_MAX_DEPTH_DIFF(), std::vector< int >(), std::vector< float >(), Odometry::DEFAULT_MAX_POINTS_PART(), Odometry::RIGID_BODY_MOTION);
// depth image
imgprev = imgcurr;
imgcurr = cv_bridge::toCvShare(dpt, sensor_msgs::image_encodings::TYPE_32FC1)->image;
// colored image
imgprevC = imgcurrC;
imgcurrC = cv_bridge::toCvShare(clr, "bgr8")->image;
cvtColor(imgcurrC, imgcurrC, COLOR_BGR2GRAY);
//scale color image to size of depth image
resize(imgcurrC,imgcurrC, imgcurr.size());
cv::imshow("Color resized", imgcurrC);
tempFtrM = currFtrM;
//detect new features in imgcurrC and save in a vector<Point2f>
Surf( imgcurrC);
prevFtrM = tempFtrM;
//set camera matrix to identity matrix
float vals[] = {619.137635, 0., 304.793791, 0., 625.407449, 223.984030, 0., 0., 1.};
const Mat cameraMatrix = Mat(3, 3, CV_32FC1, vals);
odom->setCameraMatrix(cameraMatrix);
bool isSuccess = odom->compute( imgprevC, imgprev, prevFtrM, imgcurrC, imgcurr, currFtrM, Rt, initRt );
if(isSuccess)
cout << "isSuccess " << isSuccess << endl;
}
更新:我校准了相机并用实际值替换了相机矩阵。
有点晚了,但对某人来说仍然有用。
在我看来,你缺少计算中的外在校准:在我的实验中,R200在RGB和深度相机之间有一个你没有考虑的平移组件。此外,查看相机参数,深度和RGB具有不同的内在函数,并且颜色框架具有MODIFIED_BROWN_CONRADY镜头失真(但这是最小的),你是不是很失真吗?
显然,如果您已经完成所有这些步骤并在文件上保存已注册的RGB和深度,那么我可能会错。
以上是关于使用cv :: rgbd :: Odometry :: compute的主要内容,如果未能解决你的问题,请参考以下文章