Point Cloud使用iPhone相机
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Point Cloud使用iPhone相机相关的知识,希望对你有一定的参考价值。
我对计算机视觉领域很陌生,对此很着迷。我还在学习这些概念,有一件真正引起我兴趣的是Point Clouds和使用图像的3D重建。
我想知道从iPhone 6相机拍摄的图像是否能够产生点云。我知道PCL(Point Cloud Library)并且正在考虑开发一个可以使用它的ios应用程序。
我运行了这个示例PCL应用程序:https://github.com/9gel/hellopcl它基本上是一个使用提供给它的Point Cloud数据的渲染器。我希望制作一个能够实时使用相机生成点云的应用程序。
我的问题是,有可能吗?
谢谢
答案是肯定的,有办法从多个图像生成pointcloud。从图像生成3D点云的一些常用方法是:
3D Reconstruction from Multiple images:
基于图像强度深度的变化,已经知道相机在6-DOF空间中的运动,可以使用标准立体对应算法来计算。但是使用陀螺仪,加速度计和磁力计无法精确估算相机的运动。
您可以在这里阅读有关这些方法的更多信息:General overview
如果6-DOF姿势未知,您仍然可以使用以下某些方法从图像中提取点云:
SLAM:
位置估计的不确定性可以通过考虑图像以及惯性传感器提供的运动信息来解决。 SLAM是鸡蛋问题。要估计深度,您需要精确的运动信息,要获得运动信息,您需要深度信息。为移动设备实施了不同版本的SLAM。
大规模直接单目SLAM用于从连续视频输入生成密集的深度图。该方法计算量很大。只能离线执行。同样为手机实施的版本。你可以找到here
传统捆绑调整方法使用极线约束和特征匹配来估计来自多个图像的相机的结构和运动。它为全局优化消耗更多内存。使用这种方法可以实现高质量的场景3D重建。现在有这种方法的多种变体。
您可以根据相同的概念找到不同的方法。许多上述方法可用于离线生成3D点云。但是实时生成pointcloud对iPhone这样的移动平台来说是一件大事。
谢谢
以上是关于Point Cloud使用iPhone相机的主要内容,如果未能解决你的问题,请参考以下文章
保存用相机拍摄或从相机胶卷中选择的图像时出现长时间延迟 - iPhone
论文学习日记1-Unsupervised Point Cloud Pre-training via OcclusionCompletion
c_cpp 使用不带Grabber的Point Cloud Library绘制从Kinect v1检索到的Point Cloud
c_cpp 使用不带Grabber的Point Cloud Library绘制从Kinect v2检索到的Point Cloud