使用iPhone相机进行点云处理

6
我对计算机视觉领域非常陌生,但很感兴趣。我仍在学习相关概念,其中一个引起了我的兴趣,就是使用图像生成点云和3D重建。
我想知道从iPhone 6相机拍摄的图像是否能够生成点云。我了解PCL(点云库),并考虑开发一款使用它的iOS应用程序。
我运行了这个样例PCL应用程序:https://github.com/9gel/hellopcl 它基本上是一个渲染器,使用提供的点云数据。我希望制作一个应用程序,可以实时使用相机生成点云。
我的问题是,这可能吗?
谢谢
1个回答

10
答案是肯定的,有多种方法可以从多个图像生成点云。一些常用的从图像生成3D点云的方法包括: 多图像三维重建
在已知6自由度空间内相机运动的情况下,可以使用标准立体对应算法计算深度,基于图像强度的变化。但是,使用陀螺仪、加速度计和磁力计无法精确估计相机的运动。
您可以在此处了解更多有关这些方法的信息:概述 如果未知6自由度位姿,则仍然可以使用一些方法从图像中提取点云,例如: SLAM
通过考虑惯性传感器提供的运动信息以及图像来解决位置估计中的不确定性。SLAM是一个先有鸡还是先有蛋的问题。要估计深度,您需要精确的运动信息,要获得运动信息,您需要深度信息。移动设备上实现了不同版本的SLAM。

LSD-SLAM :

LSD-SLAM(大规模直接单目SLAM)用于从连续视频流生成密集的深度图。这种方法在计算上非常强大,只能离线执行。移动设备也实现了类似版本。您可以在这里找到它。

Bundle Adjustment (BA) :

传统的束调整方法使用极线约束和特征匹配从多个图像估计相机的结构和运动。它需要更多的内存进行全局优化。使用此方法可以实现高质量的三维场景重建。现在有多种变体可用。

您可以找到基于相同概念的不同方法。以上许多方法都可以用于离线生成三维点云。但是,在iPhone等移动平台上实时生成点云是一件大事。

谢谢


感谢您提供详细的答案。这将让我开始着手处理。 - Shayan Jalil
如果您只对点云的坐标感兴趣,您也可以在iOS上使用ARPointCloud - pr4n

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接