12得票1回答
使用已知深度Z将OpenCV的2D点反投影为3D

问题陈述 我正在尝试将2D点重新投影到它们的原始3D坐标上,假设我知道每个点所在的距离。按照OpenCV文档的说明,我设法使其在零畸变下工作。然而,当存在畸变时,结果是不正确的。 当前方法 因此,想法是反转以下内容: 成为以下内容: 通过: 使用cv::undistort...

11得票2回答
从立体图像获取深度图的库?

我打算设置一些设备进行实时三维运动跟踪。 我的第一个想法是使用一对摄像头拍摄立体图像并计算深度图以获取所需的3D数据。 是否有任何好的开源库(C/C++)可用且足够快以支持实时(〜12-24fps)? 在SourceForge中,我发现使用立体视觉进行三维重建和EStereo,有人尝试过吗?...

8得票2回答
如何使用Meshlab在.ply文件中绘制线条?

例如,我想从所有点云中选择两个点,并在它们之间绘制一条线。我正在使用Meshlab处理.ply文件,但我不知道如何完成这个任务。我可以使用Meshlab或其他方法来实现吗?

11得票1回答
两个校准相机的三维重建流程中存在哪些错误?

有很多关于从已知内部校准的立体视图中进行3D重建的帖子,其中一些是优秀的。我阅读了很多这样的帖子,并根据所读内容尝试使用以下流程/算法计算自己的3D场景重建。我将列出方法,然后在底部提出具体问题。 0. 校准您的相机: 这意味着检索相机标定矩阵K1和K2,分别对应相机1和相机2。这些是3...

10得票5回答
使用多个点的多张图片(Kinect)构建3D模型

如果从不同的角度收集深度数据和各种图像,是否可以构建静止物体的三维模型?我的想法是设计一种圆形传送带,将Kinect放置在传送带上,而真实物体位于三维空间的中心以便进行重建。然后,传送带绕着物体旋转,每秒拍摄许多图像(可能每秒10张),这将允许Kinect从每个角度捕捉图像和深度数据,理论上是...

7得票3回答
从两个2D点重建3D点?

OpenCV包含了许多支持从立体相机进行3D重建的功能。在我的情况下,我有两个摄像头,并且我想知道某个点的三维坐标。 我拥有: 该点在两幅图像上的像素坐标 已知的内部和外部相机参数 我想要得到: 该点的三维坐标

7得票1回答
如何将深度图转换为三维点云?

当我将深度图转换为3D点云时,我发现有一个称为缩放因子的术语。有人能否给我一些关于缩放因子实际上是什么的想法。缩放因子和焦距之间是否有任何关系。 代码如下: import argparse import sys import os from PIL import Image focalLe...

36得票3回答
没有相机信息的情况下从2张图像进行3D重建

我是这个领域的新手,正在尝试将2D图像建模为简单的3D场景,但我没有有关相机的任何信息。我知道有三种选择: 我有两张图片,我知道我的相机模型(内参)是从一个XML文件中加载的,例如loadXMLFromFile() => stereoRectify() => reproject...

14得票4回答
我该如何使用两个立体相机构建一个房间的3D模型?精确构建的决定因素是什么?

目前,我已经从两个立体相机中提取深度点来构建3D模型。我所使用的方法是openCV graphCut方法和http://sourceforge.net/projects/reconststereo/软件。然而,生成的3D模型不太精确,这让我产生了疑问: 1) 基于像素的方法有什么问题? 2) ...

8得票1回答
轴对齐照片的三维重建

浏览了该主题的其他帖子后,我相信我的问题可能有一个相当简单的答案。我有一组六张物体的轴对齐照片,例如这个: http://www.flickr.com/photos/nnenn/4479290754/in/photostream 是否有任何算法可以重建此物体的3D近似?我尝试过一种较为成功...