如何为立体视觉计算基本矩阵

7
我正在尝试编写一些代码,以计算基本矩阵来确定立体图像之间的关系。我最初使用了Hartley和Zisserman书籍,但它没有任何实用示例,其示例代码是在我没有的MATLAB中编写的。然后我转而使用三维计算机视觉技术和算法介绍这本更实用的书籍,并在Python和numpy中实现了推荐的8点算法,但我无法验证其有效性。
我正在使用该书第48页列出的数据集(使用上面的链接查看Google Books摘录)。当我归一化点时,我得到与该书相同的结果。然而,当我使用numpy的SVD函数计算基本矩阵时,我得到以下F值:
[[-0.01851684 -0.21631176 -0.67036356]
 [ 0.2605251  -0.01023853  0.14234079]
 [ 0.63748775 -0.09404508 -0.00220713]]

这个矩阵满足方程 p_R^ * F * p_L = 0,因此看起来是正确的。然而,它与书中计算出的矩阵非常不同。我尝试使用OpenCV的cv.FindFundamentalMat()再次核对答案,得到了第三个答案:
[[  22.98129082  271.46453857  853.74273682]
 [-334.1673584    -4.84123087 -175.99523926]
 [-809.88891602  125.99833679    1.        ]]

我不知道其他两个矩阵是如何计算的,但我找不到任何基础矩阵计算的示例来验证我对8点算法的实现。虽然我的实现返回满足方程的值,但这让我担心我可能做了一些愚蠢的事情,这就是为什么我无法匹配书中或OpenCV的结果的原因。

你是用数据集中的归一化点还是原始点来获取上述两个基础矩阵的呢? - jilles de wit
1个回答

6
请注意,基础矩阵是一个常数因子的定义(您可以通过检查极线约束很容易地验证这一点)。尝试使用-8.0574e-04乘以OpenCV矩阵,您会发现最终两个矩阵非常相似 :-)
因此,您的结果可能是正确的。结果之间的轻微差异可能是由于OpenCV采用的方法与8点算法不同(可能更加稳健)。

我知道我错过了一些愚蠢的东西。感谢你的帮助。 - SigmaXiPi

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接