我正在使用光流算法作为实时障碍检测和避免系统,以帮助视障人士。我正在使用C#开发该应用程序,并使用Emgu CV进行图像处理。我使用Lucas和Kanade方法,对算法的速度感到满意。由于我使用的是单目视觉,因此很难准确计算跟踪特征的深度并相应地提醒用户。我计划使用超声波传感器来帮助障碍物检测,因为单目相机很难计算深度。有没有关于如何仅使用相机获得准确深度估计的建议?
在深度学习中,如果相机没有移动,从一个照片中得到深度信息是不可能的。你可以考虑一些从视频中获得3D信息的方法。这是一个非常困难的问题,特别是当相机视野中的物体也在移动时。