在这里询问并尝试了SURF和SIFT两种算法后,它们似乎都不足以快速生成足够的兴趣点来跟踪来自相机的流。
例如,SURF需要大约3秒钟才能为一幅图像生成兴趣点,这对于跟踪来自网络摄像头的视频来说太慢了,而在移动电话上使用它时效果会更差。
我只需要一个能够跟踪特定区域,其大小、倾斜等信息的算法,然后我可以在此基础之上进行构建。
谢谢
在这里询问并尝试了SURF和SIFT两种算法后,它们似乎都不足以快速生成足够的兴趣点来跟踪来自相机的流。
例如,SURF需要大约3秒钟才能为一幅图像生成兴趣点,这对于跟踪来自网络摄像头的视频来说太慢了,而在移动电话上使用它时效果会更差。
我只需要一个能够跟踪特定区域,其大小、倾斜等信息的算法,然后我可以在此基础之上进行构建。
谢谢
正如其他人所提到的,三秒钟似乎异常地长。在测试Mahotas库中的SURF实现时,我发现即使对于一些相当大的图像(例如1024x768),平均需要0.36秒,而且这还是Python和C混合使用的情况,因此我想一些其他纯C实现可能会更快。
在受限的嵌入式系统中,我使用的一种选项是使用更简单的兴趣点检测器:例如FAST或Shi-Tomasi。 我选择了Shi-Tomasi,因为我针对的是FPGA,可以轻松以像素速率运行它而无需任何重要的缓冲。
然后使用SURF生成识别到的特征周围图像块的描述符,并将其用于匹配和跟踪目的。