我目前正在使用OpenCV中的SURF进行模式识别。我已经撰写了一个C#程序,可以选择源图像和想要查找的模板。然后,我将这两个图片传输到一个实现了OpenCV-SURFdetector的C++-dll中,在那里返回所有关键点和匹配到我的C#程序,我试图在匹配周围画一个矩形。
现在我的问题是:在模式识别中是否有一种常见的精度测量方法?比如说,与模板关键点的数量成比例的匹配数?或者我的匹配矩形与原始模板图像的大小差异?哪些常见参数用于确定匹配是否是“真实”和“好”的匹配?
编辑:为了让我的问题更清晰。我有一堆匹配点,已经通过minHessian和距离值阈值处理了。之后,我会像您在图片中看到的那样在我的匹配点周围画一个矩形。这就是我的“匹配”。现在我该如何判断这个匹配有多好?我已经计算了我现在找到的匹配和我的模板之间的角度、大小和颜色差异。但我认为这还不够具体。
现在我的问题是:在模式识别中是否有一种常见的精度测量方法?比如说,与模板关键点的数量成比例的匹配数?或者我的匹配矩形与原始模板图像的大小差异?哪些常见参数用于确定匹配是否是“真实”和“好”的匹配?
编辑:为了让我的问题更清晰。我有一堆匹配点,已经通过minHessian和距离值阈值处理了。之后,我会像您在图片中看到的那样在我的匹配点周围画一个矩形。这就是我的“匹配”。现在我该如何判断这个匹配有多好?我已经计算了我现在找到的匹配和我的模板之间的角度、大小和颜色差异。但我认为这还不够具体。