如果需要多个用户/设备使用Apple的新ARKit技术,最佳方式是什么?
每个设备似乎都会单独获得其自身的场景理解。目前我最好的猜测是使用原始特征点位置,并尝试在设备之间匹配它们以将不同视角的点粘合在一起,因为ARKit没有提供任何绝对参考参照。
===编辑1,我尝试过的事情===
1) 特征点
我已经玩弄了暴露的原始特征点,并且现在确信它们在当前状态下是死路一条:
- 它们不是原始特征点,它们只公开位置,但没有跟踪特征点中通常找到的任何属性
- 它们的实例化不会从帧到帧保持一致,位置也不完全相同
- 通常情况下,当摄像机输入几乎不变时,报告的特征点会大量改变,出现或消失。
因此,总体而言,我认为尝试以某种有意义的方式使用它们是不合理的,在一个设备内无法进行任何良好的点匹配,更不用说在多个设备上了。 另一种选择是实现自己的特征点检测和匹配,但那将更换ARKit而不是利用它。
2) QR码
正如@Rickster建议的那样,我还尝试识别易于识别的物体(例如QR码),并从该固定点获取相对参照变化(请参见此问题)。这有点困难,并且需要我使用一些openCV来估计相机姿态。但更重要的是非常受限制。