我正在开发简单的AR应用程序,尝试了一下ARCore和ARKit。我对虚拟物体在现实世界中定位的精确度印象深刻,因为我使用的手机没有深度传感器或多个摄像头,所以我想知道:这些SDK采用什么算法进行平面检测?
我正在开发简单的AR应用程序,尝试了一下ARCore和ARKit。我对虚拟物体在现实世界中定位的精确度印象深刻,因为我使用的手机没有深度传感器或多个摄像头,所以我想知道:这些SDK采用什么算法进行平面检测?
RGB摄像头传感器
(60fps)和来自加速度计和陀螺仪传感器
(1000fps)的运动数据,使用视差公式计算高对比度特征点
的位置。这些信息允许ARCore和ARKit获取虚拟相机在六个自由度(6 DoF)上的位置和方向。
Scene Understanding
之后即将推出的ARKit第三层
。由于Xcode中的ARKit包含所有必要的SceneKit类,因此在制作iOS AR应用程序时甚至不需要导入SceneKit模块。https://developer.apple.com/videos/play/wwdc2017/602 - Andy Jazz