只要手机的相机对准用户的头部,我认为这是可行的。但是,为了使图像足够清晰以便能够正确识别面部和眼睛,可能需要相当好的光线。 当用户没有直接看着相机时,您可能需要进行某种“头部识别”,并确定用户头部的方向。这将为您提供他们正在看哪个方向的大致方向。 我不知道是否有任何与iOS相关的人脸识别项目,但您可以通过谷歌搜索并找到一些现有的其他语言项目,并花费一些努力将其移植到iOS。 顺便说一句,有一个DIY项目(头部定位跟踪)适用于PC。它使用放置在耳机上的红外灯和摄像头来确定您的头部方向。也许它会给您一些想法。
在2023年,iPhone上的眼动追踪技术从技术上是可行的。有几种工具使其成为可能。例如,苹果的ARKit,它于2017年推出,通过iOS设备的前置摄像头支持眼动追踪和头部运动追踪。您可以在这里找到它们的文档链接。 就隐私讨论而言,大多数像ARKit这样的工具不会记录数据本身,它们只提供原始的追踪数据。任何记录都需要由开发人员实现,这可能引起潜在的隐私问题。 几个项目已经应用了类似ARKit的工具来实现眼动追踪技术。我参与并熟悉的一个具体项目被称为Athena。如果感兴趣,您可以将其作为参考。