瞳孔中心在实时眼动追踪中表现出色

Posted

技术标签:

【中文标题】瞳孔中心在实时眼动追踪中表现出色【英文标题】:Pupil Center is Jumping a Lot in Real Time Eye Tracking 【发布时间】:2019-01-08 15:43:09 【问题描述】:

在我的眼动追踪项目中,瞳孔中心跳跃很多,我​​不认为它是一个固定点。

我该怎么办?

我的想法是将 2 帧中的瞳孔中心和瞳孔与阈值进行比较,但这对解决问题没有帮助。另一点是相机噪音。

我应该怎么做才能减少噪音?

我用的是starburst algorithm。

Starburst:一种基于视频的眼动追踪混合算法,结合了基于特征和基于模型的方法。

【问题讨论】:

【参考方案1】:

眼动仪带有 2 种类型的噪声/错误:可变误差和系统误差。可变噪声基本上是注视目标周围的分散,而恒定漂移或与注视目标的偏差是系统噪声。如需参考,请参阅以下论文:

https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0196348

在您的情况下,它是变量错误。由于疲劳、不自觉的眼球振动、光线等,会产生可变误差。您可以通过过滤注视数据来删除它。但是,请注意不要将其过度平滑,这可能会导致眼球固有的自然波动消失。

【讨论】:

【参考方案2】:

上下文

关于眼动追踪技术的信息非常缺乏。然而,由于我在这个主题上工作的时间(不多),我提出了几个问题。一个与eye tracking library issue 有关,而另一个与similar problem 的替代项有关。如您所见,这个主题并不直观且难以解决。但不要失去你的力量。

回答

标题为交互式应用程序的眼睛注视跟踪技术 [1],本文可以回答您的疑问。本文回顾了眼动追踪技术,并重点介绍了可能促进其在一般应用中使用的最新进展。作者还描述了pupil–corneal reflection technique [2, 3],因为它声称具有可用性优势,并表明这种方法仍然不太适合一般的交互式应用程序。

信息

不过,在使用眼动追踪技术时,阅读一些通用的可用性测试对您来说可能很重要。一篇好文章是标题为 Eye-tracking in Usability Testing 的文章,作者在其中描述了有关 相机校准 成为现实生活使用的限制因素的问题。同时,标题为 UXer’s quick guide to eye tracking 的文章描述并建议您如何使用它。

关于

谁可能会担心,在我们的项目中,我们开发了两个存储库。第一个名为eye-tracker-setup 的存储库是第一次尝试提取有关Tobbi Eye Tracker 4C 设备的信息。然而,我们并没有那么成功,因此创建了另一个名为 eye-tracker-naive 的存储库。

参考文献

[1] 森本,C.H.和 Mimica, M.R.,2005 年。交互式应用程序的眼球注视跟踪技术。计算机视觉和图像理解,98(1),pp.4-24。

[2] 剑南,C.,彭毅,Z.,思毅,Z.,Chuang,Z. 和 Ying,H.,2009 年,5 月。基于瞳孔角膜反射的眼球注视跟踪关键技术2009 年 WRI 全球智能系统大会(第 2 卷,第 133-138 页)。 IEEE。

[3] Morimoto, C.H.、Koons, D.、Amir, A. 和 Flickner, M.,2000 年。使用多个光源的瞳孔检测和跟踪。图像和视觉计算,18(4),pp.331-335。

【讨论】:

以上是关于瞳孔中心在实时眼动追踪中表现出色的主要内容,如果未能解决你的问题,请参考以下文章

瞳孔阈值(眼动追踪)- 使用 C++ 的 OpenCV

如何找到瞳孔中心和眼镜框边缘之间的距离

Javascript 中的多重凝视检测(眼动追踪)

iOS 7.0.3 - 在 iPad 3 上表现糟糕,但在模拟器中表现出色

markdown 以下是一些让您在Cacher中表现出色的技巧。

需要眼动追踪,注视追踪方法