摘要
讨论一种使用眼动仪实现人机交互中光标移动与定位的方法。通过对眼动仪输出视频的图像处理,得到注视点以及计算机显示器在视场中的位置坐标,并计算出注视点在显示器中的相对位置,由此实现了人机交互中光标的移动与定位。由于考虑了注视点与显示器的相对位置关系,该方法可以实现测试者头部任意活动状态下的交互输入。
A method on cursor movements and orientations using Eyemark in human-computer interaction is discussed.Based on the image process of Eyemark's output video,the positions of gazing points and computer monitor in scenes are found,and the coordinates of gazing points relative to computer monitor are computed.Cursor movements and orientations in human-computer interaction can be formed using these values.Since the relative positions of gazing points and computer monitor are considered,this method can be used in interaction input under any movement state of subject's head.
出处
《仪器仪表学报》
EI
CAS
CSCD
北大核心
2004年第z1期55-57,共3页
Chinese Journal of Scientific Instrument
基金
铁道部科技发展计划(2000J043)基金项目。
关键词
人机交互
视觉跟踪
图像处理
眼动仪
Human-computer interaction Eye tracking Image process Eyemark