期刊文献+

基于生成对抗网络的注视估计方法

Gaze Estimation Method Based on Generative Adversarial Networks
下载PDF
导出
摘要 基于深度学习的注视视估计研究由于数据收集成本过高,数据标注难度过大,导致很难训练出足够准确且健壮的模型。为减少模型对原始数据的依赖并提高注视估计的准确度,根据轻量级网络构建新的生成对抗网络模型(Light Deep Convolution Generative Adversarial Network,LDCGAN),并构建了新的损失函数。为证明LDCGAN网络的可行性,在实验中与其他注视估计方法进行比较,结果表明LDCGAN模型的预测误差低于其他方法。 Deep learing-based gaze estimation research is difficult to train accurate and robust models due to the high cost of data collection and the difficulty of data annotation.In order to reduce the dependence of the model on the original data and improve the accuracy of fixation estimation,a new Generative Adversarial Network model Light Deep Convolution Generative Adversarial Network(LDCGAN)was constructed based on the lightweight network,and a new loss function was constructed.In order to prove the feasibility of LDCGAN network,the experimental results show that the prediction error of LDCGAN model is lower than that of other fixation estimation methods.
作者 张靖宇 黄全舟 梁斌 ZHANG Jingyu;HUANG Quanzhou;LIANG Bin(School of Computer Science,Xi'an Shiyou University,Xi'an Shaanxi 710065,China)
出处 《信息与电脑》 2022年第24期1-4,共4页 Information & Computer
基金 陕西省重点研发计划(项目编号:2022GY-031) 陕西省教育厅科研计划项目资助(项目编号:22JK0503)。
关键词 注视估计 MobileNetV3 生成对抗网络(GAN) gaze estimation MobileNetV3 Generative Adversarial Network(GAN)
  • 相关文献

参考文献1

共引文献2

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部