当前位置:首页>HOS学院>行业资讯>北大研究团队发布基于CNN的注视点预测科研成果

北大研究团队发布基于CNN的注视点预测科研成果

作者:hosmba发布时间:2020-03-09 15:05:01来源:青亭网

日前,来自中国北京大学、香港大学及美国马里兰大学的研究团队发布了《DGaze:动态场景中基于CNN的注视预测》研究论文,进一步扩展了关于注视点预测模型的探索工作。


01.png


该论文发布于 IEEE TVCG(IEEE Transactions on Visualization and Computer Graphics)期刊,以 北京大学图形与交互技术实验室的 Zhiming Hu 为第一作者、Sheng Li 和 Guoping Wang 为通讯作者。


TVCG 作为计算机图形学和可视化领域的顶级期刊之一,在国际上有着重要的学术 影响力,该论文的发布无疑推动了眼动分析领域的又一次进步。


02.png


研究团队采用七鑫易维VR眼动分析系统对动态虚拟场景中的用户注视行为进行了创新性的分析,提出了一种基于CNN的算法模型DGaze,用于在虚拟现实头盔(HMD)应用中进行注视点预测。


DGaze模型结合了运动物体位置序列,头部速度序列和场景内容的显著性特征来预测用户的注视点位置。该模型不仅可以估算实时的注视点位置,还可以预测一段时间后的注视点位置,同时拥有更好的算法性能。在实时估算方面,以角距离作为评估指标时,DGaze模型的估算准确度在动态场景中比现有模型提高了22.0%,在静态场景中则提高了9.5%。


学者们还提出了一种名为DGaze_ET的模型变体,基于七鑫易维眼动仪,收集眼动仪在过去时刻的高精度追踪数据,以此优化模型的注视点预测算法,进而提升模型预测的准确度。


在现有的眼动仪中,主要功能是测量当前的视线方向,不能直接对使用者一段时间之后的视线方向进行预测。因此不难想象,该注视点预测模型对于眼动追踪领域的技术革新和产品升级有着划时代的意义。


七鑫易维 VR 眼动分析系统为本次科研工作提供了可靠的数据支撑,不仅能够精确记录瞳孔 半径、瞳孔位置、眼睑距离、注视深度、注视点位置等眼动数据指标,还可以提供 3D 内容 创建及美工模型导入 3D 引擎服务,助力实现更加丰富的实验设计方式和途径。


  环视天下声明:HOSSKY网站登载或转载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

行业资讯热点

服贸会