论文题目
Saliency in Augmented Reality 增强现实中的显著性问题
论文简介
随着多媒体技术的飞速发展,增强现实(AR)已成为具有发展前景的下一代移动平台。AR 背后的主要理论是人类视觉混淆,它允许用户通过将它们叠加在一起来同时感知现实世界场景和增强内容(虚拟世界场景)场景。要获得良好的体验质量(QoE),重要的是要了解两个场景之间的交互,并和谐地展示 AR 内容。然而目前关于这种叠加将如何影响人类视觉注意力的研究还是比较稀缺的。因此,在本文中,我们主要分析背景(BG)场景与 AR 内容之间的交互效果,研究 AR 中的显著性预测问题。具体来说,我们首先构建了一个 Saliency in AR Dataset (SARD),其中包含 450 个 BG 图像、450 个 AR 图像以及 1350 个通过将 BG 和 AR 图像以三个混合级别叠加生成的叠加图像。对 60 名受试者进行了大规模的眼动追踪实验,以收集眼动数据。为了更好地预测 AR 中的显著性,我们提出了一种矢量量化显著性预测方法,并将其推广到 AR 显著性预测。为进行科学比较,我们提出了三种基准方法,并与我们在 SARD 上提出的方法一起进行了评估。实验结果证明了我们提出的方法在常见的显著性预测问题和 AR 显著性预测问题上均优于基准方法。我们的数据收集方法、数据集、基准方法和提出的显著性模型将公开提供,以促进未来的研究。
论文提出的VQSal-AR模型框架图
论文作者
Huiyu Duan, Wei Shen, Xiongkuo Min, Danyang Tu, Jing Li, Guangtao Zhai
(论文为优酷摩酷实验室与上海交通大学合作)