无需VR外设,普林斯顿学霸用DeepHand解放你的双手

简介:

普林斯顿大学的研究人员用深度传感摄像头和深度学习网络开发DeepHand系统,可以把手势运动整合到VR环境中去。

你能想象当你体验VR游戏的时候,手上再也不用戴上一些额外的设备就可以在虚拟现实中“纵横捭阖”吗?普林斯顿大学的学霸们给你yes的答案。

无需VR外设,普林斯顿学霸用DeepHand解放你的双手

在VR中最常见的输入方式是用操作杆或者手柄,也会有眼控以及声控等,不过就目前发展状况来看,手势识别更有可能成为主流。此前来自荷兰的开发团队就推出过名为Manus VR的手套,他们利用位置追踪技术实现手部追踪,让玩家摆脱手持控制器的束缚。

普林斯顿大学研究的这款系统叫做DeepHand,其工作原理有点类似于Leap Motion的深度手势识别基础功能Orion。基于双目识别技术的Orion提供了一种新的手势识别的输入方式,它通过双目摄像头采集信息,经过一系列的流程将手部的活动信息实时反馈到处理器,最后显示在VR头显中。

无需VR外设,普林斯顿学霸用DeepHand解放你的双手

Orion的手势识别原理

而DeepHand也是通过摄像头采集各种角度和方式的手势变化,之后经过深度学习网络开发的特定算法,在存有超过250万手势的数据库中快速扫描,匹配出精确度最高的手势动作,最后在VR环境中显示出来。

无需VR外设,普林斯顿学霸用DeepHand解放你的双手

DeepHand的工作原理

该研究论文的作者Ayan Sinha表示:“我们能够识别手势的不同角度,通过摄像头观察不同的角度变换,算法将其转化为数字信号,然后在VR环境中呈现。”同时为了确保虚拟手势运动能够得到快速反馈,研究人员们主要通过判断数据库中手势动作的数字位置,然后推算出其邻近的数字位置,进而预测手势变化的可能性。

这是深度学习网络中,研究人员首次使用DeepHand识别手势,并将其反馈到数据库中。虽然在运行这些数据的过程中需要强大的计算处理能力,但是对于一台普通配置的电脑来说仍然是可以驾驭的。我们可以期待这款识别系统真正投入使用中会与VR产生怎样的“化学反应”。


原文发布时间: 2016-06-28 11:10
本文作者: 巫盼
本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

相关文章
|
5月前
|
vr&ar 开发者 Python
探索未来的现实世界:混合现实(AR)与增强现实(VR)技术的应用Python异步编程:解放性能的重要利器——异步IO库深入解析
在当今科技飞速发展的时代,混合现实(AR)和增强现实(VR)技术正迅速改变着我们对现实世界的认知和体验。本文将介绍这两种技术的基本原理以及它们在不同领域的广泛应用,包括教育、医疗、旅游、娱乐等。混合现实和增强现实技术为我们带来了全新的沉浸式体验,将人与数字世界融合在一起,为未来的现实世界带来无限可能。 在当今信息爆炸的时代,高效的编程方式成为开发者追求的目标。Python异步编程与其强大的异步IO库(例如asyncio)成为了解放性能的重要利器。本文将深入解析Python异步编程以及异步IO库的原理和使用方法,帮助读者进一步掌握这一技术,提升开发效率。
|
传感器 定位技术 vr&ar
HTC Vive 外设授权已达 300 个,一大批 VR 硬件即将到来
相较于 Playstation VR 与 Oculus Rift 较为封闭的体系,HTC 的合作伙伴 Valve 则一直倡导更为“开放”的形式,试图尽可能的扩大 HTC Vive 的受众范围。早在今年 8 月份,Valve 就联合 HTC 将 Lighthouse 技术(HTC Vive 的房间定位技术)开放给了第三方开发商,帮助其研发可被定位的硬件外设。
162 0
HTC Vive 外设授权已达 300 个,一大批 VR 硬件即将到来

热门文章

最新文章