10月19日,2019世界VR产业大会在南昌隆重开幕。本次大会由工业和信息化部、江西省人民政府联合主办,由中国电子信息产业发展研究院、江西省工业和信息化厅、南昌市人民政府和虚拟现实产业联盟承办。新西兰皇家科学院院士、奥克兰大学教授 马克·比林赫斯特出席大会主论坛并发表演讲。 马克·比林赫斯特表示,从50年前笨重的显示器到现在像一个眼镜一样的设备,我们会发现虚拟现实硬件设备改变得不多。 50年前,你就能看到可以控制的手持VR设备。50年过去了,我们同样有这样的设备。大家在展会上都用手持的手柄作为控制器,相当于头戴式的展示器,包括控制器,还可以用语音手势控制。除此之外,还可以用触摸屏触摸的方式,所以我们在思考,是否以用不同的方法与AR、VR进行互动。 马克·比林赫斯特用一段小视频举了个例子——用一个手势跟VR互动。他讲解到,一只真的人手在动,会产生虚拟菜单;另外一个虚拟的手可以和虚拟菜单进行互动,虚拟现实和真实的手可以互通有无。“在虚拟的控制中,我们希望能够把不同手势和其他设备联合在一起。大的动作容易识别,小的动作就不灵了,两个设备结合在一起用,有一个专门的装置,微小运动的细节可以用雷达探测出来。我们把手指的运动结合在一起,这样一来就可以把一个物体移到你想去的地方,而且能够精准地进行控制,把两个自然界面结合在一起。” 马克·比林赫斯特演示了另一段小视频时,一个人用手把物体移动了,另外一个动作是非常微小的右手的动作,然后调整实体物质的定位,大家可以看到他抓举的动作,抓了外空飞船。然后他的手慢慢地、小小地动了一下,移动了飞船在空中的站位。他还可以用手指来进行选择,用什么样的手势都能够精准地定位物体。除此之外,大家可以看到一个虚拟木偶,人们可以用手来移动、控制这个木偶,用微小的动作控制移动的速度。他表示,这不仅仅能把我们的手势结合在一起,还可以把技术和手势放在一起,通过语音进行控制,语音发出指令指向这个东西,用手把这个东西放到另一边,然后用语音加上手一指,就形成自然界面的结合,就可以控制了。 马克·比林赫斯特表示,最近有一些公司在研究怎么样通过对眼球的追踪进行展示,并已经做了很多互动研究,从他所举的案例中,可以看到用特定的手势所产生动画的效果。他表示,手势和语言如何进行结合其实很难完全精准地控制,在这个过程中,人们用多模式的输入端可以产生一个精细管理的混合现实的模型。这样做速度更快,错误率会降低30%。大家通过眼球盯着、凝视、互动,这样一些解决方案在市场中已经能够看到。其中一个方法是双瞄准线对准,第一个是对准一条线,但是随着眼睛凝视一个物体,另外一个十字坐标会跟上,形成两个双瞄准。 马克·比林赫斯特接着用另一个小视频举例表示:“你可以用点头,并且把眼球一转,然后就可以选择希望动的物体。在研究过程中我们发现人们有偏好,喜欢用双十字线、双对准来进行互动。除此之外,可以把凝视和手势结合在一起。比如可以通过凝视看这个物体,你发现自己的眼球在不断动的过程中,可以凝视向下。通过用手来动,借助双结合、精准的定位,这个物体的定位可以更加准确。” 最后,马克·比林赫斯特用一段小视频做了结尾。在这段视频中,用的是混合现实,通过头戴式的显示器展现了混合现实。可以看到,首先是凝视,然后再用手点击,就可以用手控制物体。按一下,然后手移动之后,可以看到目标和物体就能够对齐,所以像混合现实就可以用眼神结合手势实现控制。那么未来会怎么样?马克·比林赫斯特表示,他的实验室也在研究,除了把眼神和手势结合在一起,是否其他模式也是可行的。“我们研究了大脑的活动,通过脑电图的测量,就可以仔细研究。通过人们对于虚拟环境的反应,我们可以建立自然的界面,同时也可以使用眼神跟踪等各种各样测量方式,来帮我们做这方面的研究,我也非常期待大家在VR自然界面方面取得成功。” |