邱江勇
10月19日,2019世界vR产业大会在南昌召开。本次大会由工业和信息化部、江西省人民政府联合主办,由中国电子信息产业发展研究院、江西省工业和信息化厅、南昌市人民政府和虚拟现实产业联盟承办。新西兰皇家科学院院士、奥克兰大学教授马克·比林赫斯特出席大会主论坛并发表演讲。
采用不同方式与VR互动
马克·比林赫斯特表示,大家在展会上用手持的手柄作为控制器,相当于头戴式的展示器,包括控制器,还可以用语音手势进行控制。除此之外,还可以用触摸屏,人们可以用不同的方法与AK、vR互动。
马克·比林赫斯特用一段小视频举了个例子——用一个手势跟vR互动。他讲解到,一只真的人手在动,会产生虚拟菜单;另外一個虚拟的手可以和虚拟菜单互动。在虚拟的控制中,我们希望能够把不同手势和其他设备结合在—起。大的动作容易识别.小的动作就不灵敏了,而将两个设备结合在一起,即可将微小的运动细节用雷达探测出来。这样,就可以精准地控制物体的移动,把两个自然界面结台在一起。
马克·比林赫斯特还演示了另一段小视频,人们可以用手移动、控制一个虚拟的木偶,并用微小的动作控制移动的速度。他表示,这个视频中将技术和手势放在一起,通过语音进行控制,语音发出指令指向这个东西,用手把这个东西放到另一边,然后用语音加上手一指,结合成自然界面,就可以控制了。
用眼球进行控制
马克·比林赫新特表示,最近有一些公司在研究怎样通过对眼球的追踪进行控制,并已经做了很多互动研究,从他所举的案例中,可以看到用特定的手势所产生动画的效果。他表示,手势和语言进行结合其实很难完全精准地进行控制,在这个过程中,人们用多模式的输入端可以产生一个精细管理的混合现实模型。这样做速度更快,错误率会降低30%。大家通过眼球凝视并互动,这样的解决方案在市场中已经能够看到,其中一个方法是双瞄准线对准。
最后,马克·比林赫斯特用一段小视频做了结尾。在这段视频中,展示的是混合现实。人们可以看到,首先画面中的人凝视物体,然后再用手点击,就可以用手控制物体了。按一下,然后手移动之后,便可以看到目标和物体对齐了。因此,混合现实可以用眼神结合手势实现控制。那么,未来会怎样?马克·比林赫斯特表示,他的实验室也在研究,除了把眼神和手势结合在一起,是否其他模式也可行?“我们通过对脑电图的测量研究了大脑的活动,通过人们对于虚拟环境的反应,建立起自然界面。同时也可以使用眼神实现各种各样的测量方式,我也非常期待大家在VK自然界面方面取得成功。”马克·比林赫斯特说。