人和机器如何交流?这就如两个语言不通的人打交道需要翻译一样,人机交互手段充当的就是“翻译”的角色。随着计算机技术的进步,人机交互方式也在不断改善。
传统电脑时代,我们和面前的显示屏幕打交道,基本依靠键盘和鼠标;移动时代,虽然实体键手机还存在,但触屏成了主流交互方式。而游戏玩家最常用的交互工具是手柄。进入“虚拟现实元年”,头戴式显示器逐渐走进人们的生活,屏幕就在眼前。较之于平面显示屏,虚拟现实世界把用户带入了三维空间中,因此,键盘、鼠标、触屏和手柄,已经很难满足用户的需求,人机交互手段也迫切地需要“更上一层楼”。
当前,虚拟现实行业还处于发展早期阶段,交互方式也没有统一的标准,但手握控制器颇显“无敌”。用户手持控制器做出各种动作或发出指令,就可以流畅、自如地驾驭虚拟现实设备。
不过,控制器再精准也需要手持。目前,有不少团队在尝试更加自然的交互方式,比如空间定位和动作捕捉。空间定位就像是电脑中的鼠标指针,能够将用户在实际空间的位置移动同步到虚拟世界;而动作捕捉则更像是鼠标的点击动作或敲击键盘,用户可以藉此输入信息。这两者通常结合在一起使用。动作捕捉一般是全身的,具体到某一个手指便叫做手势控制。手势控制分为两种,一种使用光学跟踪,另一种是将传感器戴在手上的数据手套。
眼球追踪和语音交互也是比较前沿的交互方式。眼球追踪能检测人眼的位置,为用户当前所处视角提供最佳的三维效果,使虚拟现实头戴显示器呈现出更自然、延迟更小的图像。同时,由于眼球追踪技术可以获知人眼的真实注视点,从而得到虚拟物体上视点位置的景深。所以,眼球追踪技术被认为是解决虚拟现实晕动症问题的一个重要方向。
语音交互在移动时代就已经存在。由于种种原因,语音交互在移动时代略显鸡肋,不过在虚拟现实中,语音交互的价值被重新突显。在虚拟世界中,用户可以四处环绕观看,语音交互犹如聊天说话一般,既自然,也不会干扰用户观察周遭的世界。
事实上,除了上面提到的这些,还有不少剑走偏锋的尝试,比如肌电模拟、万向跑步机、布满传感器的体感外套……交互是人机“对话”的桥梁,而在虚拟现实走红的时代,这座桥梁的形态更具想象空间。