Felix
平时用电脑,我保留了一种习惯:能用键盘解决的事情,就不依赖鼠标。虽然刚开始接触电脑的时候已经进入了图形界面操作系统的年代,被Windows 3.1和Windows 9.5虐过无数遍的我深深知道熟悉DOS(磁盘操作系统)操作的重要性。在DOS环境下,鼠标基本是个摆设,所有的命令都得挨个字符在键盘上敲出来。
在图形操作系统中,对鼠标的倚重是显而易见的,甚至在输入法里面内置了虚拟键盘。这意味着,如果我有大把闲暇,这篇稿子都可以用鼠标“点”完。
触屏技术的成熟,带来了智能移动设备的大行其道。怀旧的人会用蓝牙键盘来连接移动设备,体验下敲敲打打的生活,但总给人格格不入的感觉。
键盘、鼠标、触屏,人机交互的方式越来越直观,不变的是我们低垂的头和挥舞的指。在这几种交互模式中,物理接触是无法逾越的。相比起来,人与人的交互也是在经历了指手划脚、嗷嗷乱叫的阶段之后,才进化到口语交流。
机器跟人直接对话,并听从命令来执行相关操作,早就是科幻作品中必不可缺的场景。但在现实中,语音识别的发展一开始并不被看好。上世纪60年代,美国贝尔实验室的语音识别项目曾被批为“想从水里变出油,从沙里淘出金”。后来得益于美国国防部高级研究计划局(DARPA)的大规模资金注入,才推动了语音识别领域的一些关键性研究。真正给语音识别带来革命性变化的是人工神经网络(Artificial Neural Networks),它也是击败李世石的人工智能Alhpa Go背后的核心依托。
谷歌、微软、IBM、百度、苹果、亚马逊等公司都在语音识别核心技术上投入巨大,也推出了各自的虚拟语音助手:苹果的“Siri”、微软的“Cortana”、谷歌的“Google”、百度的“助手”(为啥不叫度娘?)、亚马逊的Alexa。除了Alexa以外,这些助手主要是以智能移动设备为家,其实并非最佳的使用场景。
基于Alexa的Echo则一开始就定位于家居环境,在消费层面吸引了大量眼球。初看起来,Echo就是个圆柱音箱,可以用来播放音乐。实际上,Echo可以与其他线上服务(天气、新闻等)甚至智能硬件(空调、电视等)建立联系,内置的Alexa接收到你的语音指令后会在云端执行。这就好像给了你一个R2D2,虽然还不能端茶倒水,替你读读报纸还是不在话下的。
当传统家电越来越智能化之后,我曾经开心地以为满屋找遥控器的日子已经远去,一转头却又陷入了满屏找App的另一个困境。在打开App之后,模拟的遥控器界面立刻让我崩溃了。
继亚马逊的Echo之后,谷歌也将推出Google Home,加入客厅争夺战。用过Google Now,让我对语音交互场景充满期待。另一个好处是,回家之后不用低头翻手机,或许连家庭矛盾都会减少。