黄耀鹏
3月18日,优步自动驾驶测试车在亚利桑那州凤凰城钱德勒市,撞死一名推着自行车的行人。经过近两个月的事故调查和数据分析,优步认为,车辆传感器已经在事故前识别出行人,但控制软件将其视作“软障碍物”,类似塑料袋、纸张一类不会对行驶构成影响的物品,而非活生生的人。控制软件决定不“立即”采取行动,悲剧就这样发生。
再远一点,特斯拉在佛罗里达州和中国的河北省发生的自动驾驶车祸,都因为未能准确辨识障碍物。前者将白色大卡车与天空混淆,后者则将清扫车识别成公路上空的广告牌。
决策系统停滞不前
这几起事故的共同点,都是传感器发现了障碍物(人),但都没有准确辨识。在硬件冗余的情况下,用于决策的软件显得能力不足。现在的AI就像一个眼明手快的家伙,偏偏脑子不大灵光。引发的后果是致命的。
这和2015年8月的Waymo测试自动驾驶车时表现出来的水平毫无二致。近3年时间原地踏步,结论相当令人沮丧。
在得州奥斯汀,一辆谷歌自动驾驶汽车探测到了路口的绿灯,即将通过十字路口的那一刹那,垂直方向上驶来一辆自行车,这辆自行车的骑手并没有像普通自行车的骑手那样放下一只脚来支撑自己,而是站在踏板上通过来回的前进后退来控制平衡。
这一行为对于人类司机来说很容易理解,但是却难倒了Wavmo自动驾驶系统,系统判定骑手要闯红灯,就停下来等待自行车通过。当那名骑手开始后退時,Wavmo测试车再次试图前行,刚没走几步,骑手又前进了,刚起步的测试车就停在了路中间。两分钟之内,测试车未能成功通过路口,眼睁睁看着绿灯变成红灯,测试车被困在路中间,成功阻碍了两个方向上的行车。
闯祸的优步测试车则正相反,为了防止“软障碍”影响行车,优步“滤除”机制被设定得过于“大条”。
人类能够轻松辨识、理解的事物,在自动驾驶系统看来,已经“超纲”。AI技术看上去并没有什么进展。照此下去,全栈自动驾驶(L5级)很难实现。
问题的关键显然在于AI,如何能让AI获得不亚于人类的智能,是全人类的课题。
TPU和AutoML
谷歌今年的I/O大会上,CEO皮查伊声称的“AI First”得到了一系列产品的支持。他发布了TPU3.0和AutoML将AI推向“自我加速”的境界。
谷歌在2016年发布了初代TPU(专用深度学习加速芯片),此后以每年迭代一次的速度发布新版本处理器,今年则是TPU3.0版。更重要的是,以TPU架构为核心的数据中心已经搭建完成。
当然,有些学者和工程师对强AI的出现怀有强烈的忧患意识,包括刚刚去世的霍金。看上去,强AI正在谷歌的推动下接近面世。人类历史上还从未面对过智商比自己高的“思维体”。阿尔法狗只是TPU的初级应用,在强AI的加持下,L5级自动驾驶第一次有了现实可能性。
设计神经网络非常耗时,对专业能力要求非常高,只有一小部分科学家和工程师能胜任。而TPU借助AutoML软件系统,则能自行搭建神经网络。也就是说,谷歌让神经网络去设计神经网络。
在多次重复后,主控网络逐渐在已知验证集合上更准确地生成、训练、测试新架构。实践表明,运行在AutoML的TPU设计的神经网络准确率,不亚于顶尖人类专家设计的网络,而完成速度远超后者。
强Al强在哪里?
TPU云的深度学习能力令人吃惊。谷歌声称无人驾驶对于行人的判断错误率下降了100倍。同时,仍能保持类似人工驾驶的流畅性和容错性。
在当前无人驾驶的场景中,行人的识别始终存在问题。由于光线、距离、天气和遮挡等原因,行人有时在AI“看上去”不像人。行人如果穿着奇装异服,譬如一身“恐龙装”,或者打扮得像蝙蝠侠,决策系统也能在任何情况下将其辨识出来。
更难的是对行人和其他交通参与者行为的预测。在十字路口,如果左右两侧本来是红灯不应该有车出现,结果突然窜出了闯红灯的车,人类驾驶员可能措手不及,但AI比任何人类都看得远、看得准,对非法闯入的车和人未来几秒钟的轨迹做出了预测,并及时采取停车等避让措施。
神经网络的自我进化能力将在大交通网络下得到验证,它通过观察无数交通场景,学习到对人类行为的预判。可能一夜之间,AI就已经完全不同。
就像阿尔法狗,李世石在与阿尔法狗下了一天围棋之后,晚上只能疲惫地睡下。而阿尔法狗则继续磨练自己的棋艺,它与自己对弈了100万盘。是的,你没看错,100万盘。第二天太阳升起来的时候,李世石和昨晚的李世石几乎没什么不同,但阿尔法狗已经是全新的、棋艺更精进的阿尔法狗。
新一代TPU在围棋上可以轻松战胜去年的阿尔法狗,因为其运算速度提升了80倍,更因为它在深度学习上的速度几乎令人无法理解。只要提供合理且丰富的训练资料,强AI就能在很短时间内迅速学会一切。深度学习正成为使自动驾驶车辆得以运行的软件的中坚力量。
深度学习将帮助汽车逐步走向终极的L5级,这是无人驾驶的终极梦想。强AI的到来,也意味着人类作为驾驶者的地位被最终取代。