杨欣
2016年6月,在连续因自动驾驶造成交通事故,并导致驾驶者出现伤亡后,美国高速公路交通安全管理局(NHTSA)针对特斯拉的Autopilot系统功能展开调查。经过半年的调查,美国高速公路交通安全管理局在当地时间2017年1月19日宣布,并未发现特斯拉Autopilot功能存在問题,同时不会要求特斯拉对汽车进行召回。
事故原因
要理解这一事故的前因后果,需要简单回顾一下事件经过。2016年5月,一位名叫约书亚·布朗的驾驶者驾驶Model S与一辆卡车相撞,并在事故中丧生。当时布朗驾驶的Model S处于部分自动驾驶状态,这也是全球第一起因自动驾驶而致死的事故。当时,布朗开着他的Model S行驶在一条公路上,Autopilot处于开启模式,此时一辆拖挂车以与Model S垂直的方向穿越公路,Model S与拖挂车相撞,造成布朗死亡。
美国高速公路安全管理局的结论是,特斯拉Autopilot不是完全自动驾驶系统,它根本无法应对所有路况,司机不应该依靠它来防止此类事故。在接受调查时,特斯拉公司也向美国高速公路交通安全管理局下属的缺陷调查办公室提供了配置Autopilot技术的Model S和Model X等汽车在2014~2016年所有行驶里程和安全气囊相关的数据。
调查人员利用这些数据计算了Autopilot系统安装前后的撞车率,得出特斯拉安装了Autopilot系统后汽车更安全的结论。美国高速公路交通安全管理局在报告中也认同这一观点,自从特斯拉汽车于2015年安装了Autosteer(方向盘自主转向)软件以来,特斯拉汽车的撞车率已经下降了40%左右。Autosteer是Autopilot系统的功能之一,能够让特斯拉汽车保持在自己的车道上行使,即使遇到弯道仍能够让汽车自行转弯。
尽管美国高速公路交通安全管理局的调查宣告结束,并得出了对特斯拉有利的结论,但这并非终极结论,因为美国国家运输安全委员会针对这一事故的调查仍在进行之中。
另一方面,上述调查结果还不是事故的全部原因。根据特斯拉的调查,另一个原因才是此次事故的根本原因。强烈的日照和拖挂车白色车身让Model S的Autopilot系统摄像头短暂“失明”,未能够在白天强光下及时发现拖挂车白色侧面的反光,导致在自动驾驶模式下的刹车功能未能紧急启动。Model S与拖挂车相撞,其前挡风玻璃与拖挂车底部发生撞击,车主布朗不幸身亡。
这个原因既是人工智能的技术问题,也道出了人工智能的本质。既然特斯拉Autopilot没有错,人就有错。因为特斯拉Autopilot的摄像头有问题。但是,即便摄像头没有问题,特斯拉Autopilot是否能分辨出道路上的实体车和虚拟车,以及雨天和雾天强烈阳光照射后出现的折光甚至彩虹?
这个问题是要打问号的。因为,人不会完全教会自动驾驶汽车正确识别道路上的所有障碍物和危险情况。反过来也说明,这实际上还是人工智能的错误,因为它们还不能像人一样学习并获得符合道路实际情况的正确知识。
人工智能尚难比肩人类的智能
人工智能赖以立身的基础是机器学习(算法)和深度学习。对于前者,或许是人工智能的优势,因为在涉及数据和演算方面,人确实不是计算机的对手,因此当计算机掌握了某一游戏的所有算法、棋谱时,人类当然无法抵御人工智能。但是,在深度学习上,人工智能还处于非常幼稚的阶段,例如对图形和实物的认知,对逻辑推理的学习,以及对所有未知事物的学习和认知。
一个幼儿园的小孩看过一张猫的图片后,能马上辨认出另一张图片中的猫,同时几岁的孩子在生活中见过猫之后,在后来的时间看见猫就能辨认出来。但是,谷歌图像识别系统(一种应用人工智能)看过和学习过成千上万张猫的照片后,才能从图片中识别猫,但是准确率大大低于小孩。而且,即便在图片上人工智能能认识猫,在现实生活中未必能识别真实的猫,也即人工智能区别实物和图像或虚拟事物完全无法与人类相比。
特斯拉Autopilot在强烈阳光照耀下“亮瞎了眼睛”固然是技术原因,但也说明,即便它的摄像头没出故障,它学习和识别道路上的某些障碍物还不及人类的孩子。原因是,它可能没有遇到过诸如光的折射、彩虹一类的情况,而且人类还不足以教会它识别这类情况。即便汲取这次事故教训,改进了特斯拉Autopilot的摄像系统,使其能识别白色汽车和其他障碍物,并采取躲避或刹车,但是,遇到阳光照射到黑色、蓝色、红色或所有颜色的汽车时,特斯拉Autopilot的摄像是否不会出问题,而且都能识别出来?如果不能,车祸也难以避免。
现阶段,尽管深度思维(Deep Mind)公司设计的Master能连续战胜包括棋圣聂卫平在内的60名围棋大师,但总体而言,人工智能目前的智能还是非常低级,有时连婴儿的智商还不如,再加上技术问题,如特斯拉Autopilot的摄像头在强烈阳光反射白色物体后短暂失明,就更容易造成事故。
当然,强烈阳光反射白色物体也会让人的眼睛眩目而看不清前方的情况。但是,如果是车主布朗自己开车,在受到强烈的眩目刺激后就会产生本能的躲避行为,提前预判前面可能有障碍物,一是缓行,二是刹车,从而避免车祸的发生。
人工智能的学习广袤无边
这实际上涉及人工智能无论是算法还是深度学习的广度问题,凡是人工智能没有看过、学习过和接触过的东西,它都无法感知、辨认和识别,从而无法理解,因此难以形成正确的决策。
对于人工智能来说,这种学习的广度实在是广袤无边,凡是人类社会的东西和事物,都是其未学习和接触过的,就本质来说,即便人工智能学习了,能感知人类社会的东西,但其感知也与人的不一样。例如,战胜60位大师的Master并不知道它在做什么,只是在按一定的算法和程序在做决定。
对于它未学习过的东西,人工智能就会不不知所措,而且不知道逻辑推理,犯错误和发生事故也在所难免。2011年2月16日,在美國益智类电视节目《风险》上,经过3天(三轮)人机大战,IBM的超级计算机沃森(Watson)电脑战胜了人类顶级高手肯·詹宁斯和布拉德·拉特。但是,沃森在非常简单的一些问题和逻辑推理上却不如人类。
例如,在回答“一个语言的方言包括吴语、粤语和客家话,这种语言是什么”时,沃森答错,詹宁斯答对。因为沃森没有学习过吴语,在逻辑上并不理解吴语、粤语和客家话其实就是中国人除普通话以外的方言。
人工智能仍然值得探索
如果人工智能不具有像人一样的识别和辨认现实环境的能力,自动驾驶或无人驾驶就可能永远是一种理想。既然部分自动驾驶以及完全自动驾驶存在危险,为何还要研发这类产品并推向市场呢?
美国高速公路交通安全管理局的调查报告给出了一个答案,以特斯拉汽车行驶里程数和安全气囊数据为依据,对特斯拉Autopilot推送Autosteer这个软件前后汽车的事故率进行对比,汽车事故率从推送前的1.3次/百万千米下降到推送后的0.8次/百万千米。汽车事故率下降了近40%左右。特斯拉的CEO伊隆·马斯克称,即便退一万步讲,现在特斯拉的部分无人驾驶系统只比人工好1%,那么一年车祸导致的120万人死亡里面,人工智能也能拯救1.2万人。
另一方面,人工智能的探索也像其他学科的探索一样,只能积跬步至千里,聚小流成江海。如果把现实生活的路面情况的各种参数设计得更为全面,包罗万象,教会人工智能进行更全面和更深度的学习和分析,也许可以逐步达到与人同样的辨析路况的智能而不会出车祸。
当然,最根本的问题是,即便人工智能的深度学习能与人媲美,人类也不能完全把命运交给人工智能来处理。这才是发展人工智能的不可违背的核心原则。
特斯拉的Autopilot出问题,就是车主布朗非常依赖Autopilot的自动驾驶功能,一切交由Autopilot来处理,布朗在车祸发生前没有使用刹车,他最后一个动作是将自动巡航速度设置为74英里/小时(119千米/小时),但两分钟后就发生了车祸。然而,如果布朗是自己驾驶,他完全可以观察到那辆拖挂车,在事故发生前采取如刹车、转向等方式,遗憾的是,他并未采取任何有效措施。
所以,美国高速公路交通安全管理局在关于特斯拉Autopilot车祸报告中既指出Autopilot不存在导致致命车祸的缺陷,但也指出,在遇到交通路口时,人们不应当过度依赖Autopilot来检测相应的路况,因为车主布朗在撞上卡车之前,有充分的时间(长达7秒)来踩刹车。
【责任编辑】张田勘