机器人杀人:人工智能的冬天?

2015-09-10 07:22钟伟
方圆 2015年15期
关键词:杀人事故人工智能

钟伟

此次事件,之所有引起人们的高度关注,并被缺乏理性地无限放大,主要原因还是在于人们对于自己将来是否会被人工智能所“终结”的担忧而导致的

7月1日,德国汽车制造商大众称,该公司位于德国的一家工厂内,一个机器人“杀死”了一名外包员工。

大众发言人海克·希尔维格表示,这名员工于6月29日在保纳塔尔的工厂内丧生。希尔维格说,死者今年22岁,在安装静止的机器人时,被机器人抓住,挤向了一块金属板。检察官已经对事故进行了调查。在西方工厂,发生与机器人有关的死亡事故非常罕见,因为机器人和人之间有安全网笼,防止机器人与人有意外的身体接触。

这位發言人说:“我们初步的结论是人为失误,而不是机器人出了问题。机器人一般是按照输入的程序完成组装过程中的不同任务,而且是在封闭管制区域内抓取汽车零件进行操作。”据他描述,该名22岁的合同工人当时正在平时用来隔离工作人员和机器人的安全笼内设置机器人的操作程序,事故发生时另一名工人也在场,但因为身处安全笼外而安然无恙。

是“谋杀”还是安全事故

当英国《金融时报》一名记者将这则新闻发布在社交网络后,立即得到了多次转发,还引发某些网友对事件不太友好的议论和嘲弄。有人发现这名女记者与电影《终结者》中女主角Sarah Connor(人类反抗机器人领袖的母亲)名字非常相似,因而认为此事诡异。与此同时,“机器人杀人案”也似乎成了不谋而合的定论。

机器人“杀死”人无疑是一个令人震撼的消息,似乎意味着《终结者》所预言的机器人开始崛起并与人类为敌进而战胜人类的故事将成为现实。然而,在事件真相尚未完全调查清楚之前,断言机器人“杀人”似乎言之过早。机器人杀人,是否意味着“终结者”已经出现?对工业机器人有所了解的人,估计都会给出否定的回答,因为目前最先进的工业机器人也不具备“蓄意杀人”的智能,这只是一次工业事故,将此事件定位为“机器人杀人”,更多的只是“标题党”博出位的一种行为而已。

而且,涉及机器人的人类死亡事件,其实并不是什么新鲜事。自动化装备导致的工厂致命事件可追溯至几十年前,早在20世纪70年代就发生过自动化组装生产线伤人的事故。

大众汽车机器人“杀人”事件其实与1981年日本工人发生的意外事故如出一辙。然而34年过去了,“机器人杀人”、“杀手机器人”这样的描述却仍未消失。

人工智能vs机器人

此次事件,之所有引起人们的高度关注,并被缺乏理性地无限放大,主要原因还是在于人们对于自己将来是否会被人工智能所“终结”的担忧而导致的。

已有很多人提出并表达过这样的忧虑,英国理论物理学家霍金就表示,未来100年内,人工智能将比人类更为聪明,机器人将控制人类。2013年,霍金还与特斯拉CEO伊隆·马斯克(Elon Musk)共同发表公开信,认为人工智能的发展应受到控制。如果智能机器无法保障安全,人类可能陷入黑暗的未来。

具体而言,人工智能和机器人有什么区别呢?人工智能(Artificial Intelligence,简称AI)是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。

“机器人”(捷克语Robota)原意是用人手制造的工人。该词源于捷克作家卡列尔·查培于1920年创作的一部名叫《洛桑万能机器人公司》的幻想剧中。机器人是自动执行工作的机器装置。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。它的任务是协助或取代人类工作的工作,例如生产业、建筑业,或是危险的工作。

因此,人工智能其实就是对人的意识、思维的信息过程的模拟,而人工智能机器人就是像人类一样具有自我意识的机器人。

机器人“杀人论”

不过,目前工业环境下的机器人和科幻电影中的拟人机器人还是差别巨大的。这种根据专业性功能需要设计出来的工业机器人,没法和根据美术设计的“恐怖谷定律”设计出来的拟人机器人比亲和力。(恐怖谷理论是一个关于人类对机器人和非人类物体的感觉的假设,它在1970年被提出。当机器人与人类相像超过一定程度的时候,他们的反应便会突然变得极为反感。哪怕它与人类有一点点的差别,都会显得非常显眼刺目,让整个机器人显得非常僵硬恐怖,让人有面对行尸走肉的感觉。)

此次德国大众公司出事的这台机器设备,应该就是工业机器人。该机器设备依赖于特定编程程序指令的控制,而非人工智能的自我控制。在此事件中,更大的可能性是技术员在安装调试过程中,意外触碰或启动了某些工作程序,致使机器人在指令的驱动下,发出一些动作,而这些动作恰巧又撞到并勾起正在范围内工作的技术人员,由此对其造成了致命的伤害。

在所有关于“机器人杀人”的言论中,我们不难发现:大家都在或有意或无意地将因机械故障导致的安全事故与有意识行为的“杀人”事件混为一谈。所谓安全事故,是指生产制造的过程中突然发生的,伤害人身安全和健康的意外事件;而杀人事件则是有意识的,在主观行为驱动下导致的事故,两者之间有着本质区别。

如果因此非要给这台机器设备定个杀人的“罪名”,那估计只能以“阴谋论者”的逻辑,生产这台机器设备的厂家,在制造的过程中便植入了“杀人”的指令。否则,仅凭当前人类在人工智能方面的技术发展,是很难支撑起“机器人杀人”论调的。

其实,但凡有点生活经历或经验的人都知道,机器设备的操作是有风险的。而且,在我们的日常工作和生活中,因人员的操作不当或失误导致的“机器人杀人”事件时有发生。

“终结者”现阶段不存在

若工业机器人是一种工具,一定程度上解放了工人的双手,那人工智能则是另一种工具,它在一定程度上替代部分脑力劳动,创造更高效的服务业经济。接下来,人工智能的商业化发展将会引起服务业的重点关注,工业机器人替代人类完成了很多重复劳动、体力劳动、危险劳动等工作,而人工智能的市场价值不只是“替代”关系那么简单,它除了可以取代一部分基础工作外,还能为高端工作提供“智力”辅助,其产生的价值和影响都将更为深远。

但这种影响有大到像诸多电影演绎的那样,可以超越甚至控制人类的程度吗?其实,这种发展远比我们幻想的要慢。

致力于人工智能机器人研究的科学家认为,没有必要大惊小怪。人工智能领域的学者、中国科学院院士谭铁牛说过,当前的人工智能有智能没智慧、有智商没情商、会计算不会算计。要想造出超越人类智能的机器人,人类在科学研究上还有不小的距离。在看得见的未来,人工智能的整体水平还难以超越人类智能,不足以威胁人类的生存。

2014年,研究人员对世界上53个搜索引擎(人工智能)的智商与人的智商进行了测定比较,结果发现,美国的谷歌搜索智商最高,达到26.5,中国的百度智商次之,为23.5,智商最低的是新西兰的搜索引擎SearchNZ,为6。但人的智商是,18岁为97,12岁为84.5,6岁为55.5。因此,即便谷歌的高智商也只能相当人类的幼儿,在智商上,智能机器(人)是难以与人为敌并杀死人类的。

未来人工智能机器人是否会“蓄意杀人”,或是奴役人类?业内至少有两派观点。一派认为计算机程序无法具备人的理解能力,因此担心用集成电路、软件程序等实现的人工智能威胁人类,是杞人忧天。例如,美国哲学家塞尔提出了“汉字屋论证”(也称“中文房间思想实验”),试图证明计算机程序尽管能对各类问题输出正确的答案,但它并不“理解”这些问题。另一派观点与之针锋相对,称为“强人工智能”,认为计算机程序与人脑思维没有本质区别,人工智能发展到一定阶段后,就具有推理、学习和解决问题的能力,并将拥有自我意识。

一旦拥有了自我意识,智能机器就可能反叛人类。霍金、盖茨、马斯克等科技界名人对人工智能的担忧,正基于此。人造机器真的会如美国奇点大学校长库兹韦尔预测,在本世纪中叶前超越人类,“进化”成高等智能生命?

如果只是出于这种可能性,就放缓人工智能技术的研发,那便是因噎废食了。事实上,尽管盖茨加入了反人工智能阵营,但微软正在这一极具商业前景的领域投入重金。

“人工智能的冬天”?

因此,与其鼓吹“机器人杀人论”,不如关注一下这次事故后的具体问题以及解读方式。这类事件以前发生过,以后也还会再发生。尽管安全标准持续提高、人机交互中发生事故的可能性在下降,这种事件也还是会越来越频繁,因为机器人的数量在不断增加。

这意味着,对这类事故做适当的解读是十分重要的。而要做到“适当”,关键是要用准确和恰当的语言来描述它们。虽然我们感觉,把德国大眾汽车工厂事故称为“机器人杀死工人”是合理的——大多数报道也的确这样做了,但是这样做却是在误导,甚至近乎不负责任。相比之下,把表述改成“员工在机器事故中丧生”要好得多。

诚然,把报道标题改成上面这样就没那么抓人眼球了,但这正是问题的关键。事实是,不管人们从科幻小说看到并相信的机器人形象可能是什么样子,也不管机器人在遥远的将来可能做些什么,我们认识中的“真实意图”、“情感”和“目的”,现在的机器人还通通没有。而与最近那些危言耸听的说法相反,它们在近期也不会获得这些能力。

汽车工厂中的机器臂,目前并不具备目的、意图或情感这样的东西,在短期内也不会有。这些机器人只能以飓风(或者汽车和手枪)“杀”人的方式去置人死地。它们无法像某些动物那样杀人,更别提人类意义上的“谋杀”了。然而,大多数人看到“机器人杀死工人”时,首先涌入他们脑海的,却偏偏就是“谋杀”。

坚持要使用正确的表述并不是在咬文嚼字。“机器人杀人”这样的说法冒着很高的风险。一方面,对机器人毫无根据的恐惧感,可能会导致另一个毫无必要的“人工智能的冬天”出现——技术的开发将不再获得研究经费。这将会延迟或拒绝掉机器人所能带给工业和社会的大量好处。

但即使你对机器人带来的益处不太乐观,你也仍然应该正视这个议题。因为机器人并没有责任感,人类才应该为机器人做的事情负责。然而,随着机器人越来越普遍,人们会越来越觉得它们真的具备自主性和意图,因为它们看起来似乎有能力并且应该为自己负责。

然而机器人并没有责任,也没有负责任的能力。

虽然可能有一天,这些看上去理所应当的事终将成为现实,但在很长很长的一段时间内,这些“看起来是”的观点还是错的。现在,我们甚至已经试图把人机交互分成我们负责的部分和它们负责的部分,这不但引发了让机器人当替罪羊的危险,而且放过了那些本应负全责的人类设计者、配置人员和用户。

在大众汽车的事故中,一位公司发言人称:“最初结论表明,人为错误才是罪魁祸首,而不是机器人的问题。”在其他报道中,则说称是人为错误而非机器人的“过失”或“责任”。这样的语言其实在暗示,在其他情况下,机器人可能会被认为该为事故负责。

如果是机器人存在问题,那么不管问题是错误的材料、失灵的电路板、糟糕的程序还是安装或操作协议上的不良设计,这个问题仍然会是人为的错误。暗示机器人存在“过失”,实际上是在免除真正与需要为机器人事故负责的人类的责任。

机器人的法律问题

除此之外,这起悲剧更多引发的是人们对机器人相关的法律问题的关注。德国检察官已经对事件展开进一步调查。检察官也在考虑是否应提出控诉,如果提出,起诉的对象又会是谁。

此外,对大众工厂出现的这一事件,机器人技术专家们也倾向于与机器人无关。

英国萨塞克斯大学计算机科学与人工智能专业讲师布莱·惠特比(Blay Whitby)博士这样认为:“在当今科技水平下,我们必须明白机器人不应当被‘责怪’,它们尚未拥有相当的决策能力。这次不幸的事故从技术层面和道德层面来说,遇难的机器操作者难免其责,因为事发时他没有使用安全防护措施。而事故中更复杂的关键点在于‘安全防护’是由电脑软件提供的,那名工人正在设置的过程中,因此机器人出错也更加情有可原。”他还说:“当今世界自动化程度日益提高,我们将越来越多的决定权交给了各种各样的机器。记者们应当多关注这类事件,以提高公众对科技的认知,以及公众对道德事件的监督。”

英国谢菲尔德大学人工智能和机器人技术专业名誉教授诺埃尔·沙克(Noel Sharkey)则认为:“机器人并不按照自己的意愿行事,除非被输入了程序,否则不会袭击人类。工业用机器人有可能非常强大,通常有安全性设计。但是,在操作或编程中肯定也会出现人为错误,或者机器失灵,导致发生事故。当机器人技术不断革新,我们可能会看到更多类似的事情发生。”

显然,专家们的观点多倾向于机器人是无辜的。毕竟,目前现实中的机器人的智能程度尚未能完全摆脱人类的操控,那样的画面还仅限于电影作品中的遐想。

一方面,智能机器的设计和研发应当更加注重安全性能,防止意外发生,以及尽可能地降低造成人身伤害或财产损坏的风险;另一方面,随着智能机器的迅速发展和应用,或许我们从未面临的法律问题将不断出现,判定相关法律责任的标准和依据需要重新审视和探讨。

猜你喜欢
杀人事故人工智能
学中文
绑架杀人潜逃24年终落网
废弃泄漏事故
人工智能与就业
小恍惚 大事故
数读人工智能
可怕的杀人风
杀人的泳池