克里斯·巴拉纽克
自动驾驶需要人类对机器完全信赖。
当法航447号班机以近300公里的时速坠向大西洋时,飞行员皮埃尔–塞德里克·博宁在全力与飞机控制系统搏斗。故障原因很明显,由于飞机部件结冰导致自动驾驶系统突然关闭,之后博宁和他的机组成员接管了飞机。当时的情况需要飞行员进行手动操作。
飞行员对这种状况缺乏经验,他们挣扎着想把飞机稳住。驾驶舱的电脑不断涌现出混乱的信息和警报,而且电脑没有提示他们飞机已经处于失速状态。黑匣子记录下了博宁的最后一句话:“我们要坠机了——这不可能。到底怎么回事?”
那天是2009年6月1日,机上的乘客和机组成员全部遇难。当发生这种人类和机器都牵涉其中的事故时,它的根源通常是多方面的。但是,分析人员把法航447航班空难的部分原因归咎于对机器的过度依赖和信任——飞行员期望自动驾驶系统会一直正常运转、信息系统始终能提供精确的信息。而过度依赖技术造成人员伤亡的案例远远不止这一起。
科学家对“自动化偏见”的现象进行了深入研究,发现它有时还会导致“自动化自满”,即当计算机主导工作时,人们较难发现其中的故障。不过,令人惊讶的是,人类过度信赖机器的倾向或许直接受到了数百万年来生物进化的影响。
俄克拉荷马大学的帕特里夏·阿德雷在一本关于人类为何过度信任机器的书中写道:“过分信赖技术导致的错误比例高得令人吃惊。”她认为,人们普遍缺乏判断一项具体技术的可靠性的能力。它的影响是双向的:我们有可能在计算机对我们有利时拒绝它的帮助;也可能盲目信任这种设备,直到它最终伤害我们的利益乃至生命。
作为与人类亲缘关系最近的物种之一,黑猩猩的行为或许能提供一条线索,帮助揭开我们不擅长评估机器可信度的原因。这可能是因为,相比机器,我们更倾向于评估其他的同类。
最近,研究人员在肯尼亚的一个动物保护区进行了一项实验,他们制作了一个设备让黑猩猩可以拉动机器上的绳子获得食物奖励。拉动第一根绳子会得到基础的奖励——一片香蕉;拉动第二根绳子的奖励更诱人,是两片香蕉和一片苹果,可能由机器发放,也可能由黑猩猩的同伴发放。
日本一家动物园试图让黑猩猩学习使用自动售货机。
第二根绳子的另一端有时是机器,有时是另一只黑猩猩,但是两者不会同时出现。然而,有时机器会不发放奖励,有时另一只黑猩猩会选择把奖励独吞掉。因此,拉动第二根绳子可能获得更多的奖励,但这却是一个更具不确定性的选择。
这样,参与实验的黑猩猩面对的条件可能是社会性的或者非社会性的。如果想有机会获得更多的食物奖励,它们就需要信任那台机器或者另一只黑猩猩。
研究表明,当由黑猩猩的同伴负责递出食物时,黑猩猩们不太倾向于选择第二根绳子。它们拒绝参与社会性实验的次数占12%,而在机器掌控的非社会性实验中,它们抗拒的次数只占4%。也就是说,它们更信赖机器。
马克斯·普朗克人类发展研究所的洛乌·豪克斯和同事们设计并进行了这项实验。她说:“当黑猩猩们发现它们面对的不是机器而是另一只黑猩猩时,它们会更加犹豫不决。”实验表明,社会风险在黑猩猩和人类生活中发挥着重要的影响——目前只有为数不多的研究揭示了这一点。
这种心理被称为“背信规避”,豪克斯解释道:“害怕被另一个人(或者另一只黑猩猩)欺骗的心理会引起更强烈的情绪。”她打了一个比方:如果你把钱投进自动售货机,它却没送出你要的饮料,毫无疑问,你可能会生气。但不妨想象一下,假如酒保收了你的钱,然后当着你的面喝掉了你点的可乐,你是什么感觉?你大概会气疯了。这是当然的,因为自动售货机没有自作主张欺骗你,它只是没有成功发出商品;而酒保把你点的东西喝掉时,他是知道这会让你生气的。
不过,研究团队并没有止步于此。他们又进行了另一个涉及黑猩猩的实验。由于参加过第一个实验,黑猩猩们已经理解当它们选择不确定的选项时,有多大可能获得更多的食物奖励。实际上,不確定的选项已经不再是完全不确定的了——黑猩猩们已经意识到它们在冒什么样的风险。
但这时,出人意料的结果出现了。黑猩猩们不再区分社会性和非社会性的选项,它们对机器似乎不再表现出比对同类更多的信任了。
生活中,盲目相信导航系统可能会让人陷入麻烦。
“这就是为什么我们觉得这个发现令人振奋,黑猩猩们竟然能够在面对很多不确定性的情况下区分社会世界和非社会世界。”豪克斯说。
佛罗里达理工学院的心理学家达比·普罗克特认为,只要思考一下与社会环境打交道对灵长类动物有多重要,这就说得通了。
“当面对机器时,不存在对未来的影响。”她解释道,“你不必担心额外潜在的社会成本。”毕竟,参与实验的黑猩猩们往往在实验结束后还要回去和它们的同伴相处——任何因参与实验而引发的不愉快都可能对它们的关系产生后续影响。
普罗克特和同事们之前进行过类似的测试,他们同样发现,相对于同伴,黑猩猩在寻找食物奖励时更容易相信物品。普罗克特提到,当一只黑猩猩没能从同伴那里得到本该属于它的食物奖励时,沮丧的黑猩猩会向同伴吐口水来表达自己的感受。她说:“这是一种常见的不高兴的表现。”
普罗克特对实验中的黑猩猩是否真的更信任机器持保留态度。毕竟,这种现象也可以被描述为,只要没有社会同伴参与,个体就不会对糟糕的待遇反应那么激烈。
“我们并不是相信机器一定会给我们好的回馈,有可能只是认为机器不具备情绪,所以我们只是更倾向于在非生命物品这里赌一把。”她猜测道。
无论如何,进化似乎影响了灵长类动物面对不确定性时的意愿——它取决于我们是否感到自己承担了社会风险。
图卢兹高级研究所的弗朗西斯卡·德·佩特里罗从事灵长类动物研究,她认为,进化并没有让我们意识到,被机器背叛的代价可能相当惨痛。在过去的数百万年中,我们并不需要像评估同类一样去评估机器,因而没有进化出这项能力。而如今,技术已经能对人类生活产生巨大影响,我们可以说还是需要评估机器的能力的。
这其中还涉及一些其他的因素。除了进化,我们是否愿意信赖机器还受到个人相关知识储备和文化期望的影响。2019年的一项研究表明,人们在打字聊天时,如果认为自己是在和电脑而不是和另一个人沟通,那么他们在对话中泄露自己信用卡信息的可能性会提高29%。研究人员发现,对那些先入为主地认为机器比人类更可靠的人来说,这种影响甚至更加明显。
话说回来,有时候人们也会对技术表现出强烈的不信任感。许多调查结果表明,人们往往对自动驾驶车辆或者把工作移交给机器完成感到不适。我们总是对新技术怀有疑虑是有多方面的原因的——可能是害怕被自动机器取代后会失去自己的部分角色;也可能是不相信计算机在执行任务时具备足够谨慎的态度和灵活的技巧。如果你看过上百个机器人摔倒的视频,或者遇到过一台顽固地拒绝正常运转的计算机,就会觉得人们对机器的抗拒并不令人惊讶。
德国比勒费尔德大学的社会心理学家菲利普·库尔姆斯曾经研究过影响个体对某项技术信任程度的因素。他和一名同事开发了一个类似俄罗斯方块的电脑游戏,其中,电脑在与玩家组队时也可以控制一些拼图碎片。如果电脑玩得很好,人类玩家就能获取更珍贵的碎片,他们的团队就能得到额外加分,这种情况下玩家更倾向于信任电脑队友,也更有可能为了合作与之交换碎片。这种信任是通过游戏的运作方式形成的。
库尔姆斯说:“我们能操纵的这组变量非常有限,但它们显然够用,这让我们很惊讶。”
人们通常缺乏评估机器可信度的能力,因为从进化的角度来看,我们只获得了根据社会线索判断可信度的能力——如果我们接受上述观点,那么这就说得通了。与之呼应的还有其他的研究结果:当赌博使用的老虎机在设计上具有拟人的特性時,赌徒会赌更多的钱。
也就是说,我们不仅不善于衡量机器的可信度,而且当机械物品表现得有点像一个以我们的最佳利益为重的社会伙伴时,我们也很容易被它们诱惑。
因此,与那些因为电脑反应迟钝而气恼,进而不信任所有机器的人相比,学会了对某些系统(比如飞机自动驾驶仪)寄予信任的人可能很难理解机器怎么可能出错,即使它们就是错了。
佩特里罗提到,她跟苹果的Siri或者亚马逊的Alexa等声控助手互动时,对计算机产生了信任感。“我会假设它们是以我的最大利益为原则行事的,所以我不需要质疑它们。”她说。
库尔姆斯的研究表明,只要机器看起来能够胜任工作并且表现出一定的友善,对包括佩特里罗在内的许多人来说,他们对机器的信任就会继续下去。库尔姆斯指出,这就是为什么机器设计者一定要确保他们的系统合乎道德、功能透明。
极为讽刺的是,在一台看似值得信赖的机器背后,可能隐藏着一个心术不正的人。对一台有缺陷的机器盲目信任就已经够危险的了,更不用说一台专门用来骗人的机器。
“在风险相同的前提下,假如我们面对的不是机器而是一个人,我们可能更习惯去思考潜在的负面结果会是什么。”普罗克特说道。她和豪克斯都认为,还需要做大量工作才能弄清楚研究中的黑猩猩到底有多信任机器,以及这个结论能多大程度上揭示关于人类行为的真相。
不过,人类对机器表现出的过度信赖或许受到了一个简单事实的影响:我们是在一个原本没有机器存在的世界里进化成社会动物的。而现在,机器出现了。我们把我们的钱、个人信息,甚至是我们的生命都置于机器每时每刻的监管之下。信赖机器不一定有错,只是我们往往不善于判断什么时候应该这么做。
[编译自BBC网站]
编辑:马果娜