机器与人:人类能控制新科技发展吗?

2022-05-10 11:56刘永谋
民主与科学 2022年2期
关键词:人机机器人类

刘永谋

不管人机关系的“友好论”、“敌对论”和“控制论”,还是技术自主性争论中的“工具论”、“实体论”和“设计论”,这些争论都是没有科学意义上对错的哲学观念,其背后有意义、有价值的问题是:人类要不要控制技术,如何才能控制住技术。

在我看来,我们生活的时代,与其说是科学时代,不如说是技术时代。也就是说,如今技术不再需要借助科学支撑自身的合理性,从“真理的阴影”下挣脱出来,我称之为“技术的反叛”。可以说,技术与科学在知识上开始“平起平坐”,在社会重要性上已经超过科学。

“技术的反叛”,是不是意味着技术失控呢?很多人担心,技术发展将失去控制,或者说已经失去控制。关于这个问题,可以从人机关系、人机分工开始讨论。

机器

现在的人一讲起“机器”,总是想到“钢铁怪兽”,典型意象比如电影《掠食城市》中的移动钢铁城市。其实,在工业革命之前,机器早已经出现。

机器的英文machine起源于希腊语,后来进入拉丁语,时间很久远。最初的意思是:引擎,诡计、狡黠。如果再往前追溯,可能与英文may有关,意思是“去拥有力量”。在古代汉语中,“机”和“器”是单独的两个字,“机器”不合在一起用。并且,“机”“器”两个字多少有些贬低的意思。

《庄子》里有则寓言,说有个老人用罐子从井里取水浇菜地,孔夫子的学生子贡看到了,问他为什么不造个木头机械取水,一次次抱着罐子取水太辛苦。结果这个老先生是个高人,说了一句:“有机械者必有机事,有机事者必有机心”,鄙视了子贡。大家知道“心机”“心机婊”的说法,所以“机”在汉语中也有狡黠的贬义。而“器”在古代是被轻视的。《易经》中说“形而上者谓之道,形而下者谓之器”,意思是道才高级,器都是上不了台面的。儒家有种说法“君子不器”,意思是咱们君子/贵族是不搞那些低级的、工匠搞的事情的。

1856年左右,英国传教士将machine翻译成“机器”,汉语中才有了“机器”的说法。

显然,“机器”一词的意思,随着真实机器的进化不断地变化。一个关键的变化是,机器从古代的手工操作的工具,变成了现在非手工操作的工具,尤其是最近几十年出现了自动化工具和智能机器。

还有一个重要的变化是:机器开始跨越无机-有机、生命-非生命的界限。古代机器主要是无机物的,石头的、铁的、玻璃的,也有一些木头的,木头是有机物,后来橡胶、塑料、合成纤维制造的机器越来越多,这些也属于有机物。最近出现了一些安装在生物体中的机器,比如心脏起搏器,也就是说,机器正在跨越有生命界限。

马克思是研究机器的大师。他认为,所有发达机器都是由3个本质上不同部分组成:发动机、传动机、工作机(工具机)。不过马克思时代距今快200年了,机器形态和功能发生了巨大变化,现在的计算机和机器人中增加了控制机,即计算机控制系统。

此外,人们还在隐喻的意义上使用“机器”一词,比如国家机器、社会机器,这是把国家、社会类比成精密运转的机器。

技术哲学家刘易斯·芒福德有个“巨机器”的概念,用来说明现代社会带有某种机器属性。巨机器就是大机器,最早是建造金字塔的国王发明的,包括破坏性的军事机器和建设性的劳动机器。巨机器组织大量人财物力来完成某项浩大工程,如建金字塔、修长城。

我们还常常说军队是机器,意思是军队要令行禁止,说某个公司是机器,意思是效率很高但没有人情味。从这个意义上说,今天“机器”这个词还是有某种贬义,与“人性”这个词多少有些相对。

人看机器

既然机器的历史久远,人与机器的关系当然也历史久远。但是,“机器问题”成为思想家认真讨论的话题,却是现代以来尤其是工业革命以来的事情。

1829年,历史学家托马斯·卡莱尔提出,19世纪20年代英国进入“机器时代”。既然时代成了机器时代,社会成了机器社会,人机关系就应该成为思想家思考的核心问题。

一開始,西方思想家对机器的态度就是爱恨交加的。我们可以举机械钟表为例。

一些人认为,机械钟表的发明极大改变了社会生活。有了机械钟表,时间就标准化了,社会活动比如上班下班变得很精确。以前说“日出而作,日落而息”,作息都是大概的。有了机械钟表,才有了所谓的时间观念,时间观念现在已经成为现代人的基本素质。因此,机械钟表的出现对资本主义的兴起和科技进步,有正面促进作用。

另外一些人关注的重点是:机械钟表使得人类受到时间的束缚。时间就是金钱,每个人都要像钟表一样精确。尤其对于劳动人民,钟表时间背后的纪律,让生活变得越来越紧张:“人生可以归结为一种简单的选择:不是忙着死,就是忙着活”——这是经典影片《肖申克的救赎》中的经典台词。

中国古代思想家,对机器基本上是轻视的,斥之为“奇技淫巧”。很多人认为,对机器的轻视阻碍了中国科技的发展。1793年,英国马嘎尔尼使团访问清朝,给乾隆皇帝送了几百箱礼物,其中有英国最新发明的蒸汽机、织布机等,结果中国人不感兴趣。1816年,英国使团再次访问,就不带什么机器和科学仪器了。

思想家态度如此,普通老百姓更是觉得现代机器太过复杂,难于理解,因而容易产生抵触、拒绝甚至破坏的举动。

1811年至1813年间,一些英国工人觉得机器让他们失业,于是就组织起来破坏工厂的机器,这些人就被称为卢德主义者。后来卢德主义就被用来指称在老百姓当中流行的、激进的反对机器、反对科技的思想。

马克思批评了卢德主义者,认为问题的根源不在于机器,而在于“机器的资本主义运用”。也就是说,资产阶级掌握了机器,用它来压迫无产阶级。如果仔细想一想,即使是在智能机器、智能平台的新时代,马克思的分析也并不过时。

可能有人会觉得,都21世纪了,卢德主义者应该很少了。这种想法不对,实际上,卢德主义者还是挺多的,1990年,还有人提出了《走向新卢德主义宣言》。此次新冠肺炎疫情,大家应该感受到极端反对机器、反对科技的人还是不少的。

人机关系

人与机器之间究竟是什么关系呢?看法不少,常见的有三种:“友好论”、“敌对论”和“协同论”。

“友好论”认为,机器有益人类生存,人类也要爱护机器,大家相亲相爱。

“敌对论”认为,机器危害人类生存,人类要提防机器,人机是对抗关系。

显然,友好论者解释不了:机器人正在挤掉我们的工作,怎么还能说相亲相爱呢?而敌对论者也做不到:干脆不用机器了,干脆回到原始社会去。

现在越来越多的人提倡“协同论”,认为人与机器是协同进化的,和生物圈中的不同物种一样,在相互适应、相互影响中共同向前发展。我认为,人机协同进化论很有道理,但这是一种“上帝视角”或“宇宙视角”,站在非常超脱的位置看人机关系。因此,我对协同论并不完全赞同。

为什么?如果人与机器必然是协同进化的,但是协同进化的最终结果也可能是人类灭绝。换言之,按照协同论思想行动,并不能保证人族的利益。因此,我认为,有意义、有价值的是人类视角,也就是说应该思考:在人机协同进化中,人类应该如何选择应对方案,以确保人族福祉。

从某种意义上说,AI出现让人类面对“新无知之幕”,即不知道人机协同进化的最终结果而要做出选择。政治哲学中讲的“无知之幕”,粗略说是有关国家如何建构的:大家聚在一起商量建成一个国家,结束人与人之间野蛮暴力状态,但是每个人都不知道在建成国家后自己将处于哪一个阶层、哪一种角色,在这种对未来无知状态中来讨论应该如何安排新国家的社会制度。你想,你可能是社会中最弱势的群体,你会不会考虑给穷人提供必要的制度保障和救济措施?肯定会。我所谓的“新无知之幕”是一个隐喻:我们要在盲人摸象中应对未来,要与拟主体、能力超强的AI共同的生活。

“新无知之幕”可能不管是在AI语境中,还是在其他新科技比如人类增强等语境中,我们也要面对。因此,不管结果如何,我支持对新科技发展想方设法进行控制,不能任由它随意发展,这是我所谓“技术控制论”的主旨。

除此之外,还有一种看起来另类,但实际上我比较赞同的观点,即我所称的“赛博格论”,即:人与机器并不是二元对立的,随着赛博格的出现,人与机器之间的界限会逐渐模糊甚至消解,届时人与机器的关系就成为赛博格与赛博格的关系问题。

历史上,就有极端思想家认为人是机器。比如说,心脏就是提供动力的锅炉或水泵,肺是通风的风箱,血管是身体中的管道。有个哲学家朱利安·拉美特利就写了本书,名字就是《人是机器》。控制论先驱诺伯特·维纳比较机器与人的神经系统,认为两者有相似性:它们都是在过去已经做出的决定的基础上来做决定的装置。

最近,脑机接口技术飞速发展,人今后脑袋后面可能有接口通计算机,而机器人飞速发展,机器人今后会越来越像人。继续发展下去,一百年后还如何坚持人与机器二分的传统观点呢?我觉得不能。按照拉图尔的观点,大家都是网络中的行動者,包括各种人类、赛博格,也包括机器、动物、植物等非人类,都是平等的、对话的、协商的关系。

按照科幻电影《终结者》的想象,假设一百年后“天网”下令灭绝人类,一个前提性的问题就是:它得搞清楚哪些是人,而哪些是机器。显然,这个问题是没有办法完全精确回答的。人面兽心的人是不是人,装上心脏起搏器的人是不是人,安装了机器手臂的人是不是人,日本漫画《攻壳机动队》的女主角除了大脑以外身体其他部分都是机器,她还是不是人,电影《黑客帝国》里面脑机接口的人还是不是人?

在赛博格社会中,还能区分人与机器?不能。人是什么?几千年来哲学家都没有说清楚,电影《终结者》中的“天网”也不可能搞清楚。为什么?在我看来,人就是不确定性本身。

人机之分,人机之防,背后有强烈的价值观支撑,即:人不是机器,人不能被当作机器对待。机器人不断发展之后,问题不仅是人不能被当作机器对待,而且是机器人也不能被当作机器对待。对不对?现在已经有人在讲机器人的权利了。

技术控制的选择论

有些人可能说,如果协同进化的结果是人类灭绝,为什么不安然接受呢?“上帝让我死,我死好了。”这是典型的消极宿命论的观点。对此我无法接受。

这种观点倾向于技术哲学上所谓的“技术自主性”的立场,也就是说,技术虽然是人类发明出来的,但它具有某种拟人的自主性,并非完全听命于人类的。

技术是否有自主性?争议极大。一般说来,可以将各种观点主要划分为两类,即技术的工具论和技术的实体论。

技术工具论认为,技术仅仅是一种工具,本身没有善恶,所谓技术的善恶是使用它的人的善恶。比如说,一把菜刀,你可以用来切菜,也可以用来杀人。菜刀杀人了,你不能怪菜刀。

技术实体论认为,技术可不是简单的工具,而是负载价值的、有善恶的,有自身发展的方向,不以人的意志为转移。比如说,很多人认为互联网天然就是反权威、自由的,还有一些人认为区块链必然会推进公开和诚信。

技术实体论容易导致宿命论:如果AI是自主的,它要向善或者向恶,人类如何可能左右它?因此,实体论往往与“技术失控论”相联系,即技术发展必然或者已经失去控制。

当然,有些哲学家尝试提出调和工具论和实体论的观点,比如 “技术设计论”。该观点认为技术发展是协调技术要素和社会要素的结果。比如自行车,小时候它主要是载物载人的,要有车筐、有后座;现在很多人拿它来锻炼身体或者远足骑行,要很漂亮,能跑上坡;现在的共享单车,要解决“最后一公里交通”问题,非常简单,能省就省。这些自行车技术要素上大同小异,区别就在于融合的社会要素不一样。

我怎么看技术自主性的争论呢?

第一,越来越多的人从工具论转向实体论,是技术发展越来越复杂的结果。当技术相对简单,人们比较容易相信工具论。而当技术变得越来越复杂,人们比较容易相信实体论。大家看,工具论举的例是菜刀,实体论举例是互联网、区块链。

第二,自主性争论根源于人机关系思考。前面已经分析了人机关系,无论采取哪种观点,人类都要设法确保人族福祉。我主张技术控制论,反对技术失控论。

第三,工具论、实体论和设计论,都是哲学观念,而并非自然科学意义上的客观理论,也就是说,你不能说在科学意义上哪一个对或哪一个就错了。科学上说一瓶矿泉水是500克,是可以用称称量出来的。哲学观念是不能用实验或观察来检验、证实或证伪的。

同样,上面讨论的友好论、敌对论和控制论,也都是没有科学意义上对错的哲学观念。因此,自主性争论也好,人机关系争论也好,背后有意义、有价值的问题是:人类要不要控制技术,如何才能控制住技术。显然,这是个行动问题,它的答案不应该从技术中寻找,而在于人类必须选择行动起来,想办法控制技术的发展。

第一,我们有没有决心和勇气控制技术的发展?第二,更重要的是,为控制技术,我们愿意付出何种代价甚至牺牲呢?比如,手机游戏很赚钱,但有些导致青少年沉迷,那国家和社会就得选择放弃一部分游戏红利。

我的想法可以称之为“技术控制的选择论”。

技术失控论批判

显然,我不同意技术失控论,也不喜欢技术实体论。

兰登·温纳是技术失控论的代表人物。在《自主性技术》一书中,他讲了一则故事,来表达悲观乃至绝望的情绪。

1914年8月1日,战争迫在眉睫,俄国对德国最后的战争通牒置之不理。没有办法,德皇威廉宣布全国总动员,启动施利芬计划。但很快皇帝后悔了,希望由英国外交斡旋,于是他召来参谋长,要停止战争计划。可是,将军告诉德皇,施利芬计划不可能被停止:“一经确定,它就无法被更改。”于是第一次世界大战爆发。

在温纳眼中,各种各样的技术系统都是施利芬计划,启动之后变成脱缰野马,必然由着自己的“性子”向前飞奔,最终把人类社会“拖”散、“拖”垮、“拖”得“稀巴烂”。

既然人类的悲剧已经注定,怎么挣扎都是徒劳,那我们就混吃等死好了。可温纳却主张所谓的“认识论的卢德主义”,也就是说,在思想上时刻反对技术,但行动上却不要像卢德主义者一样去砸机器、砸实验室,而采取更温和的办法,比如对技术“脱瘾”,坚决不用手机就是一种脱瘾办法。

显然,温纳在这里自相矛盾了:技术自主发展,不以人的意志为转移,不用手机也改变不了人类的悲剧。对不对?更重要的是,他对技术实体论的论证根本站不住脚。

比如,温纳有个纽约长岛摩西立交桥例子。摩西是公共基础设施承建商,20世纪60、70年代在纽约建造过许多立交桥。他的传记作者指出,他造桥有社会偏见和种族歧视。摩西的立交桥不让12英尺高的公交车通行,而让小汽车通行。穷人黑人都是坐公交车的,而白人富人才有自己的小汽车。由此,温纳说:“你看,立交桥技术本身是有政治性的,是嫌贫爱富的。”

这个论证完全经不起推敲。我可以说,立交桥技术是价值中立的,而摩西應用它的时候掺杂了政治性的考虑。也就是说,我将技术与技术应用分开,说后者才会嫌贫爱富,而前者不会。对不对?温纳的分析牵强附会,遭到很多人的批评。

长岛摩西立交桥的修建,有摩西的主观意志在里面。温纳又举另一个西红柿收割机的例子,认为这个例子没有人的主观意志。自从20世纪40年代西红柿收割机被加州大学研究者发明出来之后,它改变了西红柿种植方式(比如软烂的品种被淘汰),小种植场主人数减少了,人工采摘西红柿的工作消失,等等。温纳认为,西红柿收割机的发明者并没有任何“故意”要导致上述结果,所以这里面肯定是技术的“故意”,即技术本身有政治性。

这个论证也经不起推敲。第一,我仍然可以说技术与技术应用是有区别,西红柿收割机可以设计成可以采摘软西红柿的样式。第二,怎么能确定西红柿收割机的设计者没有淘汰采摘工人的“故意”,没有偏好较硬口味的西红柿的“故意”呢?不能。第三,任何技术应用都有某些不可预见的后果,西红柿收割机也是如此,这能不能等同于所谓没有“故意”呢?也就是说,人没有故意,技术没有故意,任何新技术都会有某种后果,为什么一定要判定一个“谁”在“故意”呢?

总之,必须将技术问题归结为人的问题,才能从主观能动性的角度鼓励诸种技术控制的努力,而不是将技术问题归结为“天命”,消耗人族的勇气、意志和进取心。

“AI失业问题”

西红柿收割机发明出来,当然是为了节省人力的,必然会导致采摘工人失业。很显然,所有成功的机器都会减少人类劳动,导致某个行业的失业问题。

智能革命兴起,AI造成的失业较之以往更甚。第一,它造成的冲击遍及社会各个领域,从扫地机器人、无人驾驶、自动物流到无人超市、智能旅馆,等等。第二,它不仅取代体力劳动,还取代脑力劳动。有人会说,有些工作机器人是做不了的。这是说的现在AI做不了,以后机器人能力会不断增强。即使保守预计,也可以说:全部的体力劳动和绝大部分的脑力工作都将被AI所取代。

从远景来看,就算人类劳动在智能革命之后不能完全根除,就生产力或GDP的贡献而言,人类劳动也将局限在可以忽略不计的数量级中,这个问题我称之为“AI失业问题”。蔡斯称之为“经济奇点问题”:由于AI对人类劳动的取代,当大多数人永远不再工作,“经济奇点”就到来了。

一些人出来证明,AI导致失业的同时,又创造新的工作机会。在《销声匿迹》中,玛丽·格雷和西达尔特·苏里注意到,近年来AI应用也催生一些新的零工岗位,比如图片标注等,可以称之为“幽灵工作”。可是,首先AI创造岗位的数量与造成失业相比并不相当;其次从长远来看,“自动化的最后一英里悖论”更可能是暂时情况。随着AI继续发展,需要人工辅助的情况必将越来越少。

一些人愿意用“AI其实很蠢”“AI根本离不开人”来安慰人类,但我觉得这不是事实。比如正在快速发展的无人驾驶,尤其适合在封闭高速公路上的货运工作,从长远看卡车司机面临失业。这么多卡车司机都能涌向零工平台吗?

大多数人包括我在内,都认为AI失业只会愈演愈烈,“经济奇点”迟早要到来。Robot本意是“机器劳工”,发明机器人就是让它代替我们劳动的。要不,我们为什么要发明和制造机器人呢?而且,机器人应该任劳任怨,勤勤恳恳,劳动能力远远超过人类,而且不需要休息,不怕危险,不要工资,不和人类抢夺资源。在理想愿景中,机器人还是“活雷锋”,一心为人,为此甚至可以毁灭自己。

因此,AI迟早要取代人类绝大部分的劳动,而这本身就是AI发展的根本性目标。但是,能够取代并不等于实际取代,这牵涉到人类社会制度的根本性变革。“AI失业问题”不在于AI,而在于社会制度的进化:新的社会制度不应该建立在强迫人类从事繁重劳动的基础上。既然AI将替代人类劳动,为什么不能允许社会成员拥有大量闲暇,非要通过制度安排逼迫大家都“996”呢?

按照马克思主义的说法,AI失业问题本质上是科技生产力发展与现有社会生产关系之间的矛盾,现有的社会制度不适应科技生产力的发展。与AI失业问题相比,社会制度不断变革以适应人工智能的迅猛发展,才是真正的“难问题”。

机器人可以让所有人都很少劳动或不劳动就可以过上好日子,但有些人不希望其他人不劳动,就会通过社会制度强迫其他人劳动,掠夺其他人,压迫其他人。这一点在工业革命以来的经济发展史中已经得到了证明。

一个人要过上舒适的日子,需要消耗多少物质财富,这是可以定量计算出来的。一个社会有多少成员,乘上单个人需要的物质财富,可以得出整个社会过上舒适生活所需要物质财富的数量。然后,再加上社会交易成本、各种损耗,我们可以得出一个有限数字。从理论上说,当社会生产力超过这个数字,人类社会就应该进入“大同世界”了。

不少人认为,发达国家已然进入“富裕社会”,即社会生产的物质财富已经足够社会成员过上好日子了。技术统治论者认为美国在1929年就已经如此,而约翰·加尔布雷思认为的时间节点是20世纪70年代。但是,现实中的美国还是有很多人在流浪、乞讨,吃不饱、穿不暖。现在人工智能飞速发展,“富裕社会”在智能革命时代进入“AI富裕社会”,问题会变得更加突出。

显然,这是社会制度的问题,光靠科技和生产力发展永远解决不了。对不对?我以为,问题的实质不再于剥削不剥削,而在于如何通过制度设计让科技红利尤其是AI红利惠及所有人。

当然,“AI失业”问题的解决,必须同时考虑远景和现实两方面情况。社会制度的根本性变革是远景中的理想,而现实中的社会制度进化需要很长的时间,既要等待AI科技的不断发展,也要考虑在社会容忍的范围内稳妥前进。在实现中,至少有两个问题可以努力:第一,帮助受到AI冲击的劳动者找到新工作岗位,能够分享先进科技生产力创造的物质财富;第二,要持续减少劳动者的工作时间,给人类更多的闲暇时间。

自从工业革命以来,拜科技之力量,压在人类身上的劳动负担越来越轻。20世纪我们施行8小时工作制,后来又是5天工作制、带薪休假制。如果机器人把活干了,人类为什么不能一周工作两三天甚至更少呢?

结语

在《信息崇拜》一书中,西奥多·罗斯扎克嘲笑说,计算机的发展史同时是一部计算机科技人员的“吹牛史”,什么超级智能、“数字永生”、超越人类等全是“吹牛”。为什么要“吹牛”呢?罗斯扎克一针见血地说:“人工智能研究进行下意识的自我吹嘘的原因十分簡单:大量的资金注入了这项研究。”

然而,罗斯扎克和维纳在《人自有人的用处》中一样,担心“AI失业问题”。与其担忧超级智能压迫人类,不如现实一点关心一下AI对劳动人民的冲击。

技术时代,如何自处呢?这是一个与每个人相关的问题,值得我们认真思考。只有人人关注新科技的发展,人人争取应有权利,才能走出一条介于“AI理想国”与“AI机器国”之间的、更好的、现实的智能社会发展道路。

(作者为中国人民大学哲学院教授)

责任编辑:尚国敏

猜你喜欢
人机机器人类
机器狗
机器狗
人类能否一觉到未来?
从内到外,看懂无人机
人类第一杀手
人机对视
谁变成了人类?
水下无人机:解锁钓鱼新姿势
神奇的独眼机器
人类正在消灭自然