吴兴华
(安徽师范大学 马克思主义学院,安徽 芜湖 241002)
自人工智能概念在1956年的达特茅斯研究会上被提出之后,人工智能就逐步从观念形态走向了技术形态。伴随着人工智能技术的飞速发展,今天,我们更是迎来了人工智能时代。然而,人们在为人工智能时代到来而欢呼雀跃的同时,却又开始担忧其蕴藏的风险了。正是这种担忧,使得近年来“人工智能威胁论”开始盛行,以蒂芬·霍金、比尔·盖茨和伊隆·马斯克等为代表的人工智能威胁论者曾告诫世人,要警惕人工智能盲目研发可能招致的危险。美国学者巴拉特更是明确地指出:“对于先进的人工智能,如今我们所处的位置一如20世纪30年代之于核裂变。如果我们像贸然引入核裂变那样贸然引入人工智能,恐怕全人类都无法存活下去。”[1]一时间,人工智能似乎成了悬在人类头顶的达摩克里斯之剑。这不仅是因为人们担忧人工智能会给我们的生活带来负面影响,更是恐惧人工智能将逆袭统治人类。这种逆袭的直接后果就是将人类从唯我独尊的神坛上拉下来,所以说,人们对于人工智能的担忧就是对人的尊严的担忧。因而,为了维护人工智能时代人的尊严,我们有必要厘清人工智能在何种意义上会威胁人的尊严,分析人工智能威胁人的尊严的实质,进而找到维护人的尊严的对策。
作为人工智能之父的赫伯特·西蒙,早在1957年就预言:“在十年时间内,数字计算机将成为象棋冠军。”[2]1975年,“深蓝”战胜了国际象棋大师卡斯帕罗夫,这无疑验证了西蒙的预言,也不禁让人们担忧:我们今天输掉了一位象棋大师,明天我们还将输掉什么?当然,在担忧之余,人们又开始反思:人工智能技术的野蛮发展到底会给人类带来什么?对此问题的回答形成了两种截然相反的观点:一种是人工智能乐观主义,对人工智能的发展前景充满期待。乐观主义以美国未来学家库兹韦尔为代表。库兹韦尔预测,2030年,计算机将在智能上超过人脑;2045年“奇点”将会出现,而严格生物学意义上的人类将不复存在。库兹韦尔认为“奇点人”的诞生,人类将步入下一个自然发展过程,由此而获得永生。另一种是人工智能悲观主义,对人工智能的进一步发展深表忧虑。悲观主义以SpaceX公司创始人埃隆·马斯克为代表。埃隆·马斯克认为AI可能引发第三次世界大战。正是从悲观主义出发,持人工智能威胁论的人认为人工智能时代的到来,也许就是人类的终结。他们预言的理由是人工智能威胁到了人的尊严。然而问题是,人工智能到底在何种意义上威胁到人类,导致他们担忧人的尊严丧失?
如果说,早期大众对人工智能的了解主要来自于科幻影片,那么,今天人工智能已经走进了寻常百姓家,人们已亲身感受到人工智能的存在了。但随着人工智能的发展,人类在与机器共处的过程中,又将面临着诸多问题:机器人会不会排挤人?机器人会不会奴役人类?情感机器人会不会改变人际关系?这些担忧其实都是对人的尊严的担忧。从目前学界对人工智能威胁人的尊严的分析来看,大多认为人工智能从身心两方面对人的尊严构成了威胁。
其一,人工智能取代人的物质性身体。在人工智能威胁论看来,人工智能研发者的初衷是希望制作一台能够模拟人的体力劳动的机器,从而将人从繁重的体力劳动中解放出来。可见,人工智能诞生的目的是为了解放人的物质性身体。由于这种机器尽管能模拟人的活动,但它却只能听从人的指令,像“‘计算机只能按照编好的程序工作’”一样,“这些电子大脑只是顺从的机械仆人,它们会盲目地听从你的指挥”[3]21,所以,人类不用担心自己的地位会受到威胁。然而,问题似乎并没有那么简单。随着智能机器人的不断升级和广泛应用,人们越来越感受到:机器代替的似乎不再是简单而繁重的体力劳动,我们的物质身体在不断被取代,致使我们在宇宙中的身份和地位也在悄然改变。
其实,对于机器因代替人的体力劳动而排挤人的现象并不可怕,因为这在机器诞生之日就已经存在。马克思早就在《资本论》中指出,随着机器大工业的发展,将会出现机器排挤工人的现象。这就是人机关系中存在的悖论。机器的发明是为了弥补人的物质身体的缺陷,可当机器修复了人的缺陷,人又担忧机器会因自身的优势而出现人机关系的逆转。这就是说,机器在诞生的那一刻就注定会是一个逆袭者。早期的卢德份子捣毁机器,就是因为机器排挤了人,导致大量工人失业,但这仅是人机之间对于工作岗位的争夺(毕竟机器会因为它的高效率、低费用和便于管理而受到使用者的青睐)。今天,人们早已习惯机器替代自己的劳动,但担忧并未消除,人们害怕的是人类会因劳动的丧失而被非人化。
当人工智能机器替代了人的劳动,人丧失的不仅是劳动能力,更是“人之为人”的本性。众所周知,人尽管是自然之躯,但人之所以为人的根本在于人的社会性,而人的社会性又是从劳动中获得的,正如马克思所说:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”[4]社会关系决定了人的本质,而社会关系又是形成于人的生产劳动过程之中的。因为“动物仅仅利用外部自然界,简单地通过自身的存在在自然界中引起变化;而人则通过他所作出的改变来使自然界为自己的目的服务,来支配自然界。这便是人同其他动物的最终的本质的差别,而造成这一差别的又是劳动”[5],所以,劳动才是人之为人的根本。既然劳动规定了人的本性,那么,劳动也必然是人的尊严的源泉,正如法国思想家埃里克·勒塞尔夫所说:“体现为相互尊重的尊严来源于人类行为的特殊体验,蒲鲁东将其称作劳动。”[6]正因如此,人工智能专家杰瑞·卡普兰认为,人工智能机器对于人的劳动的取代,绝非仅仅是占有了人的工作岗位,它占有的还有我们的思想,因为当你在使用机器人时,“你必须适应机器人的需求,因为它不会顺从你的需求”[3]37。这就是说,当你在决定使用机器的时候,你其实已经将自己交付给了机器,按照机器的要求来操作一切,犹如我们驾驶汽车,想要汽车正常行驶,你就必须遵循汽车的要求来操作。要很好地控制机器,我们就需要按照机器的规则对人的物质身体进行专门化训练。所以说,人最终又成了机器的奴仆,如此一来,人工智能夺走的就不仅是人的劳动,而夺走了人之为人的根本——人的尊严。
其二,人工智能把控了人的精神世界。在人工智能威胁论看来,人工智能不仅取代了人的劳动,从物质性层面取代人,而且还将在思想和精神上取代人。我们知道,作为万物之灵,人与动物的根本区别就在于人能思想,能进行精神性活动。人是万物之灵,这个灵性正是人的思想和理性,因为“形体即人的躯壳,是人的物质存在形式,但仅有躯壳,还不是‘人’,还必须有精神存在形式,形与神的统一才是现实的人”[7]。而人之所以拥有尊严,恰恰是因为人是会思想、有精神的存在,帕斯卡尔认为:“人只不过是一根苇草,是自然界最脆弱的东西,但他是一根思想的苇草……他知道自己要死亡,以及宇宙对他所具有的优势,而宇宙对此却是一无所知。因而,我们全部的尊严就在于思想。”[8]既然人与万物之别在于人有思想而万物没有思想,人的尊严就来自于人的思想,那么,唯有拥有尊严才是真正意义上的人。因此,施瓦德勒明确指出:“正是从我们今天称之为‘尊严’的东西出发,人才成为人。”[9]13
既然尊严在于思想,而唯有人才拥有思想,那么人无疑成了这个世界唯一受尊重的存在。人类也一直以此为自豪,并视自己为世界的中心,人类中心主义的泛滥就是明证。因此,人工智能之父图灵,在智能技术开发之初就追问过机器会不会思考的问题。图灵曾提出用“图灵测试”来判别机器会不会思维。而2014年,一款名叫“尤金·古斯特曼”(Eugene Goostman)的聊天程序通过了英国皇家学会举行的“2014图灵测试”,从而证明了机器能思维。今天,AlphaGo更是有了自主学习能力。这无疑向世人宣告:机器已经拥有了思想创造性,因为只有一个拥有思想创造性的存在物才会有意识地去学习,否则它只能是一种机械的模仿。这无疑引发了人们的恐慌,因为在人们的观念中,“人独一无二的地方,就恰恰在于……上帝给人根据一系列的可能性塑造他自己的能力,而其他一切造物都没有这个能力”[10]。这个能力就是人的思想的创造力。按照阿伦特的理解,人的思想,而且唯有思想才有创造,因为思想是通过思考获得的,“思考的主要特征就在于它总是打断所有行为、所有日常活动”[11],正是这种所谓的“打断”才有创新。如此推论,会思维、会学习的人工智能的诞生,势必会反过来操控人的思想和精神世界。难怪乎,思想家们开始担忧:“人工智能大爆发,人类何去何从。”[3]中文版序
“人工智能威胁论”对于人类未来的担忧,尽管有些危言耸听,但它确实在一定程度上给人类敲响了警钟。人类需要思考如何利用好手中的这柄利器。面对人工智能带来的挑战,理性的态度不是惊慌,也不是盲目乐观,而是慎重地审视人工智能及其革命的实质,从而揭示人工智能挑战人类尊严的实质。
其实,关于技术威胁论、技术恐怖论等类似观点,早在技术诞生时就已经存在。“人工智能威胁论”只不过是技术威胁论的当代翻版,并非什么新事物。早期的技术威胁论和恐怖论等悲观主义论调的兴起,就是对技术负效应的反思。众所周知,任何一项技术都是一柄双刃剑,“它既是伟大的革命力量,也是灾难性的破坏力量。它既可以把人的品格提高到一个新的阶段,也可以摧毁人类”[12],人工智能也不例外。今天,面对人工智能这样一个双面巨人,更需要我们小心谨慎地对待它,在充分发挥它的价值的同时,不被它的光芒所刺伤。当然,正确运用人工智能技术的前提是正确把握人工智能的实质。
人工智能尽管在很多方面取代和超越了人,甚至有人认为人工智能已拥有了意识,但需要澄清的是:它的技术本性没有改变。既然是技术,人工智能就具有技术的本性。实际上,关于技术本质的思考,早已伴随着技术问题的产生而开始。自上个世纪50年代始,技术就成了欧美思想家关注的焦点,由此形成了诸多不同的技术理论。在法兰克福学派技术思想家芬伯格看来,诸多的技术理论可以“归为两种主要的形式:工具理论(instrumental theory)和实体理论(substantive theory)”[13]3。工具论从技术的价值中立论出发,将技术理解为服务于人类的“工具”。而实体论则相反,认为技术是社会的产物,是一种文化体系,因而技术是负载价值的。尽管技术工具论曾经是被人们广为接受的技术观,但由于其忽视技术的社会因素,尤其是随着现代技术与社会关系的愈发密切,技术实体论受到了人们的高度关注。然而,实体论将技术理解为一种社会控制力量,法兰克福学派重要代表人物马尔库塞就将现代技术视为一种意识形态。存在主义大师海德格尔更是将技术视为一种本体,认为“现代技术之本质是与现代形而上学之本质相同一的”[14]。技术实体论者埃吕尔同样主张技术对于社会的控制,指出:在现代社会“技术就是人类通过理性手段来控制事物的想法向行动的转化,就是对什么是潜意识加以说明,就是对事物性质进行量化,使自然的轮廓清晰而准确,控制混乱局面并赋予它秩序”[15]。由此可见,技术实体论是一种典型的技术控制论,它将技术完全等同于意识形态,因此无法正确揭示技术的本质。其实,对于技术的实质而言,绝非是工具与文化的截然对立,反而是工具与文化的聚合。
“人工智能威胁论”对于机器的担忧,就是基于将技术视为一种社会控制力量,因而它是基于技术控制论的。技术控制论尽管有缺陷,但它确实揭示了工具论将技术视为中立的工具的局限性。技术,特别是今天的人工智能技术,绝非是一种纯粹的工具。回顾技术的发展史,便不难发现,任何一项技术的诞生都是源自于人的需要,正如恩格斯所言:“社会一旦有技术上的需要,则这种需要就会比十所大学更能把科学推向前进。”[16]因而,技术的发展反映着特定时代人们的需求,犹如芬伯格所言:“现代技术跟中世纪的城堡或中国的万里长城一样,都不是中性的;它体现了一种特定的工业文明的价值。”[13]前言任何技术都承载着特定时代人们的价值观,人工智能技术也一样。当然,承认人工智能技术的文化性,又决不是要否认它的工具性,因为文化依然来自于人。因此,人工智能的工具性就决定了人工智能威胁人类尊严的实质:不是机器挑衅人类,而是人类对自我的挑战。
从人工智能技术的发展来看,一方面体现出人类在不断挑战自我,另一方面又是在检测人类智能的发展。所以说,人工智能技术越高级,从另一个侧面恰恰检验了人类智能的高度发展。从人工智能的诞生来看,它是于上世纪中叶,诞生于一批顶尖级学者的大脑,他们希望制造一台能“模拟人类各方面智能”的机器。如果没有天才大脑的想象就不会有人工智能的诞生。约翰·麦卡锡在1956年的达特矛斯会议上提出:“人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。”[17]既然制造人工智能只是要模拟人的智能,因而人工智能的智能还是来自于人。不仅如此,智能技术的发展又反映出人的智能的发展。尽管未来学者凯文·凯利强调“机器生物化”,认为未来机器的发展必然走向“类人”化,但不可否认的是:无论计算机多么先进和智能化,但它也“只能按照编好的程序工作”[3]21;即使AlphaGo的诞生使人工智能有了突飞猛进的发展,但它并没有超越人类,而且也不可能超越人类,人工智能的工具性使它无法与人类相匹敌。所以说,人工智能对人类的威胁并非是机器对人类的挑衅。
既然人工智能的工具性决定了它不可能战胜人类,那么人类尊严遭遇威胁的实质又是什么?人工智能尽管是技术,但技术负载着价值,人工智能的发展状况受人的价值观主宰,因而人的尊严遭遇的威胁是来自于人类自我的。从技术的源头看,技术本来就是双重罪恶的产物。为了走出大自然的襁褓,人类发明了技术。今天,人类为了弥补自身的缺陷,实现自我超越,发明了优生技术;为了突破自然生命的极限,人类积极研发新的医药技术甚至基因修饰技术等等。可见,技术一直是沿着人类超越自我之路在前行。既然如此,为何人工智能技术的发展会引发人们的恐慌?其根源就在于人工智能革命的广泛性和深刻性。它已绝非是止步于技术领域的变革,而是渗透到“人类活动的所有各方面——包括工作的性质,学习的方法,政府的结构,战争的手段,艺术创作以及人类对自我的概念等——产生深远的影响”[18]。这种渗透无疑会导致人们认识和思考世界方式的革命,正如中科院科技战略咨询研究院余江所言,人工智能技术和应用的飞速发展带来的将是从“互联网思维”到“人工智能思维”的变革[19]。所以说,人工智能革命的实质不仅是一场人类对自我智能的检测,也是一场认识和思考世界方式的变革。既然如此,面对来势凶猛的人工智能革命,我们必须清楚,目前人类遭遇的问题绝非人工智能有意为之,真正的挑战不是来自于技术,而是技术背后的人。所以说,人工智能威胁人的尊严的实质,依然是人类对于自我的挑战。为此,人类当下应该思考的问题,不是如何预防来自人工智能的侵袭,而是如何迎战来自自我的挑战。
既然人工智能时代人的尊严受到威胁的根源在于人类自身,那么问题的解决就只能回归到人类自己,从人类自身来寻求守护尊严的对策。根据以上分析可知,人工智能时代要守住人的尊严,人类不仅需要从观念上澄清一些认识,而且要完善自我道德。
首先,破除人工智能威胁论。正如前文所述,人工智能的发展是人类为了实现超越自我,完成自我力量所无法达到的目标而进行的技术创新,因而人工智能在实质上就是人类智能的放大。正如马云在2018年世界人工智能大会上所言:发明机器的时候人们就应该认识到机器会比人力量大,发明汽车的时候人们要认识到我们肯定跑不过汽车,机器比人跑的快、跑的远,因而人工智能也应该比人的智能强大[20]。这是技术诞生和发展的逻辑,明白此逻辑,就能认清人工智能威胁人类尊严的实质,进而破除人工智能威胁论。
从人工智能与人的关系看,人工智能威胁论是站不住脚的。第一,人工智能的智能是来自于人的。由于人工智能的智能只是对人的智能的模拟和应用,因而,即使它能超越人类的智能,这原本也是人类制作人工智能的目的,所以,不必为人工智能超越人的智能而担忧。正如前文所述,技术只有超越其发明创造者,才有被发明创造的价值。历史上的每次技术革命都是通过对人类能力的超越来实现技术革新,从而推动人类社会不断前行的。人工智能技术的突飞猛进,恰恰证明了人脑拥有巨大的创造性。第二,智能不等同于人的思想。众所周知,人之所以为人的根本在于人的思想和精神,然而思想和精神绝非仅仅只等同于智能。其实,智能仅是人的丰富思想中的一部分,人的思想却包括了“知”“情”“意”,而智能只是知的重要基础和内容,亚里士多德就曾将人的灵魂分为理性与非理性两部分。智能通常指思想中的理性部分即逻辑思维能力,人工智能就是模拟了人的逻辑推理能力,而非模拟了人的思想的全部。在人的思想和精神世界里,人工智能仅仅模拟了人的智能,而更为复杂的情感——“情”和“意”是人工智能永远无法模拟的。
其次,正确理解人的尊严。思想和理性尽管是人的一个重要规定性,但人之为人的根本则在于人是道德性的存在,正如康德所言:“人拥有尊严是因为他的道德行为,即人的所为(what he does),只有追求道德,才是人具有尊严的根据。”[9]译者导言因而,人的尊严并不仅仅来自于人的高级的思想,它还来自于人的“情”和“意”。其实,思想家们早就认识到,人之所以有道德是因为人有情感欲望。洛克曾说:“事物所以有善、恶之分,只是就其与苦、乐关系而言。所谓善就是能引起(或增加)我们快乐或减少我们痛苦的东西;……所谓恶就是能产生(或增加)我们痛苦或能减少快乐的东西。”[21]这就是说,人是因为有了快乐或痛苦的感受,从而产生道德的认识和行为。费尔巴哈也将道德与幸福感联系起来,认为“没有幸福就没有德行”[22]569,“对于幸福的追求是一切有生命和爱的生物、一切生存着的和希望生存的生物……的基本的和原始的追求”[22]536。正是有了情感和意志,人才产生了道德感。道德才是人和人类社会的特有现象,尽管在理论上人们可以赋予机器以自动甚至永动的能力,但是机器可不能获得使其具有主动性能力的意志。而道德来自于人的自由意志,因而机器是不可能拥有道德性的。这是人与他物区别的根本,也是人拥有尊严的根据。
由此可见,人工智能机器尽管拥有了人类的智能,但机器却因缺失情感而永远不可能产生道德。情感和意志是一种非理性的思维,是无法通过逻辑的理性思维推论出来的,正如康德所说:“知识相关的是感性世界,而实践行为相关的是智性世界(intelligibele Welt)。”[9]译者导言知识与道德在不同的世界内必然有不同的法则,人工智能属于知识世界。这是人工智能与人之间的绝对界线。既然机器没有道德性,那它又是如何争夺人类的道德阵地的呢?
最后,完善自我道德,正确应用人工智能。如今人工智能在实际研发和应用中确实带来一些道德问题,但人工智能的道德问题实质还是人类自身的道德问题。人工智能的技术本性决定了它还是受人类摆布的工具。工具的利弊在于人心,因为机器只有机芯(chip),但在它背后坚挺的却是有血有肉的道德实体,而这个道德实体是有心的,所以机芯是操控在人心中的。人心的善恶,才是决定技术是天使还是魔鬼的关键。所以说,要想使人工智能向善,前提是人心要向善。
从目前人工智能导致的问题来看,主要在于人的伦理道德缺陷,如基因编辑婴儿的诞生,无疑是人心不善的恶果。所以,在人工智能飞速发展的时代,我们更需要完善自我道德,在源头杜绝问题的产生。而在人工智能的发展和应用中,人类要做到:第一,恪守人工智能技术研发和应用的正当性。爱因斯坦曾说过:想要研究工作为人类的福祉做贡献,“你们只懂得应用科学本身是不够的。关心人本身,应当始终成为一切技术上奋斗的主要目标”[23]。这就是说,科学研究必须遵循不侵犯人的自主性和尊严的道德原则。唯有如此,科技才符合它的本意,因为科技永远是一项人的事业,科技的出发点和落脚点都是人。基于这种认识,人工智能专家拉塞尔指出:“不论怎样,终结人类的都不会是这些工具,只能是我们自己终结自己。表面上,战胜我们的是机器人,实际上,战胜我们自己的是人类的智慧。我们只要守住人类最基本的道德底线,那智能机器人的未来会很美好,当然,如果我们心生邪念,那将来也许会成为一个灾难。”[24]第二,从权力意识走向责任意识。自培根开始,知识和技术一直被视为一种力量。培根曾倡导利用知识这一力量向大自然进军,最终知识成为了一种权力的象征。然而,人类不曾想到,大自然却在人的知识权力的铁蹄下,向人类发起了致命反击,频繁爆发的生态危机对人类的报复就是典型事例。人工智能也一样,如果我们将人工智能技术演变为一种捍卫“人类中心”的权力,利用这一技术对自然和人自身强行干预,那必然会带来难以预料的灾难。因此,对于人工智能技术,我们应从权力意识走向责任意识。我们不仅要做技术的统治者,还要做技术的维护者,对技术的发展和应用负责,唯有如此,才能确保技术造福于人类。第三,必须提升自我道德水准,严防机器人越界。人类的命运始终是掌握在人类自己的手中,世上没有救世主能够拯救任何人,但人却可以通过自我德性的完善来守住尊严。既然人的独特性在于人是道德性存在,那么人的人格无疑主要体现在道德人格上。所以,在人工智能时代维护人的尊严,也就是要维护人的人格尊严,这就需要我们划清“人类”与“类人”的界线,抵制利益驱动,将人工智能永远囿于“类人”的世界。
综上所述,人类只有在破除人工智能威胁论的前提下,回归自我、完善自我道德,才能从源头切断人工智能对人的威胁。所以说,今天的人工智能技术尽管在很多方面冲击着人类对自我的认识,但隐藏在高级智能背后的幕后指挥者依然是人本身,这就提醒着我们,在使用人工智能技术时“应该怀有谦恭之心,铭记人性之本”[25]。唯有如此,才不至于在人工智能这柄双刃剑前失去尊严。