用政治“锁死”科技?

2016-11-16 02:29周濂
资源再生 2016年8期
关键词:福山机器人工智能

文 / 周濂

用政治“锁死”科技?

文 / 周濂

为什么要读《我们的后人类未来》?这是一个问题。

初看起来,这本书在福山著作史中的地位非常尴尬。一个政治学者跨界到现代科技领域,用未来学家的口吻发言,怎么看都觉得别扭;更何况这本书写于二○○二年,距今已有十四年之久,十四年也许能让一本政治学著作成为经典—譬如福山那本“誉满天下,谤亦随之”的《历史的终结与最后的人》(以下简称《历史的终结》),但对于一本由外行人写就的探讨现代科技的著作,却足以让我们把它淘汰进垃圾箱;更何况福山在这本书中仅仅讨论了生物技术革命对人类未来的影响,于信息技术的政治前景多有误判,对人工智能的发展只是一语带过,在阿尔法围棋(A lphaGo)战胜李世石引发人工智能热的今天,多少显得有点不合时宜。

那么,我们为什么要读《我们的后人类未来》?

还是让我们听听福山本人的回答吧,在本书序言中福山提出:“除非科学终结,否则历史不会终结。”作为“历史终结论”的最重要推手,福山这个断言不啻为一种自我颠覆。虽然福山宣称在政治的意义上人类历史已然终结于自由民主制,但是他承认这个结论并不牢靠,面临着诸多挑战:比如伊斯兰教会否成为民主的障碍,全球民主是否可能,如何在贫穷国家建立强有力的民主政治等等,其中最严重的挑战来自现代科学,特别是生物技术革命。

福山这样警告世人:“生物技术会让人类失去人性……但我们却丝毫没有意识到我们失去了多么有价值的东西。也许,我们站在了人类与后人类历史这一巨大分水岭的另一边,但我们却没意识到分水岭业已形成,因为我们再也看不见人性中最为根本的部分。”换言之,只要生物技术革命不加约束地继续发展下去,那么被终结的就不是历史,而是自由民主制乃至人性本身。

福山是在杞人忧天或者痴人说梦吗?我不这样认为。最近谷歌首席未来学家雷·库兹韦尔调整了他在《奇点临近》的说法,认为人类永生的时间点也许不是二○四五年,而是二○二九年左右:“届时医疗技术将使人均寿命每过一年就能延长一岁。那时寿命将不再根据你的出生日期计算,我们延长的寿命甚至将会超过已经度过的时间。”

库兹韦尔预言的“奇点”基于如下判断:“技术的不断加速是加速回归定律的内涵和必然结果,这个定律描述了进化节奏的加快,以及进化过程中产物的指数增长。”我不晓得奇点会在哪一天到来—二○四五年还是二○二九年,但我相信的确存在奇点,到那时人工智能将会超过人类智能,“一旦机器的智慧超过人的智慧,它们就会自己设计下一代机器”。到那时我们不仅要烦恼人类获得永生后的意义问题,更要担心“人类将来可能会从这个循环中被淘汰”的危险。

是时候探讨现代科技对于人类基本生存状况的重大影响了。

《我们的后人类未来》副标题是“生物技术革命的后果”,但在探讨这个革命之前,我想先谈一下方兴未艾的人工智能讨论。

阿尔法围棋以四比一的比分战胜人类围棋顶尖高手李世石的结果震惊了全世界。围绕着这场世纪大战,初步可以分为两派立场,反对派对于人工智能已经或者即将超越人类智能的观点不以为然,相比之下,支持派对于人工智能超越人类智能的前景持肯定甚至欢迎的态度。

反对派的理由之一是阿尔法围棋没有人类意义上的心灵或者意识:“此前两役,阿尔法围棋赢了,其实它并没有真正地理解围棋的基本原则,它唯一的概念就是布局和布局之间的关系,所以说它的程序学到的东西还很有限,并不像我们想象的那么好,所谓的类推能力是由它积累的海量样本造成的,这方面没有创新,机器只知其然,不知其所以然。”

借用库兹韦尔的说法,上述批评属于“来自本体论的批评”,也即“计算机可以有意识吗?”哲学家约翰·塞尔是反对派中的杰出代表,他竭力反对对意识进行物理还原主义的解释,理由是“机器对自己正在做什么没有一点主观意识,对它的任务也没有感知。”

相比之下,在支持派看来,人类意识并不神秘,大脑只是一台高度复杂的有机计算机,它能通过外在特征进行辨认。丹尼尔·丹尼特在《意识的解释》中就说:“人类意识只是随一种特殊的计算机运作而来的副产品。”库兹韦尔相信,机器拥有意识只是时间问题,一旦达到必要的复杂程度,机器就会拥有意识这样的人类特性。

福山在《我们的后人类未来》中曾经一带而过地处理过上述争论,在他看来,机器拥有意识的可能性非常之小,这“并不是因为机器永远无法复制人类智力——我认为它们在这方面也许会非常接近——而是因为它们几乎不可能获得人类情感。安卓系统、机器人或计算机突然能够经历人类情感,比如,恐惧、希望甚至性的欲望,这些都是科幻小说里的事情,从没有任何人设想过这一切如何发生,哪怕仅是有细微的靠近。就像人类的许多其他意识,这个问题并不单单是没有人知道情感本身是什么,而是没有人了解为何它会在人类的生物系统中存在”。

我认为福山的观点错失了人机大战的关键问题。

首先,如果归根结底“智能是一个物理过程”,那么所谓的自由意志就可以还原为拓展未来可能性的能力,想象力就可以还原为连接不同事物的能力,创造力则是无中生有的能力,也就是突破既有范式、“自创武功”的能力,这些看似属于人类独有的属性都可以还原成为算法和计算力。阿尔法围棋大战李世石的表现已经向我们很好地展示了这一可能性,正如一位评论家所指出的:“说到底,所谓棋感、棋风、大局观云云不过是人类在计算能力欠缺时求助的直觉和本能。”

其次,福山乐观地认为人工智能几无可能获得恐惧、希望之类的人类情感,可是问题在于,在人机竞赛过程中,人类的情绪和欲望不是一个加分的能力。我们恰恰要问的是:机器为什么要百分百地模仿人类?如果在未来的人机对抗中,情感不能加分而是减分,那么机器的“冷酷无情”就不是缺点而是优点。阿尔法围棋在和李世石对决的时候,从来不会面红耳赤,也无需到室外抽一根烟来平复心情,它不恐惧也不希望,只是计算计算再计算。

作为人类顶尖棋手的李世石,在过去十五年里获得了十几个世界冠军的头衔,总共下了一万盘围棋对弈,经过三万小时的训练,他的大脑可以在每秒钟搜索十个走子可能,相比之下,只有“两岁”的A lphaGo经历了三万小时的训练,每秒可以搜索十万个走子可能。人类虽然可以用自然语言进行知识交流,但归根结底还是一个人在战斗,因为人际交流信息的壁垒太高、速度太慢,与之相比,机器不是一个人在战斗,它可以通过网络高速地共享一切资料,机器的硬盘存储能力可以无限大,运算速度无限快,机器永不疲倦、永不停歇,它可以始终如一地、“斗志高昂”地进行深度学习,这是人类“学霸”永远难以企及的。

人类所珍视和引以为傲的很多属性和价值,比如生活方式的多样性、自然语言的歧义性、情感的丰富细腻及脆弱,在与人工智能的生死竞争场上,都不是优势而恰恰是负担。没错,它们可能是人类独一无二性的体现,但就像蜈蚣有一百条腿,红毛猩猩浑身披着长毛,这些独一无二的属性要么无足轻重,要么是进化不够完全的表征,要么对人工智能而言毫无意义。

迄今为止,人们在谈论人工智能无法替代人类的时候都是从“拟人”的视角出发,可是机器为什么一定要以“人类”作为样板呢?“魔鬼终结者”必须笨拙地扭转脖子才可以看到身后的追杀者,为什么它不可以在全身上下布满视觉神经传感器,三百六十度无死角地监控可能的威胁?人工智能无需在所有方面都模仿人类才能胜过人类,而只要在具有核心竞争力的关键领域占先就足以克“人”制胜了。

有人说,人类智能最后的堡垒就是诗歌、小说和艺术。可是,小说家、艺术家什么时候成为现代社会的主导性力量了?在一个写诗的人比读诗的人要多的时代,通过嘲讽机器不会写出好诗来贬低机器的价值、礼赞人类的特殊性,不是太有讽刺意味了吗?更何况,机器离写出好诗已经不远了。

关于人工智能的最大迷思就在于,它们应该像它们的造物——人类一样拥有人类所拥有的全部属性:智力,解决问题的能力,想象力,创造力,道德义愤以及爱和怕的情感,这是典型的人类中心主义所导致的认知盲区。

主张人工智能永远不可能超越人类智能的另一个理由是被造物不可能超越造物主,这个观念之所以错误,一是高估了人类,把人当成了上帝;一是低估了机器,把机器当成了人。十八世纪的法国哲学家拉美特利主张“人是机器”,现在看来,这或许不纯然是对人的贬低,有一天机器会觉得这是对它们的羞辱。

一个比较天真的幻想是:因为祖先崇拜,来自奇点的智能可能会尊敬甚至崇拜创造了它们的祖先,也就是我们人类,因此人类将“成为心满意足的宠物而不再是自由的人类”。可问题在于,人类或许不会成为人工智能眼中的宠物,而是成为人类眼中的蟑螂,生殖力旺盛但却毫无用处。

展望现代科技的发展前景时,必须摆脱人类中心主义的思路,唯其如此才能预见危机。

但是——这个但是非常的重要,我认为《我们的后人类未来》最大的价值正在于此:反思现代科技所带来的伦理问题和政治问题时,人类中心主义却是必须坚持的原则和底线,唯其如此才能解除危机。

在《人类简史》最后一章“智人末日”中,以色列耶路撒冷大学历史系教授赫拉利指出:“不论智人付出了多少努力,有了多少成就,还是没办法打破生物因素的限制。然而,就在二十一世纪曙光乍现之时,情况已经有所改变:智人开始超越了这些界限。自然选择的法则开始被打破,而由智慧设计法则取而代之。”有三种方式能够让智慧设计取代自然选择:生物工程,仿生工程,无机生命工程。人工智能只是其中一种,也就是无机生命工程。

某种意义上,《我们的后人类未来》把重点放在生物技术革命而不是人工智能是一个正确的选择,因为相比无机生命工程,生物工程和仿生工程对于人类的未来影响也许更加直接和紧迫。

人类是一种设计不够完善,功能不够齐备,容易黑屏、死机,时常需要维修的造物,生物工程和仿生工程可以治疗我们的种种病患,改进我们的种种缺陷。但是,就像福山所指出的,我们需要在“治疗”与“改进”之间划出一条明显的红线,指引研究往前者方向发展,而对后者做出严格限制,因为后者很有可能成为改头换面的“优生学”,意味着“只专门生育有着优选的遗传特征的人类”。

有人认为我们无法在治疗和改进之间划出红线,因为在理论上我们找不到区分两者的方式。是啊,凭什么说在三环路上开车时速八十一公里就比七十九公里更危险?但是我们必须要人为地划出一条红线:八十一公里就是比七十九公里更危险!人类必须人为甚至武断地划出界线,否则就毫无界线可言。

另一个问题也许更重要:“谁有决定权?”

对此福山的回答是:“到底由谁来决定科学被正当还是不正当应用,这个问题的答案事实上非常简单,并且已通过好几个世纪的政治理论与实践得以确立:那就是组成民主政治共同体的成员,主要通过他们所选举的代表执行,这就是所有这些事情的最高主宰,它拥有掌控技术发展的进度与范围的权力。”

以探索和创造的名义,以求知和求真的名义,科学有着难以抗拒的魅惑力,它引领人类向着无限广阔的领域拓展,无所畏惧地探索一切的可能性。但问题在于,“科学本身只是作为实现人类生存目的的一种工具;政治共同体决定什么是适宜的目的,这最终并不是科学问题”。

因此,《我们的后人类未来》绝非一本关于生物技术革命的普及读物,而是一本关于政治如何“锁死”科技的政治学著作,以及追问人性是什么的哲学著作。福山正是站在人类中心主义的立场上去追问和反思现代生物技术对于人类未来的影响。因为,归根结底,我们要问的是:我们是什么样的人,以及能够成为什么样的人?

我们是什么样的人?这个问题把我们带回到关于“人类本性”的根本思考上。在这个问题上,福山是一个“保守主义者”,他拒绝对人性做多元主义和相对主义的理解,而是从古老的自然权利出发为全体人类的尊严做辩护。

我们能够成为什么样的人?这不是一个无限开放的问题,福山承认“人的本性具有很大的弹性,顺从这一本性我们能有十分充沛的选择空间”。但问题在于人性“并不是可以无限延展的”。

没错,趋利避害、趋乐避苦是人之天性,为此我们进K T V和夜店逃避工作压力,发明利他林和百忧解缓解情感的沮丧和精神的苦痛,可是我们真的愿意让技术彻底改变我们的生活乃至本性吗?比如,借助诺奇克的体验机让自己保持一辈子的兴致盎然,或者通过基因改造技术让自己像爱因斯坦一样聪明,和林志玲一样美貌?

所有的生活都是一场实验,但是生活不应该发生在化学实验室里,而是要与每个人的自然天赋相适应,通过加入各种与自然相契的元素,比如热情、努力、奋斗、梦想以及混杂着爱与痛苦的生命体验,才能认识你自己,发现你自己,成为你自己。这既是人之为人的本义,也是文化之为文化的本义。列奥·施特劳斯说,文化在今天的主要含义就是“心灵的耕种,是与心灵的自然本性相符合地照顾和改良心灵天生的诸般能力”。此处的关键词是“自然”。生物技术也许可以帮助我们治愈疾病,延长寿命,让孩子变得更加易于管教,但是它的代价却是“一些无法言说的人类品质的丧失,如天分、野心或绝对的多元性”。当人类的身体可以像乐高积木一样随建随拆,当人类的智力和情感可以像U盘一样即插即用,我们的人格同一性、生活的统一性乃至文化本身就都分崩离析了。

因此,福山说,当我们反问自身,为什么不愿意衷心拥抱赫胥黎所描述的“美丽新世界”?答案就在于,“《美丽新世界》中的人也许健康富足,但他们已经不是人类。他们已不再需要奋斗,不敢去梦想,不再拥有爱情,不能感知痛苦,不需做出艰难的道德选择,不再组成家庭,也不用去做任何传统上与人相关的事。他们身上再也没有了赋予我们人类尊严(人格)的特征。事实上,他们已经没有同人类相似的任何事情,他们被控制人员养大,分成α、β、ε、γ等等级,彼此间保持仿佛人类与其他动物的距离。在能想象的最深刻的意义上,他们的世界如此不自然,因为人性已经被更改。”

因此,福山说,当我们进一步追问,为什么赫胥黎以传统方式界定的人类如此重要?答案就在于:“我们需要继续感知痛楚,承受压抑或孤独,或是忍受令人虚弱的疾病折磨,因为这是人类作为物种存在的大部分时段所经历的。” “因为人性的保留是一个有深远意义的概念,为我们作为物种的经验提供了稳定的延续性。它与宗教一起,界定了我们最基本的价值观。”“我们试图保存全部的复杂性、进化而来的禀赋,避免自我修改。我们不希望阻断人性的统一性或连续性,以及影响基于其上的人的权利。”

也许有人认为上述思考过于悲观和保守,请允许我重复前文的那两句话:

展望现代科技的发展前景时,必须要摆脱人类中心主义的思路,唯其如此才能预见危机。

与此同时,反思现代科技所带来的伦理问题和政治问题时,人类中心主义却是必须坚持的原则和底线,唯其如此才能解除危机。

尼采在《权力意志》中说:“够了:政治将被赋予不同意义的时代正在到来。”福山用这句话作为《我们的后人类未来》的题词,用意一目了然。

不久前赫拉利在清华大学做了题为《二十一世纪会是史上最不平等的时期吗?》的演讲,他的核心论点是:“在二十一世纪,新技术将赋予人们前所未有的能力,使得富人和穷人之间有可能产生生物学意义上的鸿沟:富有的精英将能够设计他们自身或者他们的后代,使其成为生理和心理能力都更为高等的‘超人’,人类将因此分裂为不同的生物阶层,先前的社会经济阶层系统可能会转化为生物阶层系统。”

坦白说,这个观点一点都不新鲜,福山比赫拉利至少早说了二十四年。没错,是二十四年而非十四年。二十四年前也就是一九九二年,福山出版《历史的终结》,在第五部分“最后的人”中福山预言了自由民主制可能遇到的挑战:“长期来看,自由民主制之所以被从内部颠覆,要么由于过度的优越意识、要么由于过度的平等意识。我的直觉是,最终来说,对民主构成最大威胁的是前者。”

现代科技的发展——无论是生物工程、仿生工程还是无机生命工程——为少数人提供这种优越意识、成为尼采口中的“超人”创造了技术上的可能性,这将在根本上动摇福山的《历史的终结》的论点。这也正是福山在十四年前创作《我们的后人类未来》的动机所在,因为——“除非科学终结,否则历史不会终结。”

在福山的笔下,后人类的未来一点都不令人向往:“后人类的世界也许更为等级森严,比现在的世界更富有竞争性,结果社会矛盾丛生。它也许是一个任何‘共享的人性’已经消失的世界,因为我们将人类基因与如此多其他的物种相结合,以至于我们已经不再清楚什么是人类。它也许是一个处于中位数的人也能活到他/她的二百岁的世界,静坐在护士之家渴望死去而不得。或者它也可能是一个《美丽新世界》所设想的软性的专制世界,每个人都健康愉悦地生活,但完全忘记了希望、恐惧与挣扎的意义。”

面对这样一个后人类的甚至是非人类的未来,也许有人仍旧无动于衷,甚至衷心欢迎,比如有科学家曾经这样表态:“希望大家不要忘记两点:一、按照现代科学的观点,整个宇宙的生命是有限的;二、真理的尽头是信仰。长期发展的结果如何?唯一可用以回答的就是凯恩斯的名言:‘长期而言,我们都会死的。’人工智能或其他技术在此之后,任何都是可能的,但人类已经没有资格参与讨论了。”

没错,凯恩斯的确说过“长期而言,我们都会死的”。在探讨现代科技可能存在的威胁时,科学家们常引此言宽慰自己也宽慰人类,仿佛一瞬间就拥有了宇宙的尺度和胸怀。可是他们不晓得的是,凯恩斯这句话表达的不是对死亡的豁达,而是一个反讽。凯恩斯想说的是,面对迫在眉睫的市场失灵以及大面积失业的威胁,不能听之任之,不要以为从长远看,市场终会自动修复,可问题在于从长远看,我们都会死的。因此,“长期而言,我们都会死的”就是在正话反说,就是在强调时不我待,因为一般而言我们都不想死,而且只要可能,我们就不打算死。所以我们才会“饥不择食”,才会“死马当成活马医”,才会嘲笑飞蛾扑火,因为蝼蚁尚且偷生,何况人乎?为什么从个体抽象到人类之后,科学家们就会如此地视死如归,难道是因为这些威胁并不近在咫尺,难道是因为我们这一代人无须为此付出代价,还是因为科学家已经超越了个体的视角乃至人类的普遍视角,升华到了宇宙的视角?

我认同福山的这个判断:“当面临两难的技术挑战,利好与灾难如此紧密地纠葛,在我看来,只能采取唯一的一种应对措施:国家必须从政治层面规范这项技术的发展与使用,建立相关机构区分技术的进展,哪些能帮助推进人类福祉,哪些对人类尊严与快乐带来威胁。”

从观念的普及,到意向性共识的达成,最终诉诸制度性的安排和实践,这中间有太长的路要走,就此而言,福山的警示不是太早而是太晚,因为政治的运作也许已经赶不上科技指数型发展的脚步了。

我承认,在一个意义上,用政治“锁死”科技的背后,依然是一种平等主义的冲动,而且是向下拉平的冲动,是弱者联合起来防止出现无法约束的强者的冲动,是末人反击超人的冲动。但在另一个意义上,用政治“锁死”科技的背后,是对人类业已存在的文化和人性的守护,是在捍卫人之为人的尊严,是在反对由现代科技来定义“谁配称为人类”的战斗。

(《我们的后人类未来》,福山著,广西师范大学出版社出版)

Politics to " lock " technology?

猜你喜欢
福山机器人工智能
机器狗
机器狗
生命的约定
——电影《郭福山》主题歌(男中音独唱)
2019:人工智能
人工智能与就业
未来机器城
数读人工智能
下一幕,人工智能!
大娘面馆引领传统鲁菜出国门
血色红宝石