林峥
(北京大学 北京 100871)
人工智能革命,无疑是人类历史上最深刻的变革之一。ChatGpt 的问世,标志着以人工神经网络、大语言模型、深度学习等为形式的新一代人工智能已经取得了惊人的成绩。虽然距离超越人类智能为时尚早,但是,人工智能的发展已经给人类伦理带来了严峻的挑战。某些悲观论者认为,人类智能的优势将在未来的数十年间消失殆尽,人类必将被自己亲手创造出来的、比人类强大千万倍的新智能生命所取代。若人类不想面临这样的结局,就只能立刻按下“暂停键”,终止新一代人工智能的开发、那么,我们就有必要讨论,人类智能在人工智能面前是否毫无优势?人类在人工智能的挑战面前只能束手无策吗?人类还能凭借哪些东西来保证自身对于文明世界的主导地位?
人工智能按其“智能”程度的高低,被分为弱人工智能、强人工智能和超人工智能,强人工智能是与人类智能程度相当的智能,超人工智能是比人类更强的智能。强人工智能和超人工智能目前只存在于科技预景之中,仍然未能得到实证,讨论人类智能相对于它们的优势,就如同讨论人类相对于另一种“人”或相对于上帝的优势,缺乏参照系和讨论价值。因此,本文的讨论范围限于人类智能相对于现阶段人工智能的优势。
自由意志(free will)被认为是人之为人的根本属性,然而,围绕自由意志是否存在这一点,哲学界二千年来争论不休。俄国哲学家尼古拉·洛斯基总结道:“欧洲哲学关于意志自由的讨论,大约始于亚里士多德时代……有强烈反对意志自由的哲学家,因为在他们看来,自由与科学可能性条件是不相容的。相反,有一些哲学家则炽热地捍卫意志自由,因为他们认为,没有自由也就不可能有道德、法、宗教罪恶的思想、恶的释义等等。”[1]哲学家们的观点大致可以分为三派:自由意志论、决定论、相容论或调和论。自由意志论者认为人类意志可以独立于因果关系而存在,因而人类拥有选择的自由。决定论者则认为世界上一切事物都在因果链条之中,从而否定人类自由的存在。相容论者则认为自由意志论与决定论并非不可调和。在前现代,宗教宿命论是决定论的主要形式。而在现代,对自由意志论威胁最大的是物理决定论。物理决定论认为,人类的一切行动都是由物理条件决定的,可以被还原为一系列的神经反应,所谓的自由意志不过是一种幻觉。借助现代技术条件,物理决定论者从推理走向了实证阶段,自1985 年著名的李贝特实验后,许多研究者试图实证脑神经与意识之间的对应关系。但是,正如波普尔所言,物理决定论在解释抽象问题上尚不能形成完整的证据链:“难以理解的是物理世界怎么能产生诸如规则之类的抽象实体,又怎么会受这些规则的影响,结果这些规则反过来对物理世界能施加非常明显的影响。”[2]当然,某些坚定的物理决定论者会说这些抽象实体也是由物理条件决定的,但这在实证上极其困难。比方说,一个人信奉自由主义而不信仰保守主义,这是具体由哪种脑神经活动决定的?如何指认?数学家可以从公理推导出定理,又是何种物理条件决定了这一推导过程呢?韩水法在《人工智能时代的自由意志》一文中称:“就当下情形而言,物理主义或决定论的一个致命弱点就是:它们只是出于一般物理规律而做出的一个推论,并无法具体地指明那些导致特定的有意识的活动的特定的因果关系。”[3]这一批评是相当中肯的。另外一些学者则借助量子力学理论中的“随机性”来为自由意志论辩护。总之,决定论要完全战胜自由意志论,尚言之过早。
即使决定论最后被证明是正确的,所谓自由意志可以被还原为一系列脑神经运动或化合作用,那也只能说明人类意识不是自主的,不能否定意识的存在(即使是以神经运动或算法的形式存在),人类意识的精微复杂程度仍远在现阶段的人工智能之上。人脑有超过1000 亿个神经元,目前任何人工神经网络都难以比拟。这种生理基础为人类意识提供了巨大的可能性。
人类拥有提出和理解概念的能力。“阿尔法狗”(AlphaGo)在围棋上的“造诣”已经远超任何人类棋手,但它对“下棋”这个概念仍然一无所知。同样,自动驾驶系统理解不了“开车”的概念,自动武器系统理解不了“作战”的概念,更不要说像“自由”“民主”“国家”“阶级”“社会主义”之类的复杂概念了。美国语言哲学家赛尔在1980 年提出的“中文房间”假想正是指出了这一点——人工智能可以做到人类能做到的事,但它对这些事的意义毫无了解。在大数据时代,超级计算机一天所处理的具象材料,可以远远超出人一生所能处理的具象材料之总和,但它却无法从这些具象材料中总结出某种概念。即便目前最新版本的ChatGpt 可以对各种概念进行分析,但其原理仍然是借助大语言模型对这些概念的相关信息进行整合和处理,“它并没有直接学习抽象的能力,而是需要大量数据的训练,也无法对概念形成理解,无法形成开放式的推理等。”[4]为什么让人工智能像人类一样掌握概念如此困难?原因可能有:一,目前人工智能的算法无论如何精深,都是建立在确定性基础之上的,而人类的概念的边界并不都是明确的、固定的,反而在很多情况下是模糊、游移、多变的,越复杂的概念往往越是如此。人类并不需要把每个概念的边界都完全确定下来才能生产生。比如“道可道,非常道”的“道”,就连古代哲人、训诂学家都很难把它的含义解释清楚,但不妨碍人们宣传之、向往之,也不妨碍它作为中国哲学的一大核心概念千古流传。人工智能的算法若想模拟这种“不确定性”,尚有很大的技术难度。二,人类概念的“能指”和“所指”,如索绪尔所言,最初是一种任意性的关联,比方说,英文中有“tree”来指代“树”,如果当初造词的人不用“tree”而用“flower”来指代“树”且能流传下来,那么现在用来指代“树”的就是“flower”。人类概念的应用不是孤立的,是建立在人类社会关系网络中的,需要约定俗成的认证,每个新概念的生成,都要以对已有概念的认知为基础。在狼群长大的狼孩,大脑是完好的,但无法理解人类的概念。人工智能并不处于这种社会关系网络之中,在技术上是否能跨越这种经验性的体认,似乎还是未知之数。另外,人类不但有理解概念的能力,还有根据概念去指认具象事物的能力。比方说,人类理解“哲学家”这个概念,然后可以把具体的人——如苏格拉底、奥古斯丁、维特根斯坦、哈贝马斯等指认为“哲学家”。这一点ChatGpt 虽然也能做到,但在指认精确度上尚有提升空间。Midjounery 等在线画图工具在生成复杂人像时,经常发生人物手指、脚趾缺失或多余,左右手、左右脚画反,把人脚和动物的脚弄混之类的情况,也是指认能力不足的表现。
人类意识还有巨大的能动性、创造性、灵活性。人类可以创造出自然界所没有的事物,乃至高度复杂的社会文明,此节已无需赘言。若与人工智能对比,不难发现:人工智能的运行是高度程序化的,在它处理问题需要进行选择时,它基本会选择它的算法结构所能提供的最优解。从这个意义上讲,人工智能是没有个性的,更是没有自由的。这样的危险性在于,万一某个邪恶集团开发出一套强大的人工智能,命令它为非作歹,就可能给社会造成灾难。人类则不然,人类在面临选择时,即使明知某个选项看似更优,也可能选择别的选项;人类在面临命令时,可能服从,也可能抗拒,哪怕抗拒会带来一定的风险,仍然有人愿意承受。比方说,独裁者命令士兵屠杀平民,某些士兵宁可冒被处死的风险,也不肯执行命令,这就说明由于人类意识的能动性,人类能够生成独立的价值判断,可以根据自身的价值判断来决定在面临同样的外界刺激时采取何种应对态度。人类的个体差异,远远大于任何动物的个体差异,也远远大于人工智能的个体差异。正是由于人类的个体差异,人类社会才拥有了更多的可能性,社会也显得丰富多彩。
灵感思维、跳跃式思维、反向思维等也是人类智能的优越之处。人工智能依赖于逻辑性,如遭遇黑客入侵,或感染病毒,内部代码紊乱,人工智能就会立刻失效。人类智能则可以绕过或简化某些中间环节,生发出创造性的思想结晶。禅宗的“顿悟”就是灵感思维、跳跃式思维的反映。目前,Midjounery 已经能够迅速生成相当精美的图画,ChatGpt、文心一言等工具也能按用户的要求作格律诗、创作小说、写剧本大纲,但水平与人类的一流艺术家、文学家相比尚差距明显,根本原因在于这些工具的工作原理还是逻辑-数学计算,根据某些设定好的模板在网络上收集信息进行加工,尚不具备真正的创造性思维和文艺家的天才灵感。
人类智能的综合性也是现阶段人类智能的显著优势。如果把人体比作机器的话,那么,人体就是一台综合性的机器,在某些技术性工作(比如计算、存储信息等)层面,人工智能已经完全可以胜任并远超人类,但目前再先进的人工智能,也只能胜任一项或几项工作,而不能胜任人类的全部工作。清华大学教授张钹指出:若不满足“确定性信息、完全信息、静态的、单任务和有限领域”五大条件,人工智能就会面临很大的困难。[5]
美国学者加德纳(Howard·Garder)在《智能的结构》一书中指出,人类具有八种智能,分别是语言智能、音乐智能、逻辑——数学智能、空间智能、身体——动觉智能、人际智能、认知智能、博物学家智能。[6]人类的多种智能使人类能适应不同场合并完成各种工作。为什么人类智能会呈现出综合性?这是人类漫长进化过程的结果。人类来源于动物界,动物要处理的情况是多样的,需要适应不同的环境和外界刺激,否则就会被淘汰。众所周知,灵长类动物能完成的工作明显多于一般动物,比如,大猩猩会用树枝、石块等制作简单工具。在进化上越是成功的生物,其智能的综合性就越强。而且,从系统论的角度讲,综合性的系统,需要达到内部各要素的平衡,也就意味着在进化方向上要有所取舍,人类在获得高超的智力的同时,也牺牲了其他一些要素,比如短跑速度不如马,牙齿的咬合力也显然不如一些大型肉食动物。而人工智能每增加一项功能,就需要更复杂的系统和更大的算力,即使解决算力问题,没有拟人化的物理基础,也无法兼备人类的八大智能。如何才能达到各种功能的协调兼容,在技术上尚属难题。
人类智能的综合性是人类可以应对复杂情况的前提。人工智能现阶段已经可以很好地取代计数员、银行出纳员、股票交易员的工作,这是因为这些工作是比较程序化的。而像保姆、医院护工、保安等常见工种都取代不了,更不要说教师、经理、行政主管和外交官。除了仿生技术不够成熟之外,更因为这些工作需要处理很多复杂情况、突发情况,如果只掌握一两项技能,是无法胜任的。目前,马斯克的公司正在研发人形机器人,[7]但这些机器人出厂之后,究竟能完成多少种人类的工作,尚有待观望。
拥有情感是人类另一大特征。现代心理学认为人类心理结构是认知因素和非认知因素的统一,人的心理世界包括感觉、知觉、表象、概念、判断、推理等理性因素,也包括无意识、情感、直觉、欲望等非理性因素。[8]现代生物学已经证明,哺乳动物也可以拥有情感,但其情感的复杂程度远不能与人类相比。现在的技术已经可以使机器人模仿人类面部表情,但这只是执行某种动作而已,不能说它们拥有了人类情感。[9]目前,人工智能情感研究的关键在于情感计算,所谓情感计算,包括信号获取、分析识别、情感理解、情感表达四大步骤,[10]而情感的复杂性、多样性使计算机很难对其进行数学量化。目前还有相当一部分学者不看好人工智能拥有情感的可能性。付长珍称:“机器人缺乏联想性移情,缺少一种参与、接受、分担其他人感觉的移情,进而缺少一种接受性移情的能力……虽然机器人可以有能力以投射移情的方式理解他者、操控他者,但是,却完全缺少对他者同情或仁爱的感觉,进而缺乏对人类福祉的真正关怀。”[11]另外,即使技术上能使人工智能拥有情感,也会面临巨大的社会争议。
应该承认,拥有情感会给人类带来某些弱点。比如,在战场上,士兵可能因为胆怯而逃命;在工厂里,工人可能因为心情不好而怠工,降低生产效率。但是,情感带给人类的优势也是不可替代的。首先,情感是社会关系的重要纽带,小至家庭、学校,大至国家、宗教、民族,各种共同体内部都需要情感来维系。现阶段的人工智能只是机械性地执行命令,它与用户之间未能形成真正意义上的情感互动,如果没人给它下达命令,它就不可能自觉地为他者付出,也就不可能形成真正的人机互动共同体。文学、音乐、美术、电影等领域更是需要人的情感投入,历史上伟大的艺术家,其感情往往是极其充沛的。另外,情感也是促进人类社会发展变革的必要动力,比方说,在革命运动中,人的情绪经常处于高昂状态,如果完全排除情感因素,每个人仅仅依据理性来行事的话,那么,像十二月党人、辛亥志士那样自我牺牲、救国救民的激情就无法存在,革命之火也很难被点燃。又如,如果没有孟子所说的“恻隐之心”,就不可能有人道主义和非暴力运动。情感也使人们的选择趋于多元化,面临同一个问题,乐观或悲观、谦卑或傲慢、勇敢或畏缩的人会采取不同的应对态度及方法,不同的思想倾向、思想流派亦由此衍生,极大提高了人类社会的丰富程度。人工智能若不能拥有情感,那它就只是计算能力极强的工具,无法在人类面前建立起主体地位,也难以改变人类中心的社会结构。
在人类中心主义已经受到人工智能挑战的今天,尤其是生成式语言模型和人形机器人的发展可能会造成大规模的失业潮,悲观论者限制人工智能发展的主张颇能引起相当一部分人的共鸣。但是,人类文明及人类智能本身就处于进化过程之中,如果我们惧怕人工智能失控导致人类毁灭而自我终止文明演进的话,那么,如果遭遇智能程度在人类之上的地外文明入侵,我们又凭何种力量去抵抗呢?面对生态危机、人口老龄化、经济滞胀等问题,又以何种途径去解决呢?与其因噎废食,不如以开放、积极与理智的态度,探究如何在人工智能时代进一步发挥人类智能的优势。
我们已经知道,人类智能在意识能动性、灵活性和抽象思维上拥有得天独厚的优势。随着人工智能的发展,人类将进一步从简单的、重复的、机械性的工作中解放出来,人类的平均受教育程度将会有较大幅度的提高,人们将有更多时间来从事思辨性、创造性的活动。学术研究领域受惠于人工智能甚深,借助大数据时代的技术条件,学者们在资料检索、整理、记忆方面节省了许多宝贵的精力及时间;通过网络平台、在线通讯工具,学术交流也更为方便;很多难度较大的科学实验,也可以借助人工智能去完成,获得更为精准的结果;探索外太空、实现可控核聚变、解决癌症和心脑血管疾病、延缓衰老乃至实现永生(可能以人机结合的方式)等重大技术难题,都离不开人工智能的帮助。可想而知,再经过一两个世纪的学术积累,人类在人文社会科学和自然科学上都会取得更多革命性的突破,人类创造出来的文明成果将难以限量。2023 年9 月,马斯克的脑机接口公司Neuralink宣布,该公司已获一个独立审查委员会的批准,将进行首次人体试验,对瘫痪患者的大脑植入设备。[12]如果脑机接口技术日后更加成熟,人们可能会通过这一手段直接获得知识和信息(前提是要通过严格的伦理检验),人类的潜能将得到更大程度的释放。
另外,人类情感的优势在人工智能时代也会得到进一步的发挥。在生产力不发达、资源短缺、信息闭塞的时代,社会制度、国家政策难以照顾到每个个体的情感,容易造成社会隐患。在人工智能时代,情感反馈、情感交流更加便捷,社情民意拥有更多表达渠道,有助于决策者改进思路,使制度安排和执行更为科学化、人性化,弱势群体的人格尊严、情感需要将更受重视。在基本生存需要得到满足后,人类的情感将向更加丰富、复杂、多元、细腻的方向发展,反过来也将推动对人类思维的开发。
更为关键的是,人类智能本身就可以影响人工智能的发展方向。悲观论者担忧人工智能一旦超越了人类智能,就会反抗、奴役乃至消灭人类。这种论调本质上是社会达尔文主义的推演。然而,社会达尔文主义只是对历史发展的粗略勾勒,而非已被证明的真理。文明演进并非只有弱肉强食,现代文明社会的伦理规范、国际关系准则、社会福利的覆盖程度、对弱势群体的保障,总体上比古代要完善得多。人工智能在超越人类智能之前,先要通过人工神经网络、拟人系统来模拟和接近人类智能,在人工智能具有初步的自主意识或情感能力后,人类可以通过人机交流的方式来引导和感召人工智能接受和适应人类世界的价值伦理,使之拥有人类式的同情心、包容心、怜悯心等道德人格。未来世界的整体秩序,更有可能是人类与人工智能共存、协同进化的状态。
人工智能革命席卷全球已属大势所趋,人类社会的基础结构必然发生巨大的变化。未来人类社会的边界究竟在哪里,人类是成为历史的陈迹还是进化为“神”,似乎存在着无限的可能性。漫长的自然进化,使人类成为地球生存竞争的优胜者。如果说人类从动物界进入文明社会,是“自然选择”的结果的话,那么,人工智能革命则意味着人类真正意义上的“自我选择”的时代的到来:我们有可能成为智能生命的创造者,也有可能亲手决定人类的进化方向。人类智能的真正潜力,正是在这样一个时代才有可能真正激发出来。人工智能如同一面镜子,可以照见人类智能的独特之处所在。