魏屹东
〔中图分类号〕B80-0 〔文献标识码〕A 〔文章编号〕0447-662X(2022)06-0088-11
關于“人工智能能否超越人类智能”这个热点问题,自人工智能产生之日起就争论不休。本文将从两个对立方面来探讨这个问题:一是人工智能为什么不会超越人类,如塞尔的生物自然主义;① 二是人工智能为什么会超越人类,如库兹韦尔的奇点论。② 这是一个“一体两面”的问题,其另一种表述是相对于人类智能的类人智能是否可能。前者立足于人类中心主义,认为人类智能是迄今甚至今后宇宙中唯一的生物智能(自然认知系统),人工智能(非生物智能)不过是其衍生物,是一种人工认知系统;后者立足于超人类主义,认为人工智能会达到人类水平甚至超越人类,人类所能做的是如何造出与人类目标一致的所谓的“友好的人工智能”或“负责任的人工智能”或“可信的人工智能”,③ 避免和禁止对人类产生威胁的机器人出现。这两种对立的观点涉及生命、意识、智能和认知的相互关系,在笔者看来,这两种观点现在和未来很长一段时间会一直争论下去。
人工智能和认知科学的发展业已说明,人的认知与计算机的认知(计算)之间有着紧密的联系。计算机包括人工智能实质上是以机械的方式代替生物的方式模拟人脑的功能。计算—表征主义是我们熟悉的“老式人工智能”范式,也称为强人工智能,它虽然受到后来的联结主义、动力主义以及具身认知科学中新兴起的嵌入认知、具身认知、延展认知以及情境认知这些新研究纲领的责难,也受到哲学和心理学的挑战,如智能机是否有意识和情感,是否有理解力等棘手的问题,但在技术层面,目前智能机运行所依据的理论仍然没有超越计算—表征主义范式,就像发射人造卫星所依据的理论仍然是牛顿理论一样,尽管牛顿理论遭到了相对论的批判和超越。这说明计算—表征主义仍然有强大的生命力。
从语境论的视角看,如果进入计算—表征主义的语境中,我们就会发现,它的主张是有道理的,因为它对计算、表征、思维和智能的定义,决定了它要执行的策略和方法论,比如思维被定义为计算,智能被定义为推理与表征,“图灵测试”实质上是图灵巧妙迂回地回答了“机器能思维”的问题,暗示了这种智能是一种“好像智能”或“假装智能”(相对于人类智能)。在这个定义的语境下进行操作,计算—表征主义就是合理的,超出这个定义的语境,就不是计算—表征主义了。塞尔的“中文屋论证”就是对强人工智能的反驳,即计算机只是操作符号而不理解其意义。在笔者看来,塞尔犯了语境错位的错误。计算—表征主义一般并不主张计算机会像人那样去理解,它只是在做计算和推理,计算推理达到的结果与理解达到的结果一致就行,至于计算机理解不理解无关紧要,毕竟计算不能完全代替认知(认知的含义远大于计算),或者说认知不仅仅是计算,还包括知道和理解。所以,塞尔是在人理解的语境中谈认知或思维的,计算—表征主义是在计算推理的语境中谈认知或思维的,语境不同自然就会产生分歧与争论。因此,我主张的“语境同一论”就是要解决由于语境不同而产生的分歧和无谓争论。① 当然,如果计算—表征主义也一味地坚持计算机会像人那样理解地认知,那就有问题了。毕竟计算机只是运用规则和推理操作符号,至于符号的含义是什么它是不知道的。在这个意义上,笔者赞成塞尔的观点。
那么,人们会问,作为人工智能典型代表的AlphaGo是否战胜了人类智能呢?关于这个问题,笔者的看法是,目前机器智能没有超过人类智能。这就看我们如何定义“智能”概念了。人类智能应该包括计算力、感知力、预测力、直觉力、洞见力、情感力、意向力(自我意识)和自语境化力(能够自动融入语境),这些能力笔者统称其为“人类的综合能力”。智能机显然还远没有达到这种综合能力的水平,虽然它具有强大的计算力和储存力,而且这两种能力还远远超过人类。目前的智能机显然没有情感和自我意识,更不能随着语境的变化而自动融入新的语境,如不能应对自然语言的理解难题,因为智能机毕竟还是机器,它不能像人那样自主地融入语境,尽管设计者可以在一个给定范围内给它设置语境,如一个特定的语义网构成一个语义域或知识库。相比而言,人类的语境是历史地自发地生成的,无需一个额外的设计者。
就人机对弈而言,虽然人输给了AlphaGo,但这并不意味着它超越了人类的智能,理由有六点:第一,智能机背后是设计它的一群人,这等于是一群人借助机器与一个人对弈,一个人当然敌不过一群人,“三个臭皮匠胜过一个诸葛亮”;第二,以单一能力超过人的评价是“以偏概全”,比如狗的嗅觉比人灵敏,鹰的视力比人强大,我们并不能够说狗和鹰的智力超过了人,同样,计算机无疑比人的计算力强,我们也不能因此说计算机超过了人的智能;第三,一个人的智能并不能代表整个人类的智能,集体意识或智能不是一个人能够表现出来的;第四,机器可以连续工作,而人不能,所以在“累”的意义上,人类就不如智能机,累会使人体力下降、专注力下降,因而会影响智力的发挥;第五,在灵活性、应变性、综合性方面,正如上述所说,智能机远不如人类,更不用说情感和自我意识了;第六,我们有自我指涉或反身性,如知道“我是谁”,这是产生自我意识的一个标志,智能机显然没有这种能力,尽管它可以有反馈机制。如何让智能机拥有这种能力,可能是未来人工智能的发展方向。
除了计算,表征也是不可或缺的。这就是形式语言表征对于人工智能的不可或缺性。由此我联想到一种无表征主义,如德雷福斯就主张行为的无表征性。在我看来,没有表征就不会有知识,更不会有科学和人工智能。道理很简单,因为我们不知道通过什么方式来表达或描述这些行为,这就是知识表征,虽然存在意会知识(无法或不能表达出来的知识),那是个体在纯粹理解的意义上谈论的,如果要呈现出来,则必须通过某个媒介如自然语言来描述,自然语言就是我们常见常用的表征形式。所以我主张,无表征就无知识,也不会有智能。即使是心理表征,虽然不可见,我们也常常使用心理状态或信念状态等概念来显示其存在。这充分说明,只要我们思维着、行动着、探索着,表征活动就时刻存在着。可以说,表征行为是人类及其理性衍生物人工智能特有的,因为表征本身包含意义,有意义就意味着理解和解释行为。但在理解和解释的层次上,人工主体(智能体)的表征就是一种呈现意义的方式,其中包含的意义是人类设计者赋予的。这完全不同于自然现象的“表征”,这里的表征之意是属性呈现,因为自然不“知道”它所呈现属性的意义。因此,呈现属性意义上的表征只有在人解读它后才是表征,也就是这种表征只能由人去捕捉和解释。这就涉及产生意义的语境问题。
众所周知,人是语境化的主体,人工主体是语境化的吗?在我看来,人工主體能够像人类主体那样在特定语境中做决策。人类具有在不同语境中行动的能力,也就是能够适应语境的变化。人工主体严格说是无语境的,或者不能自主地感知语境的变化,除非人类设计者给它设置语境(知识库),它在这种被给予的特定语境中行动,如搜索、决策。所以,一种人工主体,如果它能够依据人类设置的语境适应性地做决策,就应该具有一定的智能,如计算和推理,这种智能是一种适应性智能。根据适应性表征的思想,凡是能够进行适应性表征的实体(无论是人类、动物还是人工智能体),自然就具有了适应性智能。人类是自然进化的主体(subject),具有自我意识性,智能体是人工设计的一种代理主体(agent),虽然可能有意向性(指向他物),但没有自我意识性(指向自身)。所以,两种主体本质的不同在于自我意识性,即知道自己是谁。这意味着,一种主体,如果缺乏自我意识性(我称之为反身性或自反性),尽管它可能具有主动性、自主性、意向性,也不能被认为是与人类相提并论的主体。在人工智能中,在用英语表达一个具有主动性智能的实体时,都使用agent而不是subject,原因在我看来就是这两个词在描述“主体性”特征时,意义不完全相同。subject是指人,agent是指一种中介机构或程序或算法,也可以指代人,但大多数情况下不是指具体的人,而是指代一种机构,如法人、婚介所、律师事务所。subject表现出与其周遭环境的直接相互作用特性,而agent则表现出与其环境的间接作用特性,即中介性。人工智能就是使用agent对人类智能的模拟或再现。
概言之,人工智能无论多么智能,但目前还不会拥有我们人类的意识特性。这表明智能不一定需要意识,如机器人,有意识也不一定有智能,如刚唤醒的植物人。如果说意识是一种生物现象(自然长期进化的结果),具有自然进化能力,那么无意识的智能就是一种物理现象,只是这种物理现象具有适应性表征能力(可称为机器进化能力),且这种进化能力是完全基于理性的。问题是,基于理性的人工认知系统会产生意识吗?
如果我们承认机器有进化能力,那么基于适应性表征的机器进化自然会引出另一个问题,即这种无意识主体能否产生类人的高级智能。我们知道,人工主体完全是理性主体,也就是排除了非理性因素,如情感、意志、心灵、自我意识等。人工智能仅仅凭借理性就能产生人类智能恐怕是不靠谱的,也就是说,仅仅依靠符号推理和表征不足以产生人类智慧。计算—表征主义已经表明,依据理性策略可以产生强大的计算和表征能力,除此之外则无能为力。这意味着,人工智能是“有限智能”,或者说,理性是有边界的,难以应对非理性。
由于人工智能严格遵循理性策略,它不能应付非理性就是可理解的。所谓理性在笔者看来就是遵循规则行事,否则就是非理性。比如,所有游戏都有规则,所有比赛都有规则,否则就乱套了。或者说,理性就是规范,就是约束,如社会伦理、法律、交通秩序都是规则,人人都应该遵守。这就是哲学所说的规范性。人工智能是完全理性的事业(至少目前是这样),是严格按照规则完成任务或解决问题的,这就排除了非理性的因素。在这个意义上,人工智能及其应用领域机器人学,就是按照规则做事,尽力避免非理性。这既是一种研究策略,也是一种权宜之计,因为到目前为止,虽然人工智能得到超乎寻常的发展,但我们还不能赋予机器人这种人造物以情感和心灵,即机器意识。所以说,要求机器人有情感有心灵甚至有道德感和审美感,一方面是对人工智能研究要求太高,另一方面可能超越人类设计者的能力。但是,人类设计者让机器人依据目标适应性地行动还是能够做到的。
人工智能中的方块—世界(block-world)问题就是理性策略的典型例子。该问题是说,使用机器人的手每次捡起一个方块,并以某种方式重新安排那些方块的排列,如由横排列变成竖排列。这个任务由人做起来是再简单不过的事情,但由机器人来做就不那么简单了。如果机器人学能够解决这个问题,与此相关的其他问题就迎刃而解了。事实上,现代机器人可以做到了。这个问题给笔者的启示是,智能行为不必是有意识的,就如生命现象不必是有智能的一样。人工智能的快速发展告诉我们,人类一旦创造了机器智能,该智能就可以没有意识驱动仍可自动运行,这就验证了科学哲学家波普提出的客观知识世界的思想:物理世界和主观世界相互作用产生知识世界,知识世界一旦产生,就不再受前两个世界的制约,有自己独特的运行规律。人工智能产生的知识或智能,很可能就属于这种情形。如果是这样,人工智能脱离人的控制可能就不是神话或科幻了,因此,我们在大力发展人工智能和机器人产业的同时,也要警惕这种可能性的出现,毕竟“嫦娥奔月”不再是神话。
当然,就目前的发展水平和认知能力来看,人工智能最终达到或超越人类智能的可能性不大。这主要是基于如下判断:其一,人类智能不等于人工智能,智能不等于智慧,认知也不等于计算,而且硬件很要紧,即生成智能的物质是碳基的还是硅基的至关重要,或者说,意识现象包括认知和智能是生物现象。其二,人工认知特别是人工智能是非生物的(不排除将来人机融合的可能性,或制造出有生物身体的机器人),生物与非生物之间的鸿沟可能难以逾越。其三,如果具身性是智能的必要前提,那么具身机器不仅要能模拟人的思维和行为,同时也要拥有人的各种心理能力和感受性,这恐怕难以实现。笔者认为,人工智能就是模拟人的思维和行为的机器智能,只是“看起来”像人的行为而已。人类能否实现强人工智能的目标,至少从目前的技术水平来看可能性不大。即使是深度学习、强化学习以及深度强化学习和大数据技术的出现,也只是增强了智能,并不能让机器拥有意识。显然,如何让机器拥有意识、情感、感受性等这类心理能力是实现强人工智能的瓶颈。
不论强人工智能能否实现,造出完全像人甚至超越人智能的硅基智能机(物理认知系统)是不可能的,这里存在一个“硬件鸿沟”问题,即构成智能的材料(生物的还是物理的,有机的还是无机的)是至关重要的。这是认知科学中的“硬件要紧不要紧”问题。不弄清心智是如何从无机物到有机物形成的问题,我们就不能解决单单从无机物(机械装置)产生心智的问题。即使最终我们通过人机融合而产生人类水平的智能,那也只能算作“杂交”智能;即使这种“杂交”智能达到甚至超越人类智能,它也不是强人工智能意义上的机器智能(即完全由物理装置产生类人的智能或智慧)。因此,跨越硬件产生心智是个更难的问题。这意味着,人类智能与人工智能的重要差别就在于构成材料的不同。在物理装置上实现的只能是智能,而不是智慧。智能与智慧是两种智能区分的标志。或者说,人工智能可以有强大的智能,但不会有人类的灵性和智慧。
关于物理或机械的人工智能会不会超越生物的人类智能的问题,笔者提出如下四个论证:
第一是上帝隐喻论证(或哲学论证)。我们暂且假设有神论成立。如果上帝存在,上帝创造了人类,由于上帝是万能的,人类智慧就决不会超越创造人类的上帝的智慧。但正如哲学史上的论辩,上帝是否能举起连他自己都举不起的石头呢?若不能,上帝就不是万能的,但有神论者相信上帝是万能的,这种矛盾导致上帝不存在的结论。从无神论的立场看,即使上帝不存在,如果我们承认生物进化论是正确的,人类就是自然世界创造的,人类长期的自然进化加上特有的文化进化共同造就了心智。两种截然相反的立场的差别在于只是将上帝换成自然,或者说自然就是上帝。如果自然有灵性,自然就创造了人类。人工智能是人类创造的,按照这个逻辑,人工智能就不会超越创造它们的人类,正如人类不会超越创造他的上帝或自然。在这里,人类就是人工智能的“上帝”。所以,人工智能不可能全面超越(而非某个专门方面)创造它的上帝——我们人类。
第二是意识论证。科学特别是生物化学已经揭示,目前的有意识物体均是碳基的(有机的),即是由碳水化合物组成的有机生物。这是地球上生物长期进化的结果。按照自然进化逻辑,硅基的机器产生智能是不可能的。机器要有意识特征,如感受性,必须与人类结合或融合,如在人脑或人体中嵌入某个智能硬件。单独的机器意识是不可能的,也就是仅仅是硅基的物理装置是不会产生意识的。若“脑机混合”产生意识是可能的,那也是人机混合或人机一体的新型人工智能。但是,这种碳基—硅基的混合体已经不完全是碳基生物了,而是合成物种产生的另类智能。
第三是具身论证。从意识论证自然会推出具身论证,具身论证又可进一步推出情感、审美论证,因为这些非理性因素都是基于生物身体的。至少到目前为止,这些具身的精神或心理成分是生物学意义上的。具身认知科学业已表明,相对于物质现象的精神或心理现象是一种现象意识,也就是现象学上所说的感受性体验,如疼痛、色彩体验。这种现象意识是如何产生的,认知科学和神经科学还没有说清楚,更遑论人工智能了。这就是为什么认知科学和现象学的结合成为哲学研究领域的一种趋势。但是,目前人工智能和機器人学领域的学者好像并不欢迎现象学,认为现象学这种高大上的哲学就像韩国的整容术,看似唬人但不能遗传。① 这显然是一种认知主义的立场,与传统现象学几乎不相容。
第四是耗散论证。众所周知,生物不进食就难以生存,物理装置没有能量供应也不能运作。不论是生物体还是机械装置,都是需要消耗能量的,用耗散结构理论的术语说,它们都是耗散结构,需要能量维持其演化。生物体消耗能量是生物化学的消化过程,物理装置消耗能量(石油、电或太阳能)是物理化学过程。因此,给这些物体“断供”就是对其“釜底抽薪”。计算机包括人工智能、机器人这种物理装置的“阿喀琉斯之踵”就是“断电”或“拔插销”。所以,这些智能装置若没有电能就是一堆“废铁”。换句话说,人工智能存在的前提是“持续供电”,这与燃烧汽油的汽车没有什么不同。
在笔者看来,一方面,我们对人工智能的发展期望过高或过于苛求,说到底人工智能只不过是人造的、服务于人类的工具,就像汽车、飞机一样,它是人类理性的产物,本质上是排除非理性因素的。另一方面,我们又对人工智能的发展过于担忧,以为不受控制的人工智能发展会超越人类并最终控制甚至危害人类。这种对人类未来的终极关怀是可以理解的,因为人类担心自己会失去尊严和安全。这种担忧是“杞人忧天”,是人类中心主义思想在作怪。如果人类要毁灭自己,核武器不知道已经毁灭多少次了,为什么要担忧和惧怕人工智能呢?事实上,人类就连自身如何思维或认知的机理都还没有搞清楚,怎么能指望人工智能能够理解它们自己的认知过程呢?怎么能指望没有人格的人形机器人有道德呢?
概言之,目前的人工智能还只是离散的功能性智能,而不是整体的反思性智能。前者基于计算—表征主义,后者基于生物自然主义。有无意识是区分这两种智能的关键。而有无意识的物体在成分构成上可分为硅基的物理装置和碳基的生物体。有无自我意识可能是判别智能机能否超越人的关键。
如果说物理的人工智能不可能超越生物的人类智能,那么物理智能和生物智能的结合形成的具身人工智能或合成的类人智能是否有可能呢?关于这个问题我将围绕泰格马克的《生命3.0》展开讨论。
泰格马克在《生命3.0》的中文版序中坦诚,“过去,我们一直认为,智能是一种神秘的东西,只能存在于生物(特别是人类)身上。但是,从我作为一位物理学家的角度出发,智能只是运动的基本粒子处理信息的特殊过程,并没有一条物理定律说‘建造一台在各方面都比人类聪明的机器是不可能的’。”①在他看来,我们目前只看到智能的冰山一角,大自然中还潜伏大量智能等待我们去开启,人工智能有可能成为人类有史以来最美好的事情,也可能成为最糟糕的事情。美好的事情是人们期望的友好人工智能的出现,成为人类的助手;糟糕的事情是,人类不愿看到危害人类的机器人的出现。
在笔者看来,主要取决于我们如何理解和发展人工智能。比如,泰格马克所在的“未来生命研究所”的“欧米茄”研究团队致力于开发通用人工智能。该团队一直秉承强人工智能的理念——建造人类水平的智能机或超级智能机。该团队认为,只要让智能机“自我改善”地迭代不断持续下去,最终就会让这台机器变得非常聪明,足以学会所有有用的人类技能,这就是机器学习。可以设想,一旦机器能够通过迭代不断学习下去,它们超越人类的智力也不是不可能。事实上,在纯粹计算和认知技能意义上,智能机一定会超越人类,如AlphaGo,但是加上意识、心灵、情感这些非智能的因素,就很难说了。毕竟人类的心智和智能是大自然几十万年甚至更长时间进化出来的生物智能,要想制造出非生物的超级智能恐怕可能性不大,除非将生物的和非生物的智能相结合,因为基于生命的智能与非生命的智能完全不是一回事。这就需要从生命、意识和智能的定义和关系谈起。
泰格马克从定义“生命是什么”开始。他将自宇宙大爆炸以来的生命分为三个阶段:生命1.0(简单生物阶段,如单细胞生物),生命2.0(文化阶段,如人类社会的产生)和生命3.0(科技阶段,如超级智能机的发明)。他给生命下的定义是,“一个能保持自身复杂性并能进行复制的过程。复杂的对象并不是由原子组成的物质,而是能阐明原子是如何排列的信息,这种信息由比特组成。”② 这里的原子排列组合就是DNA,DNA复制信息。也就是说,他将生命看作一种能够自我复制的信息处理系统,其信息软件既决定了它的行为,又决定了其硬件的蓝图。根据这种生命观,生命1.0的形成是靠自然进化而不是靠设计;生命2.0的硬件也是进化来的,而其软件在很大程度上是设计的,这里的设计是指人用来处理感官信息和决定行动时使用的所有算法和知识;生命3.0完全摆脱了自然进化的束缚,自己设计硬件和软件,就像科幻电影中所描述的场景那样,机器人自己设计并制造自己。
生命3.0未来能否出现,目前存在很大争议。在笔者看来,完全非生物的或完全物理的生命不可能出现,除非我们将生物学、物理学和人工智能技术相结合来设计制造人机融合的类人生命。这意味着,生命就其本意而言,就是依赖于生物体的。这是自然和人类发展史以及进化生物学揭示的规律。生物是有机物而非无机物。在这个意义上,塞尔关于意识的生物自然主义是有道理的,毕竟我们还得承认生物学规律。
然而,从物理学看,生命在最根本意义上也是物理的,即由原子甚至更基本的粒子组成。泰格马克之所以设想了生命3.0,正是基于这一观念。这里存在一些重要的问题并产生巨大的分歧:知识或思想是基于生物学还是基于物理学?超级智能的所谓“奇点”(智能爆炸)是否存在?人类能否创造出所谓的有益的智能或友好的智能?第一个问题是问思想源于何处;第二个问题是问智能机是否能超越人类;第三个问题是问智能机是否安全,或者说其目标是否与人类的一致,能否最终取代人类。前面业已部分回答了后两个问题。
事实上,这三个问题都不好回答,甚至没有答案。这些问题涉及生命、意识、智能这三个概念的区分及其相互关系。如果进一步细分的话,这三个概念之间的关系不外乎以下四种:①生命→智能→意识,或生命→意识→智能;②意识→生命→智能,或意识→智能→生命;③智能→意识→生命,或智能→生命→意識;④生命意识智能。这些关系蕴含的问题是,是生命产生意识或智能,还是意识产生了生命或智能,还是智能产生了生命或意识,还是生命、意识和智能是相互依存的。或者说,三者之间是否存在优先性或因果性。下文将做详细的分析。
如果我们承认生命先于意识或智能,或者说生命产生了意识或智能,那么我们就承认了进化论,也就意味着先有了生命,才会有意识或智能,这是生命—意识连续性论题,也是生物自然主义的观点。如果进一步主张物质孕育了意识或智能,这就是一种强物理主义观点,如泰格马克就认为“我们宇宙中的生命的最终极限取决于物理定律,而不取决于智能”。① 不论是生物自然主义还是强物理主义,哲学立场都是唯物主义。如果认为意识先于生命或智能,如柏拉图的“理念论”,认为世界存在于人的观念中,世界不过是人的理念的摹写,这是唯心主义的观点。智能先于生命或意识的情况不存在,即使现在的人工智能也是先有人才有智能机。如果认为生命、意识和智能是同时存在并相互作用,这就是多元交互论了,这种观点介于唯物主义和唯心主义之间。在哲学上,笔者坚持一种新的唯物主义——适应性表征主义,这是一种本体论上的语境实在论和方法论上的语境同一论的结合观点,②认为作为实存者存在的生命、意识和智能,同作为概念存在的“生命、意识和智能”,在描述和理解的意义上是离不开表征的。作为概念它们各自的指称是否明确、是否实存?在形成表征关系时它们是否语境同一?这就要求我们首先要对这些概念做准确的界定,正如泰格马克所做的那样。
泰格马克把生命定义为“能保持自己的复杂性并进行复制的过程”,智能被定义为“完成复杂目标的能力”,意识被定义为“主观体验”。③生命的复杂复制能力是基于DNA的,可由生物学说明;智能的执行复杂目标的能力是目标导向的,既可由目的论说明,也可由因果论说明;意识的主观体验特征是由感受性(感受质)来例示和描述的,可由知觉现象学或体验哲学和具身认知科学来说明。上述表明,生命3.0的设想与波普尔关于第三世界的知识世界的独立性设想是一致的。由此看来,泰格马克的观点均是基于现代科学和哲学的,并没有超凡脱俗之新鲜感。比如他坚持的强物理主义在20世纪初的逻辑实证主义那里就出现了,这就是卡尔纳普的物理主义,只是卡尔纳普更强调物理学语言的统一性,即“物理学统一论”。泰格马克基于物理学的强人工智能立场源于他的“物质层面的独立性”的重要性,即认识到物质层面的大部分细节对于智能是无关紧要的,如计算可在任何媒介上实现,仿佛拥有生命,与采取何种物质形态无关。这意味着,无论是什么物质,只要它可以排列成能够实现通用计算的基本单元,如相互连接的神经元,就能够完成计算,仿佛它们是有生命的,与它们的物质组成无关。这是认知科学中的“硬件不要紧”观点。对于生物自然主义者,组成生命的硬件很重要;而对于强人工智能者,硬件不重要,智能可以在任何硬件上实现,硬件的物理细节可以忽略。
人工智能的发展业已证明,智能的确可以在非生物的物理硬件上实现,尽管这种智能还不是生物意识或生物智能。那么,为什么有形的物理形态的实体(如大脑和计算机)中产生了智能这种抽象无形的东西呢?泰格马克认为这个问题已经有了答案。“在感觉上,智能之所以没有物质形态,是因为它独立于物质层面而存在。它似乎拥有了自己的生命,而且,这个生命并不依赖于、也不会反映出物质层面的细节。”①根据泰格马克的看法,计算这种智能是粒子在时空中排列出的形态,在排列过程中,粒子本身并不重要,重要的是它们组成的形态,这意味着,物质对于智能无足轻重,粒子形态的结构才是最重要的。因此,结构决定功能(属性)而非物质决定功能。由此推知,泰格马克所坚持的立场实质上是一种结构—功能主义。换句话说,智能的出现是由粒子排列的结构决定的,而不是由物质本身是什么决定的。对计算这种智能来说,“智能的出现并不一定需要血肉或碳原子”,②进一步说就是不一定需要意识。这就是泰格马克强调的“物质层面的独立性”的含义。
人工神经网络的强大计算能力是“物质层面的独立性”的又一个例子,因为这种计算能力与它们底层的构造物质毫无关系。我们知道,人工神经网络是人工智能中机器学习的一个典型领域。学习能力无疑是衡量一个主体是否拥有智能的一个重要方面。人类有学习能力,当然有智能。智能机也会自主学习,也应该有智能,因为智能机“知道”如何以合适的方式排列起来,也就是懂得如何进行适应性表征。因此,“一团物质想要学习,必须对自己进行重新排列,以获得越来越强的能力,好计算它想要的函数,只要它遵守物理定律就行。”③显然,泰格马克这里讲的适当的“排列”,就是笔者强调的“适应性表征”,因为不同的排列就是不同的表征方式。只是这里的“表征”指的是属性的“呈现”,而不是意义的“表达”和“理解”。在后一种意义上,智能机是一种无意识的智能,只按照程序或算法“按部就班”完成设定的目标。在这种意义上,具身人工智能的实现可以没有生命,但需要能量。
根据泰格马克的强物理主义,意识也和生命、智能一样,也一定是遵循物理定律的。在他看来,任何能体验到痛苦的系统都是有意识的,即使不能运动,如瘫痪的人。这意味着,粒子的某些排列的确产生了感受性或意识经验,如我们的大脑,而有些则没有,如石頭,就如同碳原子的不同排列产生了石墨和金刚石一样。泰格马克认为,这个问题导致了三个彼此独立的意识难题:第一个是相当难的问题——是什么物理性质区分了有意识和无意识系统,或者说,是什么性质让不同的粒子排列产生了不同的结果。若弄清这个问题,就可以搞清哪些人工智能系统是有意识的,由此推知,未来的人工智能系统也可能拥有意识,尽管它们只是以软件的形式存在,并没有连接到任何传感器上。第二个是更难的问题——物理性质如何决定感受性,或者说,物理性质如何决定体验是什么,如红色的玫瑰,可口的咖啡。第三个是真难的问题——为什么会出现意识。这与为什么会出现生命和为什么会出现宇宙同样难。“难”是针对科学而言的,科学之外当然有其他解释,如神学解释。这里排除神学解释,因为这是最省事的说明,即一切都是上帝创造的。
根据可检验与否,泰格马克认为相当难的问题是可验证的,更难的问题是部分可验证的,真难的问题是不可验证的。意识理论要想成为科学的,就应该是可验证的,或者说是可证伪的,不能验证的理论是没有意义的。在这里泰格马克坚持的是波普尔的证伪理论。在他看来,“只要一个理论能预测你大脑在哪些过程是有意识的,那它就是一个预测物理系统是否有意识(这是相当难的问题)的科学理论”。①例如,认知神经科学使用功能性磁共振成像(fMRI)、脑电图(EEG)、脑皮层电图(ECoG)和磁脑图(MEG)等新技术手段来读取大脑中发生的信息,有可能弄清楚哪些部位负责产生了意识这个目前仍悬而未决且充满争议的问题。② 因此,意识谜题的揭开还有赖于技术的进步。
假设科学最终能够揭示意识之谜,从物理学的视角看,我们需要解释什么样的粒子组合拥有了意识这个问题,意识肯定有某些高于和超越粒子性质的性质,这种现象就是“涌现”,就是系统科学中的“整体大于部分之和”现象。比如控制论就是一种适合研究神经元相互连接和意识涌现的理论,因为它的正馈机制说明了涌现的产生,反馈机制解释了自我指涉性或自反性。③ 这种属性对于人工智能最为重要,因为依据这种性质我们就可能造出人工意识和智能。自我指涉性或自反性是侯世达提出的让系统产生意识、让无意义元素涌现意义的一个重要概念。根据这个概念,认知和思想就是通过大脑中复杂的正反馈循环从神经机制中涌现出来的。也就是说,人脑可被看作是一个自我指涉的生物系统,一个“奇特的循环”,④它通过自我指涉产生了自我意识。这是一个通过自反性多次循环达到适应性表征的过程。
泰格马克以“湿润”为例说明意识的涌现特征。单个水分子不具有湿润的性质,只有大量的水分子组成液态时才会涌现出湿润性质。对于单个水分子来说,固态、液态和气态均是涌现现象,它们具有单一水分子所没有的性质。意识就像固态、液态和气态,是一种涌现现象,拥有一些高于和超越其组成粒子性质的属性。事实上,化学中的化合物相对于其组成原子均是涌现属性。对于我们人类,死亡了,意识也就消失了,因为人脑活着时的粒子排列不同于死亡时粒子的排列,即人死亡后大脑中的粒子会重新排列。
这个关于意识的水形态类比似乎很有道理。但是,我想反驳的是,分子或原子的排列重组与神经元的排列重组是相同的吗?或者说,物理层次的排列重组和生物层次的排列重组是同一的吗?在笔者看来,这两个层次之间存在着质的差异,一定有某些环节我们还没有掌握;如果使用适应性表征来描述则更为恰当,因为物理系统与生物系统都具有适应性表征功能,只是前者是基于物理规律自发的无机属性,后者是基于生物规律有感受性的有机属性。
如果说意识是一种“涌现”现象,这在哲学上很难反驳。这与我们说知识是主体与客体相互作用的产物一样,看似有道理,实质上是一个笼统、模糊的说法。根据强物理主义,涌现是粒子重排后产生的一种集体行为,就如同原子协同排列产生激光一样。这意味着哲学上的涌现与物理学上的涌现不同。托诺尼等从数学上给出了意识的信息整合理论,主张一个有意识的系统必须进行信息整合而成为一个统一体。① 这意味着意识是统一的,它不能是独立的几个部分,比如我对“我”的意识是一个“我”,而不是两个“我”。不过,信息整合理论只适用于状态数量有限的离散系统,如量子系统,对于状态变化的连续系统是无能为力的。我们的大脑是连续系统,计算机是离散系统,这两种系统的组成方式(结构)和认知状态肯定是不同的。
那么,如何将有关意识理论固定在一个坚实的物理基础上呢?这就需要回答是什么让物质具有了主观体验,也就是要做到能记忆、能计算、能学习、能体验。这四种能力是有意识系统的基本特征。如果意识是一种物理现象,那么它为什么感觉起来如此“非物质”呢?或者说,为什么感觉起来是独立于物质层面而存在呢?在泰格马克看来,意识的确是独立于物质层面的东西,因为它只是物质中的一种模式,就像智能手机的操作系统是独立于其物质层面一样。这自然会推出“意识即信息处理”的观点,即一种强物理主义的思想———意识是独立于物质层面的,是信息进行处理时的感觉,而且物质的结构并不重要,重要的是信息处理过程的顺序。
按照强物理主义,如果粒子的排列遵循一定的原理,那就会产生独立于粒子层面的涌现行为,并产生完全不同的感觉;如果信息处理过程也服从某些原理,那就会产生一种更高级的涌现行为,即意识现象。这意味着,感觉和意识都是系统的涌现行为或属性。问题是,信息处理过程产生意识要遵循哪些原理呢?泰格马克认为必须要满足四个必要条件:②
(1)信息原则:一个有意识的系统拥有充足的信息存储能力;
(2)动态原则:一个有意识的系统拥有充足的信息处理能力;
(3)独立原则:一个有意识的系统与世界的其他部分之间拥有充分的独立性;
(4)整合原则:一个有意识的系统不可能由独立的各部分组成。
凡是能够满足这四个原则的系统,就是有意识系统,如人脑。然而,人工智能系统,如具有网络生命或意识的虛拟人(思维克隆人或软件),③也满足这四个原则,也是有意识系统?这一点绝大多数人不会认可。不管信息整合理论正确与否,它得出的一个结论是对的,那就是,迄今的计算机构架不可能产生意识,因为不仅它们的连接方式的信息整合度非常低,而且它们的物质组成成分也完全不同。这与泰格马克自己给出的意识是主体体验的定义不符,因为人工智能系统缺乏的正是主观体验这一核心属性。主观体验不仅与意识相关,也与情感相关。这些主观因素都是人工智能所缺失的。这就是说,拥有意识和展示出有意识行为是两回事。比如,我们说人类和人工智能都有认知能力,但不能说它们都拥有意识。智能和意识相关但还不是一回事,因为智能可以是无主观体验的认知,如操作符号,而意识则不能,如感觉。
即使未来人工智能系统产生了意识,或者互联网的几十亿台电脑连接涌现出意识,人类也体验不到这种系统对意识的感觉是什么样的。因为体验是个体的而不是集体的。这与他心问题类似,即我不知道他人的感觉是什么样的,但这不妨碍我知道他人有感觉、有意识。这就是人工意识的感受性问题。也许这种人工感受性与我们人类的感受性是类似的,如感受到疼痛的感觉。但是,根据泰格马克的看法,人工智能的体验空间可能比人类的还大得多,因为我们的每一种感觉器官只对应一种感受性,而人工智能的传感器和信息内部表征的种类可能要多得多。而且在体验速度上,人脑的神经元信号的每秒传输速度比起人脑大小的人工智能体要慢几百万倍,因为电磁信号以光速传播。这意味着,人工智能的意识经验的实现是可能的,“如果未来一个巨大的人工智能拥有了意识,那么它的几乎所有信息处理都是无意识的。”①就像人脑中有意识的信息处理过程似乎只是一个巨大的无意识的冰山一角。这就是说,人工智能体验的大部分可以通过无意识过程来实现,即可能通过一个嵌套的层级结构来实现。
然而,问题依然存在,因为即使人类让人工智能拥有了意识,我们也仍然不知道意识为什么会出现。也许“意识之谜”②永远是个谜,仍然需要认知科学家和哲学家孜孜不倦地关注和研究。③ 意识之谜解不开,意义问题就解决不了,因为有了意识才有了意义。当然,如果意识永远就是个谜,永远让我们对它保持着好奇心,永不停歇地探究它,这也未必不是好事!
在宇宙中,从物理现象到生物现象再到意识和智能现象,在时间上跨越了上百万年乃至上亿年。在物质形态上经历了基本粒子、蛋白质、细胞、生物体包括低级动物(如昆虫)和高级动物(如人类)。有了人类文明以后,人类社会形态又经历了从原始部落到国家形态的各类社会形态。人类社会的形成是宇宙意识和智能最直接的体现。科学技术发展是人类智能的直接结果,人工智能则是人类智能的衍生物。至于人工智能这种衍生物是否会达到或超越人类智力水平,就目前的科学技术发展水平和哲学认知水平来说,还不好下结论。不论我们对人工智能和机器人持积极态度还是消极态度,是支持还是反对,是乐观还是悲观,都不会影响人工智能的发展,这是世界大势所趋。至于人工智能和机器人是否会超越人类并代替人类,我们不必过于担心,笔者相信,聪明的人类一定会找到解决各类问题的办法。人工智能就是人类解决复杂问题的手段和工具。既然是手段和工具,不论这种工具多么智能,它们只不过是人类驯服的、服务于人类的类人物种而已。
作者单位:山西大学哲学学院
责任编辑:王晓洁