王华平
摘 要: 人工意识是对被确认为人类意识现象的那些方面的模拟或实现。据其目标与意识的形而上学,人工意识可分为强弱两种。弱人工意识旨在设计和建构模拟意识的机器,强人工意识则力图设计和建构有现象意识的机器。人工意识面临一个两难困境:弱人工意识放弃意识的核心部分,无助于从根本上提升人工智能的性能,因而非常地局限。强人工意识则囿于现有概念框架,不可避免地陷入“中间层谬误”,要实现强人工意识就需要构建一个新的概念框架。就目前而言,泛心论与错觉论是两个可行的选择。错觉论,更具体的,意識的注意图式理论,是人工意识摆脱两难困境最有希望的出路。
关键词: 人工意识;难问题;泛心论;错觉论
中图分类号:TP18 文献标识码:A 文章编号:1004-8634(2023)06-0103-(11)
DOI:10.13852/J.CNKI.JSHNU.2023.06.011
人工意识(Artificial Consciousness),有时又称机器意识,是对被确认为人类意识现象的那些方面的模拟或实现。这项工作受到了两方面的激励:一是借助它提升未来人工智能的性能,制造出人类水平的机器人;二是通过它加深对人类意识及其与认知关系的理解。尽管人工意识发展迅速,但目前为止仍属于前范式的异质领域。正如加梅兹(David Gamez)所指出的,一些人感兴趣的是与意识相关的行为,另一些人则致力于模拟意识的认知特征,还有一些人试图赋予机器以现象状态。1 人工意识领域的异质性为其增添了无以复加的活力,但同时也带来了难以消弭的混乱,而在混乱的背后,隐藏着一个更为深层的人工意识两难。这个两难就是,当人工意识被看作纯粹模拟时,它丧失了意识的核心部分,因而非常局限。而当人工意识被当成对意识的实现时,它会陷入“中间层谬误”(Intermediate Level Fallacy)。要摆脱两难,就要重塑人工意识的概念框架。就目前而言,泛心论(Panpsychism)与错觉论(Illusionism)是两个可行的选择。文章将论证,错觉论,更具体的,意识的注意图式理论,是人工意识摆脱两难困境最有希望的出路。
一、人工意识
人工意识与人工智能有差不多长的历史。20世纪40年代伊始,特别是1943年第一台电子计算机“巨人”(Colossus)诞生后,当时的学界和社会围绕机器能否思考或具有心灵展开了大量讨论。人工智能之父图灵(Alan Turing)觉得这些讨论所涉及的“思考”“心灵”“意识”等心理概念含混不清,缺乏意义,于是提议用“模拟游戏”,即我们今天所说的“图灵测试”来充当人工智能的标准。1 其基本想法是,假如机器在执行任务时表现得与人一样好,那么人们就应该承认它与人一样拥有智能。图灵测试一经提出,便引来热议。由此产生的一个积极结果是,图灵测试事实上为襁褓中的人工智能赢得了尊重——正是由于避开了主观经验这类难以处理的问题,人工智能才得以被科学地对待。
早期人工智能的迅猛发展曾一度使人们很乐观。明斯基(Marvin Minsky)在1970年说道:“不出三到八年,我们就可以拥有人类平均水平的通用智能机器。”2 可事与愿违,十几年后人工智能做的事仍然非常少。莱特希尔(James Lighthill)在其著名的报告中失望地写道:“这个领域到目前为止所做的发现完全没有产生之前所承诺的重大影响。”3 预期的反差迫使人们思考,人工智能到底缺失了什么?所给出的建议有很多,包括理解、创造力、人格、学习、自由、直觉、道德、身体等。然而,这些建议项似乎与智能缺乏内在联系。比如,没有理解就没有智能吗?似乎并非如此。一个小孩对身边的许多事物缺乏理解,但他在与它们打交道时却表现出了明显的智能。
正是在这样的反思中,意识重回人工智能的视野。一些人开始认识到,智能可能离不开意识。一个明显的事实是,假如人没有了意识,他与智能相关的各项能力都会严重受损。80年代中期,豪格兰德(John Haugeland)在其颇有影响的专著中抛出了一个意味深长的问题:“意识是埋在AI腹部滴答作响的理论定时炸弹吗?”4 80年代末,安杰尔(Leonard Angel)出版了一本名为《如何建造有意识的机器?》的专著,拉开了人工意识的序幕。90年代,在以埃德尔曼(Gerald Edelman)和克里克(Francis Crick)为首的一批科学家的努力下,意识终于成为科学的合法研究对象。受意识科学的激励,在20、21世纪之交,一些人开始致力于用机器来模拟或再现意识,此即人工意识。
从20、21世纪之交到现在,人工意识历经20余载,但目前仍处于异质的前范式阶段。加梅兹富有启发地将众多异质研究归并为以下四类:
(MC1)具有意识相关的外部行为的机器;
(MC2)意识相关物模型;
(MC3)意识模型;
(MC4)具有意识的机器。5
MC1是图灵测试的直接产物。它类似于哲学中的赞比人(Zombie),6 尽管表现出与意识系统相关的外部行为(例如情境对话、玩游戏、思考),但却没有内部意识。有很多这样的机器被建构出来,比如第一个人工意识大项目系统CRONUS,IBM的Watson。MC2属于意识的计算相关物,即与意识而非无意识相关的最小计算机制。由贺兰德(Owen Holland)领衔开发的CRONOS机器人是MC2的杰出代表。MC3是对意识的模拟。索尼的AIBO狗机器人、切拉(Antonio Chella)设计的Cicerobot很好地模拟了意识的某些特征,但并不具有真正的意识。MC4是真正拥有意识的机器,可以和人一样沉浸于色彩、味道和声音的世界中。MC4是人工意识的最高目标。
不同的研究路线反映了不同的研究策略。更深层地,却是隐藏在背后的对人工意识的不同理解。人工意识中的“人工”是什么意思?是“人工植物”中的“人工”?还是“人工心脏”抑或“人工光源”中的“人工”?如果是第一种,那么人工意识就只是让机器看起来有意识但实际上并没有。如果是第二种,那么人工意识就是让机器具有意识的功能,就如同人工心脏具有泵血的功能一样。如果是三种,那么人工意识就是真正的意识,就像“人工光源”就是光源一样。
更复杂的,“意识”又是什么意思?“意识”,正如哲学家和科学家所普遍认识到的,是个混杂概念。有时,我们用它来指有感觉的生物体处于警醒状态。称这样的意识为生物意识(Creature Consciousness)。有时,它被用于刻画某个心理状态,以区别于那些无意识的心理状态。称这样的意识为状态意识(State Consciousness)。1 有时,我们用它来指生物体对自身的觉知(Awareness)。称这样的意识为自我意识(Self-consciousness)。有时,我们用它来指经验,即主体感知外部事物或自身状态时的主觀感受。称这样的意识为现象意识(Phenomenal Consciousness)。还有的时候,我们用“意识”来刻画心理内容被其他心理状态广泛利用的这一特性。称这样的意识为取用意识(Access Consciousness)。2 由于一个系统只要具有了后三种意识中的一种,它必然就会有生物意识与状态意识,所以就意识的形而上学与人工意识而言,重要的是后三种。
在后三种中,最难理解的当属现象意识。现象意识是主体处于经验时所感受到的“像是什么”(What it is like)的感觉,如被火烧时的灼痛感,看到树叶时所产生的绿油油的感觉。这种感觉只有身在其中的主体才能体会,所谓冷暖自知也。这样一种主观的意识究竟是如何产生的呢?此即著名的“难问题”。3 与“难问题”相对的是只涉及认知能力与认知功能的“易问题”。对于“易问题”,我们只要给出发挥能力和执行功能的物理机制就可以了。但“难问题”不同,即使我们确定了现象意识得以实现的物理机制,仍然可以追问:为什么那样的机制会产生出主观的现象性质而不是纯粹的客观物理性质?对于这个问题,无论你给的答案有多么精细,你会发现,在物理与现象之间仍然横亘着一个解释的鸿沟。
基于以上澄清,可以在基本层面把人工意识分为强弱两种。强弱人工意识的区分最初是由贺兰德提出的——他将弱人工意识定义为,“设计和建构模拟意识或通常与意识相关联的认知过程的机器”;强人工意识则是“设计和建构有意识的机器”。4 简言之,弱人工意识模拟意识,强人工意识实现意识。但笔者认为这样的区分并未切中肯綮。原因在于,按照上面的澄清,取用意识刻画的是意识状态的内容与其他心理状态或认知系统的关系,因而是功能的。自我意识刻画的是主体对自身状态的觉知,同样是功能的。而对功能的模拟同时也是实现,就像人工心脏对心脏的模拟同时也是实现一样。这意味着,模拟与实现对取用意识和自我意识来说并无区别。但现象意识不同,它是状态内的,它的本质在于它所是而非它所做(即它起到的功能),因而对它的模拟(属于它所做)不同于对它的实现(属于它所是)。所以,合理的区分应该是这样的:一是弱人工意识:设计和建构模拟意识的机器;二是强人工意识:设计和建构拥有现象意识的机器。按照上述区分,MC1、MC2、MC3全都属于弱人工意识。MC4则分为两种:一是仅仅拥有非现象意识的机器;二是拥有现象意识的机器。前者属于弱人工意识,后者属于强人工意识。下文所说的强弱人工意识是基于笔者对其所赋予的意义,而非贺兰德所提议的。
二、人工意识的两难
现在我们知道,人工意识有强弱之分。需要指出的是,这样的区分并非单纯的类型学上的区分,而是基于意识本性的区分,因而是有规范力的。很明显,如果现象意识不能还原为取用意识,那么强人工意识本质上就不同于弱人工意识;如果现象意识最终可还原为取用意识,那么人工意识就只能是弱人工意识。塞思(Anil Seth)是持后一种观点的代表人物。他认为,人工意识应该关注“真问题”,而不是“难问题”。5 “真问题”是如何用生物机制来说明意识的特殊性质的问题。一旦“真问题”得到了说明,我们就可以用计算机来逐个模拟意识的特殊性质,从而通过不断逼近的方式来实现弱人工意识。
目前正在进行的或业已展开的研究大都属于弱人工意识。在众多进路中,最具代表性的当属全局工作空间模型(Global Workspace Models)。这个模型的理论基础是意识的全局工作空间理论。该理论认为,互通的分布式大脑活动创建了一个全局工作空间,以致进入这个空间的心理内容可被广泛用于或广播到诸如感觉、运动控制、语言、推理之类的专门处理机制。专门处理机制通过竞争一旦获取了全局工作空间的存取权,就可以向它发送或接收全局可用的信息。正是在专门处理机制与全局空间的整体互动中,意识经验涌现了出来。1 有意思的是,全局工作空间理论的提出受到了早期IDA(分布式智能行动者)计算模型的直接启发,现在却反过来成了人工意识的一个重要理论资源。在这个理论的指导下,狄昂(Stanislas Dehaene)及其同事建构了一个神经全局工作空间模型。这个模型可以很好地模拟人类之于斯特鲁普效应(Stroop Effect)的表现,2展现了人类执行无须意识的不费力的日常任务与需要意识的费力的受控任务的神经活动模式的区别。3
全局工作空间理论具有一系列优点。它的全局空间概念与认知科学对工作记忆的看法惊人得一致,如容量非常有限,需要竞争才能进入,一旦进入后就成为全局可用的,而工作记忆被认为与意识密切相关。4 此外,它还可以很好地解释意识的统一性。当我们同时经历两种不同经验时,如吵闹和疼痛,我们不是分别经验到吵闹和疼痛,而是一起经验到它们,好像它们是单个有意识经验的两个方面一样。之所以如此,根据全局工作空间理论,是因为吵闹和疼痛处在同一个全局工作空间中。这个理论甚至还可以为状态意识提供一个解释:一种心理状态如果是全局分布的,那么它就是有意识的;如果是局域的,那么就是无意识的。
全局工作空间模型很好地例示了弱人工意识的优点和缺点。一方面,弱人工意识较好地模拟了意识的一些特征及其神经机制,取得了扎扎实实的成效。另一方面,它既无关于现象意识,也未能实现取用意识。全局可用性似乎并不足以充当取用意识的充分条件。一些与全局工作空间模型类似的多层神经网络,比如神经黑板构架(Neural Blackboard Architectures),同样具有全局分布的特点,但它处理的却是潜意识水平(取用意识阀下)的低层信息。5 实际上,到目前为止,没有一个理论能绕开现象意识对取用意识给出充分说明。尽管一些人,例如布洛克(Ned Block),认为取用意识与现象意识在形而上学上是独立的;但另一些人,例如查默斯(David Chalmers),认为它们只是概念上可分而实际上并不可分。赞比人有取用意识吗?这是个很难回答的问题。存在弱人工意识依赖于取用意识并在形而上学上独立于现象意识这一预设。尽管这一预设并不先验为假,但也很难论证它为真。
弱人工意识具有固有的局限性。就人类而言,没有什么东西比现象意识更为重要了。我们品尝痛苦、享受快乐,皆因我们有现象意识。没有了现象意识,我们就会失去对世界与自身的所有感受,从而也就失去了精神生活。很难想象,对我们如此重要的东西是可有可无的。假如有一种方法可绕开现象意识而获得有意识的存在者的所有好处,那么自然选择为何会大费周章让我们进化出现象意识?所以,如果机器不具有现象意识,那么它很可能会在某些重要的方面逊色于人。对以制造人类水平的机器为目标的人工智能来说,如果不能实现现象意识,那实际上就等于放弃了目标。阿勒克山大(Igor Aleksander)说得好:“那些运用根植于AI的全然是功能主义的方法的人至少必须解释他们的模型在何种意义上包含现象世界,否则他们的工作就不被认为对机器意识的目标有所贡献。”6 正如科什(Christof Koch)与托诺尼(Giulio Tononi)所坚持认为的,意识机器必然是现象地有意识的机器。7
强人工意识以实现现象意识为目标。相比于弱人工意识,强人工意识要困难得多,也有争议得多。困难之一就在于,我们尚未找到一个测量意识的可靠方法。由此产生的一个可能后果是,即使我们造出了有意识的机器,我们也不知道它是有意识的。这个问题类似于传统的他心问题。以图灵为代表的一些人认为,既然这个问题在人身上也存在,那么人工智能也就不用担心它。1 以施奈德(Susan Schneider)为代表的另一些人则认为,既然我们无法判定人工系统是否拥有意识,那么我们就应该明智地放弃强人工意识。2 相比这两种极端观点,多数人持温和的中间观,即应该继续探究测量意识的可靠方法。中间观的合理性就在于,一方面,没有证据表明意识是不可测量的。另一方面,意识的测量问题并不同于传统的他心问题。他心问题是我们在日常生活中何以归于他人心理状态这样一个常识心理学问题,意识测量则是科学问题与工程学问题。要真正实现强人工意识,就得在科学和工程学上解决意识的测量问题。
比测量问题更麻烦的是意识的“难问题”。正如前面所提到的,“难问题”就难在,在物理的此岸与现象的彼岸之间始终横亘着一条无法逾越的鸿沟。体现在人工意识中,就是功能与感受之间的鸿沟。现代计算机是功能机,它通过算法来赋予硬件系统各种各样的功能。功能是机器做事情的能力,可根据机器的输入、输出及其内部状态来定义,是一种关系性质。现象意识是主体处于经验状态所经历到的主观感受,是经验状态的所是,属于非关系性质。功能与感受的本性决定了它们分属不同的范畴。可是,如果它们之间的鸿沟不能填平,那么在机器中实现现象意识就无异于望风扑影。
强人工意识研究可谓迎难而上。其中的一个典范性尝试是海科宁(Pentti Haikonen)所提出的认知架构HCA。HCA利用感觉模块的信号来表征所感知到的对象,通过将系统中的大量反馈和不同感觉模态之间交叉连接将所表征的对象的质性特征整合到运动空间中,从而产生意识相关的行为。值得一提的是,HCA还包含了情绪。比如,它有一个“疼痛”模块,可以利用关于物理损伤的信息来激发缩回行为并重新定向注意力。在HCA中,语言是听觉系统的一部分。借助语言词汇与其他感觉模态的表征之间的联系,觉象(Percepts)可以用语言的方式描述出来。海科宁认为,当不同模态步调一致地合作并聚焦于同一对象时,觉象就会变为有意识的。3 根据海科宁,这样一个系统如能按预期建构出来,那么现象意识也就在人工系统中得到了实现,从而强人工意识也就得到了实现。
但是,HCA以及它所代表的强人工意识进路并未解决“难问题”。原因就在于,HCA所说的“觉象”是暧昧不清的。在哲学中,觉象指通过运用感观而获得的关于对象的印象。印象,正如休谟所强调的,内在地具有强烈的现象性。HCA所说的“觉象”显然不是这种意识,因为觉象的现象特征是通过被聚焦而外在赋予的。问题就在于,为什么不同模态步调一致地合作并聚焦于同一对象时,觉象就变成了有意识的?在这个问题得到解决前,HCA没有资格说它实现了人工意识。
实际上,HCA所遇到的问题是它所代表的强人工意识进路普遍存在的问题。这个问题就是曼佐蒂(Riccardo Manzotti)和切拉(Antonio Chella)所说的“中间层谬误”。4 谬误的典型症状是,为了解释意识和实现人工意识,一个中间层被引入。乍看起来,中间层起到了桥接解释项和被解释项的作用,但实际上却徒增两个新问题:中间层有何特征?它與现象意识有何联系?在HCA中,觉象是中间层。它具有某种暧昧性,一定程度上能表明现象意识的质或量。但是,现象意识并未真正得到解释,而是被稀释为滤掉了现象性质的某种近似物,比如为不同模态所聚焦。通过稀释,一个廉价的解释得以提出。
对那些试图直接回答“难问题”的理论或模型来说,中间层谬误是不可避免的。这是因为,要直接回答“难问题”,就得找一个东西(即中间层)来填平解释的鸿沟。于是行为、功能、觉象等纷纷被提出来。但一方面,如果中间层本身是有现象意识的,那么就会产生如何赋予中间层现象意识的问题,而这恰恰是强人工意识问题。另一方面,如果中间层本身没有现象意识,那么它又如何产生现象意识呢?而这正是意识的“难问题”。所以,采取中间层策略的强人工意识是没有出路的。
三、强人工意识与泛心论
现在我们明白了人工意识的两难。这个两难就是,当人工意识被看作是弱的时,它非常地局限;当人工意识被看作是强的时,它非常地困难。那么,人工意识还有出路吗?要回答这个问题首先就得清楚它的根源,可追溯到自20世纪中叶物理主义范式确立以来所形成的关于意识的主流概念框架。这个框架一方面承认现象意识的主观特征,另一方面又试图将其纳入物理主义世界观。由于物理主义认为世界中的一切都是物理的,或者不超出物理的,所以,当我们试着用物理的(包括功能的,因为功能的实现者通常被认为是物理的)来解释或实现现象意识时,不可避免地就会遇到“难问题”:客观的物理事物究竟如何能产生出主观的现象意识?因此,主流概念框架不可避免地会导致“难问题”。
如今,越来越多的人认识到,要实现强人工意识就要突破主流框架,构建新的概念框架。前耶鲁教授麦克德莫特(Drew McDermott)曾做过一个问卷调查,询问美国人工智能协会会员对“创造具有‘现象意识’的计算机或程序”这一问题的看法。结果显示,在所有7个选项中,回答“需要新观念”的最多,高达32%。1
新框架应能避开“难问题”,而要避开就要消除问题的根源。“难问题”的根源是主流概念框架,而主流概念框架依赖如下两个预设:实在性预设(R),意识是实在的;派生性预设(D),意识是由更为基本的东西产生的。颠覆这两个预设中的任何一个,“难问题”就会烟消云散。近来强势复兴的泛心论否认预设(D)。泛心论认为,基本物理实体具有原初的意识特性,而我们的意识是它们的精致组合。2 泛心论有着古老的历史,近来由于查默斯、斯特劳森(Galen Strawson)、戈夫(Philip Goff)等人的倡导而重新兴起。新泛心论被认为与物理主义是相容的。物理主义主张一切都是物理的。然而,对于什么是“物理的”,它却未能给出清楚表述。一种理解是,物理的就是物理理论所告诉我们的那些东西。3 而物理理论,正如罗素所指出的,只是根据世界的时空结构及其动力学来描述倾向性质(Dispositional Property),对于那些支撑结构与动力学的内质(Quiddities)并未做出断言。泛心论由是宣称,内质,或者说那些起到诸如质量作用、电荷作用的绝对性质(Categorical Property),是现象的。4 如此,泛心论就可以在不违反当代主流世界观的情况下对意识给出一个解释:我们的意识是由内在于物理实体的微意识以某种精致的方式组合而成的。这种解释是非物理主义的,不会产生“难问题”。
如果泛心论是对的,那么,我们就可以通过以适当方式操纵物理实体的方法来实现人工意识。适当方式的意思是,它能使内在于物理实体的微观意识组合成宏观意识。问题是,能找到这么神奇的操纵方式吗?托诺尼及其同事宣称,他们已经找到——它就是信息整合理论(Information Integration Theory,缩写为“IIT”)。IIT不同于其他科学理论,它首先从意识经验的本质现象性质出发,然后推断出意识的物理基础所必备的特征。托诺尼称前者为公理(Axioms),后者为公设(Postulates)。在此基础上,托诺尼及其同事推演出了一个评估意识的质和量的数学框架。5 略去细节,其核心主张可概括为:在最基本层面,意识是整合信息;它的质由不同要素所组成的复合体所产生的信息关系确定,它的量由复合体的φ值确定。复合体的φ值可依据它所有可能的分区的输出信息之间的相互影响程度计算出来。φ值大小决定了意识的水平。由于简单的物质也有一点点φ值,所以,“根据IIT,经验甚至不只是限于生物体,还有可能延伸到之前被认为是无心灵的非演化的物理系统”。1 这与泛心论不谋而合。
托诺尼声称,根据IIT,一个具有与大脑相似的连接与动力学的神经形态电子设备具有意识,因为它与大脑一样具有高φ值。2 所以,实现人工意识的关键是赋予系统高φ值。依据IIT,加梅兹设计了一个机器人视觉系统神经控制器。他先让这个控制器接受训练,然而根据φ值算法对信息整合在其网络中不同区域的分布进行计算,以评估这个系统的哪些单独部分可被认为是有意识的。3 加梅兹发现,由于托诺尼及其同事所给出的算法需要考虑的参数太多,因而计算任务极其繁重,如果直接用它来计算则需要109000年!他开发出一个有效的近似算法,删除了原算法中在此情形不适合的部分。计算结果出人意料地表明,系统中涵盖全部“抑制区域”与大部分“情感区域”的91个神经元以及其他区域的少数几个神经元具有最大φ值。按照信息整合理论,可以认为这些神经元是有意识的。这个断言与最近的一些经验发现惊人地一致。在加梅兹的神经系统中,91个高φ值的神经元充当的是选通回路(Gating Circuit)。越来越多的认知科学证据表明,选通是工作记忆非常重要的认知控制机制,而工作记忆被认为与意识密切相关。4
正如我们所看到的,人工意识的IIT进路取得了一定成果。但它面临不可忽视的重大理论挑战。挑战之一是将意识等同为φ值,这突破了意识的常识概念。IIT认为任何具有高φ值的系统都具有,但系统的φ值可以通过一些简单的方法建构出来。比如,一个n×n方格排列的XOR门网络可以产生[√n]φ的值,通过增加n值,我们可以产生任意大的φ值。5 结果,一个简单的网络可以拥有不亚于人的意识。这非常反直觉。然而,托诺尼争辩说,常识并不能驳倒IIT,因为IIT就是要超越常识给出一个意识的基本理论。对IIT来说,XOR门方格的意识不是其反例而是正确预测。可是,如果这样的话,就不会有任何东西对IIT构成反例,从而IIT就沦为普波尔(Karl Proper)所说的那种永远不能证伪的理论。
更大的挑战来自IIT的泛心论承诺。托诺尼曾以自诘的口吻说道:“此立场与认为宇宙中的一切都具有某种意识的泛心论观点有多接近?无疑,IIT蕴含了只要是包含了能在不同选项间进行选择的某种功能机制的诸多实体皆具有某种程度的意识。”6 按照IIT,简单如二态光电二极管那样的实体,也有“一丁点”意识。但二极管的意识必定不是我们所感受到的那种意识,否则IIT将无比疯狂。那么,如何解释两种意识之间的差异呢?按照泛心論,这些宏观意识都是由微观意识或原型意识组成的,构成它们的微观实体的数量或组合方式的不同决定了宏观意识的不同。可是,数量或组合方式的不同究竟如何导致了宏观意识的不同?请注意,诉诸φ值或内在因果关系是无助的,因为它们是组合方式的宏观体现,构不成微观解释。这个问题难就难在我们无法用科学来回答。科学,按照泛心论最初的区分,只是研究倾向性质,而意识涉及的是绝对性质。既然意识已经被先验地归入科学所不能触及的异域存在,那么,不但意识的科学研究是不可能的,而且人工意识的研究,即使可能的话,也是不科学的。
此外,泛心论还存在与上述问题相关的组合问题。组合问题是一个系列的问题,比如,微观意识主体如何组合一起产生出宏观主体?微观现象性质如何组合一起产生出宏观现象性质?微观经验结构如何组合一起产生出宏观经验结构?7 正如查默斯所指出的,这些问题都是很难回答的问题。以第一个问题为例。我们知道,意识总是为主体所拥有,至少我们的意识是如此。可是,像你、我这样的宏观意识主体究竟是如何从一堆微观意识主体产生出来的呢?给定任何数量的微观主体,原则上总有可能不会产生任何新的主体。而且,作为宏观主体的我们,也从未觉知到任何微观主体。当然,泛心论的支持者不会束手就擒,他们对组合问题给出了令人钦佩的回答,1 使得形势愈加复杂。也许,这就是哲学与科学的不同。在哲学中,很难找到一个类似于科学中的判决实验的东西,以致能够一锤定音地击败一个理论。但无论如何,在基本实在层面假定意识的存在似乎不太合理。至少,这不符合“奥康剃刀原则”,也不符合“祛魅”的当代科学世界观。笔者的观点是,在没有确定是否有其他出路之前,最好不要将泛心论当成最佳选择。
四、强人工意识与错觉论
泛心论与主流概念框架有一个共同点,即接受实在性预设(R)。不同的是,泛心论放弃了派生性预设(D),试图以此消解“难问题”。但是,正如我们所看到的,泛心论以及基于其上的IIT进路并非理想的出路。这让我们想到另一种可能的出路,即放弃预设(R)。放弃预设(R)等于放弃了对意识的解释。这是因为,一个不真实的现象是无须也无法解释的——它只能被解释掉(Explain Away)。解释掉一个现象就是通过解释而摒弃那种现象,它的一个突出特点是否定了被解释项的实在性。比如,对于太阳东起西落这一现象,地心说试图去解释它——它是由太阳围绕地球的转动引起的;日心说则试图将它解释掉——太阳既没有升起也没有落下,而是地球的运动造成了这样的错觉。类似地,将意识解释掉,意味着将意识看作像太阳东起西落一样的错觉现象。这个观点被称为意识错觉论。
意识错觉论初看起来十分荒谬。这个世界还有什么比意识更为真实呢?难道痛不就是我感觉到痛吗?错觉经验不也是经验吗?尽管经验内容是可怀疑的,比如说所看到的是毛线团还是猫,但经验本身是不可怀疑的。用笛卡尔的话来说,经验是自明的,属于不可怀疑的“我思”。这种思想即使在当代也是根深蒂固,如塞尔(John Searle)就说:“就意识而言,现象的存在就是实在。如果在我看来确实像是我具有有意识的经验,那么我就具有有意识的经验。”2 在接受这种思想的人看来,错觉论是“疯狂的”“荒唐的”“明显错误的”“自毁的”“不融贯的”。类似的指责有很多,但是,这样的指责与其说是对意识实在论的辩护,不如说是对错觉论的误解。
误解之一是认为错觉论“否认显明”(Deny the Obvious)。实际上,错觉论并不否认作为错觉的意识现象的存在,就像日心说不会否认太阳看起来东起西落一样。它否认的是,意识所呈现出现的现象性质不存在,就像太阳看起来东起西落所暗示的事实不存在一样。显然,一个东西看起来像是什么,与它实际上是什么并不是一回事。丹尼特(Daniel Dennett)第一次注意到,这个原则对经验本身也适用。他指出,意识向主体显示自己,只是意味着意识状态在主体看来具有现象性质,但这并不意味着意识状态真的具有它向主体显示的那些现象性质。3 这就好比,一部计算机向我们呈现出图形界面,并不意味着计算机就真的拥有那个界面。正如那个界面不过是计算机的信息状态经屏幕的投射让我们产生的错觉一样,意识也有可能是大脑的信息状态经内省机制解释让大脑产生的错觉。
误解之二是将错觉论与取消论(eliminativism)混为一谈。科什非常反感非实在论,他批评道,意识不是实在的就像科塔尔综合征(Cotard syndrome)患者否认他自己是活着的一样,是“科塔尔综合征的形而上学对应物”。当他这么批评时,他指责的是“将经验实在性的大众信念看作是朴素假说”这样一种取消论观点。4 取消论将意识存在的信念看作理论错误,就像燃素断言燃素存在一样。并且,这种错误在得到澄清后是可以被取消的,就像今天的化学完全放弃了燃素说一样。但错觉论认为意识错觉源自大脑的内省机制,是不可取消的。这就好比穆勒-莱耶尔错觉(Müller-Lyer Illusion),即使我们知道两条线段是一样长的,它们看起来也仍然是一长一短。同样,即使我们知道意识是错觉,但在我们看来也仍然是那么真切。所以错觉论与常识并无直接冲突。
一些人可能会反驳说,如果错觉论是对的,那么我们根本就没法获得对世界的正确理解,从而也就认识不到意识是错觉。实际上,错觉论并不认为意识经验不能可靠地表征任何性质。它否认的只是经验中的现象性质,即那种“像是什么的东西”,是一种错觉。经验表征的实际上是“准现象性质”(Quasi-phenomenal Properties)。准现象性质是非现象的物理性质,它通常会让内省误表征为现象的。1 比如,准现象的红性(Redness)就是通常会引发现象红性的内省表征的物理性质,即红色物体的表面性质。错觉论并不否认经验可以可靠地表征准现象性质,而且,它也不否认取用意识。它否认的只是现象意识,而这并不妨碍我们对世界的认识。
从科学的角度看,错觉论不但是可能的,而且是合理的。当代认知科學的一个重要共识是,意识发生于大脑的信息处理过程。这一点,就连像查默斯这样的泛心论者也同意。错觉论认为,是大脑的信息处理过程制造了意识错觉。假如错觉论是对的,那么,意识研究的核心任务就不是解释信息处理过程能否产生出意识现象,而是解释它如何制造出意识错觉,此问题被称为错觉问题。对于错觉问题,错觉论者给出了诸多答案。例如,雷(Georges Rey)认为是一种错误的推理投射机制;2汉弗莱(Nicholas Humphrey)认为是大脑内部的一种“魔术表演”机制,它的作用是给予生物体生存的兴趣。3
笔者认为,对错觉问题最合理的回答是意识的注意图式理论(Attention Schema Theory, 缩写为“AST”)。AST的合理性至少有以下三点:第一,它对错觉问题给出了具体的而非隐喻式的说明;第二,它很好地说明了意识的生物功能;第三,它很好地解释了意识的现象学本质。
先看第一点。根据AST,复杂神经系统为应对信息输入过多的问题,进化出一种以牺牲其他信号为代价而对特定信号进行深度处理的方法,即注意。为了控制注意,大脑进化出一个关于注意的简略模型,即注意图式。出于响应速度的需要,注意图式包含了注意的移动、强度变化及其动力学信息,却省略了注意的实现机制与控制机制信息。当大脑的内省机制提取注意图式、注意对象的模型以及自我模型中的信息时,它就得到了一个歪曲的描述:“我觉知到了一个东西,那个东西呈现出红红的样子。”4 受注意图式的误导,大脑遂产生了意识的错觉。实际上,大脑中发生的只是一系列信息处理过程。5 这个过程完全是物理的,可以在机器中实现。
再看第二点。我们都知道,意识是一种生物现象。但意识究竟有什么样的生物功能?它又是如何进化出来的?这两个问题为多数意识理论所忽视。AST可以给出很好的回答。首先,意识的生物功能就是注意图式的生物功能,即通过追踪、预测他人的注意和控制自己的注意来及时控制行动。所以,动物在清醒时(即具有生物意识)反应迅速,而在睡着或昏迷时反应迟钝。其次,意识是伴随着注意的进化而进化出来的。这与进化生物学的证据高度吻合。6 证据表明,海绵在约7亿年前分化出水螅。水螅拥有已知最简单的神经系统,对任何刺激都做出全身反应。大约在6亿年前,节肢动物出现。节肢动物的眼睛可以增强视觉边缘的相关信号的强度,同时抑制其他视觉信号,从而生成世界的大致轮廓图。到了寒武纪大爆炸时期,鱼类和两栖动物进化出顶盖。顶盖具有建构注意图式的能力,可以对外显注意进行控制。大约在3.5亿年前,爬行动物进化出视丘(Wulst)。视丘在哺乳动物中进化成了大脑皮层。大脑皮层能建构非常精巧的注意图式,可以控制内隐注意。从节肢动物到人类,意识的程度与注意的进化是同步的。
最后看第三点。我们知道,意识具有一系列独特的现象学特征。比如,意识是无形的;它总是为主体所拥有;具有对象;具有统一性等。AST可以很好地解释这些特征。由于注意图式不包含注意的物理信息,所以意识被大脑的内省机制曲解成无形的。由于注意图式总是与大脑中的自我模型与注意对象模型相联系(注意图式将它们联系到一起),所以意识总是表现为某人的意识,并且总是有所呈现。由于注意图式是一个整合了的信息集,所以意识总是表现出统一性。总之,AST可以很好地解释意识的现象学。
如果注意图式理论是对的,那么要在机器中实现人工意识,就不是让机器具有意识,而是让机器产生具有意识的错觉。更具体的,就是赋予机器一种错觉机制,以便让它制造意识错觉。按照注意图式理论,错觉机制的核心是注意图式与内省机制。目前人工意识中已有相关想法和工作。早在20世纪60年代,明斯基(Marvin Minsky)就指出,一个智能体不仅要包含外部环境模型,而且还得有一个关于自身的模型。1 自我模型可使人工主体思考自身,并且思考自身对自身的思考,即内省(Introspection)。一种观点认为,现象意识产生于对知觉的内省。2 还有一种观点认为,在学习过程中引入自我概念是创造人工意识的关键步骤。3 如前面提到的CRONOS就包含了一個自我模型,作为物理身体的模拟器,与分立的关于机器人外部环境的内部模型互动。最近,布林斯耶德(Selmer Bringsjord)等人设计出了一个能通过自我意识的人类测试的机器人。不过他们也承认,机器人并不真的拥有自我意识。4
另一方面,意识与注意的关系同样早就为人所注意到。詹姆士说:“我的经验是我同意加以注意的东西。”5 通常情况下,一个人注意到什么,他就会意识到什么。如果注意改变,意识就会随之改变。鉴于注意与意识的紧密联系,有一些人工意识模型干脆将注意机制看作是表征有意识的信息的加工机制。比如,廷斯利(Chris Tinsley)设计了一个计算模型,这个模型的注意网络的输出被看成是对刺激的有意识的表征。6 泰勒(John Taylor)及其同事研究了“注意运动的关联放电”(CODAM)模型。这个模型通过控制注意焦点的改变(即“注意运动”)而非运动控制中的改变来模拟意识的神经基础。结果显示,在注意瞬脱(Attentional Blink)、变化盲视(Change Blindness)等情形中,CODAM系统表现了与人类受试非常相似的反应。7 有趣的是,近来在对各种不同的注意相关任务中的fMRI、MEG、EEG活动的分析结果显示,人类大脑同样存在关联放电信号。8
单独地看,外部环境模型、自我模型与注意模型对现象意识来说都是不充分的。假如我们能够在注意图式理论的指导下将这些已有工作整合到一起,以一种恰当的方式将它们关联起来,机器很可能就会产生具有意识的错觉。这样的机器,我们就可以说它在我们具有意识的意义上具有意识。如此一来,强人工意识就得到了实现。然而,在强人工意识被确认得到实现前,仍然有两个问题需要解决。首先,如何以一种恰当的方式将外部环境模型、自我模型与注意模型整合起来,这既是一个理论问题,也是一个工程学问题。其次,即使我们制造出了这样的机器,又如何知道它拥有了现象意识呢?这是个与传统的他心问题密切相关的复杂问题。
在这里,文章打算对第二问题给出一个方向性的建议。其具体论证与第一个问题理论部分的解答一样,需要单独的文章来阐明。建议如下:从内部结构上看,机器具有完整的注意图式,即具有工程学上的可测量性;从外部行为上看,机器能在真实世界中以与人类行动者无法区分的方式做人类行动者所能做之事,即通过“全总图灵测试”。1 如果一个机器同时满足以上两点,我们就有充分理由说它具有了现象意识。如果一个人仍然对之持怀疑态度的话,那他必须承认他的怀疑对人也适用。这是因为,给定机器与人的内部结构和外部行为的相似性,使得我们已经没有可用的差异制造者来阻止将机器意识的怀疑延伸到人类意识上。但这样一来,我们就会陷入唯我论:知道一个人会思考的唯一方式就是成为那个人。鉴于唯我论是不可取的,没人愿意持此立场,所以也就没人能合理地坚持机器意识的怀疑论。如此一来,机器意识就得到了合理确认。
五、结语
自2001年斯沃茨基金(Swartz Foundation)资助举办“机器可以有意识吗”工作坊以来,迄今已逾20余载。这20余载见证了人工意识从纯粹哲学思辨到其真实可能性的转变。一旦人工意识得以实现,我们将不得不思考,人究竟是什么?当意识作为人类的最后一道防线被突破后,我们在自然界中的地位以及我们应该如何对待我们创造出来的同伴,就成为我们不得不面对的问题。在笔者看来,没有什么能比这些问题更能激励我们去做进一步探究。
The Dilemma and Prospects for Artificial Consciousness
WANG Huaping
Abstract: Artificial consciousness aims to simulate or realize what is regarded as aspects of human consciousness phenomena. Artificial consciousness can be divided into weak and strong one according to its goal and the metaphysics of consciousness. Weak artificial consciousness aims to design and construct machines that simulate consciousness, while strong artificial consciousness endeavors to design and construct machines that are phenomenally consciousness. Artificial consciousness faces a dilemma: weak artificial consciousness abandons the core part of consciousness, does not help to fundamentally improve the performance of AI, and is thus very limited. Strong artificial consciousness, on the other hand, is confined to the existing conceptual framework, which inevitably falls into the “the intermediate level fallacy”, and a new conceptual framework needs to be constructed in order to realize strong artificial consciousness. For the time being, panpsychism and illusionism are two plausible alternatives. Illusionism, and more specifically, the attentional schema theory of consciousness is the most promising way to solve the dilemma for artificial consciousness.
Key words: artificial consciousness; dilemma; panpsychism; illusionism
(責任编辑:苏建军)