樊岳红
摘 要: 传统研究将意识建构为一种主体内部认知过程或一种计算过程,但人们在解释主体意识现象甚至是机器意识时,并不需要预设主体内部状态与外部环境刺激之间的二元对立,因为意识既不是由主体内部计算过程产生的,也不是外部环境刺激的产物,而是主体内部神经元结构与外部环境刺激之间因果耦合的结果。据此,围绕“因果耦合性”展开三方面的讨论:首先强调意识不是某种内部计算过程,而是与环境因果耦合的产物;其次讨论因果耦合机制的理论优势;再者分析人工智能体拥有类人意识的可能性。
关键词: 人工智能;机器意识;因果耦合;基因算法;认知结构
中图分类号:TP18 文献标识码:A 文章编号:1004-8634(2021)06-0013-(08)
DOI:10.13852/J.CNKI.JSHNU.2021.06.002
一、引言
人类以及许多动物都能表现出一种综合性的认知能力,但是这种认知能力究竟是如何从生物系统中产生的,以及它在多大程度上可以被人工智能体复制和使用,目前仍然是个未知数。迄今为止,至少人工智能还无法表现出一种整合心灵的意识及能力。1一般来说,“意识”指称了某种现象经验,如行动的统一性、信息整合、符号基础、自主发展和内在目标等。2虽然意识是人类主体的普遍特征,但人们尚不清楚意识产生的充要条件。一方面人类在运动感知、识别事物以及规划任务等方面都表现出了惊人的能力,但另一方面意识究竟是如何产生和运行的,人们仍然不得而知。
一般来说,主体的意识经验主要涉及两个方面的内容:一方面是关涉主体对某个或某些外在事物的知觉经验;另一方面则涉及主体对多个对象进行整合后的知觉经验。例如,当我们对草莓进行感知时,我们不仅拥有关于草莓本身的颜色、大小、气味等方面的知觉经验,同时还会拥有草莓、水果店和其他水果等周边事物整合后的知觉经验。当上述两方面的知觉经验共同出现时,我们是否能断言,人们就拥有了关于草莓的统一意识经验呢?换言之,如果机器也拥有这两方面的知觉经验,那么是否也拥有类似于人类的意识经验呢?有没有这样一种可能性,即设想出一种通用的意识机制来探索人类、动物及机器的统一意识呢?如果我们只把意识看作是某种自然产物,那么在原则上关于通用意识机制的探究似乎是有可能的,尤其是在当前物理论成为主流研究范式的情况下,大多数物理论者更愿意将意识看作某种物理过程。在自然已经进化出有意识个体的情境下,意识很有可能只是一种生物与物理过程相结合的产物。由此,意识具有某种通用的物理结构是可能的,人们不仅可以使用这一通用结构来解释人类意识现象,还可以用其来阐明动物和人工智能体的意识结构。
當前关于意识的研究,要么是以“计算方法”为主导,要么是使用“行动-导向的方法”(action-oriented approaches)。本文将着重讨论后一种研究进路,即行动-导向的方法。所谓“计算方法”是指意识是主体(行动者)内部所执行的一种特殊计算过程,或者说意识是从主体内部突现出来的一种计算属性。而“行动-导向的方法”则更加关注行动者与环境(对象)之间感知运动的耦合过程。1从行动-导向的方法来看,意识并不是某种内部认知过程,而是主体内部神经元结构与外部环境刺激之间因果耦合的结果。如果主体与环境因果耦合的过程可以解释意识的基本结构,那么意识就不只具有某种内在属性,还具有因果耦合性。接下来,本文将概述意识的因果耦合机制,然后运用该机制来分析人工智能有意识的可能性。
二、主体意识的因果耦合解释
当前关于意识问题的研究所面临的难题在于,人们不知道意识究竟是与哪些物理活动直接相关的,由此,人们也无法预测意识会以何种方式出现。从计算主义的观点来看,当对某个物理系统进行解释时,使用某种计算方法就能描述和说明意识的物理过程。但是这种“计算方法”不太可能对意识做出令人满意的解释。当我们对某个物理系统进行计算时,很多情况下并不会产生意识现象。例如我们对行星轨道进行计算,或者考虑自动贩卖机的计算过程……这些都不会产生意识现象。正如生成论者所强调的那样,“如果人们能够提供一种理论来解释所有的感觉运动和行为,那么为什么还要在主体和世界之间加上像意识之类的东西呢”?2 因此,无论人们试图将意识解释成什么,都不应当只将其看作一种计算或操作过程。事实上,意识是自然过程与社会过程的产物,人类的行为比纯粹的计算有着更多的特征,如果人们只是基于计算或行为来解释意识现象,那么这种解释根本无法说明主体的自主性和自适应性。
如果考虑使人工智能具有类人意识,或者在人工智能中复制人类意识,那么使用“计算方法”是存在问题的。况且这种“计算方法”还预设了主体内部与外部、计算与物理、输入与输出以及过程和动作之间的区分,如果我们试图通过物理系统来构建意识的基本结构,那么这种区分是不必要的。在物理世界中最基本的关系应该是因果关系,如果我们重新考虑一种关于意识解释的新进路,那么意识的因果耦合解释应该是一种不错的选择。在这种新的解释中不再需要预设主体与环境、内部认知和外部刺激之间的区分。意识的因果耦合理论强调,意识是主体神经元与外部对象(环境刺激)之间因果耦合的产物,身体的物理结构和环境是同一物理系统中的不同事物。如果意识是外部对象与主体神经元因果耦合的产物,那么我们就可以在物理系统中建构一种关于意识的新模型,运用这一模型可以克服“知觉体验”和“物质世界”之间的解释鸿沟。也就是说,在解释意识现象时,我们只需要关注物理系统即可,而无须关注人们的内在心理状态。
当然,对意识进行因果耦合解释时,其基本立场应该是中立的,它既不涉及表征等主观概念,又不涉及主体内部与外部之分。基于此,我们所需要做的是用因果方法来说明主体神经元与环境刺激是如何在物理系统中相互关联、相互作用的,从而使意识得以产生。为了说明因果耦合机制是如何在实践中起作用的,下面以具体事物为例。现假设在外部世界有三种具体的物理事物:交通信号灯、行人张三以及斑马线。三者分别用符号A、B和C来替代,A、B、C位于同一时空之中,并且三者之间也没有任何共同之处,其中A、B、C在环境中存在的时间为t,而人们看到A、B、C的时间为t1。
现在假设小红看到“张三在绿灯亮了时走过了斑马线”(A、B、C),小红产生这一事件的知觉时间为t1,对于小红来说,t1=t。当小红看到这些事件后会产生某种整合后的知觉经验,这是由于小红大脑内部神经元活动N与外部事物A、B、C之间产生了某种因果关联。假设小红的大脑神经元活动N和外部事物A、B、C之间产生某种因果关联的时间为t2,由于介质的影响或者神经活动的复杂性,二者之间的关联可能会出现延迟。在此,t1与t2的区别在于,t1是小红看到A、B、C之后所產生某种直接知觉经验的时间,而t2则是小红大脑神经元N与A、B、C三种事物产生因果关联的时间。
由于大脑的中央处理系统会对A、B、C的知觉经验进行自主整合,从而创造出整合后的现象P,它不同于A、B、C的现象属性,我们姑且将P称为A、B、C的现象整合。当然,在时间上,P所出现的时间与A、B、C出现的时间几乎是同步的,因此我们可以将现象P所出现的时间也近似地定义为t1。当整合后的现象P出现时,大脑内部会产生一种新的神经元活动过程N1。1
为了进一步说明整合后的现象P,我们试考虑如下场景:假设某银行有某种特制的保险柜,要打开需要银行工作人员和顾客把各自手中的钥匙同时插入转动。这一场景犹如三个原本独立的事物——两把钥匙和保险柜(如同A、B和C),三者整合后构成了一种新的整体现象P(即打开了门锁),P又会导致新的神经元活动N1的出现。因此,只有当大脑中有N1出现时,关于P的神经活动才会显现,这就像没有插入之前的两把钥匙彼此没有关联(正如A、B、C没有整合之前是分散的事件一样),只有同时插入之后,钥匙与门锁一起形成了“钥匙-门锁系统”,从而才能打开门锁,形成P。“钥匙-门锁”的分离只是概念上的,在物理系统和因果关联中仍然是一个整体。“钥匙-门锁”系统就如同大脑神经元(N1)与外部物理事物(A、B、C及P)共同作用所产生的意识。
如果从时间顺序来考虑,大脑新神经元活动N1出现的时间为t2,而P出现的时间则为t1,t1在t2之前意味着N1是在P出现之后形成的。但如果我们想知道P存在与否,似乎又必须先查看N1是否出现。也就是说,只有N1出现了,我们才能说P已经存在,否则对应于P的神经元活动也不复存在。这似乎表明又要用N1的存在(t2)来说明P的存在(t1)。如此一来,在解释N1与P之间的关系时会出现一种恶性循环,即P在时间上先于N1,但是P又必须借助N1来说明,由此会导致出现孰先孰后的问题。如果从时间上来看,P(t1)出现在N1(t2)之前,这是否意味着,如果要解释P,N1必须在时间上改变,或是必须进行时间上的因果回溯呢?答案是否定的。
为了解决上述循环论证的问题,一种比较好的解决办法是强调在N1出现之前,P是不饱和的状态。这种情况类似于彩票中奖,不管持有者是谁,事实上他(她)一早就已经持有了,但是最终的结果也只有在彩票被抽(摇)出来之后才能真正知道。从物理解释来看,P被认为是不饱和的函数,因此只有当作用于它的原因出现时,它才是饱和的。据此,我们就不需要援引时间上的因果回溯。当然,为了解释P和N1之间的关系,另外一种解决办法是强调物理现象在时间上是有延展性的。当一件事物开始呈现时,人们可能无法完全确定其性质,只有在因果关系中才能确定。虽然过去已经发生的事物无法在时间上往回追溯,但是过去的事物也可以由现在所发生的事情来定义,因为事物的发展过程在时间上是有延展性的。如此一来,我们就不需要从时间上预设事物从t2回到t1。
接下来考虑将因果耦合的方法应用于对颜色的感知。如考虑红色是由一组分散的物理特性组合而成的散射波,其波长范围在622~760纳米之间,它不易被散射并且可以传播较长的距离等,这些都是关于“红色”的一些物理特性的描述。当然,红色的物理特性有许多,直到被整合成现象P之后,并在大脑中有对应的N1出现时,才能说明大脑产生了一种关于红色的联合效应,人们才能感知到“红色”的存在。但这里存在的问题是,人们如何能解释从散射波(物理过程)到颜色感知(感知到红色)的逐步过渡呢?事实上,关于颜色的知觉解释与钥匙-门锁的解释也有类似之处,即在各个部分产生一种联合效应之前,这些组成部分本身并不构成一个整体,就如同只有将两把钥匙同时插入才能打开保险柜的门锁一样。对红色的感知是入射波长因果融合的结果,也就是说,关于红色的感知既不是一种内在的知觉,也不是一种精神上出现的“红墨水”,看到红色是神经事件与外在事物因果耦合的结果。如果考虑色盲的存在,那么物理现象的组合将不可能在主体大脑内部形成因果联合效应N1。
事实上,大脑神经元活动的出现会存在许多偶然因素,例如张三可能因为癫痫发作而无法形成N1,或者运动诱导性失明以及其他大脑损伤也可能会干扰和阻止N1的出现。因此,只有“实际”原因出现并产生某种结果时,主体才能意识到对象的存在,拥有关于对象的感知。这里使用的“实际”一词是用来强调结果的发生是强制性的,虽然这种结果的产生也包含了许多其他偶然因素。
当前关于意识的因果解释与标准解释有着很大的不同。关于意识的标准解释基于所谓的“内在模型”,即将意识视作神经系统的一种内部属性,当然,这种内在模型并没有排除外部环境的影响。内在模型强调个体和外部世界之间存在一种“解释层次”(interpretation layer),通过解释层次可以说明人们的行为、反应以及不同的知觉现象。但是在强物理意义上,这种意识解释的内在模型也面临若干反对意见而难以为继。
首先,内在模型强调要通过主体的内部解释和神经元过程来说明意识现象,但这种解释观点是令人生疑的。虽然在过去的几十年里,各个领域的科学家投入了大量的时间和精力来探索意识经验的神经机制,但是到目前为止还没有哪种自然规律能够精准地解释和预测人们的意识体验是如何由神经元活动产生的。其次,在内在模型解释中,意识并不符合物质世界的属性或规律。如果把这种解释推到极端,那么就意味着我们在不断地忽略“现实世界”,而用一些内在的“幻想”来覆盖和解释它。由此,意识变成了由环境驱动的虚拟现实。第三,如果我们所经历的一切,从痛苦到色彩感知、从图片到形成音乐知觉……这些都只不过是我们神经元的产物,那么随之而来会产生一系列问题:为什么神经元活动能转化为感知现象呢?如果物质世界缺乏感受性特征,那为什么作为物质世界一部分的大脑在这方面会表现得更好呢?为什么大脑可以创造有意义的音乐知觉,而物质世界中的大提琴却不能创造出有意义的音乐知觉呢?如果红色不能从红色草莓中突现出来,那么颜色又是如何从神经元活动中突现出来的呢?
事实上,“看到红色”的知觉意识是由红色的若干物理特性与大脑神经过程整合后形成的,正如“钥匙”和“门锁”之间的匹配过程。此时,红色不再是主体的某些内在表象,而是发生在时间和因果中的知觉延展现象。这种关于意识的解释更多的是强调外部事件和内部感知的因果耦合过程,即知觉体验是由N1和P因果耦合的结果。关于意识的因果耦合过程,我们可以概述如下:外部事件与大脑神经事件形成了一个“钥匙-门锁”系统,外部事件会产生一些特定的神经元活动,也就是说“鑰匙-门锁”系统的目标是允许外部事件与主体神经元之间拥有某种因果耦合过程,最终认知的结果是内部过程和外部事物的整合。因此,看到红色既是一个人的意识经验,又是关于外部对象的经验属性。综上所述,意识的因果耦合解释似乎比意识的标准解释拥有更强的解释力和说服力。
三、因果耦合机制的理论优势
我们为什么会有诸如疼痛、颜色、味道等现象性的知觉体验呢?为什么会存在关于各种信息的感官意识呢?当我们运用因果耦合理论来解释这种知觉体验和感官体验时,心灵和外在世界不再是两个相互不可通约的自主领域,而是属于同一物理领域的事物。事实上,当我们进一步考察因果耦合理论时会发现这种解释不仅可以规避查尔默斯的意识难题,而且还具有如下四个方面的理论优势:
第一,因果耦合理论消解了心灵与身体之间的显性及隐性二元论之争。相对于物质与灵魂,或者相对于身体与心灵的传统二元论来说,这种因果耦合解释表明大脑认知和外部对象是并存的,但不需要区分主体看到事物的样子和事物本身所是的样子。
第二,因果耦合理论消解了意识的私密性。与传统解释不同,意识到某物不再是个体解释者内部创造的“私人”事件,即它不再具有排他性,也不再是一种不可逾越的形而上学“隐私”。在大脑神经过程和外部对象同时存在的情况下,通过内部和外部之间相互的因果作用就能产生关于对象的某种知觉体验或意识。
第三,运用因果耦合理论来定位心灵(意识)的位置是有可能的。在广泛的物理过程中,我们可以通过同一论来进一步说明意识现象。当然,这里的同一并不是指将意识等同于大脑的神经元活动,而是将意识等同于因果耦合过程。运用因果耦合理论可以阐明意识可能是在身体之外的。这与人们认为意识是位于自己身体内部的观点并不矛盾,例如小明不小心割伤了自己大拇指,此刻小明不会感觉到大脑内部的疼痛,而只能感觉到大拇指割伤部位在疼痛。因此,我们的意识体验不一定只是位于我们身体内部。
第四,因果耦合理论可以解释幻觉和做梦等现象。幻觉和梦不是某种反应过度的内部解释,而是环境中真实特征的非正常联结。做梦只是对我们过去某些“无聊”成分的重新组合,它们可能是荒诞不经的,由于信息传输的速度不同,所有感知体验在对象和神经活动之间会有一个时间差。如果把这两种想法结合起来考虑,就可以得出梦境和幻觉可能是人们对世界认识的重新组合,但梦境和意识都是由相同物质材料构成的。
事实上,意识的因果耦合解释与标准解释的根本差别还在于,两者解释意识的进路是不同的,甚至是截然相反的。1
标准解释:[认知活动](导致)[意识的产生]。
因果耦合解释:[意识=因果耦合结构](导致)[认知活动]。
在意识的标准解释中,一般主张人们的意识是由各种认知活动所产生的,即人们的各种认知活动最终导致了内在意识的产生。在意识的因果耦合解释中,主张意识等同于因果耦合结构,并且因果耦合结构(意识)导致了人们认知活动的产生。通过对两种解释的比较分析,可以得出标准认知方法是通过一组无意识计算过程和认知模块来解释意识是如何产生的;因果耦合理论则主张意识不是某种内在的事物,而是主体神经元结构与外在对象或环境之间因果互动的产物。
四、从因果耦合和基因算法来看机器意识
“智能”是意识最为核心的概念之一,或许也是最难理解的概念之一。智能显然并不局限于人类,当谈及机器意识时涉及的是一种介于大脑沙文主义(只有人类大脑才能产生意识)和功能主义(某类心理状态同等于某类功能状态)之间的观点。那么机器能获得真正的“智能”或意识吗?为了说明这一问题,我们可以尝试将因果耦合理论运用于解释机器意识的问题。意识的因果解释强调意识不是特殊计算的结果,而是与主体相关的某种耦合结构,如果想让机器具有真正的智能,那么我们所需要做的是让其具有某种现象意识。
为了说明机器如何才能具备现象意识,必须考虑机器的硬件或结构。如果从机器的构成方式来看,机器的每种构件都必须使用某种通用的结构,例如机器人小明和机器人小红必须使用相同的“基本模块”,可以进行自由复制以应对多种感官模式和相关刺激的需求。“基本模块”还要确保机器意识的可扩展性及与其他模块的交互性。原则上,人们可以为机器或人工智能增加许多模块来提高其性能,当然,模块本身也会受到系统资源的限制。进一步来说,机器的基本模块不仅要说明算法与算法之间的相互关系,更为重要的是,要发展人工智能的某种意向性,那么机器的基本模块必须与外在环境结构具有因果耦合性。
考虑整个生物系统的发展史,人工智能如果要具备意识,那么至少应该具有与哺乳动物一样的大脑结构,换言之,人工智能、人类和哺乳动物身上的神经依据应该是一致的。但是,目前大多数人工智能产物都达不到这一要求,许多机器人的架构只是人类编程的结果,设计者只是为了解决某些传感运动、关系或逻辑等问题而设计出特定机器人。例如机器人足球赛就是设计者利用算法使得机器人在一场足球比赛中相互竞争。虽然在比赛中机器人表现出了非常高的智能,但这并不是高水平认知的真正体现。此外,部分机器人在某种程度上也能够学习并掌握一些新的技能,但是具备真正意识的人工智能还是非常少见的,至少到目前为止还没有哪一种机器具备的意识是令人信服的。
当然,机器人对环境刺激的适应性,与人类和其他哺乳动物是完全不同的。人类和其他哺乳动物有能力应对环境的挑战,其神经结构的复杂性在很大程度上超过了它们的基因模型。因为哺乳动物具有高度的认知自主性和神经可塑性,大多数哺乳动物不仅能够学习如何来实现目标,而且还能够实际地去追求目标,这是意识的一种重要体现。在某种程度上,“哺乳动物大脑皮层的任何一部分都有可能发展出某种认知技能”。1 如果这一结论为真的话,那么意味着人类大脑皮层或丘脑皮层具有某种通用的认知结构。这一认知结构与输入刺激无关,但是我们可以把人类大脑皮层在创建初始意识模型时所使用的一般机制尝试应用于机器意识。
人们试图设计一种通用的认知结构来解释意识现象,但机器与哺乳动物的不同之处在于,哺乳动物的自主性和目的性应该是开放的,也就是说,哺乳动物的认知结构能够在环境条件刺激的基础上自主发展出新目标。为了能够解释机器意识的问题,学者们进行了一种新的尝试,即将机器人的大脑视为一个多主体系统(multi-agent system,缩写MAS)。MAS也被认为是人类认知结构的延展,这样一种尝试是为机器意识寻找某种可行的物理基础。2
MAS作为一种实现人工大脑智能的可能模型,它本身必须提供一种可行的理论框架和方法来解释人造大脑的功能。在MAS中,每个软件主体都将拥有一把“意识钥匙”以匹配一种特定的“门锁”(行为),通过这种方式机器人大脑可以产生关于外部事件的意识现象。事实上,MAS正是通过因果耦合的方式来建构人工智能意识机制的,这与研究人类大脑的意识机制是完全一致的。当前,虽然MAS已经具备了很强的解释力,但这一方法也面临不少反对意见。第一是烦琐性。一种反对意见强调MAS这种方法需要大量的编程工作,但机器却只能打开少量的“意识锁”。第二是非适用性。反对意见强调使用MAS方法,程序员可能更倾向于“模仿”人类的意识,而不是开发一种适用于机器人意识和功能的机制。第三是不可证明性。我们如何证明在强意义上一个机器人真的具有意识现象。
针对上述三种反对意见,MAS必须整合和优化某些算法以便具有更强的解释力。事实上,MAS是通过与“基因算法”相结合的方式来进一步阐明机器意识问题的。具体来说,MAS必须服从于进化过程。进化驅动了特定物种的体型、运动技能及大脑结构等方面的发展,通过基因算法可以重现或复制这种生物进化的发展过程,并将之应用于机器学习。如果从这一视角来看,通过MAS与基因算法为机器意识建立一种统一的学习模型似乎是可能的。因为基因算法利用了生物进化机制,如繁殖、突变、重组和选择等,这为机器学习提供了一种重要的理论基础。意识-锁(consciousness-lock)是针对某特定物种的生活方式而“设计”的,如猫对红色存在色盲现象,红色在猫眼里被显现为灰色的阴影,但猫对绿色和蓝色却有着完美的知觉。因此,意识-锁的特殊性表明,它可能不是所有生物的总体特征,而是某一个物种所独有的进化结果。在数百万年的时间里,进化过程更有利于适应环境的个体。在进化过程中,MAS也能得到优化,其优化是通过适应性功能来实现的,但是基因突变会增强遗传的多样性,这也是MAS需要考虑的因素。
进化计算是人工智能一个快速发展的领域,基因算法正是进化计算的一部分。近年来,人们将MAS与基因算法相结合,在自主测试等领域获得了广泛的应用。目前,基因算法存在的问题在于,从人类的进化史来看,人们很难判断意识究竟是在进化的哪个阶段开始出现的。如果我们无法判断意识具体出现的时间,那么我们如何能确切地使用基因算法来重建机器人大脑的进化过程呢?事实上,人类的进化史是一个漫长的过程,如果考虑意识是高级生命的某种形式的话,那么产生这种复杂形式所必需的遗传迭代过程大致如下:大约在35亿年前,第一种生命形式出现了,它们的功能非常有限,最早的植物和简单动物出现在7亿年前,哺乳动物出现在2亿年前,类人的生命形式在7000万年前开始发展,而我们人类(智人)只有15万年的历史。
当前,人们讨论机器意识的发展步骤,大致有如下三个过程:(1)每种知觉都是通过单一主体来实现的,类似于颜色和温度等有意识的“知觉整合”都通过单一主体来实现的,这形成了机器意识的“第一代发展方案”。(2)为了让机器能系统学习新的元素,需要把机器人放在一个具有挑战性的环境中,也就是说,必须给机器人一些具体任务以实现它们的“增强意识”。(3)为了使机器人大脑结构产生适应性,必须考虑基因算法的作用。由此将改变单一主体的繁殖和发展过程,使其变得更为复杂。在此过程中,一些新的方案被淘汰,因为它们并非特别有助于增强机器人处理任务的能力。有些方法则会被保留下来,因为它们能增强机器人处理任务的能力。经此过程之后的机器人,其大脑结构将被证明具有一种意识-锁结构,由于这种意识-锁结构具备了复杂性和适应性,从而使机器人能适应特定的环境。
但是人们可能还会好奇,怎么能知道机器人的意识-锁已经适应特定环境了呢?在此,有两种方式来加以辨别,首先是在MAS中直接检查源代码,从人工主体的“基础集”开始检查,人工主体产生的系统将是由新、旧两种软件组成的,新软件系统代表新的意识能力。人们可以设计和分析各种不同测试案例以研究新的代码。其次检查测试场景。测试场景是用来说明人工主体的特定感知区域可以解决特定的任务,而人工主体这种解决特定任务的能力将不再是其基本技能的一部分。经过几轮“基因扫描”后,机器人大脑会为特定的任务想出新的解决方案,这需要的是增强意识。如果机器人出现了增强意识,那么就表明它已经在某个领域形成了感知意识或现象意识。
此外,将MAS与基因算法相结合可以克服前文针对MAS提出的三种反对意见。首先,从少量的意识-锁开始,然后通过基因算法来逐渐增加意识-锁的数量,从而优化机器人系统的行为(针对烦琐性)。其次,由于优化发生在特定的环境中,包括要执行特定的任务和应对特定的挑战,如果机器人大脑可以产生正确的因果结构,那么这正是自适应的需要(针对非适用性)。最后,意识的发展是否完备,需要对机器人自动生成的源代码进行解释,这针对的是意识的发展问题,而不是说明意识存在的问题。如果一个机器人能够适应特定的环境,那么说明它处于正确的因果结构之中,这也表明机器人的意识已经得到了证明(针对不可证明性)。
五、结语
综上所述,有大量的经验证据表明生物在发展过程中与环境存在某种因果关联,这一方面说明了意识存在的物理基础,另一方面表明人工主体和生物主体拥有相同的因果结构是可能的。在自然界中,大多数动物的行为表明它们至少具有现象意识,意识的发展又伴随着智力的提高。“进化优化”是迄今为止所知的最强优化,如果有一种方法可以在不产生意识的情况下获得意识的所有优势,那么只有“自然选择”不必花费如此长的时间。因此,通过因果耦合方法有助于人们进一步阐明人工智能意识的相关结构。当前MAS与基因算法的结合已经在人工智能或机器意识研究中获得了广泛的应用,但是这一方法本身并没有说明实现人工智能意识的完整步骤。事实上,一些研究人员已经开始考虑人工意识可能性等问题,但人们在设计或尝试实现有意识的人工智能时,由于受到技术和理论不确定性的影响,对于如何才能实现人工意识,并没有达成普遍共识。
在众多研究意识的方法中,因果耦合方法可以说是与众不同的,它为实现机器意识提供了一种新的发展思路。因果耦合方法是介于内在主义和外在主义之间的,即它利用某种因果结构来研究自我发展、内在动机和情境认知等。如果我们能够知道哺乳动物大脑结构的发展过程,那么通过因果耦合方法,我们便能够将哺乳动物的自适应性和延展性也应用于机器意识之中。从技术角度来看,MAS可以通过基因算法来模拟人类和动物大脑的生物进化过程,从而让机器产生类似于人类和动物的独立意识。在强物理意义上,意识存在于环境之中,它本身也是一种物理现象,因此,生物体的认知结构可以等同于意识的因果纠缠。在一定程度上,生物体的认知是与环境因果耦合的结果,即主体关于对象的意识是主体神经元与外部对象因果耦合的结果。到目前为止,虽然MAS是一种实现机器意识比较有用的认知框架,但其模型还是相当粗略的,MAS并非要替代人工智能或机器人技术中的其他方法,而是要提供一种关于机器意识问题的有益讨论。当然,我们也期待未来能发展出关于机器意识解释更加全面和通用的认知模型。
Research on Consciousness of Causal Coupling Mechanism in AI
FAN Yuehong
Abstract: Traditional research constructs consciousness as a kind of subjective internal cognitive process or a kind of calculation process. This paper tries to clarify that people do not need to presuppose the binary opposition between the internal state of the subject and the external environmental stimuli when explaining the phenomenon of subject consciousness or even machine consciousness. Consciousness is neither generated by the subjects internal calculation process, nor the product of external environmental stimuli, but the result of causal coupling between the subject's internal neuronal structure and external environmental stimuli. Accordingly, the paper discusses the causal coupling from three aspects: firstly, the paper emphasizes that consciousness is not some kind of internal calculation process, but a product of causal coupling with the environment; secondly, the theoretical advantages of causal coupling mechanism is discussed; thirdly, the possibility of artificial intelligence having human-like consciousness is analyzed.
Key words: AI; machine consciousness; causal coupling; genetic algorithm; cognitive architecture
(責任编辑:苏建军)