周 靖
(河南大学 哲学与公共管理学院,河南 开封 475004)
在《论布兰顿对强人工智能观的实用主义辩护》[1]一文中,笔者曾阐述过布兰顿(R.Brandom)的下述立场:理性能动者的心灵及其世界的构建有着互相依赖性,它们均与“身体”的因素有关——恰因为人类是碳基体才会以感性因果的方式与世界接触,因为人工智能体是硅基体才以遵循引导指令(bootstrapping)的方式与世界接触。布兰顿进而指出,我们将相关的硬件和软件问题留给科学家来解决,从哲学的视角看,基于实质不同的“身体”,将会发展出不同形式的智能或心灵,从而“人工智能=人类创造的智能形式≠人类创造的人类智能形式”,如若强人工智能体获得心灵,此类心灵也不必与人类心灵完全同一。我们不妨将布兰顿的这些立场称为布兰顿论题。
布兰顿论题凸显了“身体”在人工智能研究中的重要位置。如斯加鲁菲(P.Scaruffi)所言,仅关注大脑活动而忽略身体因素,将会使得研究误入歧途,“如果图灵测试将身体因素排除在外,就几乎等同于将人类的基本特征都拒之门外了”[2]。实际上,布鲁克斯(R.Brooks)早在20 世纪80 年代便提出智能是具身化的而非单纯表征性的[3]。具身化的人工智能摒弃的思想是,根据算法的表征模型来理解大脑,如徐献军所言,这意味着带来了下述新的哲学思想:“(1)智能是非表征的;(2)智能是具身的;(3)智能是在智能体与环境互动时突现出来的。”[4]本文将论述到,“非表征”性帮助我们避开了心、物二元论的思维框架,进而避开了将人类的心或身作为衡量人工智能体的“心”或“身”的标准这一做法;“具身性”则能够帮助我们吸收诸如梅洛-庞蒂等人的洞见,从而将德雷福斯反对人工智能的理由转变为支持具身的人工智能体的理由。
从身体角度说,根据布兰顿论题,“人工智能的身体=人类创造的身体形式≠人类身体本身”,这一理解将会在祛除人类中心主义的身体观的条件下依旧保留身体的重要意义,甚而帮助我们讨论具身的人工智能体的可能性。
人们要求基于数据和算法来“模仿”(model)世界的“好的、老式人工智能”(good old-fashioned AI,以下简称GOFAI)具有身体的主要原因在于,GOFAI难以动态地适应经验中的偶然要素,并进而即时构建起新的适应行动的算法模式[5]。相较之下,如杜威所言,拥有“身体”的人类是一种“活生生的存在”,他“不断地(即使是在睡眠中)与环境进行互动。或者说,站在构成生命的事件角度看,生命是一个交互行为……这种交互行为是自然的,就像碳、氧、氢在糖中进行有机的自然交换一样”[6]206。根据这种观点,经验就是生命功能或生命活动[6]282,人类恰因为有了身体,才能与丰富的外部环境产生有效互动。GOFAI 由于缺乏一个人类般的身体而被质疑难以应对复杂与偶然的情形,甚而无法拥有生命或者心灵。
如果以具身的视角看如今人工智能的研究,我们会发现各式立场大抵如斯加鲁菲指出的那样,缺乏对“身体”的真正考虑。贝叶斯学派强调基于既有的信息来做出呈现一定稳定概率的推理,类推学派则基于信息的相似性来做出“范畴”化的整理和预测,但这两种学派均以符号学派的下述承诺为前提:所有信息都可以通过符号来操作,因此可以通过形式推理来表征世界、获得知识。明显可见的是,符号学派、贝叶斯学派以及类推学派都对身体置若罔闻。
但对符号学派持批评态度的联结学派和进化学派也同样未能凸显身体的重要性。尽管联结学派指出,形式化的符号推理无法覆盖我们大脑能做出的所有推理形式,但该学派囿于对脑内神经元结构的模仿。进化学派则承诺规则在运行时可以进化,尝试将进化机制引入计算机中——这种设想如若完全成功,我们将获得上帝般的编程能力。多明戈斯(P.Domingos)曾提出“终极算法”的概念,终极算法是融合了上述五个学派所有追求的最终结果,届时“所有知识,无论是过去的、现在的还是未来的,都有可能通过单个通用学习算法来从数据中获得”[7]。这种算法将无异于上帝的语言,嵌有此种算法的人工智能体将超越人类知性的界限,达到普遍理性的高度,它也将突破当下时间的桎梏,在永恒之地陪伴知识的大全——这实际上无异于一条证道成神之路!
在人工智能哲学的研究上,我们切勿抛弃哲学讨论中必须持有的审慎态度。从哲学的视角看,前述五个学派均缺乏真实的具身视角,因为这些立场有着相同的“阿喀琉斯之踵”:无论是对概率或范畴结构的表征,还是对颅内神经元结构或进化规则的模仿,均是通过算法形式来表达的,最终实现的仅是更为完善的GOFAI。此外,设想满足如下条件从而踏上不同于算法进路的具身进路亦是不足的:(1)理解生物系统;(2)抽象出行为的一般规则;(3)将获得的知识运用于通用人工智能体[8]。其原因在于,对生物系统的规则的理解仍然需要诉诸算法形式来表达。
鉴于这一“阿喀琉斯之踵”,具身(“具备人类般的身体”)的人工智能体似乎是不可能的。然而,这里的不可能性绝非实证科学家之责,在笔者看来,问题源于对身体的理解受到了近代以来流行的心、身二元论的影响,我们需对已有的成见进行诊断,并最终认识到具身的人工智能体不必具备人类般的身体。
心、身二元论促使我们将心灵和身体视为两种不同的实体,如扎卡达基斯所言,这种成见促使我们在下述两种选项之间做出选择:(a)认为信息无具身性,人工智能体和我们碳基生命的人类智能不会有差异;(b)无法测知人工智能体是否具有意识或心灵,人工智能体可能只是哲学僵尸[9]123。这里涉及下述形式的推理:
P1:心灵与身体是不同的实体,但是,
P1a:身体构成了心灵的充分条件,以及
P1b:基于身体的认知构成了心灵内的理解的充分条件;
P2:人工智能体没有人类般的身体;
C1:人工智能体不具有心灵。
或者说:
P1:心灵与身体是不同的实体,但是,
P1a:心灵构成了身体的必要条件,以及
P1b:心灵内的理解构成了基于身体的认知的必要条件;
P3:人工智能体没有人类般的心灵;
C2:人工智能体不具有身体。
P2和P3,以及C1和C2的差别体现着立场(a)和立场(b)之间的不相容性。立场(a)放弃了身体,立场(b)放弃了心灵。但是,根据布兰顿论题,我们不必做出非此即彼的选择,既然“人工智能=人类创造的智能形式≠人类创造的人类智能形式”(从而非P3和非C2),那么,“人工智能的身体=人类创造的身体形式≠人类的身体”(从而非P2和非C1)。这种对布兰顿论题的扩展既提醒我们注意避免心、身二元论的影响,也将促使我们重新理解身体,进而在一种否定P1的意义上来重新探讨人工智能体具身化的可能,而此时的“身体”不必然是人类般的“身体”。
身体是触摸和应对世界的“工具”(organ,instrument)。在亚里士多德那里,对于有生命的有机体而言,“工具”意味着“器官”,灵魂的形式一面构成了物料性身体的本质。杜威的工具论(instrumentalism)或探究逻辑认为,应该在生物性的实质的机体活动和蕴生了形式“意义”的过程之间建立起连续性,“探究”是一种调节我们的语言性存在与物质性“情境”之间关系的方法。“生物学的”和“文化的”存在均是杜威式探究的“母体”[10]。认知活动既不是发生在脑内的活动,亦不是纯粹形式化的推理,而是发生在有机体与其环境之间的互动过程之中,这种“延展认知”的理解体现了对心、身二元论的拒斥。然而,当前的问题在于,人工智能体能否拥有某种身体,这类身体同样能够起到“工具”的实质的和形式的、感性的和理性的双重作用?
沿着有机体触摸的实质世界和形式上得到表达的有意义的“世界”两个方向,我们可以区分出下述强、弱两种程度上的具身的人工智能体:
(Ⅰ)强具身的人工智能体,认为它与我们处在(situated)相同的物理世界中,因此,它甚至与我们有着相同的“感觉材料”(sense data)或“感质”(qualia),其中,仿生学的发展使得强具身的人工智能体愈发可能;
(Ⅱ)弱具身的人工智能体,认为它以可为我们理解的方式对世界作出解释,但它只是在将世界纳入语义的语境(having the world in view in a semantic context),因此它是我们文化共同体内的一员。
强具身的人工智能体无疑是与我们一样的人类了,它与我们有着相同的涉身世界的处境··(situation);相较之下,弱具身的人工智能体则未强求拥有与我们一样的身体,而仅要求有着可为我们理解的语境(context)。笔者认为,立场(Ⅰ)设定了一种过高且不必要的要求,立场(Ⅱ)是更为合理的立场,它容纳了人工智能体能够具身化的真实可能性。
关于立场(Ⅰ),既然强具身的人工智能体等同于人类,我们可以从人类视角做出反思。首先,实际上,我们人类的认知亦非以感觉材料为基础。根据塞拉斯(W.Sellars)的界定,感觉材料被认为是某种构成经验的基本的、初始成分,经验进一步构成了信念和推论的前提。C.I.刘易斯将“感质”界定为某种可在不同经验中一再重复的、普遍的感觉的质性特征(感质,qualitative characters)[11]。总而言之,我们以往相信在涉身世界的活动中被动获得的感觉材料或非主观的感质具有可信性和权威性,它是一个“无需被证成的证成者”(unjustified justifier),信念的真假需参照它来确认。我们通常所言的感觉材料、经验内容、感觉片段、感受、后像(after images)、痒的感觉等,均是感觉材料[12]21。如陈亚军所言,“在传统经验主义那里,经验即感觉所予,它既把我们与世界连接在一起,保证了知识的客观性;又支撑起整个知识大厦,提供了知识所需要的确定性”[13]。然而,这种对感觉材料的要求体现了一种无法实现的神话,塞拉斯谓之“所予神话”。塞拉斯批判所予的思路十分清晰,简单地说,
(1)“所予”不可具有任何概念性;
(2)如若具有概念性,那么它便已经渗透了主观的理解,从而不是纯粹感性的;但是,
(3)为了能够证成知识提供,“所予”也需要至少有着某种可理解的理性结构。
(1)和(3)直接相抵牾,我们无法将概念性和非概念性这两种不相容的属性同时赋予“所予”。就此而言,不仅对设想中的强具身的人工智能体而言,也对人类本身而言,感觉材料或感质均不是认知活动的基础。从而,人工智能体具身化的标准不必建立在能否具有感觉材料或感质的前提之上。
其次,如若紧跟塞拉斯的进一步讨论,我们将会迈向立场(Ⅱ)。塞拉斯进而区分了自然的逻辑空间和理由的逻辑空间,认为感觉材料属于前一空间,而认知活动则是在后一空间内发生的,这里的“要点是,在描述某一片段或状态的认知特征时,我们并不是在就那一片段或状态做经验描述,而是将之置于理由的逻辑空间内,从而证成或能够证成人们说了什么”[12]76。所予“不同于判断,它们不具有苹果或闪电所具有的那种命题形式”[14],从而,在知觉中,我们不是单纯地在“看”(seeing),而是“看到了什么”(seeing that)[12]36。“看到了什么”意味着我们能够将经验内容以命题的形式呈现出来,人工智能体亦能在形式上完成呈现“内容”的工作。这里的内容——无论是人类在社会交流活动中锚定的单称词项或次语句(sub-sentential)表达式所指向的内容,还是人工智能的算法模型所表征的内容——均是有着意义负载的内容,它有着可为我们理解的语义结构。
基于上述两点阐释,我们认为对人工智能体具有“感质”的要求是不合理的,我们人类的认知亦不是直接建基于感觉材料或感质的。需要强调的是,这两点认识并未否认具身认知的洞察,笔者仅旨在指出,我们不必要求人工智能体的认识活动中包含着人类经验性的感质,在此意义上,我们不必将人类的身体和心灵视为身体和心灵的唯一形式。笔者曾在《论布兰顿对强人工智能观的实用主义辩护》中做出过相关阐释,下一节将提供一种不同的论述。
容易让人感到困惑的是,那么弱具身的人工智能体究竟在何种意义上“具身”?毕竟,此时并未要求人工智能体拥有与我们人类一样的身体。这一追问迫使我们直接讨论如何理解人工智能的“身体”的问题,这亦是我们下一节中的工作。
总结而言,笔者认为,我们需要区分“处境”和“语境”这两个概念,“处境论”要求将人工智能体放置在与我们一般的世界背景之中,从而与我们经历一样的学习和进化过程,如若人工智能体有朝一日衍生出心灵,该心灵也将会是人类般的心灵。通过“感知-行动”来进行深度学习,这种发展人工智能体的进路并无问题,问题在于,其中隐藏着的人类中心主义思想:将人类心灵视为心灵的唯一形式,将人类理解的世界视为世界的唯一形式。实际上,下一节的讨论将表明,人类心灵及其世界的建构受到其身体性质(作为有机体)很大的影响,人工智能体(包括其他物种的理性生物)由于对外界信息的反应有着类型上的差别而可能衍生出别样的心灵和世界,这些心灵和世界将不严格同一于(甚至迥异于)人类的心灵和世界。这一理解促使我们接受“语境论”,并且仅要求人工智能体能以合乎理性的方式行动,从而能为我们所理解。我们将会因此扩展心灵与世界的范围,也会随之扩展身体的范围。
肖峰曾区分出下述四类“身体”观:(1)身体Ⅰ,作为身心统一体的身体,即以梅洛-庞蒂的身体现象学为代表的身体观;(2)身体Ⅱ,以大脑为核心的身体;(3)身体Ⅲ,颅外的“肢体”,肢体与世界有着实质的互动;(4)身体Ⅳ,脑机融合的身体,即所谓的“赛博格身体”[15]。肖峰的立场是,走向融合认知,即基于身体Ⅳ而认为有些认知是具身的,有些则不是,但可以将具身的和非具身的认知融合起来。相比之下,笔者的立场或许更为激进,尽管融合认知提供了更为完善的观念,但其中仍然隐在承诺了人类身体有着特殊性:赛博格身体必须融合了人类的身体才可能具身化。我们完全不需要这样成问题的承诺,其理由恰在于肖峰未能对身体Ⅳ展开的具体分析。
关于身体Ⅰ,肖峰认为:“如果身体是指身体Ⅰ,即‘身心统一体’,那么‘认知是具身的’就是一个无意义的命题。因为既然已经是身心统一体了,心智即认知已经包括在这个统一体中了,此时说认知是具身的,无异于说‘认知寓于本身就统摄了认知的身体中’,即‘心是寓于身心统一体中的’。”[15]于是,身体Ⅰ与具身认知的问题无关。然而,“身体的统一”仅是一个结论,我们不能轻易地直接加以认可和利用,而应分析其中的理由才能更好地理解身体Ⅰ,而这些理由将不仅能更好地支持身体Ⅳ,也能帮助我们超越人类中心主义的身体观。
“身体Ⅰ”暗含着这样的观点,即身体与其置身其中的有意义的世界是互相成就的。在梅洛-庞蒂那里,“身体”不是静态的物理存在,它包含了一系列行为活动的可能性;身体是通往世界的桥梁,作为桥梁的“身体是在世存在的载体,有一个身体对于一个有生命者来说,就是加入一个确定的环境,就是与某些筹划融为一体并且持续地参与其中”[16]124。就此而言,涉身世界的行动是直接参与一个环境的行动,该行动过程不是一个可以分裂为心灵的形式一面和事物的实质一面的过程,因为,“外感受性要求给各种刺激赋形,身体意识蔓及身体,心灵散布在它的所有部分,行为溢出它的中心区域。然而,我们可以回应说:这种‘身体经验’本身是一种‘表象’、一个‘心理事实’”[16]116。身体体现了一种具身化的主体,用刘哲的话说,“具身化的主体就是知觉中构成第一人称视角的主体性维度。在此意义上,主体性身体或具身化主体包含主体-客体之原初统一,无法再通过笛卡尔主义心物二元论得到解释”[17]。
梅洛-庞蒂的思想受到乌克斯库尔(J.von Uexküll)的影响,尤其受其周遭世界(Umwelt)概念的影响。在乌克斯库尔看来,首先,每一物种均据其“功能圈”(Funktionkreis,functional circle)形成了独特的周遭世界,乌克斯库尔常用“气泡”来作比喻,认为“我们在草地上的每一只生物周围制造了一个气泡。这个气泡代表了每个生物的环境,并包含了主体可获得的所有特征。一旦我们进入一个这样的气泡,主体之前的环境就会被完全重新配置。五彩缤纷的草地上的许多品质(属性,quality)完全消失了,其他品质彼此失去了连贯性,产生了新的联系。每个气泡中都有一个新的世界”[18]。“气泡”是闭合的,它构成了生物所栖居的空间的脚手架,同时,它也限定了生物有效活动和理解的空间,不同物种的生物有着实质不同的空间和世界。其次,知觉世界和效应(有效的,effective)世界一起构成了一个闭环,即周遭世界。周遭世界是主体直接建立起的世界,尽管它是纯粹的主体世界,但也是一个“实在”在其中向主体直接呈现自身的世界。世界是对主体而言有效的事物的总和。不同于康德,在乌克斯库尔的周遭世界中不存在隐藏于现象背后的本体,这里亦没有任何心、身二元论的痕迹。我们无法讲述一个从动物世界到人类世界的连贯叙事,用西比奥克(T.Sebeok)的话说,“周遭世界这一词意味着这样的信条:任何机体必然以其自身的方式知觉世界,但它获得的图型绝非映射出了宇宙本然之所是(as it is)”[19]。在人类的周遭世界中得到理解的心灵和世界也绝非本然或普适的心灵和世界。
梅洛-庞蒂和乌克斯库尔共同向我们揭示的要点是,身体不是一种与心灵对立的实体,身体的“具身性”特征在于,它自身负载着能够有效应对环境的机制,从而本身是认知活动的基础或一个环节。根据这种理解,德雷福斯在《计算机不能做什么》中对人工智能的下述指责不再适用于具身的人工智能体:人工智能体不像我们人类这般栖居在世界之中[20]。因为,如布鲁克斯确认的那样,“推理不是机器智能的核心要素,机器与其世界的动态互动是其智能结构中决定性的要素”,“世界最好的模型就是模型本身”[21]。具身的人工智能体亦在世界中“操劳”,从而“在-世界中-存在”。
进一步的问题是,人工智能体能否在有效应对环境(对外部刺激进行赋形,并对相关形式进行模型上的处理)的意义上拥有一种身体,此时,身体包含着对机械“身体”以及相关程序的综合调用。换句话说,人类心灵以人类的有机体为基础,机械心灵以机械身体为基础,那么人工智能体能否拥有自身的周遭世界,甚而成为一种新的物种?就哲学层面的讨论来看,笔者给予肯定的答案。如果人工智能体能够对世界中的对象做出有效的反应,并且它有着呈现对象的语义模型,那么便可以认为它在进行具身化的认知活动。更进一步的问题是,人工智能体如何将人类身体在涉身世界的活动中获得的丰富的信息进行模型化的处理,即机械体如何将其周遭世界的信息纳入其语义视野。笔者认为,这依旧是科学家们而非哲学家的工作。如若科学家们能够在机器学习上取得卓越的成就,如目前备受关注的ChatGPT 技术,甚而在某一天实现能够完全自我学习和编程的人工智能体,从而能够应对无限复杂的情景,那么我们将完全可以期待拥有智能、心灵乃至身体的强人工智能体的诞生。需要注意的是,就可能出现的人工智能体的心灵或身体而言,其本质对于我们来说可能是不透明的。但无需对这一点感到讶异,我们如今甚至无法解释人类心灵的本质以及他心问题,甚而用“突现论”来解释心灵的出现。从笔者这种显得甚为宽容的立场看,只要人工智能体能够对其环境做出可靠的反应,且能够囿于对象而做出行为上的调整,我们便可以承诺它可能获得一种身体和心灵,从而其关涉世界的活动是一种具身的认知活动。
总结而言,笔者的论述目的不在于证明强人工智能体能够拥有人类般的身体,从而拥有人类般的具身认知能力,而在于试图指出强人工智能体可能拥有不同于我们人类的身体,从而具有不同特质的具身认知能力。梅洛-庞蒂和乌克斯库尔均强调这样的思想,即世界和心灵在身体的基础层次上是直接相连的,这种泯除了二元论思维的理解让我们有理由期待具身的人工智能体的到来,而具体的现实只能由科学家们创造。人工智能哲学的研究者切勿放任想象、放弃论证,甚而对科学事实作出判断,对相关的社会事实做出未来主义的躁动狂想。人工智能哲学是对人工智能现象的哲学研究,而非一项科学研究。
本文论证“弱具身的人工智能”是可能的,一方面,“弱”的措辞强调的是机械身体将可能不同于人类身体,但基于这样的身体,机械体能够进行具身的认知活动;另一方面,该措辞也在强调在“语境论”下来理解具身的人工智能体。根本而言,我们一定会按照人的标准建造人工智能体,如不然将无法理解它的行为,这是很自然的事情。如扎卡达基斯所言,“语言是现代心智诞生的起因……语言不仅意味着沟通,世界在我们心智中呈现也依靠语言。人工智能可能具有其他呈现世界的办法。然而因为最终我们将会是人工心智的创造者,我们会尝试赋予它和我们近似的呈现方式,否则的话我们就无法和它交流也没有办法理解它”[9]16-17。始终将人工智能的发展控制在人类可理解的范围之内,这应成为一项科技伦理的基本原则。