人工智能主义:概念、基本理念及其理论困境

2023-05-30 09:17谷生然郭燕
关键词:历史唯物主义人本主义

谷生然 郭燕

摘 要:强人工智能是一种能达到或完全超越人的意识的机器智能。人工智能主义是强人工智能在哲学上的理论表现,它为人工智能的发展提供了方法论指导,极大地激发了人工智能研究者的信心和热情。人工智能主义认为,机器具有思维,人不过是一种高度复杂的机器,未来人工智能将远远胜过人的意识。然而,人工智能主义面临人本主义多方面的质疑:随着人工智能的发展,人日益远离自由,沦为人工智能的奴仆;人工智能不是独立的主体,只能作为人的工具;人工智能并不能从根本上超越人类思维。历史唯物主义在这一问题上的理论原则充分吸收了人工智能主义与人本主义的合理性。一方面,人工智能主义以机器模拟人的思维,不仅提升了人类处理信息的能力,而且提高了人类改造世界的能力;另一方面,在人工智能与人的关系上,人居于决定地位。无论人工智能如何发展,都改变不了人工智能是人的工具或伙伴的地位。

关键词:强人工智能;人工智能主义;人本主义;历史唯物主义

中图分類号:B03;TP18文献标志码:A文章编号:1672-9684(2023)03-0058-08

人工智能(简称AI)是由电子计算机的数字技术发展而成的新领域。1950年人工智能的奠基者阿兰·图灵(Alan Turing)发表论文《计算机与智能》,提出智能机器具有人类智能的设想。1956年在达特茅斯学院召开的一次学术会议上,十人科学家组成的小组首次讨论了“人工智能”的概念,正式创立了人工智能领域。进入21世纪,人工智能及其相关技术加速发展,孕育了一些新兴生产领域,如无人驾驶汽车、无人机、机器人、人脸识别、语音识别、机器翻译、图像处理等,重塑并深刻影响了经济、政治以及社会生活各方面。

当代人工智能的发展形成了一种新的哲学方法论,即人工智能主义,这种哲学方法论构成了当代人工智能研究的哲学基础。本文试图省视人工智能主义的基本理念及其面临的主要挑战,从而进一步明确历史唯物主义在人工智能问题上的基本态度。一般地,人工智能主义也称为强人工智能主义,是指倡导强人工智能的理论、观点和学说,它相信人工智能可以超越人的意识。这种理论主张,意识不再是人类特有的一种能力,而是人与人工智能共享的一种能力,而且,在人工智能发展的高级阶段上,人工智能的意识能力高于人类。

一、概念:人工智能与人工智能主义

人工智能的基本意义源于图灵与1956年达特茅斯会议的研究者。图灵提出了“机器智能”一词,而达特茅斯会议倡导的“人工智能”概念产生了广泛的社会影响。“人工智能”一词与“机器智能”(Machine Intelligence)同义,区别是前者影响更广泛,而后者出现时间更早。英国科学家图灵是20世纪人工智能的开创者之一。图灵以“机器智能”表达机器具有思维能力的思想。1947年图灵在伦敦皇家天文学会发表演讲,主题是机器智能,1948年图灵把该演讲整理成论文——《智能机器》(Intelligent Machine),作为英国国家物理实验室的内部报告。1950年,图灵发表论文《计算机与智能》,提出了“图林测试”,并就“机器能思维吗”等问题做了科学探讨。人工智能(Artificial Intelligence)一词最早出现在1955年9月2日,约翰·麦卡锡(John McCarthy)作为1956年达特茅斯人工智能会议的召集人,撰写了一份项目建议书,向洛克菲勒基金会申请会议资助,计划召开“人工智能夏季研讨会”。人工智能是通过计算机等机器所体现的智能,它与人的智能相区别。 正如克劳斯·梅因泽(Klaus Mainzer)指出,人工智能的核心观点形成于1956年达特茅斯会议的研究者们,而后者又受到图灵“机器能够思维吗”这一问题的启发[1]。

人工智能包括两种意义:强人工智能与弱人工智能。强人工智能(“strong AI”)也称为“一般意义的人工智能”(“general AI”),是一种在几乎所有的认知任务中超越人、具有一定自主判断能力的机器智能。这种机器智能达到或完全超越人的意识水平。这种人工智能迄今为止还不存在,但它一直是人工智能发展的方向,也是人工智能一词的本来意义。弱人工智能(“weak AI”)也称为“狭义的人工智能”(“narrow AI”),是一种在特定领域超越于人的认知能力、能够执行人所赋予的特定任务的机器智能。弱人工智能是人工智能的现存状态,它服务于人的发展,并在当代社会生活各方面展示了巨大影响力。

两种人工智能的主要区别在于:机器智能能否达到或超越人的智能或意识。强人工智能能够在几乎每一项认知任务中胜过人类的智能或意识,而弱人工智能在特殊领域(如下棋等)胜过人类,但是整体上仍然附属于人。

两种人工智能之间不是截然对立的,两者存在着密切关系。弱人工智能是机器智能的现实,是已经实现的机器智能;而强人工智能则是人工智能追求的目标,是具有现实可能性的人工智能。随着人工智能的不断发展,机器智能在越来越多的方面达到甚至超越人的智能或意识。人工智能领域的科学家以数学、算法等工具为基础,积极融合电子学、量子学、生命科学等多学科知识,不断提升计算机等智能机器的信息处理能力。弱人工智能的目标是实现强人工智能,即几乎在所有方面达到或超越人的智能,特别是实现机器智能的自主行动。强智能机器能够自动地与外部环境协调,实现最优化地设定目标、选择路径、完成目标等一系列活动。

人工智能进一步延伸了人工智能主义。严格意义上,人工智能是一种机器智能,而人工智能主义则是人们对人工智能所持的一种理论、观点,它不同于人本主义、历史唯物主义的理论立场。人本主义、历史唯物主义坚持人的意识在根本上优越于人工智能,那种超越于人的意识的强人工智能不可能实现或者不应当实现。与此相反,人工智能主义则坚信强人工智能的存在,认为弱人工智能的每一进步都体现了强人工智能正在不断实现。

一般意义上的人工智能主义,也被称为强人工智能主义,是一种相信强人工智能能够实现的理论与观点。不少从事人工智能研究的科学家持这一立场,如人工智能的开创者图灵、马文·明斯基(Marvin Minsky)、雷·库兹韦尔(Ray Kurzwell)等。持这一立场的研究者相信随着科学技术呈现加速创新的趋势,人工智能能够达到甚至超越人的意识,他们看到了人工智能正在赶超人的能力,特别是人工智能超强的数字处理能力。

赞成弱人工智能的理论与观点一般不被称为弱人工智能主义,弱人工智能不是各方争论的焦点,它被人本主义和历史唯物主义普遍接受。例如,人本主义思想家休伯特·德雷弗斯(Hubert Dreyfus,1929—2017)、约翰·塞尔(John Searle)等认为,尽管人工智能获得了巨大的技术进步,甚至在一定程度上对人的意识的地位形成了威胁,但是,人工智能只是人的工具,这些进步并不能改变人工智能从属于人及其意识。对于历史唯物主义而言,它既赞同把强人工智能作为追求目标,相信强人工智能正在逐渐实现,但并不支持人工智能最终达到人的意识的完善程度,坚持在维护人类基本价值的基础上发展人工智能。

强人工智能与人工智能主义既相互区别,又密切联系。一方面,两个概念区别在于,严格意义上,强人工智能是一种机器智能能力,而人工智能主义则是坚信这种机器智能存在且在将来优越于人的意识的一种理论、学说与观点。另一方面,两个概念又相互联系。人工智能主义以强人工智能为基础,没有强人工智能,也就没有人工智能主义。而人工智能主义则是强人工智能在哲学上的理论表现,为强人工智能的发展提供方法论指导。人工智能主义在强人工智能实践的基础上,积极开展同其他反对强人工智能的学说、理论与观点(如人本主义)进行斗争,从而不断完善自身理论,更好地坚持、捍卫、推动强人工智能的发展。

应当看到,在宽泛意义上强人工智能与人工智能主义可以互换使用。强人工智能是一种机器智能,但是,迄今为止,这种人工智能还不是现实,而是一种理想状态。“强人工智能”同时又蕴含着“人工智能主义”的要求。“强人工智能”概念从一提出就已与现存哲学中的核心概念“意识”形成了尖锐对立,倡导“强人工智能”的学者同时就是倡导“人工智能主义”的学者。例如,作为强人工智能的倡导者的图灵同时开创了人工智能主义,他的论文《计算机与智能》发表于哲学期刊《Mind》上,宣扬了机器思维能够存在。图灵的命题迄今仍然是人工智能主义与人本主义之间争论不休的基本命题之一。

二、人工智能主義的基本理念

人工智能主义体现了一种新的世界观模式。在人工智能主义者看来,不但机器能够思维,而且,人也不过是高度复杂的机器。由于人脑大量冗余信息、矛盾信息并存,满足于次优化决策,而人工智能储存的信息量巨大,并按照最优化决策,人工智能比人脑的智能发展程度更高。那种认为只有人具有思维、情感、自由意志的主张,只是人类中心主义者自以为是的观念。

(一)机器能够思维

在大多数学者的观念中,只有人具有思维能力,思维、意识是人与动物相区别的根本标志之一。黑格尔认为:“人类自身具有目的,就是因为他自身中具有‘神圣的东西,——那便是……称作‘理性的东西。”[2] 62而在强人工智能主义看来,那些只赋予人类具有思维的理论、观点,体现出人类固有的偏见和狭隘。

作为人工智能主义的倡导者,图灵坚持认为,机器能够思维。在图灵看来,世界的运动基础都是基于极其微观的电子运动,电现象构成了万物的共同基础,不是万物有没有思维能力的问题(谁知道机器没有思维能力?谁知道动物没有思维能力?),关键的问题是机器、动物在何种程度上达到或者超越了人的思维能力。机器、动物与人在思维能力上具有差异,但是,此差异并不是不能改变。当大象发生一定的基因突变后,它可以具有与人同等程度的思维;同样地,当人赋予机器一定的人造血肉以后,机器的思维也可能达到与人同等的程度,甚至超越人的思维能力。

在图灵的《计算机与智能》一文中,机器智能被赋予了“强人工智能”的意义。图灵提出“机器会思维吗?”这一问题,认识到“思维”被传统观念视为人所特有的一种能力,而赋予机器 “思维能力”,是很危险的,这一问题必然会引起人们的争论,而且这种争论没有太多的意义[3]。图灵提出了著名的“图灵测试”:如果有一台计算机,拥有足够的存储空间、适当的运算速度、恰当的程序,在“模仿游戏”中具有不次于人的表现,就可以令人满意地获得“机器会思维吗”的答案。不能因为机器智能出错就否定它,人也经常出错。即使在特定历史阶段,人们比所有机器智能更加聪明,但是,机器智能也在提升,更加聪明的机器也会不断出现。

图灵把人区分为“身体能力”与“智力能力”,计算机具有与人相类似的“智力能力”。计算机包括存储、操作、控制三部分,它根据信息科学原理进行操作,无限接近于一位“做计算的人”。“做计算的人”被图灵假定为这样的人:遵循固定的规则,无权改变规则的任何细节;这些规则是由一本书提供的,当他被安排一份新工作时,这本书就会被修改;他有无限量的纸可以计算。计算机中蕴含着一些随机元素,例如,可以命令其进行以下操作:“掷骰子,将结果存入1000”,有人认为这一活动体现了计算机的自由意志。计算机的存储能力在理论上可以达到无限容量;电子运动是计算机与人的神经的基础,在人的神经中,也伴随着电现象的发生。

拥有“智力能力”的计算机在未来可能完成“拉普拉斯妖”的作用,它可以根据宇宙的现存状况,准确地预测未来特定时刻的事件。图灵赞赏拉普拉斯的绝对必然性观点。法国数学家拉普拉斯否定偶然性,相信彻底的必然性,他在1814年提出了“拉普拉斯妖”的观点。宇宙的现存状态是过去的“结果”,并作为未来的“原因”,即我们可以把宇宙现在的状态视为其过去的果以及未来的因。当“拉普拉斯妖”知道某一刻所有自然运动的力和所有自然构成的物的位置,假如他也能够对这些数据进行分析,那么他就能够预测未来所有的数据。图灵认为,在整体的宇宙中,初始条件的极小错误都会在以后产生巨大的影响,例如,一个电子在某一时刻位移十亿分之一厘米,可能导致一年以后一个人死于雪崩或逃离雪崩,而在计算机的未来理想状态下,“离散状态的计算机”不会使这种情况发生。

图灵反对思维能力只属于人的观点,认为这是一种专断任意的观点。图灵认为,相信人优越于其他创造物、只有人具有思维的观点,只是人类自我优越感的体现。人与动物的区别,没有生物与非生物之间的区别大。人的前身也是属于动物的古猿,古猿在突变的情况下拥有了意识,也许大象在突变的情况下也可以拥有思维与灵魂。既然大象可以突破这种任意的限制,机器又未尝不能突破此类限制。虽然机器不能够像人那样吞咽,但是,一切皆有可能,不能排除在一定条件下机器也能够具有思维与灵魂。

图灵谈到机器智能发展的未来前景:在下棋等抽象的活动中胜过人类;机器通过修改一些不必要的、具有“短暂有效性”的“规则”,像小孩子接受教育一样不断地自动从环境中获得“知识”;通过安装人造器官,让它拥有更加灵敏的感觉,然后教会它理解和学习英语。

(二)人是一种高度复杂的机器

18世纪法国唯物主义思想家拉·美特里提出“人是机器”的观点,简化了对人的本质的认识。在拉·美特里看来,“人体是一架会自己发动自己的机器:一架永动机的活生生的模型”[4] 20。由于拉·美特里的观点没有看到生命运动、社会运动的特殊性,它把一切运动都简化为机械运动,因而遭到学者的普遍批评。然而,随着人工智能的发展,人工智能主义者重新提出了“人是机器”的观点。这里的“机器”已经不再是19世纪简陋的钢铁复合体形象,而是高度复杂,且进步快速的发展体。

当代人工智能主义的主要代表马文·明斯基(Marvin Minsky)认为,我们应当改变“机器”的旧观念,现在的“机器”正在日新月异地发生变化,已经不同于过去的机器观念。计算机在20世纪40年代,只有几千个组件,而人脑包含数十亿细胞,每个细胞本身很复杂,而且还与其他几千个细胞相连接。现在人们开始制造由十几亿个组件构成的计算机,用于研究人工智能,现在的运算规模是过去无法想象的[5] 20。

人工智能主义者把人体理解为无数最简单单位(如细胞)的相互作用的结果。最简单的东西之间相互作用,使整体的性能发生质的飞跃。人工智能在于揭示和模仿这些最简单单位之间相互作用的机制。明斯基认为,一切复杂的东西都是由简单的东西构成,“在科学领域,人们可以从看似最简单的事物中了解到最复杂的知识”[5] 7。这种最简单的单位受制于人的认识能力,是某一时代人们所知的最小的东西。随着科学的革命性进步和人的认知能力的提升,这种最简单的单位可能变化,更加微观化的事物为人类所发现,如从原子到电子等。只有把复杂的对象分解成可以被人所认识的最简单单位,才能提高并逐渐深化人类对其的认知与理解。

人由身体与思维构成,思维主导着身体,身体按照思维发布的要求而行动,同时,身体把感知到的外部世界的各种信息及时传递给思维。人的思维是什么?人工智能主义者认为,思维是大脑的机能,是人脑内各种程序之间的相互作用。其基本机制是人在本能、环境的影响下,逐渐确立了由长远目标、主要目标等构成的目标调节机制,并以长远目标为标准对各种需求倾向进行调节,在此基础上形成了自我、灵魂、性格等特质。

在明斯基看来,人脑的主要功能是思维,思维的实质在于运用符号、信号、图像等手段在大脑中建构各种程序的相互作用机制。明斯基认为,“使用信号、符号、单词和名称真的是一项伟大的发现,它们让我们的思维可以把陌生的事物转换为司空见惯的事物”[5]54。思维对于运行不佳的简单程序有意识,而对于没有故障的其他部分没有意识,服务于我们将要达成的目标,更多关注对象对我有什么用。

人的核心机制在于形成个人的长期目标、长期计划和理想。明斯基认识到,一个人要完成一项事业,不是一个决定或选择就可以实现,而是需要合理调整各种兴趣或志向的冲突,把目标集中于最重要的事情上。人决定以一生的时间去完成的事业,形成了个人的理想,并进而决定和塑造着个人的个性、风格与性格特征。在不同的历史阶段也有一些重要的目标,影响着不同人生阶段的行为特征。

自我、灵魂并不神秘,它们都是基于个人的目标、理想而形成和发展起来。自我、灵魂的功能在于防止人变化太快,实现在长期目标与短期多种诱惑之间的平衡,“理想自我是我们锻造出来的锁链,用来防止我们破坏掉自己所做的所有计划” [5]35。自我并不是总是单一的,自我是单一自我与多重自我的统一。单一自我是中心化的自我,源于自我的“理想”,这是个人变化得最慢的方面。人们基于天生最喜爱的倾向发展出个人理想,决定了单一自我的總特征。然而,个人在不同阶段上受制于实现需求的现实条件,形成了不同性质的具体追求,从而表现为多重自我。多重自我是去中心化的自我,代表个人的不同倾向、不同计划。

一般观念看来,人有情感而机器没有。在人工智能的视野中,情感只是自我控制的重要手段,本质是表达个人的需求。在个人实现目标的过程中,直接控制太危险。意志力告诉自己不要放弃,在一开始有效,最后通常会失败,如同“思维中的发动机燃料耗尽” [5]36-37。人的情绪、依恋等情感因素是人类自我控制的专门技术,情感是表达需求的信号。婴儿时期情感比较简单,以哭、笑的方式表达他们的需求,随着年龄的增大,人的需要增加,情感也更加复杂[5]208。

人工智能的任务在于认识人脑的机制,并通过无数的电子元件、算法等模仿人脑的机制。人工智能可以模仿人的大脑,不断提升计算机等智能机器在硬件系统、软件系统方面的运行效率。认识大脑的机制,人工智能要解决三类问题:脑细胞的工作方式;不同类型脑细胞之间的相互作用;数十亿脑细胞组织在一起。大脑的生理机制促进了智能机器的硬件系统的进步,而大脑的思维逻辑机制也推动了智能机器的软件系统的进步。

(三)智能机器将比人更具优越性

人工智能主义者不仅肯定机器具有意识,而且认为智能机器在多方面超越了人的智能。人脑具有不少缺陷,例如运行速度慢、学习进化需要漫长的过程、满足于战胜对手、没有得到充分开发、大量冗余信息与矛盾信息存在等,而人工智能则克服了这些问题,从而引领人类发展到一个新阶段。

智能机器具有创造性、具有意志,能够达到比人类天才更高的程度。只要给人工智能设定试错程序,人工智能就具有创造性。马文·明斯基认为,“我们可以为一台计算机设定程序,让它通过试错来解决任何问题,而我们不需要提前知道解决办法”[5]74。智能机器具有意志,意志即是实现目标的努力,而且,智能机器还具有意志自由。意志自由就是为了达到目标,自觉地抵抗那些试图改变目标的其他程序。人具有意志自由,例如,“每个人童年时就学着去识别、厌恶和抵抗各种形式的攻击性和压迫感”[5]393。智能机器在算法作用下,也实施着抵抗各种妨碍实现目标的压力。智能机器比人类天才更优秀,天才源于坚定的目标、强烈的动机和有效的学习方式。“光学得多是不够的,人们还要管理他们所学的内容。”[5]85然而,对于人工智能而言,目标的坚定程度超越了人类天才,对知识的管理方式达到最优化,所掌握的知识更加广博。受个人主、客观因素影响,天才的数量极少,而人工智能则可以无限地复制。

人脑具有多方面的局限性,在思考能力、进化速度、完善自身等,等方面比不上电子计算机,不能适应知识爆炸时代处理信息的需要。雷·库兹韦尔(Ray Kurzwell)认为,“基础的神经元事件处理比同等的电子电路要慢上数百万倍。这将导致人类在生理上处理新知识的能力远远跟不上人类知识的指数级增长速度”[6]2。人脑需要进化,新生儿的大脑主要包含随机联系的神经元,随着儿童的成长,那些有利于认识世界的连接模式得到发展,知识不断充实。大脑还存在着其他不完善之处,如人脑神经中包含着大量混乱(随机的和难以预料的)的部分;大脑中相互矛盾的信息并存;大脑中大多数想法都是衍生的、琐碎的;人类满足于骗过对手,只要优于对手即可等,因而大脑决策不是最优化,而是次最优化的,体现出智能发展的程度较低。而且,人的身体很脆弱,很容易屈服于大量错误的模式 [6]89-90。

与人脑的局限性相反,人工智能具有思考速度快、学习快、储存量大等优越性。雷·库兹韦尔认为,计算机能以接近光速的速度进行信号的处理和转换,比人脑进行信号传输的速度快300万倍,因此可以高速地下载并共享资源。人工智能允许我们超越身体和大脑的限制,获得超越命运的力量,我们将控制死亡,我们将可以活到自己想达到的年龄 [6]12-13。

三、人工智能主义的理论困境:来自人本主义的批判

人工智能主义面临的主要挑战是来自当代人本主义思想家的批判。当代人本主义思想家的卓越代表海德格尔对科学技术对人的自由的束缚和压迫做了深刻的揭示和批判,这些批判同样适用于人工智能主义。此外,人本主义学者从不同角度对人工智能主义的观念进行了深刻的批判,主要代表是休伯特·德雷弗斯(Hubert Dreyfus,1929—2017)、约翰·塞尔(John Searle)等。

人工智能主义能否给人带来充分的自由?显然,在海德格尔视角下,作为科学技术最新成就的人工智能主义不能给人带来自由。在海德格尔看来,科学技术越发展,人越迷失于表象,越贪婪地追逐物质利益,海德格尔认为,科学技术的本质是追逐物质利益,它不断地拷问自然界,扭曲人类历史,泯灭人的个性,导致主观主义盛行,最终将使人类沦为缺乏辨别力的乌合之众。

科学技术研究追求物质利益,以“筹划”“方法”去支配着整个存在者(世界),自然界与人类社会成为可供科学研究肆意处理的“摆置”。现代科学以研究为特征,并与“企业活动”密切联系起來,通过人的“筹划”、“方法”,服务于科学研究者对物质利益的追逐。“筹划(Entwurf)与严格性(Strenge),方法(Verfahren)与企业活动(Betrieb),它们相互需要,构成了现代科学的本质,使现代科学成为研究。”[7]895现代科学研究满足于用数学方式对表象进行说明,并没有理解更深层次的“存在”,计算主义支配了科学技术。海德格尔认为:“作为研究,认识对存在者作出说明,说明存在者如何和在何种程度上能够为表象所支配。当研究或者能够预先计算存在者的未来过程,或者能事后计算过去的存在者时,研究就支配着存在者。可以说,在预先计算中,自然受到了摆置,在历史学的事后计算中,历史受到了摆置。自然和历史成了说明性表象的对象。”[7]896科学技术越是发展,人就越满足于表象,从而越忘记了去追寻人何以存在的本质。

在海德格尔看来,在科学技术的名义规训下,社会成员日益以千篇一律的状态设定自己的主体性,他们缺乏反思性,失去了个性。这种由科学技术导致的主观主义实质上是个人主观方面完全被客体所支配的体现,这是现代性给人类社会带来的最大危险。海德格尔认为,“在以技术方式组织起来的人的全球性帝国主义中,人的主观主义达到了它的登峰造极的地步,人由此降落到被组织的千篇一律状态的层面上,并在那里设立自身。这种千篇一律状态成为对地球的完全的(亦即技术的)统治的最可靠的工具。现代的主体性之自由完全消融于与主体性相对应的客体性之中了” [7]894。千篇一律的群众极容易被少数别有用心之徒利用,沦为失去辨别力的乌合之众,技术社会沦为专制社会。在《技术的追问》中,海德格尔指出,“在现代技术中起支配作用的解蔽乃是一种促逼。此种促逼向自然提出蛮横要求,要求自然提供自身能够开采和储藏的能量”[7]932。促逼是解蔽的主要表现,体现了解蔽的根本性质。与科学技术的主观主义类似,人工智能主义倡导智能机器达到或优于人的意识水平,表面上似乎是争取智能机器同人一样的平等能力、一样的主体地位,而实质在一定程度上预示了人类沦为人工智能奴仆的命运。人工智能按照一定的逻辑必然性行动,理性遵循最优化逻辑,而人天生满足于现状,并不总是遵循最优化逻辑。人工智能主义揭示了人并不神秘,也并没有个性,只是一种遵循一定“尚未发现的”数量逻辑关系的必然性的机器。按照人工智能主义统治的人类,正如海德格尔所批判的,将逐渐丧失了个性,在所谓的数量逻辑关系的必然性名义下,人类不但在力量上软弱,而且在精神上麻木,匍匐于科学技术的专制主义统治中。

人工智能与人处于同等地位,还是永远不可能达到与人一样的地位?最早对人工智能主义展开批判的学者休伯特·德雷弗斯认为,只有人才能把自己的意识融入工具之中,拓展自己的身体能力。

休伯特·德雷弗斯认为,人工智能能够做一些事,某种有限的人工智能并不是不切实际的,然而,人工智能不可能实现完全智能的行为。人类可以借助外物为工具,并将意识沉浸于其中,去作用于其他事物,而人工智能不能达到这一点。德雷弗斯批评明斯基混淆人打乒乓与金属机器打乒乓之间的本质区别,强调应当区分使用工具的经验与关于对象的经验。使用工具构成了人自身的一部分,而对象外在于人,金属机器、人工智能则不能达到使用工具的经验[8]。盲人使用拐杖去探路,拐杖构成了人自身的一部分,不同于我们用拐杖所接触的外部物体。波兰尼对盲人用拐杖做了深刻分析:“虽然我们依靠工具或探测物,但它们并不是作为外部物体处理的……它们仍然在我们这边……构成我们(即行动者)的一部分。我们将自己的意识倾注于它们中,并将它们同化为我们存在的一部分。”[9]59

人工智能研究者常常把思维与大脑的关系,比作计算机的程序与硬件之间的关系。但是,在约翰·塞尔看来,以程序、语法、硬件等组成的人工智能系统,在根本性质上不同于人的思维和大脑。程序纯粹是从形式上或语法上定义的,仅仅是一种符号,而且思维不仅具有关于外部事物的语义,还具有内在的心理内容,因此程序本身不能构成思维。他在1980年的《中文屋》中论证了这一点:在不懂一个中文单词的情况下,一个被测试者通过运行程序,并不能够获得对中文的理解。因为语法与语义不一样,也不足以表达语义。塞尔认为,人脑也不是计算机。计算机按照符号操作的语法来运算,这里的语法和符号不是在物理现象中发现的,它们只是物理现象的标记。而大脑是一个特定的生物器官,其特定的神经生物学过程导致特定形式的意向性。在大脑中,本质上存在神经生物学过程,有时它们会引起意识。“即使你可以像对其他任何东西一样对其进行计算解释,但是你无法发现大脑或其他任何东西本质上是一台数字计算机。”[10]

人本主义批判的积极意义在于,它让人们发现:人工智能主义歪曲、贬低了人。海德格尔批评现代科学技术(包括人工智能技术)泯灭了人的个性,使人扈从于物。休伯特·德雷弗斯强调人的意识不同于人工智能的智能行为,约翰·塞尔则认为人工智能系统在其根本性质上不同于人的思维和大脑,这些见解对于克服人工智能主义的片面性具有积极意义。如果科学技术的发展使人成为一种无个性的、无生命活力的机器或者僵死的物体,那么,这样的科学技术真的能够造福人类或者人类文明吗?对于那些不能造福人类甚至严重危害人类的科学技术,人类至少应当高度警惕它们带来的负面效应。从根本性质上看,人工智能系统与人的思维和大脑不同。人工智能系统是一种用物来模仿人的生命、人的大脑功能的科技创造物,它始终不是真正的生命与人脑。而且,人工智能系统集中体现为一种工具理性,但人的思维则是工具理性、价值理性、审美理性等多种理性的统一。

四、人工智能主义的扬弃路径:坚持历史唯物主义原则

否定和贬低人工智能领域取得的成就是盲目的、片面的,毕竟自从人工智能概念提出以来,随着微电子技术、网络技术的发展,人工智能的成就已经深刻地影响着社会生活的方方面面,并且此趋势愈发明显。同样地,无批判地对待人工智能主义也是错误的。正确的态度是坚持历史唯物主义的辩证原则,尽可能综合吸收分歧双方的合理性。历史唯物主义坚持人本主义与科学主义的高度统一,在对待人工智能、人工智能主义的问题上,历史唯物主义的理论原则表现为:人工智能的充分发展与人的自由发展是高度一致的,人工智能的发展只能服务于人的自由发展。

具体地说,在如何评价和对待人工智能、人工智能主义的问题上,历史唯物主义认为应当辩证地对待人工智能主义与人本主义之间的分歧,积极吸收两者蕴含的合理性。一方面,历史唯物主义应当充分吸收人工智能主义的合理性,支持人工智能的积极发展。人工智能是当代社会生产力中最活跃、最革命的因素,它的发展进程具有某种不以人的主观意志为转移的客观必然性。人工智能从根本上推动着社会的进步,它既促进了一些新产业的形成,又深刻地渗透进传统产业中,同时深刻地影响着人类社会生活的各个方面。另一方面,在人工智能的发展中,历史唯物主义应当同人本主义一起,始终坚持和捍卫人类根本利益,使人工智能的发展服务于人类的自由发展。人工智能的发展并不等于人的自由本身,它只是為人的自由提供了更多的认识工具、实践手段和物质基础。要实现人的自由,关键还在于人的能动性的全面发挥。只有坚持将人类的自由发展作为人工智能发展的价值目标,不断发展人的内在丰富性,才能使人工智能沿着正确的方向发展。

在历史唯物主义的视野中,人工智能主义是科学主义的最新形态,但是,其根本缺点是把物(包括人造物、人工智能)凌驾于人之上,否定了人的主体地位,其结果不是给人带来了自由,而是给人的自由制造了更加强大的新枷锁。

人工智能主义是当代科学技术发展到新阶段的哲学理论成果,对于丰富和发展科学主义信仰、科学主义文化做出了贡献。19世纪中后期,伴随着上帝的消亡,“人该怎么办?”成为核心的信仰问题和文化问题。对这一问题的不同回答形成了人本主义信仰与科学主义信仰。人本主义信仰将人的自由置于最高地位。而科学主义信仰则把科学规律置于最高地位,认为人从属于科学规律。20世纪上半期,逻辑实证主义构成了科学主义信仰的主要表现形式,20世纪下半期以来,随着人工智能理论以及人工智能技术的迅猛发展,人工智能主义成为科学主义信仰的主要形式。在人工智能主义视角下,科学技术已经发展到人工智能时代,人工智能是现代科学的结晶,是科学理性、科学规律在当代的集中体现,人工智能优越于人,并且随着人工智能的发展,人工智能将远胜于人。

无疑,人工智能主义为人工智能的研究提供了方法论指导,推动了人工智能的发展。人工智能主义试图以机器等方式复制、模拟人的意识,促进了对人的意识的科学研究。同时,在对意识科学认识的基础上,各种科学技术集成在计算机或其他智能设备上,并不断升级换代,不断提升智能化水平,力图使之达到拥有意识的程度。人工智能的发展,既极大地提升了人类处理各种信息的能力,也极大地提高了人类的生产自动化水平和改造世界的能力。

然而,无论人工智能如何发展,都改变不了人工智能是人的工具或伙伴的地位。人是一种有限性的存在,正是这种有限性激发了人多方面的内在特质。当人真的有一天沦为了人工智能一样的千篇一律的存在物时,那样的人类不再是真正的人类,因为人的本性在于人是一种自由而有意识的存在物,是一种具有内在丰富性的存在物。而且,有血肉的、原生的人类尚且没有实现完全的自由和幸福,怎么能考虑无血肉的、人造的智能机器的主体地位呢?正如科学技术具有负面效应一样,智能机器也可能严重威胁人类的根本利益,人类应当高度警惕人工智能的负效应,努力使人工智能的发展服务于人类发展,使智能机器在本质上只是人的工具和伙伴。

[責任编辑:张思军]

参考文献:

[1] MAINZER Klaus.Knowledgebased systems:remarks on the philosophy of technology and artificial intelligence[J].Journal for general philosophy of science,1990(1):47-74.

[2] 黑格尔.历史哲学[M].王造时,译.上海:上海三联书店,1956.

[3] TURING A M.Computing machinery and intelligence[J].Mind,1950 (236):433-460.

[4] 拉·梅特里.人是机器[M].顾寿观,译.北京:商务印书馆,1996.

[5] 马文·明斯基.心智社会[M].任楠,译.北京:机械工业出版社,2016.

[6] 雷·库兹韦尔.奇点临近[M].李庆诚,董振华,田源,译.北京:机械工业出版社,2011.

[7] 海德格尔.海德格尔选集(下)[M].孙周兴,编选.上海:上海三联书店,1996.

[8] DREYFUS H L.Artificial intelligence [J].Annals of the american academy of political and social science,1974 (MAR):21-33.

[9] POLANYI Michael.Personal knowledge:towards a postcritical philosophy [M].London:Routledge and Kegan Paul,1958.

[10] SEARLE J R.Is the brain a digital computer?[J].American philosophical association.proceedings and addresses,1990(3):21-37.

Abstract:SAI(Strong Artificial Intelligence) is a kind of machine intelligence that can reach or completely surpass human consciousness.As the theoretical expression of SAI in philosophy,the doctrine of SAI provides methodological guidance for the development of AI,which greatly stimulates the confidence and enthusiasm of AI researchers.The doctrine of SAI believes that machines can think while humans are just highly complex machines,and that AI in the future will far surpass human consciousness.However,the theory faces questions from many aspects of humanism.Firstly,with the development of AI,people are increasingly far away from freedom and become slaves of AI.Secondly,AI is not an independent subject,it can only be used as a tool for human beings.lastly,AI cannot be fundamentally superior to the human mind.The author believes that the theoretical principle of historical materialism on this issue is to fully absorb the rationality of both doctrines of SAI and humanism.On the one hand,the doctrine of SAI uses machines to simulate human thinking,which not only promotes the abilities of human beings to process information but also enhances the abilities of human beings to transform the world.On the other hand,humans occupy a decisive position in the relationship between artificial intelligence and humans.No matter how artificial intelligence develops,it cannot change the status of artificial intelligence as a tool or a partner of human beings.

Key words:strong artificial intelligence (SAI);doctrine of AI;humanism;historical materialism

猜你喜欢
历史唯物主义人本主义
罗杰斯人本主义教育观对项目化学习的发展意义
弗洛姆人本主义精神分析的启蒙价值*
辩证法与历史唯物主义的内在统一——以《资本论》第一卷为例
历史唯物主义的五种西方重构模式解析
马克思历史唯物主义视域中的人道主义思想
基于历史唯物主义的马克思正义观再思考
人本主义视域下的城市环境污染与治理
也论知识产权强国建设的人本主义路径——兼与董涛博士商榷
记者的时代观与历史唯物主义的平衡
阿瑟·韦利中国古诗英译中的“人本主义”透视