[摘要]传统哲学理论认为机器不存在意识和认知能力。智能科技急速迭代进化,对类脑科学研究需求迫切,两者叠加影响使得机器意识研究成为当今的理论前沿和学术热点。机器意识研究可以深化物质与意识的关系,借助科学佐证与技术细节,必将深化哲学的科学性与前沿性。作为一种技术构想,机器意识是一种基于某种哲学思想来探讨机器是否真正拥有意识与机器意识的本质及建构的理论和方法。以“生物算法”为基础的人类意识,最终将会被以形式化算法为基础的人工智能充分模拟。可以预见,随着人工智能矛盾运动的惯性推力,人工智能意识在不久后将可能成为现实。然而,人工智能并非人类“终结者”。将伦理置为机器意识发展的前置条件,是应对其风险的时代之需。
[关键词]机器意识;可及性;脑智外现;觉知内显;伦理前置
[作者简介]陈万球,长沙理工大学科技哲学与科技伦理治理创新研究中心教授。
*本文系国家社会科学基金重点项目“人工智能自我意识的可能性及其伦理问题研究”(21AZX017)、国家社会科学基金重大项目“当代科技领域道德问题研究”(22ZD044)的阶段性成果。
意识是自古以来最熟稔、最神秘、最令人困扰的哲学概念之一。因而,对人工智能终极目的实现而言,机器意识的探讨是绕不开的前沿性难题。智能机器人是否有意识?从非决定派到决定派激烈之争彰显了问题的重要性。
一、机器意识的有无之争:从结构说到功能说
人工智能是机器发展的最新形式,是20世纪人类最伟大的发明之一,它正在迅速而深刻地改变世界和人自身。人工智能系统(如情感机器人、无人机、人机混合增强智能、人脸识别系统、脑机融合技术、自主智能系统等)正在大量、快速地普及应用,对人类社会产生了全方位、深层次的影响,成为学界持续关注和讨论的热点问题。其中最前沿也最引发争议的乃是“人工智能意识”问题。具有自我意识的智能体可能引发颠覆性的社会伦理问题,对此不能无视,必须积极主动应对。
关于智能机器是否具有意识问题的研究始于20世纪50年代。1950年,“人工智能之父”英国数学家阿兰·麦席森·图灵(Alan Mathison Turing)在《计算机器与智能》中首次提出了被后人称为“图灵测试”(Turning Test)的方法。1955年美国数学家约翰·冯·诺依曼(John von Neumann)在《计算机与人脑》中,革命性地诠释了计算机数学运算与人脑意识的关系。进入21世纪,学界围绕机器是否具有意识或认知能力展开激烈讨论,主要分为两派,即非决定派和决定派。
非决定派基于“结构说”,认为意识是生命结构的产物,人工智能不是生命体,强调意识与生命系统的不可分割性,所以人工智能永远不可能产生意识。基于神经科学的研究,他们认为大脑的感知、决策和行为是通过最小化预测误差来实现的,而这些预测最终是为了维持生物体的内稳态(homeo?stasis)。这意味着意识的产生与生物体维持自身生存的需求密切相关。甚至连最简单的生命形式,比如单细胞生物,都需要与外界交换物质来维持内稳态。从生物自然主义的视角来看,这种生物过程是意识形成的先决条件。意识不仅仅依赖于计算功能,更与生物过程中的代谢、物理限制和动态变化密切相关。非决定派反复论证,人工智能不可能发展出具有自主意识的机器人,意识是人类的独有特征,人之外的事物永远不可能拥有意识。代表人物国外有约翰·塞尔(John Searle)、罗杰·彭罗斯(Roger Penrose)、苏珊·布莱克摩尔(Susan Blackmore),国内有陈凡、王焕超、韩东屏等。1980年,约翰·塞尔在《心智、大脑和程序》一文中提出著名的“中文房间”思想实验用以驳斥“图灵测试”的合理性,认为机器是物质,永远不可能具备独立反思能力。塞尔从研究中得出结论:意识是一种生物现象,在某种程度上与胆汁分泌可以相提并论[1](111)。所以,在生物体之外是不可能产生意识的。数学家罗杰·彭罗斯笃信,AI与自我意识之间有着不可逾越的鸿沟。布莱克摩尔则认为,寻求机器意识是对机器人研究的误导,创造一个意识的机器主体是不可能的[2](183)。在国内,陈凡认为,自我意识是以人的主体性为基础对自我与对象之间关系的确认和反思,目前来看,AI并不具有自我意识[3](19)。AI的关键不在于“智能”,而在于是否具备“意识”,从目的论的角度来说,AI永远都不会拥有意识,因为智能机器人存在四条无法跨越的鸿沟,即不能知道不在场的人、不能知道昨天和明天、不能自创新编码、不能用软件重建硬件[4](256-257)。在陈俊秀等看来,机器意识在理论上的可能性和技术上的可行性均存有疑问[5](110)。如果把情感、表达力、意志力、想象力和注意力等五大特征作为判断机器是否具有意识的依据,则机器人很难具有像人一样的意识[6](4-5)。韩东屏认为,强人工智能即使具有意识,在功能方面,它也永远不可能完全达到人的意识水平[7](1)。
决定派基于“功能说”,认为意识不通过生命体结构产生,只要通过模拟、深度学习等就可以获得认知和意识。只要系统具备了与人类大脑相似的功能,无论物质基础是什么,意识便有可能产生。可以举忒休斯悖论加以说明。假设我们逐渐更换一艘木船上的每一块木板,直到最终所有木板都被替换,那么这艘船还是原来的那艘船吗?计算功能主义者会进一步推导,如果我们将人类大脑中的每一个神经元替换为功能等价的硅基算法,或通过仿真完全复制大脑的神经网络,那么这种“硅基大脑”是否可以被认为具有意识?计算功能主义的支持者相信,只要系统的计算功能等同于人类大脑,无论其物质基础是碳基的还是硅基的,都有可能产生意识。他们甚至认为,随着人工智能的发展必然会出现拥有自主意识和自由意志的智能机器,只是时间尚不确定,代表人物有雷·库兹韦尔(Ray Kurzweil)、斯蒂芬·威廉·霍金(Stephen William Hawking)、赵汀阳、孙伟平等。库兹韦尔认为,随着技术“奇点”的到来,会出现拥有自我意识的“超人工智能”。霍金认为,人工智能的发展是20世纪最伟大的事件,自主机器人也必然会出现。强人工智能(Strong AI)会真正拥有人类最宝贵的东西——“自我意识”。赵汀阳认为,就技术趋势而言,人工智能发展出自我意识具备极高的可能性[8](2)。实际上,自我意识是目前人工智能发展的瓶颈所在,但不少人相信它一定会取得突破。当机器人可以理解并能够回答“我是谁”“我从哪里来”这些问题,就意味着机器人具有了人类同样的自我意识。传统哲学认为,“会思维”是人的本质,随着智能机器人的进步,“机器会思维”将成为不争的事实[9](122)。目前已有科学家证明人工智能可以形成自我意识。在强人工智能时代,机器自我意识可能会产生,智能机器人可以在算法外独立实施行为[10](167)。
上述非决定派与决定派的论证,为机器意识的实现提供了重要的理论前提和思考元素。我们认为:机器意识的实现并非一种理论假设和空中楼阁,而是一种基于科学技术发展的合乎规律的预期。
二、机器意识的可及性:从直觉到内隐
机器意识并不是一个异想天开、庸人自扰的问题。人工智能意识离我们有多远呢?机器意识是指机器具有算法之外的独立的思考和认知能力。如果机器实施的行为以自我意志为转移,具有相对独立性,机器就具有意识。从人与技术的关系看,机器意识是人的本质的投射,从直觉到内隐,反映出机器意识的发展规律性特征。
1.新兴技术的涌现不断增强智能机器的“感性”
一些与人工智能自我意识产生强相关的新兴技术将格外引人关注。神经认知科学技术、深度学习技术、脑机融合技术、人工生物合成智能机器人、量子技术等技术变革的现实涌现,将不断增强智能机器的“感性”。作为“心智的生物基础”的神经认知科学是解决意识难问题的新范式,脑和认知科学前沿技术的突破,使人工智能意识的诞生成为可能。更重要的是,不仅脑智是模块化的,意识觉知也是如此。在理解觉知机制后研发意识觉知模块,从而在真正意义上实现和人类感同“心”受的机器意识。深度学习技术利用海量数据训练多层神经网络,模拟人的意识和行为,从而可能产生意识。在未来几年,机器将变得更加智能,并利用无人监督的深度学习作出更复杂的决策。脑机融合技术正在成为人工智能意识产生的新动力。脑机融合的方向为:一是从机到脑,通过电子信号刺激人脑,再传输感觉信息或模拟神经功能;二是从脑到机,即通过大脑操控设备,通过脑信号进行虚拟现实的交互,脑电操控机器躯体等。脑机接口技术是新一代人机交互和人机混合智能的核心技术,能使机器借用人类意识进行“意识”,提高“自我感性”。
相比之下,更有希望的发展方向则是量子技术。意识与量子系统有着天然的联系。量子计算具有比经典计算更强的计算能力与描述能力,能实现巨量计算和解决极其复杂的计算困难,且具有真正的不确定性,能突破预先编程的限制,因而更适合描述复杂的意识现象。可见,量子技术是最有希望实现人工智能意识发展突破的新方向。
2.类脑智能技术与生物技术的矛盾运动使智能意识成为可能
类脑智能技术使人类意识在可解析道路上迈出了一大步,人类脑神经网络的新发现又推动机器算法与机器网络的革命。人工智能的进化主要在于算法,脑机融合技术、生物智能与机器智能的充分结合,通过构建脑机混合机器实现大脑与机器的协同,在算法革命的推动下,最终实现机器意识。未来人工智能的类人与非类人发展路径之争不仅带来智能发展的更多选择,也表明类脑智能技术与生物技术的矛盾运动驱动着智能体自我意识的可能性发展。事实上,脑科学大量已有进展尚未在人工智能领域得到有效利用。例如,目前人工神经网络所用的神经元模型,还是1943年的麦卡洛克-皮茨(M-P)模型,训练的理论依据,还是1949年提出的赫布学习规则(Hebb Learning Rule)。在脑科学领域,有许多与智能行为密切相关的认知范式、神经活动机理等“宝藏”等待人工智能领域研究者开发和利用。大脑的结构和功能极为复杂,关于脑科学的重大突破一旦出现,将极力改变现状。脑科学的三大发展方向,一是理解大脑;二是防止大脑的衰退以及脑疾病的产生;三是模拟人脑,创造具有人一样的意志、人一样的认知和人一样的意识的机器。基于脑科学与认知科学的人工智能,正是要借助脑科学与认知科学来逆向工程生物智能以洞悉自然演化的机制,从而指明机器智能的进化道路,最终以触达智能的未来时。
3.技术史的演进逻辑隐含智能机器产生自我意识的可能
智能机器意识的产生是人的进化过程:智能机器是人进化的一部分,是人克服自身器官局限的结果。在马克思所处的时代,虽然智能机器尚未出现,但智能机器、智能器官等问题已经进入马克思的论域。这可以从马克思“机器体系和科学发展以及资本主义劳动过程的变化”的阐述中看出。马克思指出,自动的机器体系“是由自动机,由一种自行运转的动力推动的。这种自动机是由许多机械器官和智能器官组成的,因此,工人自己只是被当作自动的机器体系的有意识的肢体”[11](773)。在这里,自动的机器体系作为最完善、最适当的机器体系形式,是由“机械器官”和“智能器官”组成的。在马克思看来,机器本身是一个不断发展的辩证否定过程,当机器发展到最完备和最适当的形式时,必然会出现有“智能器官”的智能机器。那么,马克思讲的机器的组成部分“智能器官”是被合理地理解为“工人”,还是被理解为工人之外的“人工智能”的萌芽呢?笔者认为,马克思的本意是指“人”成为机器的智能器官,作为机器有意识的智能器官。换言之,在马克思看来,人是机器的大脑。
从技术演进的逻辑看,技术进步时而平稳,时而加速,奇点史揭示了技术发展的突变性及其逻辑。研究表明,技术奇点的到来在逻辑上是完全可能的[12](94)。人工智能的发展史既有量变特点,也有奇点特点。人工智能的进化逻辑是从弱人工智能到强人工智能和超人工智能,相应地,机器意识的发展过程也可能是从弱人工智能意识即体现在机器外部行为的交互性(脑智外现),到强人工智能意识或者超人工智能意识接近于人类的意识,即具有主体知觉意义上的意识能力(觉知内显)。这样,随着人工智能范式转移,更多、更优的方法将不断地助力解决以往技术无法跨越意识革命的门槛的问题。从自我意识发展角度分析人工智能演进轨迹,人工智能意识产生发展的图景,可以表现为无意识—低级类脑意识—类脑意识—超类脑意识的阶段演进逻辑。超类脑意识是人工智能自我意识发展的高阶阶段,人工智能在此阶段可能突破人类工具理性的设置。这种逻辑预示着人工智能意识发展到高阶阶段自我意识的可能。
4.智能发展矛盾运动推动智能机器意识走向可能
事物的内在矛盾运动推动事物的发展。智能机器是否出现自我意识也要从智能发展的矛盾运动中去考察。多重矛盾运动推动智能技术的发展,推动智能体自我意识呈现螺旋式进升,推动人工智能拥有自我意识走向可能。
数字技术的有限性与无限性的矛盾运动,推动数字技术不断跨越,为智能体的自我意识产生奠定可能性基础。数字技术是当代信息技术的阶进迭代,是人工智能发展依赖的最主要技术。根据波普尔的表述,世界上存在三种“无限”:(1)物质世界的无限;(2)精神世界的无限;(3)物化的精神产品的无限。人类技术的发展是从机械化到电气化,从信息化到数字化。如今数字技术的发展,数字内容与数字产品的无限,新技术的不断涌现,成就了技术发展的无限性。从发展历程和技术构成来看,数字技术存在技术突破的无限性,如数字技术的三次飞跃,数字技术方兴未艾,人的一切皆可数字化、智能化,从这个意义上讲,数字技术的发展是无限的、没有终止的、无止境的。数字技术的有限性是指数字技术在一定的历史条件下,受到当下技术发展物质条件的制约,它既在当下又超越当下,它既处于“此时”的技术中,也处于“未来”的技术发展图景中,从这个意义上说,数字技术又是有限的,存在技术瓶颈的阶段性。因此,有限超越无限形成不断的发展最终推动数字技术的发展,彼此矛盾推动数字技术的不断跨越,为智能体的自我意识产生奠定可能性基础。从这个意义上说,智能机器出现意识就不可避免。
人脑的生物进化与人的活动进化的矛盾运动。人类历史是“社会人的生产器官的形成史”。人工智能是大工业的结果,也是人脑及身体的产物。智能环境下的海量信息已经远超人脑的承受度。为适应人脑及其延伸(机器脑)对海量信息处理的需要,“新脑”或人脑的延伸器官必然产生,也会沿着自我意识方向发展,逐步进化出一种超适应性。人机融合可以达到1+1>2的效果,人类的智慧将被人工智能放大,就像哈勃望远镜一样,可以推进人类文明的进步。蔡恒进指出:“我们已然赋予机器某种偏狭的意识,假以时日,通过混合、迭代等方式,机器总有一天会进化出同人类一样的、甚至更为复杂的意识。”[13](24)
此外,人的自由本质与资本的矛盾运动,推动智能机器产生意识成为可能。智能机器发展过程也是人的自由本质的实现过程,智能机器对人类劳动具有解放性的一面。同时,人工智能也是资本的“吞噬点”,资本积聚推动了智能机器的发展,也植入了资本的偏见。而两者的对抗与反噬推动了智能机器向更高阶运动,智能体自我意识的两面性契合了这种需求。
三、机器意识的伦理前置:从一次元到高次元
机器人的出现带来机器的意识问题。马克思曾指出:“意识在任何时候都只能是被意识到了的存在。”[14](152)如前所述,技术迭代进步,使机器意识从直觉到内隐,从可能走向现实。人类总是在不停尝试,寻求其他可能性。然而问题在于,可能性本身包含了众多不确定的因子,一旦开启即相当于打开了潘多拉魔盒。为此,人类需要对其可能性保持一种高度的伦理觉醒和伦理前置。可喜的是,近年来这种觉醒声音在哲学伦理学界一直不绝于耳。这里存在两个极为重要的问题:为何伦理应作为机器意识发展的前置条件?如何实现机器意识的伦理前置?从前者看,是因为机器意识带来的系列高风险:安全风险、主体性风险、人机关系风险等。
人类安全始终是人们担心的首要问题。人工智能奇点论预言:人工智能将会全面超越人类,继而威胁、奴役甚至毁灭人类。霍金、马斯克、比尔·盖茨等都对AI的未来发展忧心忡忡。霍金直言不讳:人工智能和基因编辑,已经预示了新技术的危险正在逼近临界点,即正在逼近否定文明的意义甚至是自取灭亡的极限。他赞扬AI的发展是20世纪最伟大的事件,同时指出自主AI的出现也是人类的最大危险。马斯克认为,具有自我意识的AI对人的存在具有颠覆性毁灭风险。在国内,2016年赵汀阳撰文《终极问题:智能的分叉》引发了学界关注。他指出,目前的人工智能尚属于图灵机概念,尚未具有主体性。如果试图开发一种高于人的存在,这种努力直接就把人类的命运置于“存在还是毁灭”(to be or not to be)的抉择境地。AI危险之处不是能力,而是自我意识[15](65)。AI获得自我意识,反过来取代、控制或统治人类,智能机器将成为人类的掘墓人。我们生活的时代正处于机器崛起的前夜,作为人类智慧延长的AI,在快速进化之后会导致能力与责任的极度不匹配,可能会将世界带入深壑。
主体性问题亦同样令人忧虑。一旦AI发展出自我意识,人-机界限将会消失,AI将会和人一样具有主体性。智能机器在满足自主性、意向性和责任的情况下可以视为道德主体。人工智能发展成为具有主体性和自由意志的超图灵机,这样超级智能是一个有着反思能力和自主性的主体,这是人类的“远忧”[16](8)。人工智能的主体性与人类主体性存在巨大差异。技术的迭代进步加速人-机界限模糊,冲击着人的主体地位,使主体性问题凸显为时代难题。AI的演进方向是逐渐消除与人类的边界,成为与人类一样的主体。如果思维还原为机器运算能够成功实施,主体的内在意向就投射为外部意志,机器就成了另一种主体性[15](65)。
具有自我意识的AI的器性与人性有什么区别?是向善还是向恶?随着AI和机器学习技术的发展,智能机器必将拥有自我思维,那么智能机器的本性将挑战人性[17](14)。随着具有自我意识的智能系统面世,人与强人工智能,谁优谁劣?余乃忠认为,AI具备自我意识、了解行为意义,那么人类与智能机器的关系将发生变化,谁主沉浮,难以估量[18](100)。
智能时代的人机关系问题引发深层忧虑。如果自主机器人出现,必须重新定义人-机伦理关系问题。AI的高效率会加剧人对资源掌握的分化,进而导致人类社会更大的阶级差异。AI的应用范围极其广阔,AI正在解构传统的人伦关系。具有自主意识的AI大规模进入日常生活领域,自然人与智能AI的冲突不可避免。人机融合一旦成为现实,拥有自我意识的新人工智能体就会产生“我是谁”“我思故我在”等身份认同上的困扰与冲突。
智能机器的道德责任问题。爱因斯坦曾经说过:在我们这个时代,科学家具有无比沉重的道义责任。如果人工智能产生了像人一样的自主性,那么必然要承担相关道义责任。人类作为技术主体,当然应当承担人工智能技术后果的“第一责任”。“未来怎么样”决定于我们“现在怎么做”。人类应该对人工智能的研究、应用和管理真正地负起责任来。值得庆幸的是,“负责任的人工智能”业已成为社会的共识。人之外的“第二主体”——人工智能,能否承担人之外的道德责任呢?拥有自主意识的智能体承担“准道德责任”或“第二责任”(the second responsibility),这是必然的。
机器意识的风险绝不仅仅局限于上述分析。机器意识的风险是复杂多元的,包括但不限于人工智能伦理冲突、对人类智能的影响、社会实验的伦理关切、机器意识的道德问题以及对伦理道德的影响等。它是随着“弱人工智能—强人工智能—超人工智能”的技术发展轨迹逐步产生和不断累积的。人工智能所蕴含的技术风险存在一个逐步显现并演化的过程。随着机器人在各个领域的决策越来越多,从被动工具变成人类的代理者,需要建立新的伦理范式,将人类社会的伦理规范延伸到智能机器,传统的伦理框架可能不再适用,需要重新考虑人与机器的关系,以及如何在新的技术环境中维护伦理原则。机器意识带来的颠覆性变革不再局限于某一领域,而是实现全领域、全技术要素的突破与跨越,让单一系统的“安全边界”消失,因而蕴含着极大的错误叠加与连锁反应的风险,一旦这些系统性错误降临,就会被传导和放大,产生非线性叠加错误,给整个人类社会带来巨大的威胁和冲击,各种技术风险从一元到高元叠加升级,推动了机器意识“伦理大变局”。
那么,如何实现机器意识的伦理前置呢?可以从技术的伦理前置和社会的伦理前置两个角度进行分析。
技术的伦理前置:责任内嵌。鉴于技术与人类行为之间的深刻联系,人类应当担负起对应的责任和义务,也就是进行面向未来的技术评估。在开放发展的价值导向下,我们迫切地需要将道德责任的模式从因果关系转变为标准责任。不管是从伦理的角度还是从道德的角度来看,它首先表现为一种“实践性”的存在,是一个用于规范行为的规则体系。换句话说,伦理和道德的核心价值在于为实践提供指导并规范道德主体的行为和言论。科技创新和伦理体系的共同目标是增进人类福祉。近年来,国内外都在探索的“负责任创新”(responsible research and innovation)技术发展模式,通过合理安排参与主体、调整特定的沟通流程、促使治理参与者改变或提高对新兴技术风险的认知,并在预测、反思、协商和反馈等多个框架内,致力将道德、法律和社会因素整合到创新的全过程。这一明确并加强了技术研发主体在社会责任和道德规范方面的“伦理前置”机制,在规范技术创新应用方面的效果明显优于“事后补救”的现有伦理审查方式。实现科技创新中的“伦理内嵌”是伦理前置的核心要素。在一个以价值为核心的世界中,人的生命被视为最高的价值,它只应被视为其他价值的追求,而不应被用作实现其他目的的手段。人的生命不应被视为可交换的等价物,我们必须维护人的尊严,并始终将人的价值作为基本目标和前置条件。
社会的伦理前置:综合施策。针对智能机器伦理风险,国内外目前已形成的应对的社会伦理前置策略有:一是政府加强应对,将人工智能发展放在国家层面进行规划,如美国启动“国家机器人计划”,我国启动“中国脑计划”。二是学界加强机器意识伦理风险研讨。很多学者认为,人工智能自我意识及其实践将会引起许多重要而有趣的问题。解决机器伦理风险,在国际学术界有较大影响力的是自上而下的道德编码和自下而上的道德学习的机器设计思路。这两种设计各有局限,前者存在选择何种伦理价值嵌入以及如何应对复杂道德场景的问题,后者存在没有伦理指导系统,仅凭机器学习,输入机器的道德敏感数据会得出何种结果的问题,值得学界密切关注。三是争取民众广泛支持,吸引公众参与,积极稳妥地引导人工智能技术始终在符合人类利益的轨道上发展。面对新技术发展的不确定性,需要超越狭隘利益局限,引导社会广泛参与,以更好地应对危机。四是健全技术治理机制。应当谨慎研发人工智能技术,对机器能力进行治理限制,尤其是限制它们的自主意识和综合能力,在法律、政策和伦理框架下运用该技术。在全球范围内,多个国家和地区已经建立了自己的人工智能伦理治理框架,如我国的《人工智能伦理治理标准化指南》、欧盟的《人工智能法案》、美国的《人工智能风险管理框架》等。
机器意识虽然在目前显现度还不够,短时间难以实现,但是人类应未雨绸缪,实时跟进,保持对人工智能发展过程中所蕴含的技术风险的警惕。
结语
库兹韦尔在《灵魂机器的时代》中预言:“21世纪结束之前,人类将不再拥有地球上’万物之灵’的头衔,不再能主宰地球。”[19](1)当前的人工智能处在尚不具备意识的弱人工智能阶段。诚然,即使强人工智能和超人工智能出现自我意识和认知,我们也坚信:人始终是智能行为的总开关,机器背后的真正主人始终是人类。因此,在人类纪,急切呼唤对技术的研发和应用进行全方位有效的公共性制衡的原则,为实现“伦理逻辑”与“技术逻辑”的协同耦合提供纾解之道[20](45-52)。
[参考文献]
[1]约翰·塞尔.意识的奥秘[M].刘叶涛,译.南京:南京大学出版社,2009.
[2]布莱克摩尔.人的意识[M].耿海燕,李奇,等校译.北京:中国轻工业出版社,2008.
[3]陈凡,程海东.人工智能的马克思主义审视[J].思想理论教育,2017(11).
[4]杨伟国,吴俊豪,岑宝兰.从信息视野初探人工智能与意识的鸿沟[C]//中国科学技术协会.提高全民科学素质、建设创新型国家:2006中国科协年会论文集.香港京港学术交流中心,香港浸会大学,北京师范大学珠海分校,2006.
[5]陈俊秀,李立丰.“机器意识”何以可能:人工智能时代“机器不能被骗”立场之坚守[J].大连理工大学学报(社会科学版),2020,41(6).
[6]ALEKSANDER I,DUNMALL B. Axioms and Tests for the Presence of Minimal Consciousness in Agents I:Preamble[J].Journal of Consciousness Studies,2003,10(4/5).
[7]韩东屏.智能机器人意识问题的各种解答与我见[J].自然辩证法通讯,2021,43(4).
[8]赵汀阳.人工智能的自我意识何以可能?[J].自然辩证法通讯,2019,41(1).
[9]孙伟平.关于人工智能的价值反思[J].哲学研究,2017(10).
[10]吴允锋.人工智能时代侵财犯罪刑法适用的困境与出路[J].法学,2018(5).
[11]马克思,恩格斯.马克思恩格斯选集:第2卷[M].北京:人民出版社,2012.
[12]梅剑华.人工智能与因果推断:兼论奇点问题[J].哲学研究,2019(6).
[13]蔡恒进.论智能的起源、进化与未来[J].人民论坛·学术前沿,2017(20).
[14]马克思,恩格斯.马克思恩格斯选集:第1卷[M].北京:人民出版社,2012.
[15]赵汀阳.终极问题:智能的分叉[J].世界哲学,2016(5).
[16]赵汀阳.人工智能“革命”的“近忧”和“远虑”:一种伦理学和存在论的分析[J].哲学动态,2018(4).
[17]林命彬.哲学视角下智能机器在自我意识和行为意义上的突破[J].黑龙江社会科学,2016(6).
[18]余乃忠.自我意识与对象意识:人工智能的类本质[J].学术界,2017(9).
[19]雷·库兹韦尔.灵魂机器的时代:当计算机超过人类智能时[M].沈志彦,祁阿红,王晓冬,译.上海:上海译文出版社,2002.
[20]陈万球,付圣莹.人工智能教育的伦理风险探赜[J].长沙理工大学学报(社会科学版),2024,39(3).
(责任编辑:孙保学)