现代人类社会政治生活的秩序依托于现代公共拟制(public fiction)。公共拟制建立在人类的日常理性基础上:基于生命、财产与自由的基本价值,建构了宪政、民主与法治的基本制度。这些基本价值与制度与人之外的他物无涉。人工智能(artificial intelligence)的诞生及其飞速进步,促使人类重思这些已经被现代人视为当然的公共拟制。因为人工智能的发展,已经展现出人机关系的广泛想象空间:人工智能在经历了一个人工绝对控制阶段后,正向人机相间、人机融合、超人类智能的方向演进,这必将对现行的公共拟制发生重大影响。
从17世纪以来,人类社会基本上运行于“人”“社会”与“政治”的拟制基础上。直到21世纪初期的科学技术革命,让人类不得不面对并思考可能完全不同于从文艺复兴到启蒙运动以来的“人”的拟制。从思想史的角度看,关于现代“人”的拟制,之前已经出现了两次重大的转变,一是尼采所称的“上帝死了”之后的、寻求强力的“人”,二是福柯所称的“人死了”之后的人的碎片化。但这两次转变,并没有从根本上动摇近代所确立的“人”的拟制。只不过在结构要素上出现了排列组合上的变化。但21世纪初期以来关于“人”的拟制,受到“人”的自然结构几乎倾覆、社会政治结构因之发生显著改变的影响,其拟制的颠覆性质,远非尼采、福柯的宣称可比。
凸显这一挑战的科学技术革命,是由多方面的成果呈现出来的。信息科学、生命科学和材料科学被称为当代三种前沿科学。人工智能、基因技术和能源革命则构成当代三种前沿技术。科学技术革命促使人类急促地思考“超人类革命”,它对人类社会习以为常的“人”的拟制具有极强冲击力。原因很简单,拥有人的卓绝智能,一向是现代“人”的拟制中最有力支撑“人为万物的尺度”这一立论的根据,理性精神是现代“人”的拟制中最足以说明“人”为万物灵长的理由,如果人工智能达到与“人”媲美的智力水准,那么“人”是否还成之为“人”?
当前的人工智能技术,远没有达到颠覆现代“人”拟制的高度。不过,人与机器的关系是演进的。这一演进过程,大致可以划分为三个阶段:在第一个阶段,人是绝对控制机器人的;在第二个阶段,人机对应的社会建构开始出现,“机器人权利”的问题被提出来,“机器人公民身份”不是科幻人物身份,而是对人工智能机器人的赋权;到第三个阶段,也就是一个远景的阶段,当机器人成为一个有自我意识的新的自我时,人机高度融合,此时,由现代理性哲学确定的“人”的命题,也就是现代“人”的拟制,可能就会遭遇强劲的挑战:人类会不会反而成为机器的工具?人们需要对人工智能发展步入第三个阶段做好心理准备。
在人工智能的三个发展阶段上,第一阶段中由人绝对控制的机器人早就广泛应用于工业与商业领域。这种应用,将人从繁重的体力劳动中解放出来,受到积极的倡导和正面的评价。尽管中间容有机器排斥人的质疑,但人们不曾因此相信人工智能取代“人”,“人”被机器完全替代、制约甚至控制。进入人工智能发展的第二阶段,人机关系的道德与否,已经成为一个此前不曾考量,而今必须严肃思考的新问题。人机关系如果不能仅仅设定在人随意使用机器的状态,那么,“机器人”的权利应不应当受到尊重,就成为一个权利哲学的崭新问题。如果真正步入第三阶段,人机关系的人为控制颠倒为人机混生,甚至是机器控制人的状态的话,那么可以想见,人类数百年熟稔于心的公共生活就会遭遇彻底的颠覆。
现代“人”的理性“自我”意识,是人类考虑既定“人”的拟制条件下遭遇的所有问题的前提。一旦人机相分关系从人对机器人、人工智能的支配关系改变为人机混生的关系,姑且不说人机关系变成机器或人工智能对人的支配关系,那已经意味着近代以来人类建构的主客观世界确定不移结构的大翻转。对此,一部分人对人类控制人工智能的信心依然是满满的,但另一部分人对未来可能的失控局面感到忧心忡忡。这都是有道理的。这两种心态,都源于当下人类社会对人工智能控制的前景不明。直到今天为止,人类社会都是以人绝对控制机器作为处理人机关系的预设前提的。关于人机关系的基本规则,都来自于文艺复兴和启蒙运动以来形成的人类中心主义。这个既定规则体系,在人机关系可能发生扭转的情况下,也就是说人不一定能完全控制机器,甚至人工智能机器进入人自身身体变成人的一部分,或者人工智能机器人具有超人类的智能,人机已经无法从边界上严格划分的情况下,人机关系似乎有一个彻底重构的必要。
人工智能与公共拟制关系演进状态以三种情形呈现出来:
首先,像AlphaGo对程序化的人类生活或人类生活手段的颠覆,意味着我们来自于古典时期的公共理性正在经历一个重建过程。尽管人类的日常生活显得非常琐碎、庞杂且茫无头绪,其实稍经分析就会发现,人类生活常常遵循一定的程序。只要人工智能将这些程序行动加以数据化,机器人就可以模仿人类的生活样态,并且与人类展开竞争。AlphaGo之所以能够让超一流的围棋选手签订城下之盟,就是因为围棋着手一旦将人类围棋手的复杂着棋程序化,它就超出了某个棋手的着棋能力,当然也就能战而胜之。再譬如投票预测,人们对投票进行预测的一般方法是民意调查,但通过广义的人工智能的模拟演算,已经能相当精确地预测到选举结果。
其次,当人工智能的发展达到第二阶段的时候,现代公共拟制中的制度设计理念,也就是功利主义的理念,即“最大多数的人的最大幸福”就会以人工智能的方式全幅呈现出来。这是现代公共拟制的制度层面尚且未能实现的目标。但现代公共拟制的结构性变化由此可以预期。其一,既定公共拟制的成员资格会发生变化。在人的智能谋划中,成员的理性计算和理性判断是其在共同体中选择某种行为的依托。但这类计算和判断,融入了人类的欲望和情感。两种力量的交融,合成一个公共世界的共通自我,从而呈现出某种趋同性的公共行动。而人工智能对这种公共拟制会发生颠覆作用,因为人类原来的选择说到底都是自己理性计算的结果。如果这样的计算被人工智能所引导,意味着既定的公共拟制正在发生颠覆性革命。其二,如果人机混生,人与机器人的界限模糊起来,人机二元的边界固定思维随之失去依托,那么会进一步对现代政治学最重要的权利假设造成极大冲击。人工智能,不管是AlphaGo试验还是索菲娅实验,如果不能最终预期机器人替代人的劳动,因而具有永久性使用和无限制使用的效用,那么人对机器人的支配就是一个预料之中的结果。但在索菲亚实验中,其设计的自我意识一旦弄假成真,那么机器人与人的关系准则就势必彻底重构。人对自己设计的机器人应当沿用权力哲学还是权利哲学相待,已经是一个现实问题。作为公共生活拟制者的人类,确有合德地对待机器人的必要,否则人机关系就会一直处在一种非道德的控制状态。
最后,按照文艺复兴和启蒙运动以来的主-客体关系建构,人类作为主体控制人工智能并让它永远成为客体且为人类所用,便是天经地义的事情。如果人工智能产品这个被设定的客体进入了人的身体,如前所述,权利哲学的适用性问题就出现了。建立在特定的现代人拟制基础上的自然法、人定法适用对象会不会发生变化呢?当人机都被约束在守法边界内,认定什么是违法犯罪,以及裁决违法犯罪的法官,就不再是一种既定性设计,而必须适应新的公共生活规则。从远景看,人机高度融合,再经由基因编辑实现了人的永生,今天那种建立在“向死而生”基础上的公共拟制就可能变得完全没有意义了。这是人类必须面对的两种处境:人工智能的技术想象与人类社会的政治想象必须携起手来,从现实出发,面对未来可能,才能构想新的公共拟制,以应对可能的全新人机关系态势。
可以肯定地讲,人工智能不是要不要治理的问题,而是要怎么治理的问题。关键在于,人类采用什么样的治理手段,才能将人工智能控制在人类可以成功掌控的范围内。治理是人类活动的一个基本事务,其突出的特征就是民主治理、多元共治。对人工智能的多元共治来讲,疾速发展的技术及其担当技术的人群、对人工智能发展加以管控的公共政策决策者,以及对人工智能的发展颇多构想的思想家,需要携起手来,从公众关注、政策制定、政治谋划、未来影响、哲学解释诸方面,对人工智能的发展进行有效治理,从而保证人工智能造福于人类社会。
关于人工智能的治理,目前倾向性的治理思维与实施建议是强化人类对人工智能的绝对控制。对人工智能加以治理可能出现两种效果,一是善治,二是失治。善治是发挥参与治理各方的积极治理愿望,激活有利于治理的种种要素,聚集有利于治理事务的诸种资源,顺利展开治理过程,并且实现参与治理各方的治理愿望的结果。失治也就是失于治理,是指治理过程中每个环节都出现问题,而且在动用治理的政策工具、可用资源与实施举措之后,仍然未能解决治理问题,甚至完全束手无策、不知所措。
面对人工智能的治理局面,人们已经展开的运思是在人工智能发展到今天的局面下最能控制局面的治理设想。从总体上讲,对人工智能加以有效管控,是相关治理的趋同思路。这是建立在“人”及其社会政治建制的经典拟制基础上,将人与人工智能机器人截然划分开来的一种思路。其基本治理思路由四个要素组成。一是预估人工智能的伦理与社会影响,据此为人工智能的有效管控或治理提供依据。人工智能必须接受现代基本价值观的检验与测度,这样才不至于让人工智能陷于疏离,甚至背离人类基本价值的危险境地。二是对人工智能采取有效的法治约束。首先,应从国家基本法即《宪法》着手,治理保障“人”的尊严,对一切不利于维护“人”的尊严的人工智能探索加以严格限制,对所有可能导致人类基本规则失效的人工智能的颠覆性革命进行有力控制,不让人工智能的发展快到失控的状态。其次,从人工智能发展的直接监管上着手制定相关法规。《公平信息处理条例》《隐私保护指引》《数据保护指令》等如此诸类的立法都应及时跟进或改善。这样,就可望有效杜绝人工智能的野蛮生长,使其遵循相关的法律法规。三是进行强有力的行政管理,并建立有效的社会施压机制。这里的行政管理并不单是指政府部门的管理,包括公司行政、政府行政与非政府及公益组织行政管理等方面。其中,政府部门对人工智能的监管是最重要的。因为政府部门具有大范围、深程度地动员资源的能力,而且具有国家权力强力推进相关研究进程的巨大能量,因此,政府必须克制单纯推进人工智能的片面政策动机,真正实施有助于人工智能健康发展的公共政策。四是给予人工智能以有效的哲学解释,以疏解人们对人工智能的理论知识与实践知识的无知而导致的紧张。学者要从哲学的角度,科学地表达对人工智能不可能挑战人类智能的信心;人工智能从业者对人工智能诱人前景的描述与有效管控的刻画也有助于人们理解人工智能的可控发展态势。
无疑,对人类来讲,这样的解释必须超越听之任之的技术乐观主义与绝不退让的技术悲观主义。从总体上讲,今天对人工智能的管控还是相当成功的,这种管控据以建立起来的主客二分、人机二分的世界还能成功维持。
人工智能的公共拟制在可预期的将来肯定会限定在人工智能的可控范围内。这是因为像人工智能这类模仿人的智能的技术革命,在人脑机能之谜还远没有揭示出来的时候,模仿性的人工智能是很难超越人的智能的。
在人工智能机器人发展的这一阶段,人们已经开始因应于人机关系的最新状态,对公共拟制进行重构。这样的重构沿循两个方向延展:一是重构人类面对人工智能时代的政治关系,二是重构权利哲学视野的人工智能机器人的权利清单。这是人工智能高度发展以前不会触及的公共拟制问题。就前者看,由于数据使用在政府、大公司与普通公民之间形成了不对称的关系,开展新型的公民运动势所必然。在人工智能时代,以积极进取的姿态处理好数据治理中的公民、政府与企业的多重公共关系,这是仅就既定的“人”与社会政治的经典拟制针对人工智能时代的公共拟制做出的常规性反应。就后者即开列人工智能机器人的权利清单而言,有人从后人类中心主义(postanthropocentrism)视角提出了人工智能机器人的权利问题,这显然是一种不同于“人”与立宪民主政治经典拟制的另一种公共拟制。《人工智能权利宣言》的出台,表明这种面向虚拟人的权利拟制已经成为重构经典权利哲学的一种新路径。另一方面,人工智能的权利确实是仿照经典的“人”的权利,尤其是社会政治权利拟订出来的。诸如人工智能机器人之被视为“人”且具有“人格权”的总纲,在这一总纲下宣示的人工智能机器人的“生命权”“财产权”“纳税人权利”“政治权利”以及“公民身份”,都显示出因应于人工智能机器人重构的公共拟制的模仿性。
从远景看,依照人工智能发展的“奇点”论,将会出现的“机器之心”与“人心”相仿,甚至优于“人心”的技术转折点是完全可能的——从仿生人工智能起始,发展到人类水平的人工智能,再进展到超过人类水平的人工智能,最后出现自具理性与情感的超级智能,并不是天方夜谭。这里涉及人工智能发展的两个关键问题:一是人类水平或超人类水平的人工智能不存在技术障碍,因此畅想人工智能的未来,绝对没有将人工智能完全置于人类绝对控制之下的理由;二是高水平的人工智能机器人的出现,一定会重构我们今天视为当然的现实世界秩序。规避人工智能给人类带来的任何风险,是一个面对人工智能可能重构现行的公共拟制的消极取势;而积极筹划高水平人工智能时代到来时的公共生活,可能是人类面对人类水平与超人类水平的人工智能所应当采取的积极进取态度。
直到近期,人工智能机器人迅速表现出的优于人的智能的特点,具备编程设定的初步情感反应机制,让人类社会着紧思考一个人机共生时代的到来究竟意味着什么的问题。由此还进一步催促人类思考一个可能在心智和德性水平上更高于和优于人类的人工智能机器人对既定的公共拟制之基础假设的挑战,也就是人因理性和德性所具的天生优越地位与万物等级区分是否还有理由延续下去。这是人工智能时代的到来对人类社会既定的社会政治秩序发出的最强有力的挑战。面对人工智能的疾速发展,公共拟制之必须改变,应当成为人类社会的一个共识——人类如果无条件捍卫文艺复兴和启蒙运动以来对“人”及其社会政治制度的经典拟制,将会陷入一个因拒绝适应、接纳和谋划“人”的巨变时代而导致的僵化被动境地。
已经有人明确指出,先期谋划一个人类社会与人工智能机器人友好相处的关系结构,乃是一个明智之举。当人机高度融合为一的时刻出现的时候,可能何谓“人”的定义、权利哲学的基准、权利保护的机制,都会出现出人意表的惊天改变。只不过这已经超出了“面对人工智能的第一代人类”的想象能力了,面对人工智能发展难以预期的未来,谨慎以待,积极应变,也许才是王道。