任剑涛
(清华大学 政治学系,北京 100084)
自启蒙运动以来,政治哲学对“人”的设定成为人类设计国家、操作政治、制定政策的重要基础。随着人工智能及其关联技术的快速发展,人的启蒙定义出现被颠覆的危机。因为人工智能、大数据、区块链等新兴技术,无论是在人类发明技术的目的性上,还是在应用技术的手段性上,似乎都有可能疏离“为了人”的现代目的,而走向“控制人”的超现代目的。本应为人类追求幸福生活与人的自由全面发展服务的技术手段,也完全有可能变成全方位控制人类的强有力方式。并在此基础上生成不同于“政治利维坦”的“技术利维坦”,以人为目的的现代政治走向技术控制人的反现代政治。于是,挣脱人对技术的屈从,便成为当代政治的一大主题,进而引出“人的政治”如何重生这一当代政治学议题。
人工智能不单是将人的智能模拟化、机器化的技术,它应当被视为一个技术丛。人们习惯于从前者来看待人工智能,认为人工智能就是将人的智能机器化、智能化的高技术。“人工智能的历史就是计算机的历史。早期当计算机能够储存和处理数据的时候,人工智能的概念就出现了。归根到底,人类是靠大脑来存储和处理数据。对于人工智能而言,翻译看上去是很好的应用,因为输入的文本能够被轻松地数字化,输出文本能够被轻松地打印。”[1]91依照对人工智能的这一简明扼要的定义,可知人工智能就是对人的智能的模仿,就是以计算机来完成海量数据的输入与输出功能,从而以快速的数据处理完成类似于人的大脑所完成的各种复杂数据处理工作,并将之制作成各种符合人的需求的高技术产品。
随着人工智能的快速发展,这种被视为模仿人的智能的技术,有了一个令人惊异的演变:从目前人工智能的技术本质上讲,前述定义仍然能够成立,但在人的智能与人工智能之间,过去那种清晰明白的界限似乎不再被人强调,相反,人机共生的人工智能愿景越来越呈现在人们的面前。“在下一个10年,我们将看到所有东西变得智能。智能家庭、智能汽车、智能健康、智能机器人、智能科学、智能群体和智能人机交互。”[1]291如果这一愿景变成现实,那么过去那种将人的智能看作是完全能够驾驭人工智能,而人工智能不过是对人的智能的机器模仿的看法,可能就很难成立了。因为,随着人工智能的快速发展和广泛应用,人的智能与人工智能之间的绝对界限正被打破,而人对于人工智能的绝对控制也正在发生重大变化。基于此,人们必须对人工智能进行重新审视。这样的审视,可以沿着两条线索展开。
这条线索可以从三方面认知。首先,人工智能不再是单纯的计算技术,而是一个技术丛。所谓技术丛,即是一系列关联度极高的突破性技术体系。它以人工智能为先导,将各个应用人工智能推进的技术领域深刻地关联起来,不仅由此掀起一场技术的结构性革命,而且将技术本身的发展推向按其自身逻辑演变的方向。就前者讲,人工智能自身乃是从一般意义上的机器一直到代替人进行复杂操作的技术程序的总称,它不是某项技术的专称,而是一系列技术的合称;就后者论,人工智能乃是与其他先进技术联袂出场的高技术。以其基础技术而言,大数据当然构成人工智能的基本技术依托。在可以预期的时限内,大数据的征集、阅读、分析与技术化利用,都会从人的智能操作进入机器人的操作阶段。“机器产生数据,机器阅读数据,并构造一个以机器为中心的数据世界。”[2]16而与此紧密相关的区块链、物联网等技术,将人工智能直接引向全面影响或改变人类生活状态的境地。
其次,人工智能技术与人的智能关系正在发生重构,从人机分流到人机互动的演变趋势似乎已经呈现出来。这与人工智能技术的两种发展定位具有密切关系:一部分研究者尽全力提升人工智能技术,试图将之发展到与人类智能并驾齐驱的地步;而一部分研究者断然放弃人工智能的技术突破,转而致力于提高人的智能,试图在让人更聪明上实现突破[3]。于是,后者至少是潜在地激励了生物科技的快速发展,一方面促使科学技术专家在生物人的质量上进行技术突破,让遗传工程尤其是基因技术的研究进入发展快车道;另一方面也促成基因技术进入临床医学,并相应激发心脑科学的快速发展,为人变得更为聪明提供医学动力。
再次,人工智能技术似乎正在朝着突破传统科学和技术天堑的方向演进:人与物的界限、生与死的界限、时空结构的界限、人类与机器的界限,不说是已经彻底打破,至少说界限变得相对模糊。在人机互动尤其是人机互嵌的发展进程中,人与物的界限远不如启蒙哲学规划得那么确定不移,对人的主体地位的确认、对物的客体性规定,在边际界线上需要重新规划。在人工智能与生物技术联手改变人体生理结构的情况下,“永生”可能不再是一个奢侈的想法。确定不移的时间特性与固定不移的空间建构,都会因为量子信息技术的发展乃至于量子世界的现实化而发生巨大改变。一个由量子技术呈现的不确定世界,与一个由经典技术呈现的确定性世界相形而在,但已经彻底改变了人类对世界的感知结构(1)中科院院士、中国科学技术大学郭光灿教授在央视财经《中国经济大讲堂》演讲时对此进行了比较。他指出,一个遵从牛顿力学、电动力学的经典物理世界叫经典世界,是确定的世界,而量子世界是一个不确定的概率性的世界。参见“揭秘:神秘的量子世界,和我们的现实世界有什么不同?”[EB/OL].(2019-06-27).https://baijiahao.baidu.com/s?id=1637317219953351635&wfr=spider&for=pc.。
当下人工智能的技术应用不再以维护启蒙时代确定的人的政治准则为目标,在其越来越广泛的使用中人工智能正在型构新的社会政治运作模式。
首先,一向以增强人的诸方面能力为基本取向的人工智能,日益成为取代人的体力与智力的新技术。人们已经预测诸如电信营销员、安检员、保险从业者、数学科技人员、会计等100种职业会被机器人取代,以及理疗师、机械操作员、紧急事件主管、医疗卫生社工等100个可能被机器人取代的职业[1]32-33。恼人的汽车驾驶已经可以无人化,飞机驾驶则可以让驾驶员仅仅作为一个观察员或紧急情况处理者角色,而在工作的大部分时间内赋闲。工业机器人、商用机器人与家用机器人,几乎可能甚至完全取代目前人类所从事的绝大多数工作。
其次,一向为人所用的人工智能,正成为管控人的行为乃至思想的新工具。人工智能在应用于工商用途、家庭需要的时候,其作用主要体现为减轻人类的工作负担,它的社会政治功能既不彰显也不被重视。随着人工智能广泛应用于社会控制,尤其是被应用于作为社会政治秩序的基本保障手段时,它的社会政治功能便一下子呈现在人们的面前,而且催促人们对人工智能的正当性、合理性与局限性进行审视、做出规划、加以引导。
再次,一向被人界定的人工智能,在应用中反而逐渐成为界定人的方式与手段。直至今天,人工智能主要还被认定为模拟人的智能的产物。因此,人成为界定人工智能的主动行为一方。但随着人工智能的快速发展与广泛应用于社会控制事务,人逐渐被人工智能所界定:用于社会控制的人工智能,将人按照程序区隔为正常人与不正常人两类,对前者进行常规控制,对后者进行针对性控制。即使在监控前者的时候,启蒙哲学对人的理性行为者的规定性也明显下降,甚至是丧失了这样的规定性。因为出现在公私场合的人,需要按照人工智能的设定监控程序谨言慎行,才会免于人工智能对其行为的针对性监控。而对那些曾经违法犯罪或可能会成为违法犯罪者的针对性监控,就犹如布下了天罗地网一般,很难逃出人工智能的日常控制范围。从惩治违法犯罪的有效性上讲,这自然有些令人鼓舞,但从社会秩序供给者的人之主动性丧失、被动性控制的视角看,这样的控制体系不但很难提高人们信守内心与社会秩序的自觉性,相反很可能激发人们铤而走险的冒险心理,成为违法犯罪的刺激因素。
人工智能在减轻人类的工作风险与强度上所具有的极大便利与好处,已经为人们所公认。但从人工智能在实际应用中呈现的风险来看,人工智能的应用在技术风险上必须进行有力的规制,才能够真正实现其有助于人的目的。一方面,这种风险管控涉及技术本身的不确定性。无人驾驶汽车对紧急状态的失于辨认(2)在美国,一辆有安全员的自动驾驶汽车在道路测试时,对一个突然从暗处出来的人失于辨认,结果造成车祸。参见:自动驾驶目前存在哪些缺陷 如何减少路测风险?[EB/OL].(2018-03-22).https://www.sohu.com/a/226072171_765855.,自动驾驶飞机引发的社会灾难(3)波音飞机的自动驾驶系统会在飞行员休息时发挥自动驾驶功能,也会在飞行员判断或操作失误的时候发挥纠错功能。但波音737MAX机型发生了一系列坠毁的空难事件,原因恰恰出在自动驾驶系统对正常飞行的飞机进行过当纠正,并且在权限上大于人工操作而导致悲剧。参见:民航飞行员揭秘波音737Max的最大设计缺陷[EB/OL].(2019-03-13).https://baijiahao.baidu.com/s?id=1627868906953019472&wfr=spider&for=pc.,人脸识别不准确导致的行为主体错判[4],都证明人工智能技术自身的风险性不应被低估。另一方面,人工智能对“人”的锁定已经明显表现出对人之理性的根本性挑战性质。一者,人工智能尤其是用于社会控制的人脸识别、大数据分析,发挥着对人进行身份界定的作用。人的理性、人的自主性、人的尊严被这些技术手段所动摇,传统的公私边界被完全打破。二者,现代社会政治的观念支撑出现倾斜。在人的社会政治自由方面,无论是自主、自治与自律,还是选择的自由,都受到时时处处在场的人工智能的监视;社会大众的平等,可能不再表现为社会政治领域中的平等相待,反而表现为公私场合不分的同等监控;在密集监控的情况下,人与人的密切联系被技术所切割,社会疏离、心理冷漠可能成为常态。三者,由于时时处处的行为约束,人们的行动变得日益拘束,因此会导致人们丧失主动作为的精神,丧失对行为后果的自主判断意识与能力,并将之完全让位给人工智能监控,由人工智能对自己的行为进行责任判定,并在这种判定的基础上承担后果。因此,无论是在动机上还是在后果上,人工智能都可能对启蒙时代预设的人的伦理责任发挥出一种终结性的作用。
以人工智能为代表的新技术,让人类的生活方式发生天翻地覆的变化。但人工智能也可能将人锁定,人的被动性甚至是客体性特点彰显出来。这是自启蒙时代以来人的定位一个根本性的改变。首先,需要在日常生活中认清技术的能量。人类越来越单纯依靠技术手段来提升生活质量,造成技术对日常生活的广泛渗入。尤其是人工智能对于私隐生活世界的广泛侵入,可能撼动人之为人的一些自然本能,因此可能将人的生活秩序推向非人的端点。尽管人工智能有利于人们从琐杂的日常家务中解放出来,但人们日常的生活情趣与劳动享乐也被人工智能化的机器人代替,那么“人间烟火”就可能逐渐熄灭。
其次,在制度安排上,尤其是在社会政治秩序的保障上人工智能正发挥重大影响。人们对人工智能监控功能的信任程度日渐增强,而国家权力方面也逐渐仰仗人工智能进行社会管理或治理。在这两种动力的强大助推下,社会秩序日益仰赖人工智能的维持,人的作用显著下降,以至于人工智能终有一日可能主导社会政治制度的设计、运行、评价、奖惩。人与人、人与群体、人与社会、人与国家的关系,由此被人工智能重新塑造。无处不在的人工智能监控设施,可能让基于人的主动意识、理性精神、自觉担当消失于无形。由此让人逐渐促成一种机械服从人工智能安排的习性,人的社会性成为人工智能挤压出来的副产品,而不是人基于理性自控并实施法治的结果。
再次,在精神理念方面意识到人工智能正在改写“人”的理念。人们在历史发展进程中逐渐建构起一套人心秩序与社会秩序。在经过人的觉醒、神人关系磨合、人的现代建构三个阶段的演进之后,以“头上的星空”与“心中的道德律”支撑的人的精神-行为体系,主导了现代世界的人类变迁。但随着人工智能的快速发展,头上的星空可能与心中的道德律出现不匹配,因为心中的道德律正被人工智能重塑的他律化道德感所改变,人的精神生活因此会失去主动性、激情性,也会相应丧失理性和是非感。可见,人类若是甘于被人工智能技术完全锁定,那绝对不是人类之福,而是人类灾难。
人工智能技术的快速发展,以及社会治理对人工智能技术极为广泛而依赖性地使用,一方面确实带给人类诸多便利,另一方面也极大改变了现代社会的政治面目,再一方面则促使人类不得不思考人机紧密互动情形中的新型社会政治机制。这是相互关联的三个方面。“人的政治”以人对自身的自然性和社会性高度同质化预设,以及以人对机器的驾驭性设计和控制性使用为特征。在此基础上,人类逐渐形成了现代民主政体,凸显出现代国家与社会的基本秩序。对现代国家中的人们来讲,这些都是面对社会政治生活的预设条件,在日常生活中不需对其产生怀疑和加以颠覆。但随着人工智能的普及,这样的预设不再保有不证自明的特性。
理性人是“人的政治”一个最重要的预设。但这个“人”已经从主动作为的理性人,变成被人工智能捆绑起来的被动行为的“人”。这是当代社会政治生活中一个极为重大的变化。从前者看,理性人的假设源远流长。就其现代形式而言,理性的核心地位确立于16—17世纪。在英国经验主义与欧陆理性主义的双重助推下,人的理性受到尊崇。培根倡导的“知识就是力量”,以对自然的经验性观察和对试验的推崇,表现出了以归纳的方法发现和认识规律的特性。就后者论,人们认为通过先验的推理可以认识实在的本性,而不需求助于感官经验[5]6-10。其标志性命题便是“我思故我在”。正是这类理性主义的主张,将人的理性推送到至高的位置,成为人类之分类自然事物、设计社会秩序的精神基础。
理解现代进程中逐渐生成的“人的政治”,可以进一步从人类历史着手。从政治主体呈现出来的历史线索看,人类政治普遍呈现出一条从神性政治、人性政治到技术政治演进的大线索。这可以说是一条从人的依附性到人的自主性,再到人的依附性的演变过程。在所谓的轴心时代,大写的“人”就浮现于历史的表层,并在深层次上主导人的思想与行动。轴心时代让神话时代一去不复返,宗教伦理化了,“哲学家首次出现了。人敢于依靠个人自身……人证明自己有能力,从精神上将自己和整个宇宙进行对比。他在自身内部发现了将他提高到自身和世界之上的本质”[6]10。在人的这种精神觉醒中,神性力量不因伦理觉悟而衰颓,相反因之而强化;人性的复杂性以及对普遍性的渴求,使神与人的紧张关系由此呈现,呈现了高于世俗秩序的宗教秩序的权威性。就欧洲历史而言,人之秉承神的旨意行动的中世纪特质展现在世人面前。直到现代科学技术兴起,轴心时代的社会模式才因为新的动力机制的出现逐渐进入第二轴心期。
第一轴心时代人对神的相对独立,展现了人性政治的光辉。但人对神的某种依附,成为世俗行为正当性与合法性的根基。直到第二轴心期到来,人在理性主义的规划下,自信地展开科学基本原理的探究,并努力将科学原理转变为改变物质存在形式的技术手段,使之服务于人类追求美好生活的需要。科学被人们期望能够破解一切奥秘,并期待它能够解决一切问题。科学确实具有巨大的知识能量,不过科学迷信扭曲了科学功能,一旦迷信破灭又会陷入轻视科学的泥潭。同样,技术的巨大力量可以被人们激发出来,现代的技术进步确实因此给人类提供了极为丰富的消费品。但另一方面,“现代技术造成的新形式显示出人类对自然的依附。恰恰通过人类日益增长的对自然的控制,自然以这种前所未有之方法,威胁要控制人类”[6]113-114。
在科学技术革命大潮席卷而来之际,让人们首先看到的是曾经让人深受鼓舞的历史画面。在第一轴心期与逐渐崭露头角的第二轴心期之间,“人的政治”成为政治的主流形式。人们可以按照自己的需要改造对象世界,以认识世界为前提,进而有效地改造世界。18世纪的启蒙运动,让这样的观念深入人心,一个充满自信乃至于自负的世俗世界就此降临。“在此社会中,一种纯粹自足的人文主义,有史以来第一次成为一种广泛持有的选择……不接受任何超越人间福祉的最终目标,也不热爱这一福祉之外的任何事物。”[7]24这个世俗社会,不仅让人对自然、对自身、对社会的认识完全远离此前对神灵的信奉,而且人们普遍相信,通过人的努力可以在认识世界的基础上改造世界。随着人们仰赖科学技术的手段以实现认识世界和改造世界的目的,确实让人类在认识世界上增进了见识,在物质利益的获取上明显增多。但科学和技术本身也反噬人类,成为控制人类的一种新的力量。这是一个难以避免的反转。“人的政治”颓败,便是其中令人瞩目的现象。
其一,启蒙运动以来内涵和外延清晰的“人”的定义,难以保有界定何谓人的权威性和认同度。在尼采宣布“上帝死了”,同时张扬“强力政治”的基础上,福柯进一步宣布“人死了”。前者颠覆了神人关系结构,后者颠覆了人的主体结构。人的碎片化,让人不再成其为完整的“人”。反倒是技术日新月异的发展,体现出技术在物质生产领域系统地取代人,进而在人机互动的情况下,人们开始面对何谓人的思想挑战。不过,当下人类为了再次理解“人”,动用的知识工具远比启蒙时代要繁多和复杂。譬如,从科学角度看,镜像神经元生物学试图解开人的思维秘密;从宗教-伦理角度看,复魅运动则促使人重归神人框架以理解人。从总体上讲,科学技术很难持续地成为启蒙人文主义的驯服工具,成为人对自身怀抱世俗自信与自负的支撑者。因为科学技术根本就不支持自由主义设定的那个唯一真正的、单一的、不可分割的自我。“人类绝非‘不可分割’,而是由许多分割的部分组成。”[8]261无论这一说法是否成立,它至少提示人们,对人的重新界定似乎已经不可避免。
其二,人之为人的理由出现结构性变化:启蒙运动以降理解人之为“人”的理性与责任的主题,已经变化为当下对人进行控制与维护秩序的要旨。理性将人安顿在一个主动作为的位置,以人自己能够以理性区分是非、衡量利害、确定进退、承受奖惩,来思考人类的思想与行动。责任则将人安顿在一个被动接受和践行给定规则的位置上,以人恭敬地按照一套社会政治设定程序展开思想与行为,以求维护政治规则。现代哲学的“主流观点理解人的行动在理性条件下意愿最优化是在给定的认识论前提和责任下,这种责任仅仅是后果责任,因而是自己行为可以预见后果所负的责任”[9]。尽管当下有人尝试用结构性理性的概念化解理性与责任的经典性理解包含的种种困境与似是而非,但对理性与责任的实践理性主题仍然是正面肯定的。原因很简单,现代哲学所确立的这两个基本概念,是理解现代社会秩序的关键所在。然而,在人工智能技术带动的现代技术体系中,实践理性的这两个基本概念有被取代的危险:理性似乎不再是人拥有的精神特质,而是人工智能的设定程序;责任不再是人们对自己行为后果的自主判断,而是人工智能预设的行为因果链条作用的结果。在此,人基于理性的自我约束特质,被人工智能的秩序设计与程序挤压所替代。
其三,人之受尊重的条件发生根本变化。人之所以受到尊重的理由,似乎不再依循友爱与团结的逻辑,而以技术标准设定人被尊重的程序与程度。在传统的神人关系结构中,人与人之间的友爱和团结具有神圣的基础。在经典的现代伦理话语中,人之尊重的理由是因为如康德所断言的“人是自身目的,不是工具”[10]95。既然所有人都是目的,一个人就不能以任何理由将他人当作实现自己特定目的的工具,而必须平等尊重他人,以此而友善相待和团结相处。“人类是道德法则的肉身化,而道德法则的尊严让人类值得被尊敬。他们应该被他人尊敬,同样重要的是,他们有义务尊敬自己。”[11]26-27这是成熟现代即脱离了神的庇佑而呈现的人的尊严状态。但在技术一日千里的飞跃中,技术似乎为人际关系设定了新的规则,接受技术给定程序控制便受“尊重”,便成为社会一员;相反,如果拒绝技术程序设定的规制,不仅不受尊重,而且会因为智能程序被淘汰出社会。这样的结果,当然反映了政治权力与技术权力两方面的意愿,尤其是反映了政治权力控制社会的意愿。但这种人工智能对社会成员之间的友爱与团结所造成的撕裂性影响是显而易见的。
可以说,现代经典形态的“人的政治”趋于终结。这种终结有其直接原因与深层原因。直接原因是为了“人”的解放,即帮助人类从繁重的日常负担中挣脱出来,获得更多的闲暇时间,以赢得更大的自由,而在物化劳动与社会控制诸方面借助技术手段,因此让技术获得突飞猛进的发展。但对技术的倚重容易导致对技术的单纯依赖,而技术则反噬人类。随着技术供给解放人的手段的多样化与高效化,技术本身脱离人的驾驭或控制的危险性越来越大,同时在行使权力和维护权利之间设定了一道障碍。国家以保障秩序为务,社会以捍卫权利为要;前者的作用对象是后者,后者需要限制的是前者。二者博弈的结果,常常是国家与社会之间的冲突。
从深层次原因来看,启蒙运动以降形成的“人的政治”之终结,则是因为人之所处的悖谬状态:一方面,人需要在个体与群体之间、个人与国家之间、目的与手段之间、神圣与世俗之间、道德与政治之间等方面,既保有基本的平衡态势,又适时地尝试突破。于是,人类在思想与行动上对诸构成要素周全处置的平衡摆,成为人类不至于陷入不可克服的困境的必须。但问题在于这个平衡摆的摆动,无论是频率还是程度,并不单纯受人的意愿控制。因此,当社会控制的天平由技术因素的重大介入而严重偏向掌权者方面的时候,社会的失衡似乎就变得不可避免。在人工智能技术丛的眼花缭乱的进步中,权利的分散利用与权力的集中使用,已经是一个很不均衡的机制,因此,它对现代经典的“人的政治”的终结,便具有结构上的必然性。这不能被归咎于掌权者的心理偏好,而需要从社会结构的自然倾向上去理解。
启蒙运动以来“人的政治”趋于终结,是两股力量共同推动的结果:一股力量是从文艺复兴运动以来的人文主义自身演进所形成的;另一股力量便是技术的快速发展对“人的政治”的颠覆抑或摧毁。前一股力量乃是人挣脱神的规范或约束之后逐渐形成的,最终在人自身的现代性假设遭遇后现代性的挑战时,以自身的逻辑宣告了这一逻辑的难以为继。后一股力量来自人们对技术的崇尚与迷信,让人们最初以一架精巧的机器所设想出来的利维坦真正变成了一架像人那样精巧运作的机器,结果让“人的政治”的生物-社会人之纯粹性无法维持下去。
如果说“人的政治”终结或死亡,只是宣告这一政治形式不再具有绵延能力的话,那么确实无法找到替代者的话,人类就可能陷入茫无头绪的处境;如果替代者同时出现,则不仅可以一锤定音地宣告“人的政治”确实终结或死亡,而且替代者自身的出现也象征性地告知人类,人们必须放弃对那种政治形式的期待。就人工智能技术丛目前的发展情形来讲,这种断言可能稍显武断,但并不是单纯的虚张声势。在一个比较的视野中,17世纪基于理性主义的政治理论所建构起来的“人造物”国家,也就是霍布斯所说的“利维坦”,其生物-社会人的性质已经显著降低,而以人工智能等技术呈现的非人化利维坦,或曰“技术利维坦”的性质则日益凸显出来。这是两种很不相同的、具有极其巨大力量的庞然大物。
霍布斯的“利维坦”是一个按照精巧至极的人摹写的国家结构,其结构与功能无不仿照人的结构与功能来确定。之后,由洛克对霍布斯的这一设计方案做了修正,从而堵住了霍布斯设计的重大漏洞。按洛克原则,受权一方必须接受授权一方的监督,一旦背叛即宣告约定终结、政府解体;为保证这一点,洛克认为权力不能集中于一人或一个组织,必须清晰分权[12]。这是社会能够驾驭的国家建制,“利维坦”对社会便丧失了吞噬性。但沿着霍布斯“利维坦”思路向当代演变的国家,在人与仿造人之间,也就是在人的理性精神、主动作为的基点上,同时在仿照人的精巧性与效用性的另一个基点上,并没有保证前者对后者的高位性,后者对前者的低位性;后者只是对前者的简单模仿,而前者对后者能够绝对驾驭。随着“人造人”国家在获得了类似人一样的构造机制以后,它的自主性愈来愈强。它仰仗技术所供给的物化手段与控制方式,逐渐脱离于社会。利维坦这个人造物愈来愈成为一种反向控制人的技术怪物。
人工智能技术丛的相互助长性发展,已经逐渐展现出一个“技术利维坦”的轮廓。本来,在霍布斯式利维坦降临之际,它是一个模仿人而建构的精巧之物。但它像人一样的精巧性,预示着仿人技术将会给它注入特殊的拟人化、超人式的“生命”能量。沿着这一发展线索,人们必须加强对人工智能的监管原因是,在技术日渐成为国家借重的重要统治力量的情况下,如果放任技术对人的监督与控制,人就会面对两种难以驾驭的系统性力量:一是传统的国家权力机器,二是为权力机器仰仗的技术手段。后者已经构成霍布斯与洛克所未曾设想过的国家统治力量。甚至可以说,在当代技术具有了某种国家力量无法直接驾驭的能量的情况下,技术自身有可能成为不受国家权力支配的新型统治力量。这就更是需要人们去努力想象“技术利维坦”及其巨大的影响力。
“技术利维坦”的出现是技术异化的产物。技术异化,即技术本来是有助于将人从繁重的体力劳动中解放出来的动力,结果变成了束缚人、控制人的工具。这样的异化是人们面对现代技术的早期发展就已经提出的一个警告。但关于技术异化的早期警告,在技术还被人控制性使用的时候,无法引起人们的重视。一方面是因为对技术的批判性反思长期主要基于社会政治批判或人文主义批判,当人们还主要盯住技术带来的便利而尚未意识到技术威胁的时候,这种站在技术应用而非技术本身立场上的外部批判,常常只会在社会文化层次激发人们对技术的警惕与不满,但无法有效遏制技术异化严重化的趋势。另一方面则是因为技术的发展确实没有到威胁人类思想与行动方式的地步,人们或自觉或不自觉地拒绝思考技术给社会带来便利的同时对人的生存发展所造成的危害。只有当人工智能发展到挑战人的智能的阶段,人们才普遍地意识到人对技术的特有优势可能丧失,以及技术对人所具有的威胁性。
在结构上,“技术利维坦”依然像霍布斯设想的利维坦一样,是以“我们要造人”为取向的。首先,它以大脑神经科学的发展与技术复制奠基,一旦神经科学家与神经工程师高度契合,将数据人生产出来,那么就是一个能够自具思维能力的机器,意味着人的符号思维会被机器思维所代替,至少以两种思维的共存改变人对机器的绝对控制定势[13]70-73。假如这样的态势失控,机器思维可能成为主导思维,从而成为控制力量,便成为“技术利维坦”得以建构起来的强大动力。其次,由于人工智能的大数据技术支撑,当大数据与生命科学、遗传工程紧密结合起来的时候,基因组计划可能会将人的基因测序与自然人的机器性改造结合起来,即把优质基因存留下来,将所有可能诱发疾病、不利人像机器一样持续有效运转的基因剪除,结果可能让人成为一架更为精密的机器,而不是让人保其自然-社会人特质的存在。“混合人”即一部分是人、一部分是机器的混合体的出现[14]120,终将启蒙哲学设定的“人”彻底葬送。再次,人工智能技术丛会像理性人一样精确运行,成为界定何谓人、准确供给秩序以及如何高效运行的方式。总而言之,“技术利维坦”在结构上犹如霍布斯所说的利维坦,但它的精确性更强、运转更自如、效率更高、非人化特点更明显、自控力远胜于人、集权性质更突显。
在自然-社会人比较自如地驾驭技术的情况下,人们倾向于以高效率运转的机器类比人,并以此彰显此“人”不同于神造人,而是像机器一样的物质实体,灵魂不过是肉体的产物。“人是机器,但是他感觉、思想、辨别善恶,就像辨别蓝颜色和黄颜色一样,总之,他生而具有智慧和一种敏锐的道德本能,而又是一个动物。这两件事是并不矛盾的。”[15]67换言之,生物的人与社会的人(道德的人)精妙地统一为“人”。它的复杂性就在于,一是他并不是任何抽象观念范围的,只能在后天经验中获得理解。二是尽管人“只是一架机器,或只是一只动物,但是他绝不会残酷地对待他的同类……用一句话来说,他是凭着整个动物界所共有的自然法则,不愿意对任何人做一件己所不欲的事情的”[15]73。人与人之间友善相待成为“人”的特质之一,尽管这是放在与动物一样的视角上得出的结论。三是人可以凭借技巧创造奇迹,从而改善万物之灵。“绝不要限制自然的潜在力量,特别是和一种伟大的技术结合起来的时候,这种潜在力量是无穷无尽的。”[15]30以当下视角看,人确实是一架如此复杂的机器,他具有自然生理特征,也具有相互友善相待的社会道德特质,还具有改善万物之灵的技术禀赋。这些定位,在人自信地驾驭技术的情况下不会被动摇,但在当下技术飞速发展的情况下,情况就会出现意想不到的惊人变化。
这样的变化所呈现的惊人之处,首先就是启蒙时代的思想家拉·美特里撰写的《人是机器》是否会被当代思想家改写为《机器是人》呢?在人机互动的情况下,这是完全可能的事情。如果说“人是机器”强调的是“人”脱离神学定位,获得自然生物与社会道德的共在特性,并且发明各种技术手段以激发自然潜力的话,那么“机器是人”则强调的是将机器从人的绝对控制中解放出来,给予机器以“人”的定位,赋予机器以人的地位和法权。机器是“人”,这个“人”自然具有虚拟的特质,它在结构与功能上均不同于生物-社会人。之所以将机器作为“人”对待,是因为机器人获得法人的地位,以明确它的权利、落实它的责任、约定它的伦理规范。否则,人工智能可能将机器、机器人、智能机器人推向一个人类无法控制和约束的境地。因此,从“人是机器”到“机器是人”的翻转,对当下技术与政治关系最具有挑战性的还不是机器已经控制人的问题,而是机器与人的地位对应性安置的问题。这是人类面对技术利维坦首先需要妥善处置的问题。倘若人们对这一问题视若无睹,那么失去控制的人工智能、智能机器人可能真会反噬人自身。因此,有必要修改法律、改变公共政策,以求人工智能的发展朝着有利于人类的方向发展[16]221-233。
事实上,在控制人工智能技术不力,或者仰赖人工智能进行社会控制的情形中,“技术利维坦”大有全方位控制“人”而难以驾驭的趋势。这里的全方位控制,是指它的控制从生物人一直到社会人、政治人。“技术利维坦”作为技术尤其是人工智能技术构造成的“利维坦”,对近现代以降人类已经习以为常的社会政治秩序甚至是人心秩序发挥着颠覆性的作用,以至于整个社会可能会被技术所重构:人工智能的广泛应用大规模地侵蚀隐私权,让现代社会政治依仗的公私领域划分的界限不再清晰;社交媒体重塑着人际交往体系,让人安于独处的“社交”而将社会无情地撕裂开来;人脸识别让人在公共场合无所遁形,处于被时时处处监管的窘迫状态;数据公司正代替国家,在没有公共授权的情况下对使用其服务的消费者进行有意无意的控制;等等。这些都是人工智能技术进一步发展让人忧心忡忡的大问题。
单纯从技术的角度看,目前已经显现出某种人机政治取代“人的政治”的趋势。这促成了一种政治屈从于技术的新态势。形成这一态势,关键的问题倒不在于人工智能技术的发展,因为技术按照自身演进的趋势总是会一再突破人的想象,而在于人们在技术一日千里的发展中形成了对技术的依赖。这种依赖,不但是针对个体而言的贪图技术提供的便利,更在于国家越来越借助人工智能管理或治理社会,从而在个体生活与公共生活两个世界中促成了一种对人工智能技术的屈从心理。比较而言,个体、社会组织与国家的这三种屈从情形,对国家所持的人工智能屈从姿态最为引人瞩目和担忧。原因很简单,国家如果愿意对人工智能进行政治、法律与行政的有效规范,那么人工智能的积极效应将会得到放大;假如国家不仅片面鼓励人工智能技术,消极应对人工智能技术的缺陷,并不计后果地使用人工智能技术,那么社会对人工智能的屈从就很难得到矫正。
人对技术的屈从是现代以来科学技术发展出现的一种现象。一是因为技术发挥的效用在古今之间划出了深刻的分界线。在技术尚不发达的古代社会,人们不可能对改进工作效率与提高工作效益的效果并不特别显著的技术生发一种崇敬之心,因此也就不会被技术诱导和控制。从技术史的角度看,在整个古代社会,技术的进步与发挥的作用,是相对零星和长周期的。因此,人们并没有充分意识到技术对人的生存与发展所具有的重大作用。“历史上有过这样的时代,在那时,科学是极少数人从事的与实际生活无关的研究,技术是实践者的事情,科学与技术的精神价值被认为是微不足道的。在那时,人们可以任意轻视科学技术的发展。”[17]386只有在技术发挥出巨大能量的情况下,人们才会对技术产生一种近乎膜拜的屈从心理。而这是18世纪以降的事情。进入21世纪后,科学技术领域风起云涌的骤变,无疑显著强化了人们对技术的礼敬态度。
二是因为人们普遍享受到技术带来的庞大物质利益,安适地享受因为技术水平提高生产效益而享有的更多闲暇,并将技术进步带来更多的物质与福利事务放心交付给少数技术专家,从而让技术成为主导甚至主宰人们生活的一种力量。人们普遍相信,日益发达的技术会将我们带入一个值得期待的美好生活境地。正是因为不问所以然地享受科学与技术的好处,让人们觉得技术带来的好处是天经地义的,因此也就视技术的改进以及带来更大好处为理所当然。不知不觉之间,不仅技术获得了支配人们生活的巨大力量,而且人们也习惯性地按照技术设计的既定方案安然地受其牵引。
三是因为技术带给人们的好处是由技术专家甚至是技术天才的发明与创造的结果。在他们巧夺天工的技术创制下,在现实中带给人们极大好处的技术,绝对处在一般人想象之外。因此,科学专家与技术天才联手催生的高新技术,本身就带有支配性地影响普通人的强大能量。当人们普遍接受技术带来好处的时候,实际上也就主动放弃或被剥夺了自己亲力亲为改进工作技巧和提升技术水准的权利与机会。在不知不觉中,新技术与技术专家协同成为弱化普通人生存、发展技能的方式。于是,人们只好日渐屈从专家的技术发明与技术生产。
可见,人对技术的屈从乃是科学-技术携手发展,以及社会分工体系的演进等因素相互作用的产物。但也因为社会分工的长足发展,人对技术的一般屈从并不见得就必然导致当下和全局的危机。因为社会分工体系中的技术不是自足的东西,它需要依赖其他社会要素的互动,才能聚集促使自身不断发展的必需资源。人对技术的屈从真正具有危险性的是政治之手可能促成的那种单纯凭借技术提供的种种产品,将技术推向一个占尽社会优质资源、独占政策考量优先位置、将之作为控制社会的支配性手段的地步。这是政治对技术的屈从,也是技术屈从危害性最大的方面。
由于国家结构与功能的特殊性,使国家对技术的屈从容易在国家权力展开系统动员的情况下呈现出来。国家比个人和公司之类的社会组织更容易屈从技术。这可以在一个比较框架中得到说明:保有多样性的个人不可能悉数接受控制自身的人工智能技术;人工智能技术公司尽管对推动人工智能技术的发展保有最高的热情,但它在公司林立而必有的激烈竞争中远无法获得足够多的、保其独占市场的资源。那么,国家因何更容易屈从于人工智能技术呢?
一是与国家总是试图获得统治权威性的定位相关。国家为了获得统治的权威性,必然试图先行获取尽可能多的信息,一方面用于管理与治理社会,另一方面从中获得或者建立自己的权威。这些信息,无论是个人的、组织的或是国家的,无论是政治的、经济的、社会的、教育的、心理的,对国家管理与治理社会都是必要的。因此,当人工智能获取大数据的能力得到公认的情况下,国家也就需要利用人工智能来获得更多信息——无论是为了管理社会还是治理社会。作为霍布斯意义上的“利维坦”在技术革命浮现之际,国家会主动且自觉地建构有利于维持统治的“技术利维坦”。
二是与国家间的竞争处境密切相关。国家之间的竞争使每个国家竭尽全力获得国家竞争优势,以期获得国际影响力和领导权。在这样的处境中,国家权力总想以新技术的使用,占据国际竞争的优势位置。在经济学家眼里,这已经成为成功国家与失败国家的分界线。成功国家总是采取广纳型发展的进路,因此寻求长期均衡的技术发展;而失败国家大致都会采取急功近利的进路。表面上看,这是一种政治支配技术的状态区分,实际上都是一种屈从既定技术的被动政治态势。对实行技术急功近利进路的国家来讲,只要现存的技术还能够维持创造财富,它就会完全屈从于这一技术需要。即便是所谓的成功国家,尽管对原创性技术有着主动推进、持续激发,因此在经济社会发展中会对科学技术倾尽热情,但在国家间竞争中也会赋予科技以过重的政治功能与竞争负担。而且也会在权力透支的情况下,对科技加以滥用,似乎同样相信科技是强化政治统治的最强有力工具,实则仍然是对技术的屈从。如斯诺登对美国“棱镜计划”的揭露,就是典型例证[20]。
三是与科层化政治密切相关。但凡懒政、庸政、怠政,无不想借助于技术手段解决一切问题,因此会陷入技术的高度依赖状态,从而被技术支配。人们一般会认为,懒政、庸政、怠政只是一种不良行政作风,殊不知它其实是一种行政科层化造成的结果。现代行政管理一大特点就是按部就班地工作。因此,像人工智能这样的技术手段的引入,不仅可以掩盖行政人员的慵懒习性,也可以掩饰行政权力科层化运行导致的工作低效与无效。因而我们可以看到行政学理论不断更新,但很难从根本上解决这些问题;同时,行政工作低效或者无效又为引入更先进的技术提供了理由,对技术也就更加倚重。因而人工智能也就会更为普遍、随意甚至会无限制地加以使用。但由此导致的行政管理难题与风险也随之存在和加剧。
在人工智能技术快速进步的情况下,试图免于被技术控制、心生屈从技术的扭曲心理与行为,所依赖的还是政治的成熟发展。因为就目前人类社会的各种结构要素而言,能与技术力量相抗衡的也就是政治力量了。比较而言,经济力量很容易被技术所蕴藏的巨大利益所同化,因此在诸社会要素中,经济与技术的同盟关系最为牢固。文化教育的力量,相对于政治经济高度组织起来的实力性建制,历来都是受到政治塑造的力量。加之技术对文化的排斥,文化似乎已经失去了制衡技术发展、促使技术受到规训的效能。因此,在人文文化无法抗衡科学文化的处境中,促成了一种技术垄断的状态。“技术垄断是对技术的神化,也就是说,文化到技术垄断里去谋求自己的权威,到技术里去得到满足,并接受技术的指令。技术垄断需要一种新的社会秩序,所以,和传统信仰相关的大量文化成分必然会迅速消解。”[22]79
相比而言,政治体制的组织程度最高、动用资源最丰富、自我维护意识最强,但技术尤其是人工智能技术呈现出反向控制政治权力的时候,譬如政治组织及其成员同样被人脸识别而变得毫无隐私和安全感的时候,政治决策者被人工智能牵着鼻子做出“决定”的时候,政治权力也会“本能地”倾向于控制技术,以免被技术反噬。因此,从技术屈从中走出来,让技术不至于异化为控制人的工具,始终保持技术之作为人类发展的强有力工具与手段的特性,就有必要首先从技术屈从中拯救政治。一种能够从技术屈从中解放出来的政治,一定是主动而为的政治机制。所谓主动而为,是按照可以有效驾驭技术尤其是人工智能技术的轨道运行的政治。这样的政治轮廓,在人们研究人工智能的规范发展时,已经为研究者所刻画。
一方面,对技术进行有效规范与驾驭的政治体制,从全局和长远两个视角看是人民民主政体。人民民主政体的制度安排与规范作为,可以让政治免于对技术的屈从而避免陷于既定技术的泥潭。人民民主政体对技术的屈从虽然也是存在的,某些弊端甚至比较严重,但从总体上讲这一政体激励人们从人民根本利益与人民自由发展的长远眼光看待科学研究与技术创新,因此可以大概率避免对人工智能这样的新技术采取一种急功近利的做派。因为在这种政治体制中,以人民为中心的民主决策与民主协商的机制保障公共权力很难一边倒地赞同某种技术支配性地影响或控制社会政治生活,并对国家权力决策发挥主导性作用。更为关键的是,人民民主政体的权力是公共权力,掌握在人民的手中,不会被人工智能公司的私权所控制,从而可以基本保证作为一个公共问题的人工智能管控问题,诉诸民主的公共制度与程序加以有效处理。因此,在科技发挥越来越重要作用、人工智能同样极为迅速发展的中国,越来越重视建立健全社会主义民主与法制,在加强法治的同时保障人民当家作主的权利。
另一方面,现代国家一般诉诸法治与行政两种手段促进国家各方面的有效治理活动。在人工智能方面,对于私人利用人工智能手段僭行国家强力控制的权力,立法者会予以制止;而对国家权力合法使用人工智能手段治理社会,则采取鼓励或者默许态度。倘若反其道而行之,就有违公共权力的规范要求。在关乎人工智能的立法上,法律需要解决机器人的法律定位问题,确定机器人的发展潜力并予以法律规约,借鉴管控网络发展的相对成熟法规,并避免以幻想引导法律的制定。由此既避免给人工智能的发展设置障碍,同时又对人工智能的法律问题给予理性回应[23]。在行政监管上,政府可以借助更具灵活性的方式、途径与手段。一是可以刺激科技市场的力量,有力推动人工智能技术的发展。二是可以更为积极地进行监管,既了解人工智能行业的进展,也主动与前沿从业者对话,从而保证监管的有效性与权威性,不至于让政府陷入埋怨科技人员不了解监管必要性,而科技人员转而抱怨政府不懂人工智能技术的相互冷漠、相互敌视的两难困境。三是促使政府改进监管方式,既避免掉入过度监管的陷阱,又避免掉进监管不足的泥潭。为此,促成一种对人工智能有效促进和管控的民主治理局面,方有望实现人工智能的健康发展目标。
人工智能在本质上是一种生产技术,是人类生产力发展进步的产物,无论它的智能达到何种惊人的程度——甚至可以超过人的智能,无论它是人的物化还是物化的人,终归是人的产物与技术的产物,是为人类服务而不是控制人类。在生产力的诸要素中,人工智能是生产技术,而人作为劳动者是生产力中最积极最活泼的要素,也是决定性的要素。生产技术需要向实现人的自由全面发展方向进取,而不是人屈从于技术的进步。无论是人工智能的开发者、利用者、享受者,无论是个人、社会组织还是国家,都需要持有这种政治价值理念。也只有持这种政治价值理念,即技术进步服务于人民利益和人的自由全面发展,人工智能带来的消极影响才会得到根治。因此,当人工智能技术丛受到合理价值规范引导的时候,它不仅不会终结“人的政治”,相反会成为极大地推动人的发展的强大动力,“人的政治”也就获得重生动力。