技术始终以服务于人为目的,但它一但被创造出来,就获得了自存在和自展开方式,既不可改变,更不可逆转。由于前者,人必须适应技术的自存在方式和自展开方式;因为后者,为突破技术的限制和局限之欲,总是推动技术勇往直前地发展。人工智能就是技术发展的当代形态,其研发应用更为能动地张扬了技术的双重本性,带动了社会公正的全面危机。
自1956年麦卡锡提出“人工智能”概念以来,人工智能研发的六十多年历史始终在证明图灵“机器能够思维”的命题,并从理论认知和社会应用两个方面不断破解“机器何以能够思维”和“机器怎样高效思维”的人脑工作原理和运行密码,这一努力的直接成就,就是人工智能的研发跨越“弱”的状态进入“强”的领域,正雄心勃勃于“超”的努力,人工智能研发从弱人工智能(Artificial Narrow Intelligence)起步,很快研发出强人工智能(Artificial General Intelligence),然后向超人工智能(Artificial Super Intelligence)方向敞开,直逼人的情感-心灵领域,企图破解人的情感机制和心灵密码。人工智能的不可逆方向,就是彻底攻破人作为生物人的防线。客观地看,意识地思维是人区别动物的根本标志,但相对人造物智能机器言,意识地思维构筑起人的第一道防线;人性的情感,则构筑起人的第二道防线;内聚神性意向的心灵却构筑起人的第三道防线。人工智能研发从弱人工智能到强人工智能,表明人工智能机从逻辑思维(概念、判断、推理)起步获得了抽象思维(分析、归纳、综合)能力,很轻易地突破了人的第一道防线:世界顶尖围棋大师败给AlphaGo,不仅表明在围棋上,人类永远战胜不了AlphaGo,更重要的是,当研发者为智能机设计了学习程序,它可通过程序性学习而迅速具备自主性的深度学习能力,这种深度学习能力的迅速提升,意味着智能机将走向对人脑之“智”的整体性超越而进入人的“情感”领域。能写诗的“小冰”,当然表明研发者运用大数据方式对智能机予以更高水平的整体性设计,但正是这种整体性设计的成功,使写诗“小冰”进入了对人的情感的模拟,获得了有个性的创造和情感表达的能力。说话,可以不要情感参与,写诗之类的文学艺术创作,却离不开情感运动,小冰超越算法逻辑而说自己的话,写出人没创作过的诗句,已是奇迹。智能机对文学作品的评选行为却更值得人们深思:《思南文学选刊》公布了一份由智能机“谷臻小简”从20本文学刊物在2018年刊发的771篇中短篇小说中评选出最佳者,莫言的《等待摩西》获此殊荣。但策划者又增加了一篇由智能机创作的《出神状态》,安排“谷臻小简”重新评选,“谷臻小简”却选出了《出神状态》,它仅以0.000001的优势取胜莫言的《等待摩西》。“小冰”和“谷臻小简”如此让人惊讶的表现,不仅表明智能机的创造能力可以超过生物人类,更意味着人工智能的发展有可能突破生物人的情感防線,对人脸识别进行大数据分析,可能成为突破生物人的情感防线而进入心灵领域的重要路径。以此观“超人工智能”研发,其进军方向是进入人的情商与心商的领域,探索其情感和心灵的边界,也即是探索人成为人的情感边界和人成为神的心灵边界。人工智能的这一努力,展示了人类自身的根本存在危机。唐代兴:《基因工程和人工智能:人类向后人类演进的不可逆风险和危机》,《江海学刊》2020年第3期。因为,强人工智能的研发不遭遇人设条件阻碍的话,其不可逆方向是必然突破人的最后防线而获得心灵功能,这时候,生物人类的时代将必然地结束。
人工智能研发从“弱人工智能→强人工智能→超人工智能”的方向展开表明:人造的智能机器不同于人类机械史上任何机器,就在于它不仅能延伸人的生物脑功能,更在于它能够在这种延伸过程中创造机器脑。这是因为人工智能机器不是机械机器,而是模仿人脑的智能机器,它不仅具有外化的创造性思维和操作能力,更具有内聚的生成性能力,即通过自主性学习而生成的抽象分析、归纳、综合的能力。智能机的这种外化创造性和内化生成性的双重特性,使越来越多的人忧心忡忡。比如哈佛大学法学院网络法教授乔纳森·齐特林(Jonathan Zittrain)指出:“随着计算机系统越来越复杂、联系越来越紧密,人类的自主控制权会不断减少。如果不考虑道德伦理问题,计算机系统的演化或许会令我们懊悔不已。”《人工智能对道德伦理问题提出重大挑战》,搜狐网,http://www.sohu.com/a/129620284_297710。物理学家斯蒂芬·霍金曾在逝世前运用宇宙大爆炸的“奇点”理论预测人工智能,指出它可能有助于缓解地球危机,帮助人类消除贫困和疾病,但却需要特别地控制,有限度地开发,因为“一旦机器到达能够自我进化的临界阶段就会脱离人类的管束,届时人工智能就会以不断加速的状态重新设计自身,而人类却受制于漫长的生物进化则无法与其竞争,或将最终被取代。”Stephen Hawking,“AI will beeither Best or Worst Thing for Humanity,” The Guardian, October 19, 2016.
其实,人工智能研发从“弱”走向“强”而雄心勃勃地开辟“超”的道路所呈示出来的对人的威胁和由此所造成的人的危机,孙伟平:《人工智能与人类命运的哲学思考》,《江海学刊》2019年第4期。不仅在于其自“强”和自“超”的不可逆方向所展示出来的并不为当前人类所普遍觉知的远景危机,更在于人工智能研发正在不声不响地给人类公正布埋下各种各样的生存陷阱,这些生存陷阱是立体地分布在人类世界的各个领域,概括其要,主要有社会分配陷阱、技术性失业陷阱、政治平权陷阱、文明的人文陷阱等。面对这些非公正的生存陷阱,要避免之,不仅需要对人工智能本身予以认知理论和实践应用的理性研究,更应该强化对人工智能的伦理探讨。因为“人工智能技术下的机器人有存在思考和感知能力的可能,因而把人工智能纳入到道德系统范畴内是合理的”;A.Sloman, The Computer Revolution in Philosophy: Philoso-phy, Science and Models of Mind, Brighton: Harvester Press,1978,pp.2~3.更如Picard Rosalind所警觉的那样,“机器的自由化程度越高,就越需要道德标准。”P.Rosalind, Affective Computing, Cambridge, MA:MIT Press,1997,p.9.
社会公正问题对于人类来讲,始终是一个世界性难题,同时也是一个历史性难题。因为它涉及两个根本问题:一是社会能否同时从根本上解决“多数人的暴政”和“少数人的暴政”,二是社会能否在任何境况下都做到从根本上杜绝“多数人的暴政”和“小数人的暴政”。这两个难以从根本上解决的社会公正问题,却根源于人性。首先,天赋个体生命的存在匮乏必然导致人求生存的利欲取向,这一“因生而活,为活而生,且生生不息”的利欲取向推动了人的“性相近,习相远”;朱熹:《四书集注》,岳麓书社,1995年,第256页。其次,利欲鼓动“人人有权如此”的天赋自由本能地偏爱并诉求丛林法则。由此面对政治生活,应该“把每个人都设想为无赖之徒”。[英]休谟:《休谟政治论文选》,张若衡译,商务印书馆,1993年,第27页。孔子讲天赋“相近”的人性“习相远”,是人性的本能使然;休谟断言“政治”可能使“每个人都是一个无赖之徒”,是人性被权力武装的自觉。前者揭示人性趋恶的普遍性,后者揭示人性趋恶的特殊激励机制。能将这两种人性趋恶的可能性机制统摄起来形成一种强功能的作恶力量的那种东西,就是技术。技术原本没有善恶,但它总是因为人而创造,更因为人而运用,所以无论相对个人言,还是相对社会组织或政府论,技术首先是一种权力,其次是一种资本,其三是一种分配机制。人类社会公正的难题,不仅难在人性“习相远”的趋恶取向,也不仅难在人走向政治之途沦为“恶棍”的可能性,更难在权力构成技术的本质,资本构成技术的价值,分配机制构成技术的方法。
纵观人类生存发展的文明史,无论以手工工艺技术体系为主导的农牧时代,还是以机械工艺技术体系为导向的工业时代,技术对人的(权力、资本、分配)功能,始终只是局部性的力量,因为技术始终居于人的外部世界,与人的身体(包括精神、心灵)完全脱离、与大脑没有直接功能关系,所以技术力量只对人发挥特定情景中的辅助作用。但在以机械工艺技术体系为主导的工业时代向后工业社会演化的后人类进程中,一种新的技术体系形成,这就是以人的生物基因和生物人脑为研究对象所形成的生物工艺学技术体系,必然推动人工智能(包括基因工程)成为一种内在生成性的、空间整合性的和全方位释放其自身权力、资本、分配功能的技术,这种技术将社会公正这一世界性难题推向“无解”的死境。这是因为,人工智能研发将一般意义的天赋“相近”人性之“习相远”取向无限度地放大,更可能使特殊意义的政治之“恶性”更加坚挺,这种放大人性的利欲渴望和坚挺人性趋恶的朝向,使社会公正问题更加复杂化,求解的路径更加迷茫,并从根本上改变社会结构并使之趋恶化。
从根本讲,人类物种从动物世界分离出来并区别于其他物种的内在标志,是意识地思维和认知,并由此形成不断进化“意识地思维和认知”的能力;其外在标志,是对意识地思维和认知世界的方式、方法的对象化具形,这就是技术。技术的表面功能,是工具;技术的本质功能,是资本、权力、分配。
首先,技术是一种资本。纵观人类生存发展史,当然是一部财富创造史,但财富创造的前提性条件和决定性力量,是技术。因而,无论在哪个历史阶段,无论什么性质的国家,开发技术成为创造财富、解决生存、谋求发展的根本前提,甚至是决定性力量。就民族国家言,技术开发力量越强的国家,其生存水平越高,其发展能力更强,在世界舞台上就越有话语权。从个体论,技术开发能力越强,报酬越高,拥有的财富越多,生活越富裕,社会地位越高,身份越高贵。
客观地看,技术开发有两种形式,即原创性开发和运用性开发。这两种形式的开发呈现两种不同的水准,并形成两个等级上的权力、资本和分配模式。原创性技术开发拥有最高级别的权力,所掌握的始终是原创性的资本,或者说原创性技术发展所形成的资本,始终居于资本链的顶端,享有分配资本、资源、收益和财富的特别权力,这一权力事实上成为制定技术收益和分配模式的主宰力量,拥有这种权力的人、阶层甚至国家,成为事实上的主宰者。与此相比,运用性技术开发,属于低等级开发,它处于该类技术甚至整个技术体系链的底端,只能按照技术的原创性开发者制定的收益分配模式而获得报酬或财富。以此观之,技术的运用性开发虽然也可發展、富裕,但始终不能并且也无法超越技术的原创性开发者。如果要想超越技术的原创性开发者,唯一可行的方式是自己成为新技术的原创性开发者。这就是为什么进入近代以来,尤其是进入21世纪以来,国家与国家之间的竞争,最为突出地表现为技术开发的竞争;而且这种技术开发的竞争将科学研究、教育、文化、传统等等所有领域都带动起来,由此形成国家与国家之间软实力竞争或综合国力竞争。
其次,技术作为一种资本的本质力量,是权力。技术开发的本质是权力的护卫和拓展。从技术角度看,近代欧洲发展史中的第一批强国,是葡萄牙、西班牙这样的领土小、人口少的国家,它们成为那个时代最富强的国家,靠的是强大的航海技术。因为在那个发现新大陆的航海时代,航海技术是引领时代的最先进的技术。然而,技术始终因为人类谋求生存的努力而不断革新、不断开发,由此使任何一种技术都不可一劳永逸地居于统治地位,技术如个体的人一样,始终是时代性的,不同时代所出现的不同存在困境和生存危机必然要求开发其求解的技术之道。所以,当时代进入17世纪以后,最先进的、最能够引领时代的技术,却是机械技术。工业革命之产生,是因为机械技术的诞生;工业革命之所以在英伦三岛率先成功,并使之成为日不落帝国,原因不仅在于光荣革命,因为光荣革命仅是使英国成为日不落帝国的制度平台和文化土壤,真正使小小的英伦三岛成为最强大的现代帝国并雄居世界三百余年之久的是其原创性地开发并建立起了机械工艺技术体系。对这一技术体系的不断开发和完善,使美国成为新的帝国而取代了英国地位。其后,世界进入苏美对峙的冷战时期,最为集中的表现是军事科技的竞争带动了整体技术体系更新,最终因为环境生态的全球性恶变和生存资源的世界性匮乏而迫使技术开发探求解决之道,于是向太空进军,向人本身开辟资源战场,构成20世纪后半叶以来的技术转向,这一转向的初步成功,就是以身体开发为对象、以计算机为运演工具、以会聚技术为认知工具(或方法)、以基因工程和人工智能为两维形态学呈现的生物工艺学技术体系得到整体呈现。今天,以会聚技术、人工智能、基因工程等整合生成的生物工艺学技术体系的开发,虽然主要在美国、日本、欧盟、中国四者之间展开竞争,但仍然呈现原创性开发与运用性开发的区别,这种竞争格局所呈现出来的整体取向,仍然以美国为中心,因为会聚技术、人工智能、基因工程的原创性研发,主要以美国为轴心,所以自然形成美国的技术霸权。从根本讲,当今美国在世界上的霸权,虽然可以表现在军事、金融、经济等方面,但其霸权得以横行的强硬后盾,却是先进的生物工艺学技术体系,这才构成美国霸权的核心权力。如果这一原创性的生物工艺学技术体系向任何一个国家转移,都将从根本上改变美国的地位。
其三,技术更是一种分配。技术作为一种资本的内在规定,就是一种权力;技术作为一种资本的价值规定,既呈现为一种分配方式,更体现为一种分配机制。这种分配方式和分配机制无声地贯穿于社会的权利分配、资源分配和劳动分配中。
技术作为一种分配方式,首先是分配权力,即谁拥有技术,不仅具有权利分配权,而且具有制定权利规则的权力。这种分配权利的权力一旦发挥功能,就实施了对整个社会权利的分配——具体地讲,就是对社会组织和个人实施了权利分配。在这个过程中,掌握原创性开发的技术权和掌握运用性开发的技术权,所获得的分配权和实际分配到的权利比重完全不同。
技术开发不仅实现了权利分配,更实施了资源分配。在人类社会,无论是可再生或不可再生的资源,刚性的或柔性的资源,都客观地存在着开发的技术含量的要求性:无技术含量要求的资源,其实人人皆可开发;技术含量越低的资源,技术对资源分配的功能度越低;反之,开发所需要的技术含量越高的资源,技术对资源的权力占有度越高,技术对资源的分配功能越强。比如水,它作为人的日常生活所需,技术对它几乎不发挥功能;但如果要将江河水搬运到高地上灌溉农田,就需要抽水技术,一个农业生产组织或一个自然家庭,都可以拥有和使用这种技术;如果要利用江河水发电,其可用于发电的水资源对技术的要求就更高,由此使电力公司既拥有了用水发电的技术资源,更拥有了利用水资源来开发电力的垄断权力。
技术作为一种分配方式和分配机制,最终通过对权力、资源的分配来实现对财富的分配。并且,技术参与对财富的分配,同样贯穿于初次分配和再次分配之中。在初次分配中,技术研发者、技术研发管理者、技术操作者之间对财富的享有权和享有分额呈等级性。仅在技术操作层面,有技术的工作与无技术的工作、技术含量高低不同的工作,以及技术掌握和运用的熟练程度的不同,都客观地存在初次分配分额的等级性,并呈现出严格的等级体系。在再次分配的领域,也可能是普遍平等的(比如民权社会),也可能是更为悬殊的等级分配(比如特权社会)。
综上,技术之于人,它将作为一种资本和权力的自身变成一种分配方式:技术就是对个人实施权利、资源、劳动和福利的分配方式;技术之于社会组织(比如技术研发机构、运用技术的生产企业或商业企业)以及政府,它将作为一种资本和权力的自身变成一种分配机制:技术就是对社会进行权力、资源、劳动、福利的分配机制。
作为一种对个人的分配方式和对社会的分配机制的技术,因其技术本身的水准和个性要求所形成的分配取向具有不可逆的相反性:技术水准越低,其权利、资源、劳动、福利分配力越弱,其分配的公正性程度越高,越具有普遍性;反之,技术水准越高,其权力、资源、劳动、福利分配的公正性程度越低,越不具有普遍性。由此不难发现,技术自身水准的高低,形成它对权利、资源、劳动、福利分配公正的取向相反:技术水准越低,其对权利、资源、劳动、福利分配的公正越大众化;反之,技术水准越高,其对权利、资源、劳动、福利分配的公正越小众化。原因是技术本身具有垄断性,技术的水准越高,其垄断力越强,所以技术带来的公正越小众化。从技术的垄断本性看,技术水准越高,其垄断力越强,其公正度越低,享受公正的人群越小。由此两个方面形成技术与公正之间的变动关系:在人类文明进程中,技术越发展,对社会公正的挑战越严峻;技术发展越是高端化、极端化,社会公正就会越来越龟缩到最小范围。
以此来看正在蓬勃发展的人工智能,之所以越来越引发社会各界的伦理忧虑,就是因为人工智能不同于工业时代的任何具体的机械技术,而是肉身化的柔性技术,它以破译人的生物脑的工作原理和运作密码为根本目标,体现了人类技术发展史中最高端、最精致、最极端的技术,也是人类技术发展史中具有最高垄断性的技术,人工智能所体现的这种最高垄断性,一旦发展到极端状态,它可以使一个国家甚至整个人类沦为《1984》里面所讲的国家可以成为“带头大哥”一人的国家,人类可以成为“带头大哥”一人的人類。[英]乔治·奥威尔:《1984》,孙仲旭译,译林出版社,2013年。
社会公正问题作为世界性和历史性的难题,其根本在于它难以真正解决人类社会“多数人暴政”和“少数人暴政”的问题,这不仅因为权力本身潜伏着自扩张的欲望本性,也不仅在于“一切有权力的人都容易滥用权力,这是万古不易的一条经验。有权力的人们使用权力一直遇到有界限的地方才休止。”[法]孟德斯鸠:《论法的精神》上册,张雁深译,商务印书馆,2004年,第184页。更在于社会结构本身既是一种权力,也是一种分配机制,形成对社会公正的维护或限制的不同可能性。人工智能研发之所以日趋显发出社会公正危机,是因为人工智能研发无声息地改变着社会结构,使社会结构成为抑制、弱化、消解社会公正的无声力量。
1.社会结构的层次性构成
人工智能对社会公正的威胁,呈开放性和多元层次性。但它以无声的方式改变社会结构所造成的公正威胁,却以隐性方式展开,而且无所不在。为理解这一点,有必要先理解社会的基本结构。
客观地看,人在本原上是他者性的,并且人诞生于荒原世界。面对荒原存在的人必然启动他者性本性谋求共同存在和生存,于是产生了社会。人们基于共同存在和生存而构筑起来的社会因为秩序的必然而形成了结构。并且,由人构筑起来的社会结构必然呈现三个层次,即社会本质结构、社会本体结构和社会形态结构,此三者整合生成如下图所示的整体运作的功能结构:
人类社会结构的三维生成
在构成社会的三维结构中,社会本质结构由存在信仰、存在思想、存在知识(或真知)三者构成。一般而言,在社会本质结构中,其存在信仰由宗教提供,存在思想由哲学提供,存在知识由神话、宗教、哲学、科学、伦理五者整合生成,并内驻其存在精神。由于人的存在既是地域性的,也是民族性的,所以内驻于存在知识之中的存在精神自然蕴含了地域性的文化精神和民族性的历史精神。这两种精神贯通于社会本体结构和形态结构,构成社会结构的内稳器。由神话、信仰和哲学所滋养的伦理,却与存在精神一道贯通于社会本体结构和形态结构,构成社会结构的价值导向系统和边界规训体系。
社会本体结构既以社会本质结构为原初框架,更以社会本质结构为内在支撑。因为,在社会本质结构的土壤中生长起来的社会本体结构,实质上是由柔性结构和刚性结构两部分构成:其柔性结构就是伦理,康德将它定义为社会的“精神实体”,[德]黑格尔:《法哲学原理》,范扬、张企泰译,商务印书馆,1982年,第253~259页。它由伦理精神、价值系统、伦理原理、道德原则和伦理方法论等基本要素构成,并形成直接支撑其刚性结构的柔性滋养体系;社会本体结构的刚性结构,就是其制度结构,它由政体、制度、法律三者构成,将此三者贯通的是民权和公权的分配范式和运作的博弈机制,其整体运作的形态呈现是开放性的社会规程。
从根本讲,人是变动不居的,由人所缔造的社会也始终呈开放性生成的变动进程。在这一变动进程中,社会的三维结构获得互动生成的循环推进功能。具体地讲,信仰、思想、知识、伦理四者之间,既可能呈相生取向,也可能呈相克取向。如呈前一种取向,社会本质结构一定是伦理的,并由此构成社会本体结构的动力机制,推动社会本体结构生机勃勃地支撑社会形态结构趋善。反之,如果呈后一种取向,社会本质结构必然呈反伦理倾向,也由是成为社会本体结构的动力机制,推动社会本体结构僵化地抵制、消解社会形态结构的趋善性而生成为一种结构性趋恶。
社会结构的敞开方式有两种,一种是由体向用方向敞开,一种是由用而体方向敞开。社会结构朝由用而体方向敞开,实是由规训化的形态结构向本体化的深层结构方向生成。从根本讲,规程既是社会本體结构的形式呈现,又构成社会形态结构,即社会运行所需要的规范程序框架,就是以经济(具体地讲是生产和消费)为主题,以市场、科技、教育、法治和德育为要素的社会运行体系,在这一运行体系中,市场是平台,教育是动力来源,科技是牵引力,法治是边界规训体系,德育是价值导向系统。
由本质结构、本体结构、形态结构三者构筑起来的社会结构系统,体现伦理性。社会结构的伦理性,是由天赋于人的“生之朝向”这一根本人性规定的。唐代兴:《生境伦理的人性基石》,上海三联书店,2013年,第183~189页。天赋其“生之朝向”的人性,既是利己和爱己的,也是利他和爱他的。当利己、爱己与利他、爱他对立时,就出现反伦理取向,当利己、爱己与利他、爱他统一时,就呈现伦理诉求;驱使人之利爱人己是否统一或对立的根本因素,是利益,包括物质性利益或非物质性利益。利益是人向人和人向世界谋求生存的原动力,爱尔维修认为在人的世界里,“无论在道德问题或认识问题上,都是利益支配着我们的一切判断。”北京大学哲学系外国哲学史教研室编译:《十八世纪法国哲学》,商务印书馆,1979年,第457页。马克思也指出:“感性的印象和自私的欲望、享乐和正确理解的个人利益,是整个道德的基础。”《马克思恩格斯全集》第2卷,人民出版社,1957年,第165~166页。利益驱动敞开社会结构的伦理性,直接地在以生产和消费为主题的市场、科技、教育领域呈现,并接受德育的牵引和法治的规训。当社会形态结构发生变化,具体地讲,当以生产和消费为主题的经济运动发生变化,必然带动市场、科技、教育的变化,并要求法治与德育的跟进。这是从整体论,从具体来讲,市场、科技、教育的变化,直接引发经济的变化,同时要求德育和法治的跟进,如果这些变化和跟进是顺势的、协调展开的,则必然体现维护或强化社会结构趋善和良序化;反之,如果这些变化是“各自为政”的或相互撕裂、矛盾、冲突的,法治和德育自然难以跟进,一旦这种情况出来,其社会结构就会呈趋恶取向。然而,在社会运行的形态学层面,其社会结构无论呈趋善取向还是呈趋恶取向,都将影响到社会的本体结构,如果其本体结构不能顺纳其趋善倾向或不能净化其趋恶倾向,就会造成自身的伦理偏离而消极地影响甚至破坏社会的本质结构,即驱动存在信仰、存在思想、存在知识的伦理解构或结构性撕裂。
2.人工智能无声地弱化着社会的结构性公正
社会结构的伦理性或者说趋善取向,具体表征为社会的结构性公正。社会的结构性公正是最根本的公正,因为,在本质论层面,社会的结构性公正表征为存在的平等和信仰与思想的自由,这些均通过存在知识的建构而意识地形成。在本体论层面,社会的结构性公正表征为公民对民权的限度和民权对公权的博弈,它通过权利分配的普遍平等和权力分配的分立制衡来呈现。在形态论层面,社会的结构性公正表征为权利与责任的对等,它通过利益分配的“合法期待与道德应得”唐代兴:《伦理学原理》,上海三联书店,2018年,第260~264页。来规范化实现。
以此观之,人工智能研发应用进程在无声地弱化着社会的结构性公正,如果不加限制地发展人工智能,最终必然导致整个人类公正精神的消解和社会公正体系的解构。因为正在形成的人工智能社会与机械智能社会有其根本区别:首先,机械智能社会是人的身体、人的生命、人的大脑与任何机械技术相分离的社会,技术仅是“用”则产生价值而“不用”则价值归零的使用工具;与此不同,人工智能技术努力于肉身化,肉身也在技术化,这就是人的身体、人的生命、人的大脑越来越技术化,越来越多的技术肉身化、生命化。并且,技术肉身化和肉身技术化成为人工智能研发的双重目标。其次,在机械智能社会里,人是技术、工具的真正主体,或可说,人是机械技术和机器工具的全权主体;但在人工智能社会里,人只能部分地成为技术、工具的主体,并且人工智能越发展,技术、工具分解和弱化人存在主体地位的能力越强,人对技术和工具的依赖性程度就越高。第三,在机械智能社会里,人需要技术和工具,但人离开技术和工具可以生存,甚至会更好地生存;在人工智能社会里,人将无法离开技术而存在和生活,这在于人逐渐被技术安排,人的存在逃不出技术的掌控。比如无所不在的天网,就对人做了双重安排,既安排了人的安全度,也安排了人的自由度。第四,人工智能社会与机械智能社会的本质区别,是社会结构的不同,这种不同直接源于人工智能推动了社会结构的无声改变。这种改变既涉及到社会结构的形态层面,也涉及到社会结构的本体层面。就前者言,人工智能研发推动了社会生产-消费结构的改变;就后者论,人工智能研发应用推动了社会权利-权力结构的改变。
首先,人工智能技术无声地改变社会的生产-消费结构的同时,必然改变社会的结构性公正。这是因为:第一,人工智能正在领导一场新硬件技术革命,即凡是人所能做或人所要做的事,都可以生产出智能机器来做,开发和生产智能机器逐渐成为社会生产的主导领域。第二,人工智能研发将推动智能机器迅速替代所有机械机器,生产领域的生产机器设备体系将人工全智能化。第三,如上两个方面的改变导致整个社会生产领域的劳动岗位机器人化,机械智能时代的产业工人大部分被智能机器所取代。第四,人的劳动岗位被智能机器取代这一趋势,不仅体现在第一产业领域,更体现在第二产业和第三产业领域。比如,从临床医学领域的“医生”“护士”到办公室的“秘书”,从华尔街的经济分析师到银行收银员,从旅馆、饭店和商店的“服务员”到家庭 “勤杂工”“保姆”以及交通“警察”等职业岗位,将逐渐为智能机器所占领。这不仅是因为使用人工智能机器将大大降低生产成本、服务成本,更是由于可以大大提高生产效率和服务质量,因为人工智能机器具备自动的和不疲倦的学习能力。正是基于人工智能机器具有如上经济学优势,欧盟政治战略中心(EPSC)估计,到2030年,人工智能将为全球经济做出12.8万亿欧元的贡献,以当今为参照,相当于推动全球GDP增长14%,并预计这一增长比例到2035年可提高到40%。或许正是因为如此,近年来全球各大企业正竞相收购AI公司,从2012年以来,已有250多家人工智能公司被大企业收购。The European Political Strategy Centre, “The Age of Artificial Intelligence Towards a European Strategy for Human-Centric Machines,”EPSC Strategic Notes, no.29, March 27, 2018.
當人工智能机器与生产流水线匹配而成为主要劳动者,工人自然从流水线上解放出来,而成为“从流水线上被永远地放逐、取代、置换的人群”。罗岗等:《基本收入·隐私权·主体性——人工智能与后人类时代》(上),《读书》2017年第10期。不仅第一产业,第二、三产业亦是如此,当大量劳动者的生产性或服务性岗位被人工智能机器代替后,也就意味着职业放逐社会化。美国斯坦福大学卡普兰教授对美国注册的720个职业做了一项统计,指出其中有47%的职业将被人工智能取代。卡普兰教授还以此预测:在中国,这720个职业消失的比例可能会超过70%。英国经济学家凯恩斯在《我们后代的经济前景》中更是忧心忡忡地指出:“我们正在被一种新型疾病所折磨,一种某些读者甚至没有听说过名字的疾病,也是他们将在未来不断听到的疾病,那就是技术性失业。”[美]杰瑞·卡普兰:《人工智能时代》,李盼译,浙江人民出版社,2016年,第126页。因为“10年之后,世界上90%的工作,也许50%的人类可能都要面临工作部分或全部被取代”。参见李开复在 2016年12月6日召开的“2016WISE 独角兽大会”上的演讲。在人类历史上前所未有的这一失业大潮中,技术开发可新增的工作岗位和就业机会却寥寥可数。这种劳动就业的结构性变化必然造成一个社会难题,即这些“从非人的流水线上‘解放出来的工人会到哪里去?社会安置、吸纳他们的空间在哪里?当新一轮全面自动化的技术进步开始,如何安置过剩劳动力?效率和效益进一步的增长是否注定伴随着新的、向下的排斥?依照老人、穷人、受教育程度低的人、残疾人或任何一种强势-弱势的阶序依次排除?在新穷人的问题之外,可能是日渐严重的弃民问题。”吴琦:《专访戴锦华:置死地而后生?》,《单读14·世界的水手》,台海出版社,2017年,第110页。
劳动就业的结构性变化所带动起来的,首先是社会分配的结构性变化,因为人工智能的无限度研发和社会化运用,导致就业陷入停滞状态仅仅是表象,实质却是市场更加垄断化,社会资源、社会财富更加高度集中于少数个人或少数群体手中,贫富差距更加扩大。
其次,人工智能技术无声地改变了社会分配结构。劳动就业的结构性变化,必然带动分配的结构性变化,这一变化过程却无声地改变了社会的结构性公正,使社会的结构性公正逐渐丧失,以至最后形成社会的结构性公正消亡。
劳动就业的结构性变化带动分配的结构性变化,是人工智能的研发应用通过多渠道对收入分配产生影响而形成的。Acemoglu认为,人工智能作为一种偏向性技术(Directed Technical Change 或 Biased Technical Change),对它的运用必然对不同群体的边际产出产生不同作用,进而从三个层面影响所有人的收入状况。D.Acemoglu,“Directed Technical Change,” Review of Economic Studies, vol.69, no.4, 2002,pp.781~809; D.Acemoglu, “Labor-and CapitalAugmenting Technical Change,” Journal of the European Economic Association, vol.1, no.1, 2003,pp.1~37; D.Acemoglu,“Equilibrium Bias of Technology,” Econometrica,vol.75,no.5, 2007,pp.1371~1409.
一是在社会的结构性分配领域,“要素回报”差异是构成收入分配差别的根本原因之一。人工智能研发推动资本回报率在全球范围内呈速增趋势,从而造成更多资源、收入、财富向少数资本所有者聚集,导致市场垄断加剧和社会不平等加剧。T.Piketty, Capital in the Twenty-First Century, Belknap Press, 2014.人工智能技术研发造成的这种结构性分配不平等,主要从两个方面推进:首先是人工智能的普及运用既大量减少市场对劳动力的需求,同时也因为劳动力的供大于求必然造成劳动力回报率降低;其次是使用人工智能技术可以大大提升资本回报率。D.Acemoglu, P.Restrepo, “The Race Between Machine and Man: Implications of Technology for Growth, Factor Shares and Employment,” NBER Working Paper,no.22252, 2016; D.Acemoglu,and P.Restrepo,“Robots and Jobs: Evidence from US Labor Market,” NBER Working Paper, no.23285, 2017.由此两个方面互为推动,资本和劳动之间日趋扩大的回报率差却以一种结构性方式展开,必然进一步推动收入不平等持续攀升。Jeffrey D.Sachs, “R&D, Structural Transformation and the Distribution of Income,” The Economics of Artificial Intelligence: An Agenda, 2018, pp.329~348.
二是在社会的结构性分配领域,技能水平是收入分配差异的重要因素。仅以技术论,人工智能技术给不同技能劳动者带来的影响存在巨大差别:从整体观,人工智能技术几乎是全覆盖地影响了技术要求很低和以程式化任务为主的职业群体,不仅造成了这两大类职业群体的大量人员失业,也造成了这两类职业群体的不失业劳动者收入的不断降低。D.Autor, F.Levy, R.Murnane, “The Skill Content of Recent Technological Change: An Empirical Exploration,” Quarterly Journal of Economics, vol.118, no.4, 2003,pp.1279~1333.从理论上讲,人工智能技术对低技能劳动技能的替代,扩大了收入分配的结构性不平等,而对高技能劳动的替代,或可有助于缩小收入分配的结构性不平等。D.Acemoglu, P.Restrepo, “Low-Skill and High-Skill Automation,” Journal of Human Capital, vol.12, no.2, 2018,pp.204~232.但Acemoglu和Restrepo的这一假设却不能获得事实的支撑,因为人工智能技术既是对低劳动技能的替代,也对高劳动技能进行替代,能够避免其替代的也只是那些为数极少的高创意性、高创造性劳动群体,他们的收入分配才可获得一种结构性的强化或提升。由此看来,人工智能技术从根本上改变了劳动分配的社会结构,形成严重不公正的分配性社会结构,推动劳动分配的两级分化不仅特别严重,而且更为普遍和残酷。
三是在社会的结构性分配领域,市场成为关键要素。在人工智能社会,造成社会分配的结构性不公正的重要推动力量,是被人工智能改变了的市场。人工智能改变市场结构的基本方式,是使低技术含量的企业迅速消失,使所有机械智能技术的企业迅速衰落,同时扶持那些高自动化的企业或研发应用人工智能技术的企业,使之不断增强市场力量,获得资源、市场垄断和更高收入回报。近年不断涌现出来的大量占据高市场份额的“超级明星企业”(Superstar Firms) 就是凭借人工智能技术改变市场结构所形成的巨大市场力量而获得巨额利润。D.H.Autor, D.Dorn, “The Growth of Low-Skill Service Jobs and the Polarization of the U.S. Labor Market,”American Economic Review, vol.103, no.5, 2013, pp.1553~1597; D.Autor, D.Dorn, L.Katz, et al., “The Fall of the Labor Share and the Rise of Superstar Firms,” CEPR Discussion Paper, no.DP12041, 2017; D.Autor, D.Dorn, L.Katz, et al., “Concentrating of the Fall of the Labor,” NBER Working Paper, no.DP23108, 2017.
由此三个方面,人工智能技术在大幅度提升社会生产力的同时,改变了市场结构,进而改变了社会的结构性分配准则、分配方式和分配权重,推动社会分配滑向结构性不公正,进而加大了社会劳动分配的普遍不平等,不可逆地拉大社会贫富差距。
3.人工智能技术铸造社会结构性不公正的本质
客观地看,人工智能技术造成社会的结构性分配不公正,带动了社会劳动分配不公正的普遍化;社会劳动分配普遍不公正的实质,是人权和自由被迫获得不平等定格,因为社会劳动分配普遍不公正,不仅造成了劳动分配方面的不平等和不自由,而且也制造出政治生活的不平等和不自由。从宏观的社会结构观,形态层面的社会结构的改变,必然造成两个后果:首先是向外,推动社会劳动的普遍不平等与分配的绝对不公正,贫富差距更大;其次是向内,破坏本质层面的社会结构,形成权利与权力之间的结构性不平等普遍化。
在机械智能社会里,其权利-权力结构中,无论权利指向权力,还是权力指向权力,都是直接的,或直接的人-人结构,或直接的人-物结构。这一直接的结构关系却嵌含在人是主体的社会框架中。在人工智能社会里,无论权利指向权力,还是权力指向权利,中间都伫立着一个物,一个机器。比如银行的人工服务业务,是人对人的服务,由此所形成的权利与权力之间的关系,是直接的人对人的关系;但自银行开展人工智能取款机业务并迅速取消了人工取款柜台之后,取钱或存钱的行为再不是人对人,而是人对机器。因而,取钱或存钱行为所产生的权利与权力的关系,完全地需要一个中介的人工智能机。这种中介化的权利-权力结构,不仅导致了冷冰冰的社会的产生,而且使社会由机器操控,或者某个权力者或权力团体可以通过人工智能机而操控整个社会权利-权力系统,这样一来,必然在社会的本体结构层面,造成权力对权利的非平等和不公正。
在人工智能社会里,平等和公正的权利-权力结构遭受解构的方式是多方面的,但概括其要,最根本的方式有两种:一种是权责虚化,二是权力暴虐化。
在机械智能社会里,由于人对人、人对物是直接的,由此所形成人对人、人对物的权利责任不仅是直接的,而且也是实在的,具有不可虚化的严格规范性,所以一旦权责虚化,就会受到法律或道德的干涉,并规训其矫正。但在人工智能社会里,由于人对人、人对物的关系可以是间接的,由此造成人对人、人对物的权利责任关系不仅可以间接化,而且产生可虚化的空间。比如,在机械智能环境里,诈骗必须是骗子在場地展开,但在人工智能环境里,骗子可以不在场地展开诈骗,并且往往以不在场的方式进行诈骗。另一个最典型的也是最日常的例子是“线上线下”将人做出二分:人既是作为主体的人,同时也是作为身份的人,同一人的这种二分性自然使其权责也获得了实化或虚化的两分性,“线上的身份因通信和游戏改变了原来身份的意义,人的身份成为一种通信的产物,主体的世俗化使得社会控制变弱了。”L.Floridi, The Onlife Manifesto: Being Human in a Hyperconnected Era, London: Springer Open, 2015,pp.108~109.
从根本讲,人工智能技术推动社会发生根本性转变的内在节点,当然是权责的可虚化性;但这只是其一,更重要的方面却是阿尔伯特·伯格曼所指出的那样:“网络社区中人际交往在不斷退化,计算机网络将人从世界中抽离出来,还原为用户等可以轻易控制的数据流类型”。Albert Borgmann, Crossing the Postmodern Divide, Chicago: University of Chicago Press,2013, p.108.人作为现实的存在主体沦为了虚化的可供分析、处理、运用甚至弃置的“数据流量”。然而,权责虚化更为本质的一面,却是人作为存在主体的根本条件或者说权利的丧失,比如独立、自由、平等这些基本的权利,通过隐私权的丧失而丧失。人作为存在主体的权利的丧失必然造成两个不可逆转的后果:一是人失去自我、自己,比如人脸识别技术的运用,哪怕是个人最隐私的内心想法,也可运用大数据技术对人的每次不同脸部表情的分析而获得。所以,人脸识别技术使作为个体主体的人在日常生活的刷脸过程中不知不觉地失去了自己。正是因为如此,欧美许多国家才以法律的形式禁止人脸识别技术的普遍运用。二是人工智能技术作为一种权力被权力机构或权力者所垄断,就会形成社会的绝对集权或专制。在机械智能社会,集权和专制主要在政治领域产生,其功能发挥所涉及的范围只在公共生活领域。进入人工智能社会,集权和专制可以在任何领域发生,而且能够无所不在,哪怕最隐密的私人生活领域、纯粹个人的情感领域,也可能成为集权和专制的战场。尤其是当人工智能技术在极权社会里被政府全权投资研发运用时,就会出现美国后现代作家库尔特·冯内古特(Kurt Vonnegut,1922-2007)在《猫的摇篮》(Cats Cradle,1963)中描述的那样:人工智能技术一旦与极权政治结合,人类必将沦为科技的奴隶。因为在极权社会里,其社会结构是趋恶取向的,当以破译人脑工作原理和运行密码为主题的人工智能技术服务极权政治时,其趋恶的社会结构从形态到本体,再从本体到本质,必然衍生出通体的恶。
在一种通体之恶的社会结构框架规训下,“人类危机也就释放出了他者所蕴含的破坏性力量”[意]罗西·布拉伊多蒂:《后人类》,宋根成译,河南大学出版社,2016年,第95页。民众只能生活在“统治者为表面的幸福而编造的谎言里”,J.Hart, The Oxford Companion to American Literature, Oxford: Oxford University Press,1995,p.695.其行为被监控和追踪,其意识被谎言包裹。人如同无意识的智能产品,甚至可能成为一种特殊的艺术品。在这种境况下,“人类面临的最大的威胁就是自我毁灭”,D.Simmons, New Critical Essays on Kurt Vonnegut, New York: Palgrave Macmillan, 2009,p.214.因为“一旦人的进化超出了猿类应有的简朴,那么,他们在毁灭自我的道路上是极其聪明的”。J.Parini, The Oxford Encyclopedia of American Literature, Shanghai:Shanghai Foreign Language Education Press, 2010,p.265.人工智能技术无度研发应用这一过程本身,或许就是社会公正全方位解体的自我证明过程。
责任编辑:王晓洁