谢新水
(首都师范大学 管理学院,北京 100048)
为防止人工智能技术对人类的“侵犯”,保障这一颠覆性技术的可持续发展并友好地服务于人类,哲学社会科学都在寻找人工智能治理难题的解决方案。
伦理学领域的学者注重人工智能主体的拟伦理角色,将伦理作为引导、约束人工智能发展的重要方式,希望从有限自主与交互智能出发,调适人工智能伦理,校准人工智能的走向[1]。法学领域的学者设计用法律规制方式来解决人工智能的治理问题,将人工智能的本质假定为算法和数据[2],希望通过立法来有效规制算法和数据[3];还有学者希望通过整合现代政府立法、行政和司法三种权力,以侵权责任为杠杆,将人工智能系统的外部安全成本内部化,以此来保证人工智能产品的安全[4]。公共管理领域的学者采用建构新体制的思路来解决问题。依据人工智能在技术、市场和政治三个层面的影响,有学者希望建立基于伦理的、透明、开放、包容、适用的治理体制[5],为人工智能城市的整体治理提供了新思路。概而言之,这些学科所提供的解决方案都重视运用本学科领域的治理资源和治理能力,呈现了比较鲜明的学科特色。问题在于,这些研究很少从人工智能的“类人性”出发来设计治理思路。
哲学领域的研究弥补了这一缺陷。学者们从人出发来考察人工智能的发展问题,提出了“类人智能”概念,讨论了人工智能对人文主义的影响[6];并意识到人工智能技术的发展正在实质性地改变人,人和人工智能正在形成新的共生关系[7]。不难发现,哲学领域的思考也有学科思维的局限,即哲学领域的研究不太关注治理层面的具体举措。就人工智能治理而言,哲学社会科学的目标是双重的:既要促进人工智能的发展,又要避免人工智能可能带来的风险[8]。为了完成这一目标,人工智能治理不能忽略治理对象的新特性,这是思考人工智能治理的逻辑起点。具体而言,无论是伦理层面的引导、法律层面的规制亦或公共管理层面的治理方案,都不能回避人工智能的新特性,即其“类人性”是什么。
笔者认为,人工智能监管问题的起点是人性,人工智能的“类人性”需要根据人性来思考,而人的难题同样会在人工智能发展过程中不断呈现出来。这也是解决人工智能监管难题的逻辑起点。因此,本文主要探讨了以下三个方面的问题:一是提出通过人性来认知“后人类”阶段人工智能监管的观点;二是基于赫舍尔的《人是谁》探究了“做人难”与人工智能“类人”的难题;三是分析了人工智能的三重监管难题。希望以此为人工智能的监管提供可借鉴的思路。
人工智能以设计“类人”为重要基点。甚至可以说,“类人”是人工智能的最终目标。人工智能的基本路径是将人脑的功能赋予机器,将人的智能融入“物”,使机器模仿、形成甚至超过人的智能。图灵是第一个对机器智能做出深入思考的智者[9]1-2,他在《计算机与智能》中提出的问题是:机器能思维吗?图灵为求证此问题而开展的设计是:是否存在一台想象中的机器可以在游戏中精彩发挥[10]265?图灵的问题包含着这一问题的答案。在技术层面,一些科学家对此深信不疑:“凡是人能够表达的,毫无例外都是可以模拟的”,人类“能够制造出真正的人工智能,这已经是一个不成为问题的问题……这种人工智能不仅不亚于人类理智,而且无论从哪一方面来说都要超出人类理智”[11]。确实,这些科学家的预测正在慢慢实现。
需要思考的问题是:如果出现不亚于人类智慧、甚至超过人类智慧的“类人”,那么人和“类人”之间会形成“新冲突”吗?或者说,可能形成人和“类人”的“新合作”吗?就人和“类人”的关系而言,无论是“新冲突”或“新合作”,都超越了现阶段我们所持有的人-物思维关系的界限。历史地看,从农业社会到工业社会,人类一直将物甚至整个自然界作为自己的工具,这意味着人和物被置于分离甚至对立的状态,人和物之间的关系被定位为使用者和被使用者、控制者和被控制者的关系。说到底,这种关系的本质是有智能的人对无智能的物的单向控制。从这种关系的发展进程来看,在古希腊哲学家普罗塔戈拉宣告“人是万物的尺度”的理念后,人类整体追求对物与自然界的控制更甚。
正因为拥有智能和智慧是人类特有的属性,所以,当人工智能出现时,如何来准确定义人工智能就变得十分困难。谢勒指出:困难不在于定义“人工”,而在于“智能”一词在概念上的模糊。人类是具有广泛承认的拥有智能的唯一实体,所以任何关于智能的定义都毫无疑问跟人类的特征有关[12]。由于人类将智能视为仅仅属于自身的特性,一旦人工智能出现,人类要赋予物智能,并让物拥有、保存和运用人的智能时,就不可避免地会冲击人-物二元对立思维。这是第四次工业革命过程中人类科学思维的重大转变。这种转变的力量可能推动并塑造一个新的时代。
人工智能技术是通过“由人造‘人’”来实现人与物的融合吗?如果从人性来判断,答案是否定的。相反,“由人造‘人’”的思想进一步强调、凸显了人的优越性、独特性和孤独性,更进一步凸显了人控制物的思维。
其一,“由人造‘人’”的思想进一步强调了人的优越性。人类一直认为人优越于物。人工智能思维延续了“人是万物之灵”的思想。虽然人一直希望对物进行优化,赋予物以人的思维,使之具备人的智能并如同人一样行动,最终成为甚至超过人的智能的“类人”;但是,制造“类人”的目的并不是使其成为自由的行动者。其二,“由人造‘人’”的思想进一步凸显了人的独特性。人具有语言能力、制造工具能力、道德约束力,也是能思维、能决策、有情感的行动者。所以,人类一直认为自身与物不同。尽管人工智能“类人”有独特性,然而,这种“独特性”只是对人的模仿,是其作为人类工具的独特性。其三,“由人造‘人’”的思想凸显了人内心的孤独。人有两重孤独性:类的孤独性和个体的孤独性。人工智能应用的一个领域就是通过制造“类人”来缓解人的孤独,日本设计“陪伴机器人”的理念和目标就是如此。然而,“类人”最终只能作为“物”而隔离于人之外,因为孤独是人不可消解的人性。在这个意义上,我们才能更好地理解亚里士多德所说的命题:“人类在本性上,也正是一个政治动物。”[13]7目前看来,人和“类人”的不可融合是人的思维决定的。或者说,人和“类人”的融合需要一个漫长的思维变革过程。但是,人工智能“类人”出现后,人类需要面对如何和“类人”相处的难题。
20世纪80年代,科学家对控制人工智能“类人”很有信心。他们认为:“在自动化系统和人工智能发展的任何水平上都少不了人。只有人才能处理一切信息过程的开端和终端。只有人才能给系统下达任务,只有人才能确定标准和对结果做出评价。这里任何东西也替代不了人。”[11]但是,这一判断没有考虑人工智能“类人”的自主性及其超越人的能力。目前,一些科学家已开始质疑类似的观点。我们可以设想,具备超人类能力且有自主性的“类人”,一旦拥有了人的情感,又成功地进行了组织化和社会化,那么它们将如何与人类相处呢?它们会和人类争夺世界的统治权吗?就目前而言,这些问题尚难得出明确的结论,毕竟人工智能还处于发展初期;但是我们必须在理论上对人工智能监管问题进行思考,从人性的视角去推断这一技术发展过程中可能出现的风险。只有这样,才能为人工智能的监管开拓恰当的思路,形成系统性的监管思维,找到有效的监管路径。
哲学、伦理学、管理学对人性有丰富的揭示。休谟的《人性论》仿照霍布斯在《法的原理》和《利维坦》的前两部分来规划,虽有一定的局限性[14],但深刻揭示了人性的复杂。在伦理学发展过程中,伦理本位的人性论、实践本质的人性论、文化人性论、“类哲学”的双重人性论、马克思主义的人性论对人性的揭示深刻而丰富[15]。管理学领域亦提出了性善论或性恶论等观点。虽然这些有关人性的理论都有助于分析人工智能的监管难题,但是本文的分析并不基于这些理论。本文分析的基础建立在对人工智能因具有人的特性而会表现出与人类相同的“做人难”问题之上,本质上是从人工智能与人类在“人性”困境方面的相似性出发,讨论人工智能的监管问题。
在人工智能发展过程中,任何时候我们都不能忽略它和人类的密切关系。当前,理论界将“人”作为人工智能的分类标准。由此,人工智能可以分为三类:弱人工智能、强人工智能和超强人工智能。其中,弱人工智能是严格依据程序规定,对设定刺激做出反应的人工智能产品,它的设计依然体现了人对物的控制。因为这一类机器人根本没有意识状态,它只是受电路和程序支配的简单来回运动而已[16]。强人工智能技术机器人具有人类的理解能力,能够自主进行推理和判断。超强人工智能指的是在各个方面都比人类具有优势的智能系统[17]。超强人工智能具有超过人类的能力,有情感,能够自主思考决策。所以,人工智能监管的对象不只是物,更不只是对物的监管,更多地是指对“类人”的监管。“类人”不是人,却是具有自主性的行动者,其能力甚至会超越人类。正因为如此,在理论上,基于人性的“做人难”来思考人工智能的监管难题,就更合适、更有效。
赫舍尔是20世纪初很有影响力的哲学家和神学家。在《人是谁》一书中,他探究了人性的哲学问题。他力图解决的问题是:做人意味着什么?根据什么来证明人有资格成为人?为什么做人难[18]1?他指出:“难题是处境的产物。它是在处境艰难、理智困窘的时刻中产生的,是在经历到不安、矛盾、冲突时产生的。”[18]1他也指出:“一个问题寻求的是答案,一个难题寻求的是解决方案。”[18]1人工智能技术将处于长期的发展过程中,人类对其监管亦是长远的,所以对于人工智能的监管不只是问题,更是难题。
福山考察了生物技术对人性的改变问题。他指出:“当前生物技术带来的明显威胁在于,它有可能改变人性,因此将我们领进历史的‘后人类’阶段。”[19]10-11笔者认为,人类社会将在人工智能技术与“基因工程”的共振中被带入“后人类”阶段。“后人类”阶段增加了“人”这一概念的复杂性,也可能改变“人”的定义。这是社会前进和发展的趋势。现在看来,人工智能是人类所渴望的新技术。这种渴望既体现在农业社会的童话故事和寓言故事中,也体现在工业时代机器融入社会的全过程中。工业社会发展技术的目标是延伸人的手足、解放人的身体。在后工业社会,人工智能的目标是发明“类人”,从而延伸、集聚人脑的智能。在“后人类”阶段,人脑的解放可能会使人成为旁观者吗?
基于人性的“做人难”会在人工智能发展的过程中体现出来。这是人工智能时代一个需要思考的难题,也是人工智能时代的监管难题。如果人工智能科学要考虑的是如何理性地发展技术的问题,那么社会管理者则需要切实解决“后人类”阶段的社会难题。人工智能发展中遇到的科学问题,需要用原创的科学理论和技术去支持;人工智能应用中产生的社会难题,则需要在社会管理过程中通过系统有效的监管来消除。总体而言,对人工智能的监管具有双重目的:一是促进人工智能技术的可持续发展,二是促进人类的可持续发展。为了达成这些目标,人工智能的监管难题需要基于人性的“做人难”出发来认知和思考。
在社会治理的意义上,人工智能监管的重大难题是人工智能“类人”社会化、组织化后所造成的困境。这个困境中包含着两个层面的问题。第一个问题来源于人工智能科学发展的路径:科学会将人工智能的“类人”造成什么样子?第二个问题来源于人工智能发展的社会路径:社会管理中如何处理人和“类人”的关系。这些问题概括起来可简化为“人机共生”问题。笔者认为,立足于人性的“做人难”来思考人工智能的监管难题,系统科学地提出人工智能的人性发展路径,更有利于人工智能技术的社会发展。因此,本文选择《人是谁》一书中的内容来分析人性的“做人难”,并由此分析“后人类”阶段人工智能的监管难题。
赫舍尔不仅深刻揭露人性,而且有远见地指出了人性发展的动态性和可塑性。他指出:我们不仅描绘人的本性,我们也塑造它。我们认为自己是什么样子的人,我们就会成为什么样的人[18]9。人工智能以人为标准。在人工智能发展过程中,我们认识到了人性是什么样子,人类认识到自身是什么状态,就自然而然地希望将人性及人的状态在人工智能中呈现。人是行动的,基于人性的行动会产生做人的难题。根据赫舍尔的《人是谁》,笔者总结了基于人性的“做人难”及其表现。
其一,用思维行动却难把握情绪。人是有思维的,有智慧的思维是人区别于动物的基本特征之一。没有智慧思维的人通常都遭到了思想家们的极端对待。例如亚里士多德将奴隶视为“工具”时,主要意指其缺乏自主思考形成智慧的能力,他(她)们只要服从主人就够了(1)亚里士多德认为:身从魂、幼从长、奴从主、野蛮民族从自由民族都属自然。详见:亚里士多德.政治学[M].吴寿彭,译.北京:商务印书馆,1965:514.。人的思维过程和思想观念寓于其行动之中,系统的思想是指导人的行动、判断行动效果的重要依据。思维是人类丰富世界的重要精神力量,正是因为人的思维,人类才拓展、开发、到达了超越地球以外的新世界;正是因为人有思维,人才有了比动物更多一重的空间。动物只有物理空间,而人则不同,思想是人的私人空间[18]8。动物会巡视“领地”,但很难说它们有“思想”,而人不仅占有地理空间,而且用思想占有人类的思维空间,历史巨人就是那些至今依然能在当下时空中占有思想位置的人。
“与动物相比,人是不仅行动而且还思考他如何行动的一种存在。”[18]11没有思想,人类就是黑暗的。正是思想的力量孕育了人类不断探索、不断创新、不断超越自身局限而积极行动的勇气和能力,但与此同时,“做人难”的问题也因此产生。由于人会观察、感受、探究、质疑、对比分析自身行为,由此会引发人对行为起因、行为过程及其行为结果的反思。在反思过程中,人的心理过程会蕴含情感的变化。赫舍尔指出:“人对自身行为的感受能力,对自身行为表示疑问的能力,把自身行为看作是一个难题而不是单纯由最小的、不变的和最终的事实组成的结构能力,这是做人的根本性质。”[18]11人通过思维感受行动、产生判断,在这个过程中,无论是赞同或反对、满意或不满意等,都会产生诸多情绪。进一步而言,人对“他者”的感知判断,是人与事、人与人、人与生活环境相互作用的结果,这个过程会引起人情绪的变化。
人的情绪复杂多样,或高兴、乐观、兴奋;或消极、质疑、沮丧;或悲哀、绝望……情绪既是现实又是事实,人很难与情绪、情感相脱离。赫舍尔指出:“做人是一个现实,人之为人在于与他基本的情感……或者,更具体地说,是在于他如何同他自己的实存相联系,如何同其他人的实存相联系,如何同他的直接环境中所呈现的相联系,如何同存在着的但又不是直接呈现的相联系。”[18]19上文提到,模仿人的思维是人工智能的出发点。如果人工智能“类人”有了思维,进而也有了情绪,同样会产生做人的难题——不仅包括自身情绪难题,还包括与人类相处时的情绪难题。
其二,用价值判断却难自我认同。人的思维具有社会性和文化性,与之相随,人的价值观也就复杂多样。在行动过程中,人必须用社会标准、社会价值、社会文化、法律规制来思考、判断、对比自我和“他者”的行动。人对其行动的思考是一个基于价值判断并自我理解的过程。也就是说,“每一种自我理解活动都要运用价值判断、规范和决定”“做人的实质在于价值,价值包含在人的存在之中”[18]14。无论是判断个体行为、集体行动、社会运动、政治现象、国际关系,乃至这个世界上的所有行动,人都无法脱离价值的“侵袭”。所以,赫舍尔指出:“人对他自己的自我不是中立的或者漠然置之的。爱和知识、价值判断和事实描述,在确定自我认识时不可分割。自我认识既包括接受也包括拒斥。如果没有掌握某种价值标准和价值倾向,认同其自我的关系便不可思议。”[18]13
价值观、世界观和人生观是人自我认同的基础。对何种价值的认可,既决定着自我认同的标准,又决定着人的自我认同方式和生存方式,甚至还决定着生命是否需要延续、是否幸福。亚里士多德发现:“人人都爱自己,而且爱出于天赋,并不是偶发的冲动。”[13]55由于对自身怀有情感是一种本能,所以人终其一生都无法逃避自我认同的问题,这是人的生存需要。无论你生活富足与否、幸福与否,缺乏自我理解和认同的人,生活都将再难从容继续。然而,价值是一个争议性的概念。争议性概念体现的是人们对同一概念内涵和外延理解的差异性。由于价值观的丰富性及其判断的差异性,价值冲突就成了人类冲突和人自我冲突的源泉,相应地,也就增加了人自我认同的难题。如果人工智能“类人”有了人的思维,有了伦理价值观,并要以此来自主地开展决策,同样会产生用价值判断却难自我认同的“做人难”问题。如果这样,那么人工智能的“类人”如何进行价值判断?如何开展自我认同呢?它们能自我认同吗?如果不能,我们如何监管它们呢?
其三,难以承认现状却要服从现实。赫舍尔指出:“人对自己是一个难题,他不把自己的实存看作理应如此。”[18]14通俗地说,就是人难以满意现状,每个人都希望改变,都希望变得更好;即使不能变得更好,每个人也希望变化。人很难忍受自己的生活是一潭死水。在生活中,很多人会觉得不如意,觉得存在和期望之间有难以消除的矛盾。这种矛盾与做人的过程相伴随,对很多人来说也是常态。进一步而言,人不把自己的实存看作理应如此,既是人性使然,又是伴随人终生的“做人难”问题,每个人都要不断挑战实存的现状。
人在社会中行动,人的行动构成了社会。人既难以脱离纷乱丰富的社会,又要服从社会,并不得不承受社会的支配力。正如卢梭所言:“人是生而自由的,但却无往不在枷锁之中。”[20]4个体的人是弱势的,其人性也是弱势的。毕竟,“人的行为不仅由这一实质的内部过程(即人性)来决定,而且由社会上占有支配地位的力量和标准,由来自外部的异质压力来决定。人被赋予的是一种复合体”[18]10。所以,人作为社会人,难以承认现状、却要服从现实的“做人难”问题,会因社会压力而加剧。
人不自愿地服从现实的内在压力,还与人的尊严相冲突。为了尊严和体面,“表面上,人类可以装作满意和坚强;但在内心,他却是贫困的、匮乏的、软弱的,经常处在苦难的边缘,动辄遭受精神和肉体的折磨”[18]18。在负面意义上,有人甚至认为人生就是一场悲剧。“为了被社会接纳,他就要接受压迫。这是他付出的沉重代价。人类的顺应往往包括从莫名其妙的占卜,包括良心的退让和必要的伪善。的确,它常常是‘一种沉寂的绝望的生活’。”[18]39社会压力加重了做人的难度,使“做人难”雪上加霜。
因此,我们需要提出的问题是,人工智能“类人”会如此吗?如果真的如此,这一监管的难题如何来消除呢?
总之,“做人难”是因为人难以把握情绪、难以自我认同、难以承认现状。最为艰难的是,人不可能逃避做人的难题,“做人难”的问题只能自己解决,因为“人永远不能远离他自己的自我”[18]17。“任何人都不得不经历童年、青春期和成年一样,我也必须经历危机、窘迫、心灵痛苦以及对这个基本问题的苦苦思索。”[18]15从人来到这个世界开始,“做人难”就紧随其后、无法逃脱;人必须面对、思考并解决这些难题,这就是所谓的人生之苦。也就是说,做人的难题是人自己的难题,而不是别人的难题。正如赫舍尔所指出的:“停止做人,必然会终止人的存在。人的存在和做人之间具有本体论的联系。”[18]19所以,无可替代的“做人难”是人必须面对的问题。如果说人生是悲剧,也是因为人没有意识到“做人难”所导致的。了解了“做人难”来源于人性,就会正确看待人生之苦,也会正确看待人生。解决“做人难”问题的过程,也是赋予人类独特的价值和意义的过程。正是这个过程成就了人,成就了人对人类世界的贡献。以此类推,如果解决了人工智能“类人”的“做人难”问题,那么这就对人类未来的发展作出了巨大贡献。
强人工智能和超强人工智能是具有“类人”特性的监管对象。人工智能“类人”对人类社会的冲击可分为两类:一类是显性冲击;一类是隐性冲击。显性冲击是指人工智能技术给社会带来的直接冲击;隐性冲击是指人工智能“类人”的内在冲击给社会造成的影响。如果这些冲击给人类生活带来巨大的不确定性,那么人类应该如何应对这些冲击呢?一般的思路是要求政府监管人工智能的开发及运用,借助政府的力量来引导、控制人工智能的发展及所引发的技术性失业与技术性不对等,在接受发展红利的同时也要消解风险。尽管这种监管模式可能有些过时,但仍是正确的思路。然而,无论采用什么样的监管模式,都需要弄清楚监管主体及监管对象的特征。笔者认为,基于人性的“做人难”来思考人工智能的监管问题,需要关注以下三个方面的监管难题。
人有不断反思行为、调整行为、坚定意志、“不断做出决定”[18]11的能力。这是人性的一部分。“人是万物的尺度”这一自然主义哲学观隐含着人可以根据自我意志做出任何决定的意涵。当人视自身为万物的尺度时,这意味着对人和自然、人和人关系结构的判断:一是人视自身为万物的统治者;二是一些人视自身为他人的统治者。这一哲学判断激活了人的权力欲和占有欲,在推动人类不断发展的同时,也破坏了自然、恶化了环境,导致人和自然界的对立以及人类群体间的对立。无论是对“物”的统治还是对人的统治,它们都是人的社会欲望的体现。人“不断做出决定”的能力,最终发展成为人的“统治性”问题。
在农业社会发展过程中,人和自然的关系逐渐对立,人的统治性也因此得到了极大呈现,形成了以身份和等级关系为支配力的统治结构。在农业社会的治权体系中,权力的“统治性”得到了极大的张扬。到了工业社会,随着科学技术和社会管理技术的发展,人对自然和社会的统治也在加强。一方面,人类开发、利用自然资源的能力逐渐增强,自然界成为人类满足物质欲望的源泉,并由此引发了严重的环境问题;另一方面,为提高生产效率,人类通过官僚制组织管理社会,以组织化力量管制社会的能力得以加强。可以说,“统治性”弥漫于农业社会和工业社会。尽管现代国家中的形式民主也在逐步发展,但在技术、经济、社会领域中各种形式的“统治”仍不同程度地存在。在后工业社会,人的“统治性”继续扩张,更是达到了要改变人的身体结构来获得更强能力的程度。
在农业社会和工业社会,宗教文化中的上帝创造并统治着自然界和人类;后工业社会的技术精英也希望成为如同有上帝威力的个体,逾越“上帝之手”,制造出“更完美的人”。这个目标需要通过充满刺激也充满风险的两个技术来实现:一是利用“基因工程”来改造人,即通过基因修饰、修复和修剪,来弥补上帝造人的不足,以增强、完善人的不完美之躯,增强人的各种能力;二是通过人工智能技术来制造“类人”。当人类通过人工智能技术比拟上帝“造人”时,其深层动机是展示“智慧”,因为人工智能是人类引以为傲的科技。当人类利用人类基因工程比拟上帝“造人”时,其深层动机是突破“有限性”,在内心隐含着人类想彻底自由的宣示。无论选择哪种途径,都是“万物之灵”理念下人的“统治性”的外显。
由此,人类社会就迈入了福山所说的“后人类”阶段。人类“造人”和制造“类人”的初衷除了为解决人本身的问题外,还为了解决社会问题;但是,这些充满“统治性”的欲望会带来难以克服的悲剧后果。在过去,战争和侵略就是人“统治性”的极端体现,这些行为对人类社会的危害极大,且至今难以控制。今天,如果不对不合伦理和法律要求的“造人”工程加以有效监管,就可能危害人类自身。同样地,我们可以为人工智能“类人”比人更聪明、更能干、更有改造社会的力量,可以解决人类社会更多领域的问题而欣慰,但与此同时,也不能忽视由于“统治性”的作用,“类人”给人类社会带来巨大的负面影响。
由于“统治性”来源于人性,人工智能技术的发展不可避免地会造成社会发展的不均衡,引起人们对于机器是否可控的担忧[21]。如果人工智能“类人”后有了不断做出决策的自主能力,人工智能监管者就面对了一个全新的监管主体。在“后人类”阶段,“类人”的“统治性”难题表现在以下三个方面。
其一,“类人”对人类的统治压力。“类人”可能会打破人是万物之灵的“统治性”界限,因为它们具有“类人性”,比人类更聪明,而且能自主决策,最终会形成统治人的压力。其二,“类人”的失控。当人工智能迈过技术“奇点”后(2)奇点(singularity)就是指机器智能超过人类智能的那一刻,或者说智能爆炸、人工智能超越初始制造它的主人的智能的那一刻。详见:何怀宏.奇点临近:福音还是噩耗——人工智能可能带来的最大挑战[J].探索与争鸣,2018(11):50-59.,可能会突破设计者预设的临界点,走向“失控”。那时,“这些智能机器人可以制造出比自身智能水平更高的机器,然后这些更智能的机器还能继续制造出更加智能的机器,依此类推”[21]55。这里的“失控”包括“类人”的情绪失控、认同失控、价值失控等。其三,“新世界”的冲击。人工智能时代将形成一个“新世界”。这个“新世界”中既包含人和“类人”的关系,还包含“类人”和“类人”的关系。从而,这个“新世界”里就形成了新的统治关系,即“类人”对“类人”的统治和“类人”对人的统治。后者意味着“将人类关进动物园”,甚至判定人类“不完美”“没有用”,从而轻视人类,漫不经心地灭绝人类[7]。
尽管,这些是比较极端的假设,却是人工智能发展过程中最应担心的问题。因为“类人”的统治性问题来源于人性。如果不思考基于人性来监管人工智能,很难说不会产生人类被灭绝的严重后果。
人是能力有限的自主性动物。在自然界,如果没有外力作用,植物是静止的,所以人能意识到和植物相处是安全的。由于人类在法律中将自然界的灾害性力量定义为“不可抗力”,人类也承认了对抗这类风险的能力有限,所以能在一定程度上接受地震、洪水、飓风、火山爆发等不可抗力带来的灾害。但是,人类却惧怕动物的自主性,除了被驯化的动物外,人通常将自身与其他动物相隔离,也在尽力躲避、防御凶猛动物自主性运动所带来的危害。此外,工业社会的非智能机械是物,只是由人控制的有动力之物。出于人对控制物的自信,人工智能时代以前的伦理法律制度,亦无需考虑“类人”的自主性难题。
然而,人工智能“类人”不但是自动化的,而且具有自主性,这就可能会带来一些危害。例如,无人驾驶技术在缓解人的驾驶压力、缩短通勤时间、找车位更方便的同时,也带来了很多冲击:一是高速公路必须电子化;二是需要修改交通政策和交通事故处理规则;三是引发隐私权问题;四是一旦遇到交通事故,无人驾驶体系要依照伦理规范处理,其自主性决策需要价值体系的支持。本质上,无人驾驶的发展不仅仅是技术问题,更是重要的社会问题和伦理问题。因为“自动驾驶汽车将会挑战我们的价值观和可靠性,并把驾驶从直觉转化到单纯依靠数据和逻辑”[22]295。如果人工智能“类人”在金融领域、生产领域、娱乐、翻译、医疗领域产生结构性影响,就会看到,它们不仅对这些领域的就业造成巨大压力,而且会影响、冲击甚至会彻底打乱这些行业的生产结构、组织结构、行为模式和思维观念等,更为重要的是,“类人”在这些领域的参与将对现有的生产、生活乃至社会秩序产生巨大冲击。
人的认同难题产生于我们的自主意识和我们的期望之间的冲突和矛盾,即人是什么与人应当是什么之间的矛盾和冲突[18]3。当人工智能被赋予自主判断能力时,“类人”的出现给社会带来了源于人性的价值认同难题,这些难题存在于三个层面:一是“类人”自身的认同难题;二是人对“类人”的认同难题;三是“类人”对人的认同难题。所以,人与“类人”的关系,既不是主体与客体之间的关系,也不是主体之间的关系,而是一种主体与类主体之间的关系[23]。在这种复杂的认同关系中,人工智能“类人”的价值和期望之间的矛盾与冲突就会更加凸显出来。这样一来,人工智能融入的相应领域就可能带来“革命”。这类“革命”既可能是建设性的,也可能是破坏性的,最终都将重构人类既有的生活。
情感是人成为人不可缺少的生存体验。情感使人感觉到温暖、留恋、羡慕和爱,也会使人感觉到怜悯、痛恨、嫉妒、冷酷。人的情感体验是人生存的基础。它对人的思考、人的社会化、人的行动、人的生存和发展都具有极大价值。如果没有情感,人就成了机器,成了“物”。人的情感差异、世界观差异与社会的复杂性密切相关。
人的情感与情绪会不稳定、个性化、甚至杂乱无章。情绪的难以控制是“做人难”的重要体现。无论是自我反思、自我理解还是认同理想和现实,人都会形成难以控制的情绪或者情感。在现实生活中,积极的情绪让人心旷神怡、踌躇满志,成为正面的力量;消极的情绪却使人颓废无力、缺乏勇气,甚至感觉难以容身,成为负面的力量。由于人很难把握和控制自我的情绪,并以此和“他者”和谐相处,就有了精神痛苦。
赫舍尔指出:“人本身就是并且先是一个难题,成为人就是成为一个难题,这个难题表现在苦恼,表现在人类精神痛苦中。”[18]3从人与社会发展关系的角度分析,我们可以看到情感和欲望两方面的难题。一方面,如果个体的情绪与物质欲望、精神欲望和创造欲望结合起来,就会成为推动社会发展的复杂力量;另一方面,社会生活及其组织化活动又能激活人的情绪和欲望。此外,被激起、被组织起来的情绪和欲望力量可以是善良正义的,也可能变成邪恶非正义的,可以成为社会发展的基础,也可能涌起社会冲突的巨浪。
在社会发展过程中,一些组织引导、使用这些力量来推动社会发展,也有一些组织煽动社会情绪力量来引发社会混乱。苏格拉底指出的“意见世界”(3)赵汀阳指出:“精神世界同样存在着一个从无序混乱到有序世界的问题,这是精神世界的政治问题。具体而言,意见世界必定是个政治世界,而且是政治世界的根本所在。”“苏格拉底转向确立了意见世界的对话/争论结构,这一对话结构定义了意见世界的政治性质。”详见:赵汀阳.城邦、民众和广场[J].世界哲学,2007(2):64-75.就是人的情感、判断和社会事件结合的产物。一直以来,人类社会中的“意见世界”就是混合的、混杂的,除了通过民主的方式达成“多数决”认同外,最需要通过公共对话的方式,才能找到共同价值,达成社会共识。然而,公共对话依然非常艰难。
从人工智能的发展来看,情感作为一种高级的信息处理机制,在大脑的学习和决策中的作用不容忽视,是智能不可分割的组成部分[24]161,所以,情感是人工智能技术所追求的,也是真正完善的“类人”所不可缺少的。笔者认为,人工智能通过科技力量为人类社会增加另一个情感之物——“类人”。在人工智能时代,人类必须严肃考虑的问题是:如果人工智能“类人”有了情感,就有了“类人性”,就会从生存意义上追寻问题,包括对自身意义的追寻和对“他者”意义的追寻。这样一来,它就成了另一个与人一样的意义追寻者和价值寻找者。可以想象,基于情感和意义追寻的人和“类人”之间,无论是促成合作还是消除竞争,都是复杂而全新的问题。
在人工智能时代,政府不仅需要协调现有的社会关系,还需要协调“类人”出现后形成的新社会关系,人类社会因此增加了新的协调维度。但问题不会如此简单,因为除了“类人”的关系需要协调外,人和“类人”之间的关系也需要协调。如果“类人”的“统治性”与人的“统治性”相冲突,人工智能时代的社会协调就会呈现出“重叠性”。这种“重叠性”内含着人和“类人”之间的复杂冲突。也许,这种“重叠性”还可以造就人和“类人”更友好的合作。在这个过程中,有情感的“类人”会形成新的“类人”生产关系。这种新的生产关系会与既有的生产关系相互作用,带来人工智能时代社会结构的重塑。这样一来,人类社会就变成了一个复杂的“人机社会”。在这个社会中,“人的难题”“类人难题”和“人机难题”将会相互叠加,形成“重叠性”的监管难题。
人工智能打开了人类的幸福之门,也可能打开了人机新世界中的“潘多拉魔盒”。当人工智能“类人”的能力超过能力有限的人类时,人类将因此感到压力;“类人”的社会化和组织化可能引发人类对“类人”的“新仇恨”,将冲击和调整已有的社会结构,甚至引发社会失序。理论上而言,只有从人出发来思考“类人”,从人性出发来思考“类人”的发展,才能更合理地建构人和“类人”的良好关系,才能充分认识人工智能的监管问题。人性是认识人工智能的基础,离开基于人性的“做人难”来思考人工智能监管,在短期内可能奏效,但长期看来将存在严重风险。
归根结底,在人工智能发展过程中,我们需要认真思考的基础性问题是:人和人工智能的关系是什么?是“工具”还是“伙伴”?人和“类人”的社会关系是控制关系、竞争关系还是合作关系?如何通过有效的监管来处理好这些关系?赫舍尔说:“人具有高度的接受性、服从性和轻信性。他永远不会被完成,永远不是不可改变的。”[18]13笔者认为,人的发展和“类人”的发展应该是同向的。随着人类对人性认识的深入,人类将加深对“类人”的发展方向、功能、危害、潜力和社会影响力度的认识。需要注意的是,人工智能发展不仅需要法律来规制,还需要技术伦理、制度伦理和治理伦理来约束和引导。