江 璇
人类通过跨学科的方法来克服生物的限制,突破人类之自然局限,赋予人类超能力。这些对人类进行增强和改善的行为可能会导致“超人类”的诞生,这场革命将会从政治、经济、道德、宗教等各方面彻底改变人类社会原有的面貌和秩序。目前人类增强技术主要在五个方面实现了人类由自然进化向利用技术手段进化的推进。主要包括精神和认知能力、感官和身体机能、新型的人类能力、新生儿基因增强以及延缓衰老和增长寿命[1]22。
对于精神和认知能力的增强,主要采用的技术手段分为药物类增强和非药物类增强两种,主要是对人的记忆、注意力和情绪等方面的改善。通过使用药物可以帮助人类集中注意力、缓解紧张情绪、保持精神亢奋等效果;通过脑电接口技术可以改变大脑皮层神经细胞的膜电位,影响脑内代谢和神经点位活动,进而影响认知能力。对于感观和身体机能的增强,主要是通过夜视眼药水让人类能够在极弱的光线条件下依然能看清物体,具有夜视的能力;通过人工耳蜗让人类的听力超出正常水平,拓展人类的听力范围等。在身体机能增强中,主要是通过对基因的改造,进而使人类拥有超级运动能力。对于新型的人类能力增强,主要是指通过记忆复制进而使人类具备超级学习的能力;通过大脑意念对外界进行控制和交流的全新能力。对于新生儿的基因增强,主要是指通过基因的编辑技术,进而达到对人类基因的设计和预定。通过基因层面的改造,使人类摆脱自然进化的宿命。对于延缓衰老和增长寿命方面,主要是通过药物或者整容手术进而避免器官的老化。
在不久的将来,人类将进入社会历史上的一个全新的阶段,将面对真正的人工智能前景。这种人对人的新控制力在将来可能会引发诸多不可避免的道德、政治、经济乃至信仰等多方面的问题,这场革命将决定人类在生物与精神意义上之未来,因此成为了不可回避的重要议题。
对于“人”的概念,人们似乎有着某种共识,会自然地把自己当作是人类的一员,并认为这是一个事实,在此基础上还构建了人的各种权利和义务。但是虽然竭力把人纳入自然法的范式,但是关于人的概念在当代科学进步和经济全球化的双重压力影响下已经发生了剧烈变化,人已经开始向技术范式发生转变。因此,一直以来被视为当然的人的本质被提出了质疑。人类需要换一种方式探寻自己,需要批判地、创造性地思考人类思维模式、认知方式以及自我表现的新形式。科学研究是否已经超出了边界?科学技术将如何改变人类的未来?人工智能技术观的应然边界在哪里?超人类主义和生物保守主义对此产生了对峙与争议。
超人类主义者认为人性是可变的和发展的,没有任何“合理的”理由可以先验地给科学研究定下绝对的边界。许多超人类主义理论家与倡导者希望运用理性的科学和技术来减少人类的不自愿的痛苦和折磨,积极关注潜在的未来技术和创新的社会系统,从而可以改善人类生活质量,并寻求所谓的人人平等,消除先天性的智力残缺和身体上的障碍,使人类生存条件得到更好的改进。超人类主义者正凭借其所拥有的先进的高端科学技术手段和物质资源,大力宣扬新技术,支持采用生物、纳米、信息、认知等技术进行一场前所未有的超人类革命。
而生物保守主义则认为人性是自主、平等、本真等价值的基础,是确定的和不变的[1]100。对于利用增强技术直接对人类进行改造是不予以信任的。对于这些有可能会危及人类生命健康和社会和谐、挑战人性的极端技术应采取严格的规约措施,甚至有可能的话应该完全禁止。虽然当前的人体状况并不完美,但还是令人满意的,应该感恩现在所拥有的一切,接受自然之所予。
超人类革命是一场断定可以通过科学技术并值得应用理性科技从根本上对人类自身条件进行改进,特别是要通过开发和制造各种广泛可用的技术来消除疾病、痛苦、衰老和死亡等不利于人类生存与发展的消极问题,同时可以极大地增进人的智能、体能和心理能力的国际性的科技文化运动[2]。超人类革命在欧洲及全球范围内的激烈讨论主要来自四份报告[3]16-18。第一份报告是美国2003年发表的《用以增强人类功能的技术的汇合:纳米技术、生物科技、信息技术及认知科学》,这篇报告对科学技术持有强烈的乐观主义精神,建议大力投资超人类项目,推动科技的创新与发展,否则会被其他国家赶超,从而失去经济和军事上的显著优势,从而面临极大的风险。第二份报告同样是2003年由美国生物伦理委员会撰写的《超越疗法:生物技术和追求幸福的权利》,但这份报告与第一份报告持完全相反的态度,极力反对增强人类机能的计划,认为这些普罗米修斯式的计划将会导致极其严重的社会危害与后果,应当严肃对待,严格控制,并且拉开了“生物进步主义者”与“生物保守主义者”之间争论的序幕。2004年,欧盟公布了第一份专门研究超人类主义的正式报告《技术汇聚——塑造欧洲社会的未来》,这份报告附和了桑德尔和福山的生物保守主义的态度,坚持以古典人文主义传统思想反对科学技术对生物和自然的改造,拒绝投入其大量的精力和物力去进行人类的增强与改良,极力反对基因增强计划。而2009年欧盟新出的报告《人类增强》却有别于之前的态度,改变以往决然的反对态度,认为超人类主义已经是不可避免的大势所趋,并且称“一切嘲笑超人类主义的做法本身就是可笑的”。这份报告不再是单方面地支持或者反对超人类主义计划,而是试图对超人类主义计划所带来的益处和危险进行深入思考。正是由于以上四份重要报告的发表,从而引发了对于超人类革命的诸多争议。
随着高新科技的迅速发展,认为科学和技术的进步能够“解决世界上所有问题”的这种信念在欧洲非常盛行,甚至被称之为“解决方案主义”。正如施密特所说,认为几乎所有困扰地球的问题都可以找到出路,只要人们愿意对新技术投入更多的时间和精力,新技术有潜力能够解决一切问题[3]64。由于技术发展和科学认知速度的加快,人类正在进入社会历史上的一个全新的阶段。在不久的将来,将面对真正的人工智能前景。以往的基本范式将要被改变,甚至可能被超越与颠覆,成为技术范式。终有一天,未来的人类将会在各方面都远远超出现在的状态。彼时,人们将走出人类的童年,进入到后人类时代。
随着技术的发展,关于“人”的概念也在不断拓展与更新。对于科技发展与人性的关系,这里有两个问题亟待解决。首先第一个问题是科技是否使人变得更加像人,成为更加完善的人。第二个问题是科技是否使人失去了人的本质,伤害了人类的尊严。
古希腊哲学家亚里士多德认为自然是具有内在的目的性的,一切自然物都具有其目的性,然而,自然的合目的性并不是来自于神的意志,而是可以用人类技术方法进而引伸出来的。因而科技的进步可以弥补人性的缺陷,进而使人类更趋近于“完善”。这也正如卢梭所宣扬的“完善性”的概念,表明人类并没有被大自然设定,无限期的进步是可取的,人类必须不断突破自然的局限,需要推动人的生物性的进步,也必须重新塑造自己的命运。通过各种技术手段帮助人类变得更加完美,改善局限与弊端,这种仅仅是想改善以及消除不自愿的痛苦,并不是牺牲人性,反而是加强人性,是人性发展的需求。人类的潜力还远远没有得到挖掘,也没有得到完满实现。人类是可以无限完善的,进步是无止境的,这既是可能的也是可取的。通过一些确实可行的方案能够改善人类的生存状况何乐而不为。肯定人类是拥有无限的完善性的,就像古典人文主义所认为的那样,人并不是从最初就被固定在某个决定性的、不可触碰的本性里的,并不会像动物那样被共同的自然本能所引导[3]37。从最初的人类诞生开始,人类就在不断地改变和塑造自身以及周边的一切环境,人类的各方面能力也在发生着改变。正如物理学家弗里曼·戴森所说:“人类只是一个华丽的开始而不是最终的定局。”人类是进化的产物,但是这种自然选择的进化并不会创造出和谐“完整”的生命体。相反,自然进化的人类是一种过渡性的尝试,有很多不确定因素的存在,总有一些天然的设计缺陷的存在,而这些自然进化的弊端并不能给人类带来福祉。质疑人类的生物局限性,希望通过挑战衰老和死亡的必然性,力图逐步完善人类的智能、体能以及情感的成长。这是倾向于通过结合科技手段来挑战人类的极限,是以追求幸福而不是外在权威为中心的价值观。例如衰老的问题,如果有可能的话,几乎所有的人都希望自己能够永葆青春,这种想法也代表了人们对于衰老的态度,因而需要让人们获得解放的使用权而不是使人受到束缚的所有权,把人类从各式各样的异化和束缚中解放出来。人类现状只是人类进化发展过程中的一个过渡阶段,通过科学技术来加速人类的进展过程,挑战自然和传统对人类的可能性所设下的限制,缩短从人类阶段发展到超人类或者后人类阶段的过渡时间并不是盲目地追求完美,仅仅是改进或者提高人类追求幸福的能力。这种通过技术对人类的增强并不是以破坏为目的,也不是仅仅追求从本质上进行超越或颠覆为目的,而是切实为了改善人类的生存状况,减轻人类不自愿的痛苦,充实人类的生活为最终目的,其本质是使人类更加人性化。从某种意义上来看,高新技术的参与有可能使人性更加完善。用科学技术完善世界本身并不是目的,而只是一种手段,是以此来实现人类的自由和幸福的民主化,也就是使全人类都能够获得自由和幸福。马克斯·摩尔在《论成为后人类》一文中说到,“人类不应该止于此,人类只不过是演化之路上的一个阶段,并不是自然界发展的巅峰,因此需要挑战那些阻碍人类潜在进步的生物上、遗传上以及智力上的传统制约”[3]55。大多数人会因为一种无意识的、因受宗教等传统文化思想的影响而预先形成一种认知倾向,理所应当地认为自然就应该是它本来的样子,即现存的状态。且认为这是一个永恒且不可触碰的设定,自然的神圣化是道德准则,在任何情况下都不应该想着去挑战它的自然性,对生命体的任何操纵都是亵渎。然而,虽然人身是一个未经选择的被给予的自然事实,这个自然事实是客观存在的事实,但并不是固定不变的标准规范,可以算作是有形的天赋,但并不代表伦理价值。如果将来某一天真的可以通过高新技术延长人类的生命,延缓人类的衰老进程,增强人类的智力、体力和情感,能够解决很多当下难以解决的难题,难道就是因为“这不自然”就要先验地剥夺选择的权利?纵观人类的发展史,一次次取得的辉煌成绩和难题的攻破都是与自然选择的“瑕疵”做斗争的结果。因而,科技的发展与进步并不会导致人性的丧失,而是使人性更加完善。
在任何一个科研领域,或许都存在一些不该去触碰的东西。而人类增强也不例外,人类增强应该关注的是有助于为人类社会谋福利,有助于人类自身发展的增强技术,而不应该关注于创造出具有自我意识,能力全面超越人类,并且将不再能被人类所控制的“超人”工具。超人类主义的定位,到底是强调人权和民主的“启蒙思想”?还是创造一个完全不同于今天人类的新物种?是对当前人类的延续还是决裂?有些极端超人类主义者强调的是一种真正的后人类主义,主张的信念并不是简单地改善当前的人类,而是制造出一个不同的物种,这种新的物种可能会远离人的本性,超出人类的范畴,称之为“后人类”。这种极端的后人类主义者所宣扬的不是改善人类的缺陷,而是希望在智力和生物功能方面能远远超越人类。这种后人类几乎不再具有基本的人性,因为它不再是根植于自然生命,而是“去物质化”,放弃了生物性基底,是把计算机介质作为人的意识存在的依托,使人变成了机器。这种利用科技追求人类的完美貌似是人类个体的解放,实则可能会导致维系人类社会的道德基础的坍塌,从而造成社会的无限混乱。人体是在大自然漫长的进化过程中不断调整形成的一个均衡的整体,如果因为想追求尽善尽美而增强人体,破坏人体的均衡结构,这种冒险的行为是不正确的。如果技术改变自然之所是,所凭借的依据是人类的欲望,而不是对自然的绝对的认知,而且人类也不可能拥有这样的全知,那么就是在摧毁道德的自然基础。通过逐步“物化”实现的人类各种能力的增强,会使人类成为具有高技术含量的“技术物”。当人越是“技术化”或者“物化”,对技术的依赖就会越强,人就越可能异化。正如林德宏[4]在《“技术化生存”与人的“非人化”》一文中所提到的,在人的“物化”加速强化的背景之下,人与物的界线将不再清晰明确甚至将不再存在,人将失去它自身的本质,人将在“物化”的过程中消失,成为“非人化”。通过技术化手段把人优化为超人,其技术目标是通过改善人类的器官功能进而获得无限的潜能。那按照科学技术发展的自身逻辑,其必然会无限制地尽量取代更多,从取代人的躯体、智慧、情感,到取代人的信仰和社会角色、社会地位[5]。当人失去了作为人本身的自我意识和主体价值,成为仆从,必然会威胁到人是否能够保持其主体性。因此,对于人类增强的问题,我们并不是要提倡“超级人工智能优先派”[6],把创造超级人工智能作为第一优先事项,认为超级人工智能应该替代人类,甚至不理会人类是否会由此灭亡,主张不对超级人工智能做任何限制,而是强调人类有更多的潜能需要进一步开发,这就不能仅局限于传统的人文方法,通过发展教育和文化从而达到人类的进化,而是可以使用现代技术手段,最终使人类的活动超越人类所能想象的范围。人类可以利用合理的手段来改善人类的现状和外部的环境,当然也可以使用这些高科技手段来提高人类的人体机能。超人类主义关注人类的自主性,强调每个人都应该拥有按照自己认同的价值观来塑造自己、塑造自己的生活以及自己与他人的关系,每个人都应当拥有计划和选择自己生活的能力与权利。当然也包括可以因为某些个人原因而主动选择放弃使用技术进行自我提升的机会的权利。但无论是选择通过技术方式快速改进自己还是选择维持原样,这些个人的选择都应该得到尊重。超人类主义者并不是要通过技术使人非人化,通过技术“去物质化”,进而放弃人类生物性基底,而只是想强调人的自主性。人类的进化遵循的自然选择是一个充满缺陷且被动的选择方式,人类只能在当前环境中进行适应性的生存,往往还会困于情境之中无法改变。当从生物的进化转向科学技术的进化时,不仅可以加速人类进化的速度,缩减进化的时间,而且还可以扩展人类的能力,使人类具有更强的自主性和有意识的选择自由。通过开发人类的某些潜能从而使人类过上更加完满幸福的生活并不是想要对控制一切的欲望的渴求,也更不可能是为了要改变人性变得非人化。
技术科学领域正在兴起的这些变革将影响人类生活的各个领域。虽然社会的发展与进步需要积极地发展人工智能技术,但是对于技术的发展需要正确的导向,对于技术万能论以及技术至上论等技术观需要进行理性对待。科学的进步与发展具有双面性,既有可能带来不可否认的益处或者巨大福祉,也有可能产生难以承受的噩梦和后果。但我们需要去积极面对,并且更好地监管他们的发展动向与进程。因此,在这些活动中,监管就显得更加至关重要了。需要对其进行监管,力求规范,设置限制,避免全盘否定或者全盘肯定的简单化逻辑思路。当然该领域的规范难度超过任何其他领域,如果监管不力,或将会影响“明日的人性”以及更加深远的未来的人性的成型。有些技术方案是激进的,有些则是比较有分寸的,但是所有的进步都是变化着的,然而所有的变化并不都是进步的,因此需要投入精力跟踪监管,监管其变化着的过程而不仅仅只是结果。通过多方面的综合考量,以降低风险,并能够促进其益处的发挥。现代技术危机的实质并不是技术本身的危机,而是价值危机和伦理危机。因而需要建立具有建设性的讨论机制,其决策必须由有责任感的、谨慎对待利益和风险的、尊重自主权和个人权利的、关注所有人利益和尊严的道德眼光来引导,必须关注子孙后代的利益,需要承担相应的道德责任。
在政策调控方面,需要加强动机溯源和后果预测[7]。防范这些风险不能只寄希望于科学家的自律,更需要政府加强法律的监管。政治界绝不能把所有问题全部都推给伦理委员会,因为伦理委员会权力的合法性和有效性并不是非常完善,所以必须要放在政治生活的中心,设立相应的创新部门,并且设专门的委员会加以监管。通过召集各个学科的有关学者专家进行有理有据的讨论来充分知情,这显然是可以创造一定的条件来进行监管调控的。在关于对人类安全至关重要的事情上,有必要拉长论证和听证的过程。因为该领域的问题涉及的不只是个别公民的权益而是会影响到整个社会的发展甚至是子孙后代的生存状况,只有知情的国家政府才有权力可以合法地做出最终的决定。政府需要给科学研究制定一般的规则、维持稳定的秩序,并且需要限定个人主义逻辑的边界。如果条件允许的情况下,应该把科学研究的目的与获得受益之间的经济利害关系进行严格监控,避免技术人员与经济利益发生直接的联系。并且对于需要投入应用实验的审批权也不能由各单位或医院的伦理委员会来批准,应该交给较高的、统一的权威机构来进行定夺。当然除了各国自己制定的伦理法规之外,我们还应该努力寻求制定国际间统一的伦理标准和有普遍约束力的法规来进行相关监管和引导[7]。对于超人类革命的到来,我们需要的是严肃理性地探讨其优势以及将要随之而来的风险性,既不能盲目的乐观,也不要过度的绝望。
个人的自主权和责任应该与自体实验相辅而行,也就是个人需要对自己的自由决定的后果负责任,科学实验和自我改造不可能没有风险,就像其他任何领域的创新发展一样,都有其风险性的存在。但是我们不能因噎废食,我们需要的是能够主动评估这些潜在的风险和受益,从而在一定的界限内能够自由做出自己的判断和决定,并且能够为这些风险的后果承担相应的责任,而不是将所有的一切都交由他人代为完成,将关于自己的安全的选择权和是否采用的个人决定权强加于他人。当然也需要将个人自由选择的改善逐渐引向社会和人类的整体改善。在科学研究只停留在理论层面而没有得到对其全面综合地评估之前,不能冒险急于投入到实践应用中去,更不能为了追求在利益和名望上的变现,而罔顾社会责任。正如功利主义所言,一个行为的好坏,不是因为只着重看它是否能够满足个人的利益,而是要看它是否能够在最大程度上实现最多量的幸福。如果一个行为能够增加人类的幸福或者福祉的总量,那么它就是正确的;如果一个行为导致幸福总量减少或者降低了人类的福祉,给人类带来了痛苦,那么它就是错误的。人类无论在任何阶段、任何时期都是把无限追求幸福作为奋斗的目标的,基本上都是尽可能最大化地趋向于快乐和舒适,回避或者拒绝疾病和痛苦。当然最重要的是要关注整体的利益,而不仅仅是只关注个体的个人利益,需要权衡幸福或痛苦的总量。因此,对于超人类主义革命的到来,我们不仅需要关心现实与当下,还要关心子孙后代的未来,尽可能做出正确的决策与行动。
对于科技的发展,我们不能非此即彼,采取极端的态度,而是应该采用审视和适应的态度来面对。徐向东[8]在《人类增强技术的伦理审视》一文中提到“我们需要关注的根本问题并不是生物技术本身是否会对人类造成威胁,而是人类是否能够用一种对其自身的未来充分负责的方式来应用生物技术。”对于人类增强技术的发展所产生的争议并不是“要不要”发展技术的事实判断,而是“应不应该”的伦理价值表述。在美国生物学家爱德华·威尔逊看来,“虽然人类只是进化链条上偶然出现的物种,是随机变异和自然选择的产物,但是我们现在已经是地球的头脑,有拯救或者毁掉它的能力”[9]。当人类选择以自由意志主导人类的进化过程,必然会涉及到人类独有的想象力、认知思维方式以及创造力,然而这些能力如何合理运用则依赖于人类自我认知的准确性。因此,需要为此设计出社会的、伦理的和话语的新方案,以适应当下正在经历的深刻变革。