新时代高科技伦理的困境与应对(下)

2019-01-26 16:04
中国科技论坛 2019年2期
关键词:伦理人工智能基因

致毁知识增长与科技伦理失灵:高科技面临的巨大挑战与机遇

刘益东 中国科学院自然科学史研究所研究员

近年来,高科技在快速发展的同时,科技风险、科技伦理问题也越来越成为社会各界热议的话题。2018年新学期开始,哈佛大学、斯坦福大学、MIT等美国高校开设人工智能伦理、数据科学伦理、技术伦理、机器人伦理等新课,这是对公众因人工智能等新技术感到担忧的回应。国内科技伦理研究也纷纷上马。人们普遍认为,只要加强科技伦理研究和实施,就可以解决科技风险问题。但是,这也许是一个错误判断。笔者提出 “致毁知识”概念并以其增长、传播、扩散、应用、禁止、治理等为研究对象开展科技巨风险研究至今20年,主要结论是:在知识极易扩散的互联网时代,科技伦理因不能约束所有研发活动而失灵,目前兴起的基因技术伦理、人工智能伦理等尖端科技伦理难以奏效,这是世界面临的史无前例的严峻挑战!本文主要探讨科技危机、科技伦理失灵与科技总体安全观和科技底线伦理,以及高科技面临的巨大挑战与机遇。

1 致毁知识增长和科技伦理失灵导致的科技危机是人类面临的最大危机与挑战

1945年原子弹爆炸后, “科技发展下去将发生毁灭性灾难甚至毁灭人类”逐渐成为流行的观点,但并没有得到学术界和社会主流的认可,迄今科技发展的乐观派仍是社会主流。笔者于1999年提出 “致毁知识”概念,并以其为研究对象开展科技巨风险研究。所谓致毁知识是可用于制造毁灭性武器等导致毁灭性灾难的各种产品或方案的核心原理、核心技术等核心知识,如核裂变知识、链式反应知识、DNA重组技术和基因编辑技术。核心问题包括三个前提和一个问题,三个前提是 “尖端科技的正负效应不可抵消、科技知识增长不可逆、知识与应用具有连锁效应”,一个问题是 “在科技知识增长的同时,能否阻止其中一类破坏力极大的科技知识——致毁知识——的增长与扩散? 能否有选择地生产知识?能否有选择地进行创新?”尖端科技正负效应不能抵消、不能弥补,即无论尖端科技的正面效应(如核电站、核医学)多大,也无法抵消、无法弥补其负面效应(如核武器灾难、核事故),是 “一坏遮百好”,是可以扬长却不能避短。研究表明,致毁知识增长与扩散是不可逆和不可抵消的,在目前世界主流科技与经济发展模式下,致毁知识的增长与扩散又是不可阻止的,这意味着人类面临毁灭的危险是不断累加和递增的,达到一定程度必然会发生毁灭性灾难,而且这种不可逆增长的危险累进方式,使得毁灭性灾难发生的几率越来越大,如不及时制止,必然直至爆发。这是科技的生存危机(简称科技危机),也是人类面临的最大危机和挑战。

2 科技伦理失灵

为了治理科技风险,容易想到的是加强科技伦理研究和实施。但是,笔者注意到:实际上科技伦理并不能约束所有科技专家和所有实验室的科研行为,使本应禁止的某些科研活动得不到有效禁止而使得科技伦理失灵,在知识极易扩散的互联网时代和尖端科技领域,科技伦理失灵尤为严重。科技的特点决定了只要不能约束所有人的研发行为(如不能约束军方和创客、黑客),少数人研发的成果同样可以扩散而导致科技伦理失灵,因为一项科研成果被发现1次和被发现100次是一样的。这与社会生活不同,社会上大多数人遵循伦理就有较好效果,少数人违反伦理的危害是有限的。法律硬约束都难以禁止违法之事,伦理软约束更是难以限制,学术研究的复杂性为阳奉阴违者提供了借口和便利。可见科技伦理有效的条件十分苛刻,在目前条件下,尖端科技在法律保护下用于军方武器研发是不可避免的,黑客、创客不受伦理约束,企业研发机构也不会因易于有危害的转化而束手束脚,科技伦理失灵是不可避免的。霍金、伊隆·马斯克等上千名知名科学家和人工智能专家于2015年签署的公开信指出,AI武器将在几年内就会出现,这将带来极大风险,警告不要进行AI军备竞赛,敦促联合国发布针对 “攻击性自动化武器”的禁令。显然,这项努力不会奏效,因为无法禁止军方进行防御性AI武器的研发,更不能禁止黑客和恐怖分子进行武器研发。军方研发的AI武器的核心知识 (即致毁知识)很容易扩散,与制造核武器依赖稀缺的原材料不同,制造AI武器、基因武器并不需要稀缺的原材料。以基因编辑技术为例,有一定高等教育背景和生物学基础者,两年左右就能够掌握,生物创客、极客、极端分子、军方研发以及一些不顾及科技伦理而研发容易转化为生物武器的产品的高科技企业,都可能制造基因武器或类似产品,危害社会。因此,加强科技伦理研究和实施、让科学家遵从安全规范、加强安全监管等措施并不意味着就可以解决科技风险问题,实际情况要复杂得多、严峻得多,要面对科技伦理失灵和安全监管失灵这些不利条件,思考真正有效的应对之策。

3 科技总体安全观和科技底线伦理

为了应对科技伦理失灵,笔者提出科技底线伦理作为新的科技伦理,它基于科技总体安全观,科技的总体安全包括底线安全、人类安全、可持续安全。底线安全就是即使军事应用、恶意应用和滥用也能避免或也能承受或也能化解的科技才是可以接受的科技,一项科技是否应该发展首先不取决于其正面效应,也不取决于为其采取了多么严格的安全规范和安全措施,而是首先取决于其负面效应的严重性,取决于社会能否承受、化解、抵消该科技的负面效应。在此基础上,笔者提出科技底线伦理,它是为了实现科技底线安全与可持续创新所规定的科技工作者及其共同体应恪守的价值观念、社会责任和行为规范。科技底线伦理包括四项基本原则:①以不能威胁人类生存为最高原则,凡是与此相悖者,必须改变或停止,因此需要确立技术有禁区、科学也有禁区的原则,因为科学上的突破可能会被用于技术开发,越是威力巨大的科学发现越是如此,原子弹的研发就是明证;②科学研究底线安全原则,基础研究等科研要确保致毁知识零增长,因为正负效应不能抵消,所以尽管会出现不可预知的好结果,也不能抵消坏结果,因此只要有可能产生危害社会的成果就应该叫停,如 《中国科学院关于科学理念的宣言》所述 “要求科学工作者更加自觉地规避科学技术的负面影响,承担起对科学技术后果评估的责任,包括:对自己工作的一切可能后果进行检验和评估;一旦发现弊端或危险,应改变甚至中断自己的工作;如果不能独自做出抉择,应暂缓或中止相关研究,及时向社会报警。”例如,即使人工智能不超过人类,只要人工智能发展下去要产生致毁知识,就必须叫停;③技术开发底线安全原则,以知识扩散不可避免为前提制定措施,例如,只要人工智能武器 (即使以防御为目的)被开发,其核心知识就迟早会扩散到社会,为恐怖分子等所利用,因此必须禁止研发人工智能武器,如果无法禁止,则科技界不能继续相关研究以避免被用来研发人工智能武器;④全体持续底线安全原则,尖端科技是扬长不能避短、正负效应不能抵消,需要全体研究者长期恪守底线,独善其身是不能解决问题的,如果无法做到,就只能广泛设置禁区群加以强行限制。

综上所述,重视科技的底线安全极为必要。以人类视角考虑,目前拥有的科技已经很多,如果善用已经可以给人类相当多的便利和福祉,冒着越来越大的风险去发展尖端科技是否值得?至少发展那些高危的尖端科技肯定得不偿失。当然,如果用个人 (科学家等)视角、集体 (包括企业和国家等)视角考虑,则是宁可在争议中冒险发展。显然,用人类视角思考人类未来更合理,更符合可持续发展的长远需要。值得注意的是,科技发展的乐观派与悲观派是不对称的,如果作为目前国际国内的主流看法的乐观派是正确的,未来发展就是趋势外推,则我国将在相当长的一段时间内处于追赶西方发达国家的状态之中;反之,如果笔者的研判正确或基本正确,则局面完全不同,西方发达国家因路径依赖、积重难返而难以及时转变,我国却具有后发优势,可率先发动以社会科学与交叉科学崛起为特征的新科学革命、以受控技术崛起为特征的新技术革命、以智库与文创产业崛起为特征的新产业革命,完全可以彻底摆脱修昔底德陷阱,建立人类视角下的人类命运共同体,引领世界的和平发展和永续繁荣。

人工智能安全风险挑战与法律应对

袁立科 中国科学技术发展战略研究院科技预测与评价研究所研究员

当前,人工智能技术迅猛发展,表现出与人类历史上以往技术变革迥然不同的特征,正在重塑人类的生产和生活空间。人工智能不仅具有深度学习能力,而且将具有主动学习与创新能力,未来甚至可能拥有超级智能。人工智能的发展促进了人类社会进步,同时也将引发社会变革和各种新的风险,应该未雨绸缪、规范先行。

1 人工智能技术正从监督学习走向强化学习,未来可能出现超级智能

2017年10月18日, 《Nature》发表DeepMind的围棋人工智能新成果AlphaGoZero,不需棋谱数据和先验知识,通过强化学习算法创新以100:0完胜AlphaGo,探索了特定应用中不依赖领域数据,通过自我学习获得强大推理决策能力的人工智能技术发展新路线。2018年12月7日,DeepMind的最强棋类算法 AlphaGoZero 作为 《 Science》封面论文发表,正式引入学界和公众的视野。而且,除了围棋,AlphaGoZero自学了另外两种复杂棋类游戏——国际象棋和日本将棋。AlphaGoZero不再被人类认知所局限,能够发现新知识、开发新策略,它让深度学习用于复杂决策更加方便可行。从AlphaGo到AlphaGoZero,体现了机器学习技术的快速迭代和进步方向。2017年10月26日,沙特阿拉伯授予美国汉森机器人公司生产的机器人 “索菲亚”公民身份。这件事目前更多的是一种噱头,它给我们的启示更多的是提醒我们人工智能未来发展出超级智能的一种可能性,并引发人们对出现这种可能之后需要如何应对的思考。

2 人工智能冲破人类控制的风险初现端倪

人工智能的发展具有阶段性,其可能引发的安全挑战也表现出不同特点。目前,人工智能正处于从弱人工智能向强人工智能逐步发展的阶段,近期更多的是需要应对技术的不完善或滥用带来的安全问题;远期需要防范其可能产生超级智能而带来的不可控性。

一是算法模型的复杂性,易导致结果不确定性。以深度学习为代表的智能计算模型体现出很强的学习能力,但目前的机器学习模型仍属于一种黑箱工作模式,对于人工智能运行中发生的异常情况,人们往往很难对其原因做出合理的解释,开发者也难以准确预测和把控智能系统运行的行为边界。如2017年人机围棋对弈中,AlphaGo多次弈出 “神之一手”,很多人表示难以说清楚其决策的具体过程。而且,从监督学习进入到强化学习,没有任何人类知识的AlphaGoZero在自我对弈的初期常常出现一些毫无逻辑的诡异棋局,后期也会有出其不意的打法。当越来越多的智能系统替代人类做出决策、影响大众生活的时候,人们需要能够对其结果的合理性、安全性进行准确评估。

二是技术滥用、管理缺陷引发的安全威胁。人工智能技术本身并无好坏之分,运用结果取决于人们使用的目的与管理过程。政府和职能部门、网络服务供应商、商业公司,如不能公平、正当守法使用和管理隐私数据,将引发 “隐私战”。从全球来看,谷歌、苹果、微软等通过收购等方式,不断聚集资本、人才和技术垄断优势,形成 “数据寡头”或 “技术寡头”的趋势增强,可能会产生 “数据孤岛”效应,影响人工智能发展的透明性和共享性,与政府的博弈将越发激烈。

网络黑客可能会通过智能方法发起网络攻击,加大个人、企业、政府网络运行管理风险,影响社会稳定。智能化的网络攻击软件能自我学习,模仿系统中用户的行为,并不断改变方法,以尽可能长时间地待在计算机系统中。如果安全防护技术或措施不完善,无人驾驶汽车、机器人和其他人工智能装置可能受到非法入侵和控制,这些人工智能系统就有可能按照犯罪分子的指令,做出对人类有害的事情。

三是超级智能的出现会带来巨大的不可控性。随着人工智能的快速发展,智能机器人拥有越来越强大的智能,在很多能力上都将超过人类,而没有自我意识的人工智能终将是人类的助手。比尔·盖茨、斯蒂芬·霍金、埃隆·马斯克、雷·库兹韦尔等人所担忧的远期风险是,未来机器人或其他人工智能系统能够自我演化,并可能发展出类人的自我意识,从而对人类的主导权甚至存续造成威胁。尽管我们还不清楚这种超级智能或 “奇点”是否会出现,但考虑到技术发展的不确定性,仍需要在法律制度、伦理规范等各方面做好充分准备,并在没有把握对其能够妥善应对之前,避免人工智能向这一方向发展。

3 人工智能安全发展亟待规范先行

人工智能的迅速发展将深刻改变人类生活、改变世界,给当前的法律规则、社会秩序、道德标准和公共管理系统带来前所未有的挑战。在民事主体法律、侵权责任法律、交通法律、劳动法律等诸多方面,不仅缺乏有效的法律产品供给,而且与现行的法律秩序相冲突,甚至颠覆我们已经构成的法律认知。人工智能技术的发展可使犯罪工具和犯罪手段更加智能化,违法行为危害性正在发生 “量变”,甚至引发 “质变”,新的违法犯罪形式也会层出不穷。因此,需主动应对其技术发展的不确定性所带来的新的风险和治理挑战,一方面从国家法律规制、科学家自律及社会监督等方面规范先行,提前布局、审慎应对;另一方面要从技术上对人工智能的发展有所制约、有所设计。

一是分步骤、有序推进人工智能立法。人工智能技术发展迅速,渗透到经济、社会的方方面面,意味着立法者必须全面审视现有法律框架,并使其适应不断变化的社会需求。按照 “急用先立、成熟先立”的原则,针对新产业新业态的发展需要,加强对现有法律法规的修订和解释工作。同时可以由国务院等部门出台个人信息保护、数据资源管理等法律条例,之后在实践中修改完善,待条件成熟后再上升为国家法律。在已经商业化或产业比较成熟的人工智能特定应用领域,如无人机、机器人等,基于地方和行业出台的一些临时性应对政策基础上,国家层面应加强研究储备,适时出台统一法规。

二是构建国家法律规制、科学家自律及社会他律监督, “三律结合”的规范调控体系。开展 《人工智能安全保障法》前期战略研究,制定出台 《人工智能研究开发安全保障管理细则》,推动试行 《人工智能及机器人推广应用管理办法》,在国家层面建立一套公开透明的人工智能监管体系,实现对人工智能算法设计、产品开发、数据采集和产品应用的全流程监管,确保算法及其决策可以有效接受中立第三方或者监管机构的审查,实现算法决策的透明性和公平性。制定 《人工智能安全与伦理准则》,引导行业组织发起设立人工智能发展自律公约,将价值与规范嵌入人工智能系统。

三是立法设立负面清单,防范人工智能 “作恶”。加强前沿智能技术预测、研判,研发更为透明、可解释性更高的智能计算模型,降低智能系统行为的不可预知性和不确定性。对人工智能的发展规划和前沿技术的研发进行审慎评估,在可能引发人工智能不可控发展的技术领域,立法设立红区或研发限制规范。同时,研究人工智能自我终结机制,从底层固件构建 “安全防火墙”。

四是积极参与人工智能全球治理和安全国际规则的制定。宜贯彻人类命运共同体理念,支持科研团体、专家学者、企业广泛开展国际人工智能安全发展合作,主动搭建人工智能国际法律、政策等制度建设合作平台,积极参与国际标准和规则制定。针对机器人异化和安全风险管控、治理等重大国际共性问题,加强立法政策研究,提出中国方案,贡献中国智慧,发挥中国作用。

伪生态的伦理与教育分析

范春萍 北京理工大学人文学院编审、教授

随着生态环境问题加剧引发的公众焦虑和生态意识觉醒,以及国家对生态文明建设的强调, “生态”具有了符号、导向、履行职责、回应诉求,以至时尚的功能。然而,与实质性生态文明建设需要相匹配的 “真”生态素养、生态教育、生态判断力、生态决策力等却都没有跟上。此时,出于政绩需要、包装过关需要、眼球博彩需要、附庸风雅需要等,及至出于真心想做些生态建设的愿望却因缺乏相应判断力而走向反面的情况,许多产品、课题、工程、商业行为等,都穿上了生态的外衣,致使伪生态大行其道。

1 伪生态及其危害

所谓生态,是指地球生物圈或区域生境中生物的生存状态以及生物彼此之间、生物与环境之间的相互关系,后被引申到不同领域,用以指代系统或人群的相应状态和关系。由于原本研究的是在未受干扰的自然情境下的状态和关系,因此在不同语境下, “生态”一词常被用来指代或形容生态状况的好,或某些产品、举措、行为等符合生态要求。

在这个意义上, “伪生态”即指或貌似或假借或伪装生态,实质却是非生态、反生态、毁生态。环顾周围人工环境和社会事务,小到种草植树铺路,大到前沿重大科技工程、政府工作规划,伪生态现象如同魔咒附体,鬼影幢幢。

有时, “生态”和 “环境”在一些语境下,可以互用。与伪生态相应的,还有伪环保,道理相近,如出一辙。

例如:社区或校园中,原本野草野花乔灌交映、蜂蝶齐舞、鸟鹊合鸣,非常丰富的一块自然生境,却无端地被荡涤干净,种上清一色的单一草坪、矫饰的盆栽,或等距或错落地码排上单品种松、柏、银杏之类 “美化”树种,再装点些彩灯、喷泉;甬路铺设透水砖,下面却是水泥垫底;打着生态建设旗号的城市河湖景观性修复;大树进城,根雕艺术,等等。

另如,一浪高过一浪的 “调水济疆” “重建新疆美好生态”运动:先有 “泵渤海之水西上”的 “引渤入疆工程” “挖隧道引藏水入疆”的 “红旗河工程”,后有号称天地一体、以航天卫星协同监测,从空中搬运水气入疆的 “天河工程”。专家大佬齐上阵,你方唱罢我登场。

又如,许多占有强势区位或财大气粗的地方政府,在做自己的区域规划时,纷纷把远方的水源规划进去;一些生态建设示范区的规划、一些海洋生态项目的规划一点儿都不生态,有的甚至直接说 “生态搭台经贸唱戏”;还有生态学家为了长江黄金货运水道,带领团队论证必须炸掉包括南京长江大桥在内的沿江十几座 “矮桥”,改建可以让万吨以上巨轮穿桥而过、直达重庆的 “高桥”。

再如,许多理论,或为理论探寻本身,或在以理论作为政策支撑的研究中,在 “以人为本”框架下,导出的许多结论不仅伤害生态,而且最终必将伤害人类。

伪生态比直接明了的生态破坏危害尤甚。因为技术演化到今天,已经到了只要人类行动就会伤害生态环境的程度。尽管如此,考虑生态因素的行为和举措也还是会比不考虑有所不同。如果某事项因确有其他不可抗拒的理由而必须做,那么明确讲清其可能会对生态环境带来什么样的破坏,可能在未来形成什么样的伤害,就可以在规划中尽最大可能地减少伤害和破坏,起码预先规划出对伤害和破坏的某些补救措施。如果经过严谨、诚信的评估,判断对自然形成的负担超过生态承载力,或伤害不能消除,则可以改变或取消规划。而伪生态打着生态环保的幌子,混淆观念、蒙蔽视听,将舆论导向、经济生活和生态文明建设等引向歧途。而事情一旦走入歧途,再想校正回来代价相当惨重,将不但造成庞大的经济损失,浪费健康发展的机会,而且所造成的进一步的、环环相扣的生态破坏基本不可逆。

2 如何辨别伪生态

辨别伪生态的第一法宝是生态伦理学宗师利奥波德 (Aldo Leopold)所指出的 “像山那样思考”:想一想自然生态系统本来的样子、应该的样子;问一问如果这样做, “山”会有什么感受;所造成的自然改变有没有办法补救,所阻断的自然循环有没有可能代偿?单因素代偿够不够,其他因素有没有考虑周全?

这里需回顾一下利奥波德领悟到的自然奥秘的残酷故事。20世纪40年代下半叶时人类对自然界的认识还很有限,认为狼是有害的,杀死狼可以保护鹿,没有狼的世界就是猎人的天堂。那时的美国人,都以射杀狼为正义之举。利奥波德在沙郡农场进行土地恢复实验期间,某一天,他看到悬崖下一只狼从河水中爬上岸,六只小狼欢天喜地地簇拥过来迎接母狼。枪法不太准的利奥波德扣动了扳机。当来复枪内的子弹射光之时,他看见母狼倒了下去,小狼们逃散,一只小狼拖着伤腿躲到岩石背后。利奥波德来到母狼前,撞见母狼眼中难过、惊惧、垂死的绿光,他从这双狼的眼中看到了某种他从前不曾领悟的东西: “那似乎是只有母狼自己和山才了解的东西。”自此以后,利奥波德再未杀过狼;他开始努力从狼和山的角度理解人与自然的关系。利奥波德还专门为杀狼的事写了一篇著名札记 “像山那样思考”,进行了诸多伦理考察和理论研究,提出大地伦理概念;提出人类应该与自然和谐相处,共同生活于大地之上。利奥波德的 “大地” “山”,就是今天所说的生物圈、生态系统。

人类历史上像美国人杀狼造成鹿泛滥、植被被啃光、饿死的鹿尸横遍野,生态系统遭到全面破坏,不尊重自然规律,唯我独尊受到自然惩罚的例子比比皆是。自然生态系统经过亿万斯年的进化发展到今天,是承载人类所有活动、所有生存条件的依托,是不可取代、不可再生的。而今,生物圈已经处于崩溃边缘,再也承受不了更大的破坏了。

人类今天必须明白一个道理:只要违背生态规律,特别是试图大范围、大跨度地改变自然面貌,不管披着怎样的高科技外衣、举着多大的专业招牌、打着怎样的生态幌子,都可以判断其是伪生态的。伪生态会为腐败或蛮干者庇护遮羞,影响公众共识、影响健康的文化基因传承、影响国家决策,贻害无穷,更使生态文明建设、可持续发展沦为空谈,必须扼制、抵制。

3 伦理和教育分析

伪生态大行其道,究其原因无非两种情况:一是无德;二是无知。这种无知有时单纯地表现为知识缺乏,有时是知识结构偏颇并以此导致不同的价值观,形成不同的判断。

无德与大小官场懒政、腐败互为因果,其中也关联着 “以学术权力谋取非学术利益、以非学术权力谋取学术利益”的学术腐败。无知导致严重的能力缺位,致使无从判断所做事情的生态后果。管理部门常从程序正义出发依赖一些专家、智库决策,而这样的专家们也存在两种可能:一是知识结构不合理造成判断偏颇;二是怀着某种小心思、大图谋,与利益相关方互通款曲。最后的结果就是,伪生态上马,生态遭到破坏,当代人的生存环境、后代人的发展希望双双被葬送。

事关职业和职责的所谓伦理,无非相关者各明其责,各担其责。明责、担责者符合伦理,混淆视听、推诿责任,胡作为、乱作为者,或假公济私者,则违背伦理,亦为无德。而现状是,许多情况下,只管程序、符号合规,而不顾实质责任是否得到了履行。特别是有些真专家充当伪生态工程的开路先锋,以生态学家身份从事伪生态工程的调研论证,竟还是一幅洋洋自得的架势。

担责的前提是明责,而生态职责的明了,与是否具有相关知识高度相关。对于因无知而造成错误判断、错误决策的情况——只要明责即会担责的情况,需要也可以通过生态教育来解决。另一种情况就是因无德而有意造成错误决策的情况,不仅事关生态(环境)教育,还关涉伦理教育。

生态教育的目的在于使受教育者了解生态知识、掌握生态规律,能够理解 “山的想法”。这样的教育,一方面要通过书本知识学习,另一方面也需要走进大自然,在与自然的接触中领会,这一点对于从小没有机会接触自然的 “城里人”尤为重要。生态教育是非常紧迫的事情,真正的千年大计、万年大计,应该从幼儿园到大学都安排这样的学习程序和学习机会。

相对于生态教育,伦理教育则复杂得多。因为生态教育更多的是知识的学习和领会,而伦理涉及人的品德、灵魂和价值观,有时又与利益纠扯在一起。而价值观,是需要达成共识才能形成引领社会行为的价值取向的。

中国的伦理教育需要完成的是启蒙任务,是一个叠加人类第一次启蒙和科技高度发展、生态系统面临崩溃危机所要求的第二次启蒙的紧迫任务,是需要政府、学界、社会各界真正重视,所有人参与讨论、相互启蒙才能完成的任务,非常艰难。

综上,对于伪生态这样严重的问题,应该警醒并提上解决日程。

以法律制裁侵害社会的科学

田 松 北京师范大学价值与文化研究中心、科学史与科学哲学研究所教授

贺建奎之基因编辑婴儿事件,是一个标志性事件。它标志着中国公众对科学活动之基本态度的方向性转变,从无条件相信走向怀疑和质疑。从科学和伦理的逻辑,基因编辑婴儿与转基因只有程度的差别,所有用来反驳反对转基因的理由,都可以用来反驳对基因编辑婴儿的反对。

你说技术上不可靠、不成熟、不必要;他就可以说,技术要进步,进步就需要探索,探索就要有代价,总得有第一个,不能因噎废食。你说政策上不允许,他可以说政策也是会变的,还动不动就拿布鲁诺做例子。你说伦理上不允许,他可以说伦理总是滞后的,以前不合乎伦理的,现在也被接受了。以前对人体胚胎严格禁止实验,不也放宽到14天了。能放宽到14天,就能放宽到140天、1400天……这种辩护逻辑,挺转科学家运用得一向非常熟练。而意外的是,以往支持转基因的 “知识分子”微信公众号,这次却率先发布一批包括挺转人士在内的科学家反对贺建奎的声明——这对舆论的彻底反转起到了关键性的作用。这意味着,基因编辑婴儿的确触碰到了人类的某一条底线。

然而,即使舆论如此激昂,科技部也表示 “将按照中国有关法律和条例进行处理”,但是中国现行法律对贺建奎完全没有约束,也就是说,贺建奎编辑婴儿基因,不触犯任何法律!

至于伦理条例,仔细研究就会发现,他所能够遭到的最严厉的惩罚,也无非是开除公职,不让他在南科大上学而已。而这对贺建奎来说,根本就算不上惩罚,他本人早在半年前就已经停薪留职,且他的公司可调用大量资金。也就是说,他如果不要职称、不要公职、不想发表文章,但是接着创造基因编辑婴儿,这个社会竟然拿他没办法,除了骂他!

而在人们的骂声之中,还会有人把他当作为科学进步、为人类未来永远免除遗传性疾病而勇于、甘于下地狱的英雄!——我相信这样的声音很快就会浮现出来。

此事伦理上的是非姑且放在一边,几十年后看贺建奎是勇于上火刑柱的布鲁诺还是科学罪人,也先放在一边。问题在于,就在当下,贺建奎公然挑战社会的基本观念,对社会构成了伤害,而社会却没有自我保护的能力。

在以往的科学主义意识形态之下,人们无条件地相信科学会为人类造福,并且只会为人类造福。即使在原子弹给出了核冬天的可能性之后,即使在 《寂静的春天 》阐释了农药对生态与人类的系统性伤害之后,即使在科学技术双刃剑的提法成为社会常识之后,人们仍然不愿意公开讨论科学伤害社会的可能性,人们仍然相信,这种可能性可以通过伦理原则加以防范。

科学社会学的创始人罗伯特·默顿已经意识到科学之强力的另一面,但是他相信,科学家的道德能够保障科学不去伤害社会。他提出了流传至今的 “科学的精神气质”说—— “有感情情调的一套约束科学家的规则、规定、习俗、信仰、价值和预设的综合”,并为其规定了 “四组体制上的规则——普遍性、公有性、无私利性、有条理的怀疑论”。这个表述其实存在着内在矛盾,四原则到底是 “精神气质”,还是 “体制上的规则”?到底是内在的秉性,还是外在的约束?默顿并没有说清楚。但无论是哪一个,都不是对现实的科学共同体的描述,而是他一厢情愿地构想的理想状态。依赖这四原则或者四气质去防范科学对社会的伤害,无异于与虎谋皮。

从基因编辑婴儿消息发布的时间轴看,贺建奎做了精心的安排。他相信自己是在帮助艾滋病患者,并为 “他的工作而自豪”。贺建奎完全可以把自己视为默顿的科学精神四原则的代表。这一事件表明,依靠科学家的道德自觉,依靠科学共同体自我协商的伦理原则,都不足以防范科学侵害社会。

这一事件提供了一个契机,我们这个社会需要在法律层面防止、防范科学对社会的伤害,并以刑法来制裁和惩罚已经发生的对社会的伤害。对科学活动加以限制,并且从刑法层面加以约束,在以往是超出想象的,但是今后应该成为社会共识,科学活动并非是必然为人类造福的。

科学及其技术具有强大的威力,能够给人类所生活的世界造成不可逆的转变。当氢氟烃 (第一例是杜邦公司生产的氟利昂)被发明出来,作为制冷剂的时候,获得了全世界的欢呼,这是科学技术的又一大胜利给人类带来的巨大便利。它的发明人也因此获得了各种赞美、各种奖励。然而,后来,人们发现氢氟烃造成了臭氧层的空洞,对社会造成了严重的伤害,但是氢氟烃的发明人并未因此而遭受任何惩罚。他在人们不知情的情况下给世界造成了不可逆的转变,只能获得荣誉,不应该受到惩罚吗?

在1962年 《寂静的春天》出版之前,人们还可以说这是科学家好心做了坏事,那么,在此之后,我们是否应有所警惕、有所防范呢?

最近传闻,艾滋病的病毒是一位美国科学家在实验室里发明出来的。倘若是真的,他给世界造成了如此巨大的变化,不应该遭受惩罚吗?当然,现行法律拿他没有办法;那么,对于未来可能发生的类似行为,人们是否应该有所警惕有所防范呢?

在化学工业之后,科学及其技术不断地把这个世界从来没有过的东西发明出来,铺满全球,这些东西将会产生什么样的影响,是发明人自己也无法预料的。如果带来好的结果,得到赞美和奖励也是应该的;那么,当坏的结果来临,是否也应该接受咒骂和惩罚呢?

如果人们相信科学技术是中性的,或者相信双刃剑的说法,那么就没有理由不相信,科学也会降祸于人、也会伤害社会。而这种伤害,并不会自动受到约束。那么,从法律层面加以约束、管理、制裁,也并不是不能想象的。

如果我们已经知道,一项未知的东西可能会产生严重的负面后果,那么在这样的东西广泛应用之前,在这样的东西被发明之前,是否就应该预先接受公众的审核呢?如果公众普遍认为这样的东西不应该出现,是否应该有法律来保障公众的意愿,不受某些 “勇敢的”科学家的伤害呢?如果这样的勇敢的 “科学家”敢于冒天下之大不韪,是否应该让他受到更严厉的惩罚呢?

2009年,意大利拉奎拉发生一场5.8级地震,三百多人死亡。2012年,6位地震专家和1名官员被地方法院判决 “过失杀人”,监禁6年,赔偿900万欧元。这是因为,地震前半年,当地居民就感受到轻微地震。由于这7人所在的 “重大危险预测和预防全国委员会”一再向公众表示 “不必担心”,导致居民未能及时疏散。

刑不上科学家的时代应该过去了,类似贺建奎的活见鬼事件,应该引起社会的严肃对待。国家应该制定专门的法律,或者在刑法中列入相关的条款,对科学活动进行约束,在法律层面有所防范、有所制裁、有所惩罚,以减少对社会的伤害。

挑战和应对:人胚胎基因编辑的国家治理

艾凉琼 新乡医学院马克思主义学院副教授

“基因编辑婴儿”于2018年11月26日宣布在中国诞生,随后引发了国内外学界的一片争议、质疑和谴责,也加深了学术界对基因编辑技术滥用的忧患,带来了一系列挑战,提出了人胚胎基因编辑如何可控、有序推进的国家治理问题,以促进人胚胎基因编辑真正造福于人类,实现新兴技术国家治理的科学化、民主化和现代化。

1 “基因编辑婴儿”事件及挑战

以预防疾病为目的的 “基因编辑婴儿”之所以遭到学术界的普遍反对,其根本原因有两个方面:一方面是理论不成熟,人类对自身基因组复杂性的认知有限,还无法区分所谓的好基因、坏基因,更何况好坏是应景的、相对的、动态的;另一方面技术不可控,基因编辑婴儿让人诟病的正是安全性,对可遗传性状的改变,安全性是前提,以规避可能出现不可预测、不可逆转的技术风险。

“基因编辑婴儿”突破了国际学术界达成的人胚胎基因编辑共识,破坏了中国科学家恪守规则的良好形象,对已有科研伦理规范、法律规范及科学精神的挑战,带来了不良后果。其一是挑战了已有的科研伦理规范。基因编辑婴儿事件,无论是对于人类还是被编辑基因的婴儿都风险巨大,违反了收益大于风险的原则,是典型的科研功利主义;其二是违背了科学精神。 “基因编辑婴儿”事件偏离了同行监督下开展创新研究的科学精神要求,无法保证其科学性。其三是挑战了国家的相关法律规范。 “基因编辑婴儿”事件违反了我国的《人类辅助生殖技术规范》等法律规范。科学界的自律、自治和社会规范均未能阻止基因编辑婴儿的诞生,这就为人胚胎基因编辑的国家治理提出了现实要求。

2 人胚胎基因编辑国家治理的现实性

国际学术界呼唤全球人胚胎基因编辑伦理规范的构建,全球治理具有必要性、迫切性,但不具有现实性。即使构建了全球伦理规范,但伦理规范毕竟属于 “软约束”,不具有强制力,在全球层面上技术滥用的治理显得软弱无力,更无法惩罚那些不负责任的人胚胎基因编辑行为,第二届国际基因组编辑峰会对基因编辑婴儿诞生 “意外和令人深感不安”就是明证。由于国家具有地域性和强制力,实现人胚胎基因编辑的国家治理具有现实性、可操作性。

3 建立人胚胎基因编辑的国家治理机制

无论属于治疗性、预防性还是增强性的人胚胎基因编辑,对个体、社会乃至人类均会产生不可忽视的影响,科技界既然无法做到自律、自治,就需要建立有效的国家治理机制。

(1)参与主体的有效互动。鉴于人胚胎基因编辑对社会影响的深度和广度,需要相关的专家、政府、公众及利益相关主体参与、有效互动。其一是专家,专家因拥有该领域的专长而具有参与技术治理的合理性,人胚胎基因编辑涉及科技、伦理、法律等社会的很多方面,为此,基因编辑的遗传学家、生物技术安全专家、伦理学家以及法学家均应作为治理主体参与进来,但要给专家意见以合适的权重,同时需要有效沟通和协调,为国家治理提供有力的智力支撑。其二是利益相关主体及其他公众,由于治疗性人胚胎基因编辑对基因缺陷或变异而导致的遗传疾病 “根治”具有诱人前景,备受折磨的遗传病人及家属就是利益相关主体,理应参与;其他公众也是基因编辑技术的受益者与责任承担者,公众参与以实现技术治理的民主化。其三是政府。涉及到公共利益的人胚胎基因编辑行为构成了公共利益风险,需要政府积极主动监管、治理,实现其有序、稳步推进更离不开政府的组织、协调和沟通,发挥各主体的参与功能。多主体协同参与,有效互动,发挥专家特长,倾听各方声音、凝聚各方智慧,平衡各方利益,让人胚胎基因编辑健康发展。

(2)参与部门的分工协作、协同治理。我国涉及人胚胎基因编辑的有多个监管部门,如卫生健康委员会、国家卫生计生委、科技部、各级各类伦理审查委员会,有行政监管、伦理监管,但众多部门的监管职能重叠、缺乏统筹协调,在某种情况下监管可能无法真正落实,导致人胚胎基因编辑的 “滥用”。我国对人胚胎基因编辑的基础研究、临床研究和治疗的监管,可以采用设立首批机构的办法,比如像英国开展这类研究必须得到英国人工授精与胚胎学管理局的批准,美国开展此类研究必须由人类研究保护办公室(OHRP)批准,法国设立的生物医学研究参与者保护咨询委员会(CCPBR)也在履行同样的职能。这样,经过各级各类伦理审查机构审查的结果需要特定部门的审批,可以对其他监管部门监督、监管不力设置最后一道防线,可以对技术滥用进行有效治理。

(3)治理举措的与时俱进。当前基因编辑技术发展迅猛、前景诱人,人胚胎基因编辑的风险较高,加上资本的强力介入,我国却没有出台相应的治理措施,科技治理具有明显的滞后性,给人胚胎基因编辑的技术滥用提供了较大空间,治理举措需要与时俱进。随着基因编辑技术的进步,制定相应人胚胎基因编辑的技术准入标准、切实可行的伦理审查制度以及健全法律等治理举措,使得技术治理科学化、动态化。

4 构筑人胚胎基因编辑的国家治理体系

中国是个负责任的大国,在中国开展任何科技活动合乎人类的伦理共识、符合人类的共同利益是当仁不让的责任和义务,构筑人胚胎基因编辑的国家治理体系也是当务之急。

(1)构建 “良序科学”运行制度保障。人胚胎基因编辑该何去何从,能否让失控的研究其后果得到可控,实现英国哲学家菲利普·基切尔 (Philip Kitcher)教授描述的 “良序科学”图景,需要构建 “良序科学”运行的制度保障。让公众、政府、科学家或专家多方参与主体充分表达各自的意见,对如何选择 “无私利”专家参与、如何组织参与主体讨论该议题及如何设置严格的审批机构等,在中国当前法律不完善、伦理监管不给力的状态下,需要构建人胚胎基因编辑的全面监管、有效治理的制度保障。

(2)制定完备法律、法规体系。我国涉及人胚胎基因编辑的相关法律并不完全空缺,但的确不完备。我国法律对于基础研究、预防性治疗并没有详细的规定,虽然基因编辑技术CRISPR在治疗遗传疾病进行尝试性研究达成了国际共识,但治疗性研究、预防性研究、增强性研究还是基础研究的界限并不那么清晰,而相关的法律又无明确规定。就 “基因编辑婴儿”事件来说,属于疾病预防性,但是并没有针对性的特定法律规范,更缺乏相应的违规法律补救。因此,制定完备的法律法规,是实现国家治理的法律要求。

(3)提升伦理监督能力。我国的国家级、省市级、科研机构的三级伦理审查委员会伦理监督能力参差不齐,甚至有些伦理委员会并不能进行有效伦理监督,需要提升各级伦理审查委员会的伦理审查能力,在一定程度上实行 “追责”,实现人胚胎基因编辑 “可控”。同时以伦理委员会为主导,加大科技伦理道德宣传、教育,提高科研人员的科研伦理素养和认同,有效发挥伦理委员会的职能。

(4)加强风险评估。充分认识人胚胎基因编辑的技术风险,有效风险评估是有效治理的重要前提。可以成立专门的机构,组织一支专业素质良好的专家队伍,对人胚胎基因编辑的全程进行定期风险评估,把握其态势,依靠国家强制力,及时叫停不当应用,确保合理应用。

总之,人胚胎基因编辑具有前沿性、重大性、复杂性、挑战性。许多研究人员因其诱人的医疗前景跃跃欲试,因其安全性欠缺、伦理争议不得不 “权衡”利弊得失,三思而后行。对人胚胎基因编辑明确其基础研究应用、治疗性应用、增强性应用、预防性应用,分类监管、有序开放,不断评估,防控风险,有效规制,让人胚胎基因编辑在 “安全、可控、有利、健康”的轨道上发展,实现国家的技术治理目标。

猜你喜欢
伦理人工智能基因
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
Frog whisperer
护生眼中的伦理修养
修改基因吉凶未卜
2019:人工智能
人工智能与就业
创新基因让招行赢在未来
数读人工智能
下一幕,人工智能!