张海柱
(东北大学文法学院,辽宁 沈阳 110169)
近年来,以基因编辑、人工智能等为代表的新兴科技取得了快速发展,在经济社会领域展现出广阔的应用前景,同时也因各种潜在风险而引发了激烈争论。以人类基因编辑为例,它是当前生命科学领域最具代表的前沿性和颠覆性技术之一。特别是被誉为 “基因剪刀”的CRISPR-Cas9技术,使临床实践中可以简单高效地对基因片段进行修剪、敲除、替换或添加操作,这在人类疾病特别是许多遗传性疾病的精准诊断与治疗方面极具前景。然而作为一种新兴科技,人类基因编辑并不成熟,因其可能导致的安全、伦理与社会风险而引发了广泛争议,2018年 “基因编辑婴儿”事件的发生更是使人类基因编辑的合法性遭受质疑。在此情况下,如何对这种新兴科技风险进行有效治理已成为重要且紧迫的现实问题。
由于人类基因编辑涉及复杂的专业知识与技术问题,现实中的风险治理过程基本上被基于科学理性的 “技术治理”范式所主导。然而当前来看,在对人类基因编辑风险的认识上存在许多不确定领域,相关科学知识存在明显的缺口[1]。也即,对于人类基因编辑可能造成的负面影响,既有的科学知识无法给出确定性答案,不同主体甚至科学专家之间难以达成共识。这种科学不确定性在根本上挑战了技术治理范式的有效性,而对科学不确定性问题的忽视或否认则会造成风险的隐匿与监管迟滞, “基因编辑婴儿”事件即是一个明显例证。因此,当前迫切需要对新兴科技风险的技术治理范式进行反思与变革,以应对科学不确定性带来的治理挑战。
鉴于上述理由,本文以人类基因编辑为例,在对其中的科学不确定性问题及其治理困境进行考察的基础上,借鉴贝克等学者讨论的 “反身性”理念,提出一种 “反身性治理”的新范式。反身性治理强调基于科学不确定性而对技术治理的理性基础与实践模式进行根本性反思与重构,本文认为这将为新兴科技风险的有效治理提供新的思路。
实践表明,基因编辑技术的发展始终伴随着各种争议。2015年,CRISPR-Cas9技术首次应用于人类胚胎基因的编辑,立即引发广泛的风险论争;2018年, “基因编辑婴儿”事件的发生更是使相关争议迅速升级。总体来看,当前对人类基因编辑风险的忧虑一方面体现于技术操作的不准确而对人体可能造成的各种健康危害,另一方面则体现为生殖基因编辑对后代造成的不可逆的遗传性影响。此外,对生殖基因的编辑或 “基因增强”涉及人的自然形态的改变,因其对生命伦理的挑战而引发激烈的伦理争论。
针对人类基因编辑的多维风险,如何进行有效的风险监管或治理成为一个重要问题。当前来看,不同国家形成了不同的监管立场。一项针对106个国家相关立法的调查显示,当前没有任何国家在立法上明确允许遗传性人类基因编辑,但是以美国、英国、日本为代表的11个国家允许非生殖目的的人类生殖系基因编辑,而澳大利亚、加拿大、德国等19个国家则完全禁止,更多国家尚未形成明确的立法态度[2]。我国在立法上同样禁止以生殖为目的的基因编辑, “基因编辑婴儿”事件发生后,基因编辑临床研究的申请由原来的备案制变更为行政审批制,旨在增强监管力度。
总体来看,由于人类基因编辑这一新兴科技发展迅速,相关国家的立法处于明显的滞后状态。包括我国在内许多国家的监管政策法律位阶较低,权威性和约束性不强。而且由于不同国家的立法态度与伦理文化存在差异,一些研究人员可能会选择存在监管空白的国家或地区进行临床应用。针对这一问题,建立人类基因编辑全球治理框架的呼声日益提升。这方面的典型体现是WHO于2018年12月建立了 “人类基因编辑治理与监督全球标准发展专家咨询委员会”,并于2021年发布了 《人类基因编辑:治理框架》与建议两个重要文件,对全球治理的推进进行了初步探索。
除了法律上的有限规定外,科学界、国际组织以及许多国家的政府部门在实践中也采取了一系列风险监管措施或治理工具,并由此形成一种 “技术治理”的治理范式。技术治理建立在科学理性的基础上,强调 “科学管理”与 “专家政治”原则[3]。前者是指需要应用科学技术知识来管理经济社会事务,后者则主张应当由掌握科学技术的各类专家负责公共决策。具体到人类基因编辑风险,技术治理范式体现为以 “科学监管”为核心的治理模式,包括科学共同体内部的 “自我监管”与 “基于科学的监管”两个方面。
科学共同体的自我监管主要体现为各种科学研究规范、伦理指南或指导原则的确立以及研究 “禁区”的划定。事实上,早在基因编辑技术发展初期,许多科学家即强调 “科学责任”的重要性,主张在技术风险问题得到有效解决之前 “推迟某些类型的研究”[4]。2015年 《自然》和 《科学》杂志先后刊文呼吁禁止CRISPR-Cas9技术对人类生殖细胞的临床研究与应用,这一点在同年12月召开的人类基因编辑国际峰会上被确立为学界需要遵守的 “红线”。此后随着 “基因编辑婴儿”事件的发生,许多科学家呼吁对人类生殖基因编辑进行全球范围的自愿性暂停[5],以体现科学研究与应用的谨慎性。
科学 “自我监管”约束性的实现除了依靠研究者自律外,主要体现在研究成果发表以及科研基金的申请上,寄希望于同行评审原则来进行约束。例如,一些学界专家对 “基因编辑婴儿”事件的批评即包括 “没先通过同行评审发表论文”[6]。在科研基金的申请上,美国国立卫生院在2015年发布了 “不得将联邦资助经费用于人类胚胎基因编辑”的声明,这会对相关研究者形成重要的激励导向,因而成为美国对人类基因编辑进行监管的重要方式。总之,基于对政府外部干预可能会妨碍科学发展的忧虑,该领域一些科学家明确表示 “自我管理是最好的管理方式”[7]。
“基于科学的监管”则强调科学共同体外部主体的监管作用,主要体现为现代国家中的科学咨询制度。在该制度下,政府监管机构高度依赖相关领域科学专家来提供监管决策所需的专业知识,以科学伦理委员会为代表的专家机构在某种程度上成为事实上的决策者。因此在现实的监管实践中,政府监管部门的责任被虚置,只有出现诸如 “基因编辑婴儿”事件的严重问题后才进行介入与问责。此外,由于人类基因编辑涉及广泛的伦理与社会争议,科学界也在强调公众参与的重要性。例如,2015年与2018年的两届人类基因编辑国际峰会均强调要增进公众参与,WHO专家委员会的建议报告中也将公众赋权和参与对话视为人类基因编辑风险治理的重要措施[8]。然而就现实来看,这种公众参与要么停留于口号,要么以拥有一定的科学知识为参与的前提条件[5],实质上并没有改变科学专家在人类基因编辑风险监管决策中的支配地位。相反,形式意义上的公众参与能够为科学监管决策赋予一定的政治合法性,反而成为技术治理范式的重要构成。
技术治理范式的有效性建立在科学知识权威性的基础之上,然而以人类基因编辑为代表的新兴前沿技术领域却存在显著的科学不确定性问题,这对技术治理的有效性构成了直接挑战。因此需要对人类基因编辑中的科学不确定性及其与技术治理范式的内在张力进行全面分析,以深入理解当前治理困境的根源。
对确定性知识的寻求是科学权威性建立的基础,然而,20世纪70年代兴起的科学知识社会学研究得出了科学知识具有内在的不确定性结论。科学不确定性来源于认知主体、客体以及科学研究范式等多个方面的局限性[9]。对于人类基因编辑而言,由于技术本身的不成熟等原因,不确定性问题的大量存在已经成为科学界的共识。例如,在2018年第二届人类基因编辑国际峰会上,组委会即明确指出,临床实践的科学理解和技术要求仍然很不确定,无法在此时允许进行生殖细胞编辑的临床试验[10]。具体来讲,科学不确定性有着多种类型,有学者[11]将其分为技术不确定性、方法论不确定性和认识论不确定性三个层面,这些在人类基因编辑领域中均有直接体现。
技术方面的不确定性涉及人类基因编辑技术自身的精确性、有效性以及应用的合理性等问题。科学知识向技术的转化过程难以做到完全的准确性,因此不确定性被视为技术的固有属性[12]。尽管CRISPR-Cas9相较于传统技术而言其精确性已经显著提升,然而具体操作中的 “脱靶”现象仍无法完全消除,也即真实被编辑的基因可能会与目标基因发生偏差。由于胚胎细胞具有不断分裂的特性,因此在利用CRISPR-Cas9剪切致病基因之前细胞可能已经分裂,从而导致一些细胞得到修饰而另一些却得不到修饰,这种多个基因型同时存在于一个受精卵中的 “镶嵌现象”所形成的 “嵌合体”婴儿将会面临更多的安全风险[10]。此外,技术方面的不确定性还体现为技术可能被人为滥用的问题,许多科学工作者可能受经济利益、科学荣誉、职业晋升等因素的诱导而对特定技术进行非必要甚至错误使用。例如,在 “基因编辑婴儿”事件中,操作者宣称其目的是帮助婴儿免于感染源自父亲的艾滋病毒,然而许多科学家指出当前已经有了较为成熟安全的方法来预防父母和未出生婴儿之间的艾滋病毒传播,因此基因编辑操作成为一种不必要的高风险行为。
方法论不确定性是指科学研究获取有效知识的方法本身存在的局限性或不确定性。在这方面,实验方法是现代科学最为依赖的方法,然而在简化的、受控制的实验室条件下产出的知识在说明和运用于复杂的现实条件时就可能出现未预见到的状况,产生不确定性[9]。在人类基因编辑领域,早期研究主要以动物为实验对象,然而从动物实验中得出的知识在应用于人类自身的临床实验时必然出现 “可推广性”难题。由于不同的细胞类型可能对基因编辑做出不同的反应,为了获取人类基因特别是遗传基因编辑的准确知识,必然需要以人体细胞为实验对象,这正是当前国际科学界与许多国家允许基于科研目的而对人类胚胎细胞进行基因编辑的原因所在。为了防范安全与伦理风险,具体实验操作一般需要遵守 “14天法则”,这种时间限制使得短期实验所获得的人类基因编辑操作安全性知识必然存在各种局限性。特别是遗传基因编辑涉及对后代的影响,可能需要几十年甚至对几代人的观察才能最终确定其安全性,而这已经完全偏离了操作上的可行性。
认识论不确定性是指科学知识自身的不确定性或 “无知”问题。这种 “无知”既包括 “已知的无知” (known-unknowns),也包括 “未知的无知” (unknown-unknowns)。前者是指人们已经知道技术应用可能产生危害后果 (例如CRISPR-Cas9操作中的 “脱靶”或 “镶嵌”问题),但是在如何解决这些负面后果等问题上存在许多无知领域。后者是指对技术应用的确切影响或后果尚未实现全面性认知,即可能出现未能提前预测到的 “非预期后果”,这些在人类基因编辑领域大量存在。由于人类基因的复杂性,当前尚存在许多未知领域,例如许多基因片段同时发挥着多种功能,当基于治疗特定疾病目的而剪切之后,可能引发许多难以预测的后果。 “基因编辑婴儿”事件中基于预防艾滋病目的而敲掉了CCR5基因,然而有研究指出 “CCR5对人体免疫细胞的功能起重要作用,一旦敲除可能对机体产生难以预见的潜在威胁”[10]。近年来的一些最新研究结果揭示了诸如基因突变、染色体片段丢失等基因编辑引发的新问题,然而其确切后果尚不能确定[13],这些均表明了科学知识自身的局限性。
如前所述,人类基因编辑领域各种科学不确定性问题的存在表明了科学知识或科学理性自身的不足,这会导致技术治理的实践困境。本文认为,这种困境涉及知识困境、责任困境与信任困境三个方面。
第一,知识困境。一般而言,随着科学研究的持续开展,科学知识的增加有助于降低不确定性或 “无知”问题。然而,人类基因编辑中的许多 “无知”问题在很大程度上并非缺乏知识或 “尚未”获得知识,而是由于技术复杂性所导致的人类认知能力上的根本性欠缺。这主要是由于人类基因编辑的特殊性,使得基于 “假设—实验—检验”的传统科学研究模式面临失灵 (人体本身的临床实验受到严格限制甚至成为 “禁区”)。在此情况下,基于现有科学知识的风险治理决策在很大程度上是 “以有限的知识解释无限的现象、以确定解释不确定性、以安全控制之想象处理不安全的领域”[14]。在遵守现有法律和科研 “红线”或 “禁区”的情况下,人类基因编辑科学研究的推进不仅无法完全根除各种不确定性问题,反而可能出现贝克所谓的 “更多更好的知识往往意味着更多的不确定性”这一悖论[15]。人类基因编辑的许多最新研究成果正体现了这一点,相关研究在弥补了传统认知欠缺的同时,所揭示的更多是尚未确定的未知问题。
第二,责任困境。人类基因编辑涉及复杂的责任问题,其中科学责任已经得到了广泛强调。然而鉴于各种科学不确定性问题, “负责任研究与创新”的实现将面临难题。例如,人类遗传基因编辑的操作者如何对受影响的后代或其他公众承担责任即是一个棘手问题。另外,当前科学界对于人类基因编辑中各种不确定性问题的存在已经有了较大共识,然而在技术治理范式下,科学专家的咨询意见仍然在很大程度上主导了监管决策,这一现象被称为 “不确定性悖论”[16]。之所以如此,很大程度上是因为诉诸于科学专家及其专业知识有助于政府监管部门推卸其决策责任[17]。这种行为最终将会产生贝克所谓的 “组织性的不负责任”现象[15]。在 “基因编辑婴儿”事件中,除了贺建奎本人被严厉处罚外,其他科学与政府监管机构却未被问责,即是这种责任失灵的体现。
第三,信任困境。社会公众对科学知识以及相关领域专家与政府监管部门的信任是技术治理范式的重要构成,这种信任关系也是科学技术有效传播与应用的重要保障,这种信任的实质是公众相信专家所代表的科学作为可信赖之知识的形象[18]。 “基因编辑婴儿”的父母正是基于对科学的信任而选择接受试验,然而由此引发的严重后果却表明了科学 “可信任性”的丧失。事件发生后的各种舆论质疑与批评,更是削弱了社会公众对人类基因编辑技术以及相关科学专家可靠性的信任。正因如此,WHO专家委员会报告中特别强调要将改善公众信任作为人类基因编辑治理改革的重要目标[1]。由于科学共同体自我监管只有在公众信任科学家是服务于公共利益的情况下才会奏效[19],因此,这种信任的丧失也成为技术治理面临的重要困境。
总之,科学不确定性的存在使技术治理范式面临严重挑战,然而当前的监管制度设计表明政府部门在很大程度上忽视或回避了科学不确定性问题,加之社会层面上普通公众往往缺乏对科技风险的警惕和认知,由此共同导致风险问题被 “隐藏”,最终将形成所谓的 “制度性隐匿风险的迟滞型高科技风险社会”[20],因此有必要推动范式变革以走出风险治理困境。
对于人类基因编辑这种新兴科技而言,科学不确定性的大量存在已经成为一种 “常态”现象。针对这一问题,诉诸于 “更多的研究”有助于降低或消除部分不确定性。当前科学界与政府部门在很大程度上均持有这种 “等待科学”思维。例如,当前的科研 “红线”禁止人类生殖基因编辑临床应用,但仍允许相关基础性研究。就此而言这种 “禁令”只是 “部分性”和 “暂时性”的,其背后的深层逻辑仍然是一种科学技术 “进步观”,即认为随着科技自身的完善必然能够消除负面问题,并造福于人类。
如前所述,由于人类基因编辑的特殊性,很多不确定性问题无法通过科学研究完全消除。因此需要思考如何在科学不确定性长期存在的背景下提升风险治理的有效性。本文认为,需要对技术治理的逻辑基础或 “后设”问题 (科学理性、专家主导、技术创新导向等)进行深刻反思。在这方面,贝克等学者提出的 “反身性现代化” (reflexive modernization)理论具有重要借鉴价值。在贝克看来,现代化的 “反身性”首先意味着现代化自身的 “自我对抗”。也即工业现代化的发展造成了科技风险的积累与彰显,而这反过来构成了对工业社会结构性基础的挑战甚至消解。科技风险的不断产生暴露出科学自身的 “无知”问题,这种无知正是反身性现代化的动力[21]。同时,反身性还意味着重构现代性的可能,这取决于是否能够对科学 “无知”以及支撑工业现代化发展的基础性结构中的各种深层次问题进行彻底反思与变革。
借鉴贝克的理论逻辑,对于以科学理性为基础的人类基因编辑技术治理范式而言,科学不确定性或无知问题的彰显也是其走向 “反身性”或 “自我对抗”的根本驱动因素。为了走出技术治理的困境,需要进行一种 “反身性治理”的范式变革。反身性治理强调 “反观”技术治理自身的内在逻辑,通过将不确定性、无知、差异性、非意图后果等因素纳入治理变革的基础而谋求重塑社会发展路径[22]。就此而言,反身性治理的对象不再仅是人类基因编辑风险自身,而是主要指向技术治理范式,是技术治理的 “再治理”。在明确了基本理念后,下文将从理性基础、实践模式与目标诉求等方面对反身性治理范式的基本构成进行讨论。
科学不确定性或 “无知”问题的彰显,促使我们对科学理性原则进行反思。有研究[14]指出,科学原本就容许不确定性,从文艺复兴时代开始,科学为打破神学时期的权威思维,基本上是以怀疑精神,亦即以不确定性原则来寻求真理。不过,现代科学对不确定性的承认以及怀疑原则的应用基本上指向外部对象世界,而非科学自身,贝克[23]称其为 “简单科学化”或 “初级科学化”。与此相对的则是 “反身性科学化”,这种科学化把科学的怀疑主义扩展到其自身的内在基础和外在结果上,由此科学的 “真理”地位便遭到去魅。因此,真正的理性是能够自觉地意识到自身理性能力的有限性的那种能力[24]。
鉴于科学理性自身的局限性,需要从科学 “外部”或 “非科学”领域寻找新的理性来源,社会理性即是其重要体现。重要的是,要用社会理性来 “控制”科学理性,为科学技术指引合理的发展方向。对于人类基因编辑而言,从科学角度解决其 “是否安全”的问题固然重要,但更重要的是该种科技对于社会整体而言 “是否合理”或 “是否需要”的问题。当前激烈的伦理与社会论争表明这些问题尚未有明确结论,此时人类基因编辑的 “冒进”必然缺乏充分的正当性。正因如此,著名学者Sheila Jasanoff[25]在对人类基因编辑治理的讨论中建议国际科学界采取更加 “谦逊”的姿态,科学需要充分考虑更广泛的科学之外的诉求 “以确定人类基因编辑是否是我们应该追求的方向”。
在对科学与社会理性之间的关系进行考察的基础上,贝克提出了 “风险理性”概念,以回应科学不确定性背景下的理性重构问题。在贝克看来,风险理性代表了一种新的思维模式,强调风险认知的整体性、开放性与弹性。也即不能只局限于科学知识对风险问题的固有认知和判断,而要从科学与 “非科学”的各个角度全面探究风险的各种可能来源与后果,并对新的知识来源或文化差异保持弹性[26]。就此而言,这种风险理性破除了对科学 “确定性”与理性支配的迷思,体现了对科学不确定性现象的重新审视。科学不确定性不再是一种需要解决或规避的负面 “问题”,它反而会为风险的有效治理提供新的可能性。就此而言,风险理性也是一种 “学习型理性”,主张在不断的集体反思、沟通与学习过程中完善对人类基因编辑风险问题的理解,进而实现发展与安全、科技创新与公众接受或满意之间的平衡。有鉴于此,本文认为这种风险理性应当成为人类基因编辑风险反身性治理的理性基础。
随着对科学理性权威性的反思与批判,人类基因编辑风险治理实践中科学专家的主导地位也将面临挑战。基于风险理性对集体反思与学习的强调,本文认为反身性治理所对应的应当是一种 “包容性审议”的实践模式。包容性审议意在对风险治理决策过程中的理性价值与民主价值进行调和。一方面,该模式借鉴了 “审议民主”的基本理念,强调公民在理性思考的基础上,经由自由、充分而平等的对话、讨论等方式参与公共决策。另一方面,对 “包容性”的强调意味着参与审议或沟通对话的主体应当具有广泛性,除了专家学者外,政府管理部门、社会组织以及普通公众也应被承认具有参与审议的资格与能力。
之所以强调非科学主体甚至普通公众的参与审议,其原因在于反身性治理要求对人类基因编辑风险问题进行重新 “框架”。在技术治理范式下,相关风险及治理被框架为 “科学问题”,由此科学专家垄断了问题的界定与治理方案的设计。然而科技风险及其治理决策本质上属于 “超科学”领域,科学之外的政治社会价值、法律规范与伦理道德等均是风险认知与治理中不可或缺的重要知识资源。如前所述,当前国际科学界也在强调人类基因编辑治理中公众参与的重要性,但是这种参与的包容性极为有限。例如,有批评指出人类基因编辑相关国际委员会中没有一位来自患者或残疾人群体的代表, “他们本应成为基因编辑的直接受益者”[25]。而且现有的参与更多体现在程序或形式意义上,也即参与者要接受科学专家对风险问题的界定和诊断,并在由专家给出的治理方案中进行选择。包容性审议则强调要承认并重视普通公众的理性认知能力,实现 “程序性民主”向 “认知性民主” (知识民主)的转变。
对包容性审议的强调,一方面是风险治理的理性基础拓展或重构的需要,另一方面则是应对科技风险治理中责任缺失问题的必然要求。科技风险的产生在根本上源于人的决策或主动选择,而责任与决定是相关的,做决定者须负责[26]。在当前的 “大科学”时代,科技研发不再只是科学工作者的行为,政府、企业与社会等主体也共同参与其中,因此,这些主体应当成为风险责任的共同承担者。
在人类基因编辑领域,科学共同体的责任已经得到较多强调,然而政府与社会主体的责任却在很大程度上被忽视。事实上,现代科学技术的发展很大程度上受到国家政策意图的引导,因此政府部门需要为科技发展与应用的后果承担责任。社会公众对科技产品或服务的消费甚至追捧,也在客观上推动了技术的发展。例如,2018年某机构针对人类基因编辑所做的舆情调查显示,超过60%的普通公众支持基因编辑技术研究与开发,超过60%同意个人或孩子应用该技术防治重大遗传性疾病[27]。因此,社会公众在人类基因编辑风险治理中的参与不仅是一项权利,更是一种责任要求。这种对科学、政府与社会主体共同责任的明确,有助于解决前述 “组织性的不负责任”问题。
当然,在包容性审议的具体实践模式上尚有许多问题需要解决,如参与者代表的范围与产生方法、审议对话的组织方式、相关争议如何解决、审议结果如何应用等。不过,近期一些学者已经针对相关问题进行了思考和倡议。例如,有学者[28]在 《美国科学院院刊》发文呼吁人类基因编辑的包容性全球治理,认为应当改变由少数发达国家科学专家主导治理决策的现状,认真考虑来自世界各地不同文化背景下科研工作者的差异性观点。著名政治学者John Dryzek[29]联合多名学者在 《科学》杂志刊文,倡导由世界范围内随机选择的100名普通公众组成全球公民大会来对基因编辑技术问题进行审议,这些倡导对于包容性审议理念与实践的发展将起到重要的推动作用。
公众对科学与专家的信任是技术治理能够发挥作用的重要基础。信任之所以如此重要,是因为在许多科学知识和技术原理问题上普通公众的 “无知”,即不具备科学专家所掌握的专业知识。信任机制的存在使得公众可以无需 “变成专家”就可以放心地使用科技产品。如前所述,科学不确定性与 “无知”问题的彰显使得人类基因编辑领域科学与专家的 “可信任性”面临严重挑战,会导致技术治理合法性的丧失。这种对知识、信任与技术治理内在关联的反思正是 “反身性”的基本要求。在此基础上,还需要对反身性治理范式中信任的作用进行重新界定。由于在人类基因编辑等新兴科技风险问题上,公众、专家与政府等主体必然会存在一定的知识缺失或知识不对称问题 (即有合作的必要性),此时基本信任关系的存在是相关主体良性互动与合作的前提。因此本文认为,信任的重建应当成为反身性治理改革的重要目标。
公众在科学专业知识缺失情况下对科学专家的信任在很大程度上是一种 “盲目信任”,而科学不确定性问题的凸显则使这种盲目信任难以延续。然而基本信任关系的瓦解将会导致更多的治理冲突,因此必须思考信任的重建问题。本文认为,信任的重建不是要恢复传统的盲目信任,而是要建立一种新的信任机制即 “批判性信任”。批判性信任预设了公众对 “科学的风险分析”提出质疑或异议的合理性,此时信任的构建需要建立在政府、专家与公众之间充分交流与平等互动的基础之上。在包容性审议实践中,相关主体的参与对话可能在短期内难以达成共识,即便如此,仍有助于信任的构建。
相较于盲目信任,批判性信任建立在对科学不确定性问题有效承认的基础之上。就此而言,一些科学专家与政府部门往往持有一种错误观念,即认为对科学不确定性的承认将会损害科学的权威性,进而造成公众对科学的不信任。然而真实情况可能恰恰相反,正如有研究指出的,民众并不是因为期待科学家提供其无法提供的零风险和确定性而产生负面反应,而是因为科学家常常否认缺乏控制或否认自己的无知,其实人们反倒认为这些都是可以接受的[30]。从长期来看,对科学不确定性问题的承认不仅不会削弱科学的形象,反而有助于重塑公众对科学体制的信任。
综上,从知识与信任的关系来看,不同于盲目信任对公众的 “无知”假设,批判性信任的实现建立在公众有效的理性认知能力基础之上。批判性信任事实上是一种 “认知性信任”,它所涉及的是基于知识的信任,其中尤为重要的是少数群体所拥有的知识[31]。当公众自身的理性认知能力得到有效承认后,信任的构建也就具有了相互性,不仅要重建公众对政府与专家的信任,更重要的是要实现政府与专家对公众的信任。当前人类基因编辑治理中尽管也在尝试通过公众参与等途径来改善公众信任,但是仍隐含了对公众理性能力的不信任。例如,WHO专家委员会报告指出,为了改善决策并获得公众信任,人类基因编辑治理机构必须对公众进行努力教育和吸纳参与[1]。本文认为,在科学不确定性背景下,这无助于政府、专家与公众间良性信任关系的构建和长期维系。
当前,以基因编辑、人工智能等为代表的新兴科技已经深度涉入人类社会生活的多个方面,也成为国际竞争以及各国政府大力推动发展的重要领域。然而,由于新兴科技发展的快速性与复杂性,很难对科技应用的各种风险后果进行准确判断,不同主体甚至科学专家之间在特定风险问题上难以达成共识,使得人类社会面临更多的未知、不确定以及非预期后果。因此,科学不确定性的高度彰显是新兴科技发展面临的重要问题,如何在科学不确定性背景下进行新兴科技风险的有效治理则成为政府部门需要解决的重要问题。
本文以人类基因编辑风险为例,考察了传统基于科学理性的 “技术治理”范式与科学不确定性之间的张力问题。本文认为,技术治理对科学不确定性问题的忽视或否认会导致风险治理的知识困境、责任困境与信任困境,进而造成风险的隐匿与应对迟滞, “基因编辑婴儿”事件的发生即是典型体现。为了走出上述困境,需要对科学理性与技术治理的支配地位进行反思,将科学不确定性的存在作为治理改革的基础。对此,本文提出一种 “反身性治理”理念,谋求通过对技术治理的 “再治理”而为风险治理提供新的思考方向。反身性治理强调要正视科学理性自身的局限性,并在科学 “外部”寻找新的理性来源,由此凸显了对人类基因编辑等新兴科技风险议题进行包容性审议的必要性。包容性审议意在超越形式意义上的参与,而将多元主体、价值与知识之间的广泛对话与集体学习作为风险认知与治理的基础,本文认为这将有助于知识、责任与信任困境的破解。
当然,本文更多的是一种理念上的反思和倡导,反身性治理与包容性审议在实践层面尚有很多问题需要解决。而且以人类基因编辑为例进行的考察也有一定的局限性,因为不同的新兴科技在风险属性、争议类型与治理风格上可能存在较大差异,很难简单地适用单一的治理模式。本文的主要价值可能在于对科学不确定性问题的揭示,让我们可以从一个新的角度来对当前新兴科技发展及其风险争议进行审视,而 “反身性”理念则有助于对现有治理模式的结构性基础进行反思,并为未来的治理变革提供新的方向。