宋 伟,孙壮珍,2
(1.中国科学技术大学,安徽 合肥 230026;2.西南科技大学,四川 绵阳 621010)
当代社会的科技风险已完全不同于以往传统的外在风险,“那些年代里(出现的风险)刺激着人的鼻子和眼睛,从而使可以被感受到的危险是明确的”,而当代的科技风险却完全逃离了人们直接的感知能力。“那些损害健康、破坏自然的东西是不为人的眼睛和感觉所认识的”,对它们的“感知”“只出现在物理和化学的方程式中”,并依赖于科学知识的界定。“甚至那些表面上明确无误的观点,仍然需要有资格的专家来评判其客观性,……在任何情况下,这些危险都需要科学的‘感受器’——理论、实验和测量工具——为的是使它最后变成可见和可解释的危险”[1]。当然,科技风险的不可感知性并不表明其不存在,只是其感知预期化与未来化。
科技风险是人类研究与应用科技产品的伴随性结果,一项科技产品的产生与应用,人们往往只关注是否满足需要,而对其可能诱发的副作用却难以预料。现代科学技术的高度复杂性和其本身固有的不确定性成为现代风险产生的根本原因。虽然科学家们一直沿用的科技逻辑是从理论中推导出假设,再通过实验来检验假设,最后才进行批量生产或投入使用[2]。但波普尔强调“一切理论都是假说,并且始终是假说:它们是和不容置疑的知识相对立的猜测”,波普尔认为人类没有先天的知识和概念框架,科学理论不具有确定性。对此,波普尔提出:“没有任何人能够完全了解理论固有的全部可能性,不论是它的创立者,还是设法掌握它的人都不行”[3]。因而,新技术本身就具有潜在的风险因素。而且科技发展几百年来,文明的风险或人造风险正不断积聚,并不断向外拓展。
“可计算性”风险的基础是统计学及概率计算,这要求预先有一些经验的统计数据作为推算的基础,同时,造成损害的因果关系在一定时期内要保持稳定。传统社会的风险在本质上是可以计算和控制的,但现代科技风险难以预测,这就使得这种风险变得难以控制。“在现代社会中,‘事故’成为一种有始无终的事件,在时间上无休止地蔓延,从而正常的标准、测量的程序以及计算的基础均被破坏了”。正如吉登斯所说:“对于科技风险,历史上没有为我们提供可以借鉴的经验和知识,我们甚至不知道这些风险是什么,更不要说根据概率对风险的精确计算,也谈不上对风险结果的预测”[4]。因而,科技风险是指由科技方面的不确定性对主体所带来的损害性。它是一种“被制造出来的风险”,源于人们的重大决策,并且是由现代社会整个专家组织、经济集团或政治派别权衡利弊得失后所做出的决策[5]。
贝克认为,随着现代科技的发展、生产效率的提高,财富分配和不平等问题得到了有效的改善,但是人类面临着新出现的技术性风险,如核风险、化学产品风险、基因工程风险、生态灾难风险等。在我国,最近几年这些技术风险无一不刺激着公众敏感的神经。
(1)核动力风险。在福岛核泄漏之前,我国内陆省份本已掀起一波建设核电站的高潮。有些项目甚至已经通过前期论证开始建设,但是福岛核泄漏事故之后,我国政府对核电站建设态度转为谨慎,开始对已有核电站进行大检查,并提高准入门槛,中止新建核电项目审批。另外要求已经立项的一些内陆项目向沿海转移,并明确规定了“十二五”时期不安排内陆核电项目。
(2)转基因食品。尽管关于转基因农产品到底有无危害的问题公众关注已久,但目前我国政府由于其产量高、品质好等多方面原因依然在引进转基因农产品,在2013年6月农业部根据国家农业转基因生物安全委员会评审结果,给三种大豆批准发放了农业转基因生物安全证书,引发了转基因食品的全民大讨论,转基因食品的反对者(主要是民众)和支持者(一些专家)打起了“口水仗”,转基因食品的安全问题被再一次推向了风口浪尖。
(3)化学产品风险和生态灾难风险。我国最近出现的“华北平原地下水污染严重,重金属超标”、“镉大米”及“癌症村”等现象,促使政府出台了一系列关于对化学品风险的防范。环保部在《化学品环境风险防控“十二五”规划》中提出,到2015年基本建立化学品环境风险管理制度体系,大幅提升化学品环境风险管理能力。
不难看出,从公众关注的相关科技风险的政策出台过程中存在多方利益相关者。利益相关者是在企业管理领域提出的一个概念,在1984年,战略管理专家弗里曼做出了一个被人们普遍接受的经典定义:“利益相关者是指任何能够影响企业目标的实现,或受企业目标实现所影响的个人或群体”[6]。按照弗里曼的经典定义,在涉及科技风险政策制定过程中也存在相应的利益相关者,主要为科技风险的诱发者、反应者、受影响者(直接或间接)以及旁观者,其中涉及科技专家、企业、政府、媒体和公众(包括科技风险的直接承担者、潜在承担者和非政府组织)[7]。科技风险规制政策正是在这些利益相关者的关注中出台。
政策制定过程本应是政府与社会互动的过程,是政府对于社会利益要求和愿望作出反应、解决社会公共问题的过程。政策的制定要真正回应社会诉求,就需要各方利益相关者很好地参与,就需要畅通的利益表达渠道。但在科技风险规制政策的制定过程中,由于现实中诸多因素的制约,长期以来依靠的仅是“精英决策”和“专家智囊辅助决策”,话语权的表达呈现出严重的不均衡,代表社会真正诉求的广大民众的话语权表达呈现一种高度个体化与极端分散化的状态,缺乏与政府和专家等强势集团平等沟通的平台,从而导致在政策的制定中民意的严重缺失,导致民众与政府专家之间处于一种紧张、陌生与不信任的状态,没有实现科技政策规制政策张力的最大化。因而科技风险的产生并不仅仅归因于科技的发展,在某种程度上是政策制定过程中各方利益相关者缺乏沟通与交流、缺乏政策张力的结果。
科技风险一般总是未来性的,并渗透了很强的“知识依赖性”,这些特性必然导致专家对科技政策制定过程中垄断权威的形成。科学判断对真理形成了垄断,产生了天然的排他性,科学建议的认知权力被赋予了科技专家,他们通过运用各种知识参与决策,而忽视其他相关群体的权利与利益。科学理性常常压制社会理性,它不仅垄断了科技的发展与应用,也垄断着关于风险的解释与判断标准。
其实,从20 世纪中叶以来,随着技术风险的不断增加和政府公共事务的扩张,使得政府在公共政策制定过程中开始依赖专家,尤其是涉及一些科技政策的制定过程中尤为明显,专家知识作为决策行动的技术维度开始扮演重要角色[8]。但随着科学判断的不可靠性增长,现代科学技术的高度复杂性和不确定性也常常使得科技专家难以真正认识和解决科技风险问题,科学权威的危机促成了普遍风险的困惑。因此,长期以来专家独享的、对科技风险存在与否的鉴别权与判断权日益受到公众的质疑[9]。最为典型的是转基因食品问题,虽然一些专家力挺转基因食品,但调查显示,八成公众对转基因食品有戒心。在新浪发起的“农业部批准进口三种转基因大豆”网络调查中,截至2013年10月6日18 时13 分共有41596人参与。认为转基因食品对人体有害的比例占到了76.9%;认为“无害”的只有5.3%。调查还显示,84.3%的人表示不会购买转基因相关产品,只有7.8%的人明确表示会购买[10]。
政府的选择性失语主要是指在涉及科技政策的出台过程中,片面强调技术带来的利益与好处,而刻意隐瞒其可能对公众健康或环境带来的危害。首先,公共选择中的“经济人”假设,认为政府也是以理性为基础,都是通过对“成本-收益”的精确计算后作出决策。对于科技风险来说涉及长远经济利益的部分往往很难作出精确计算并得出科学结论,在长远利益仅停留在一种预测与假象并缺乏系统论证的情况下,相对来说,实现眼前的利益总是有诱惑力的,因而公共政策的制定者一般都表现出对短期利益的强烈偏好,对其引起的长期后果不加以重视[11],即使知道其未来预期产生风险概率很大,也会选择性失语。
另外,政府的绩效考评导向也往往导致选择性失语的产生。在评价政府的政策效能时,上级政府更倾向于对数字和总量指标等进行分析,而不是实地调研,考察对当地未来经济发展潜能的影响[11]。而官员在一个地方的任期往往只有几年时间,这种过于现实、片面的评价导向与短期的任期机制使得一些地方领导人为了在任期内出“政绩”,只要是项目,就要千方百计去争取,而科技项目大多都是高风险、高产出项目,产出是当前的,风险则是未来预期的。因而面对科技政策的制定往往隐藏不利于自己的政策信息,进行选择性失语。据相关数据显示,从1999—2010年政府在高新领域的投资从516.2 百万增加到2475.41 百万,增长了将近4 倍[12]。
社会科学家往往假设:一个具有共同利益的群体,一定会为实现这个共同利益采取集体行动。但公共选择理论奠基者奥尔森教授却发现,这个假设不能很好地解释和预测集体行动的结果,许多合乎集体利益的集体行动并没有发生。据调查数据显示,中国民众的实际“政策参与”水平低,如果按照总分为10 分的评分标准,全体被调查者的得分均值为4.21 分,总体处于中等偏下水平,这显示出中国公民政策参与的基本模式仅是“接受型的政策参与模式”[13]。这种“集体行动的不足”主要是由于分散的个人在利益博弈中往往出现集体行动的“搭便车”现象,乔治西美尔明确指出,比起大集团来,小集团的行动更果断,“向心组织的小集团一般总能发掘并使用其能量,而在大集团中,能量往往是潜在的”[14]。“潜在的集团”难以产生一定的社会压力来获得自己的公共物品。就如托克维尔所言,“在民主国家,全体公民都是独立的,但又是软弱无力的。他们几乎不能单凭自己的力量去做一番事业,因此,他们如不学会自动地互助,就将全都陷入无能为力的状态”[15]。
另外,信息的不对称使得公众对科技风险的认知往往仅诉诸常识知识、情感体验和价值合理性[16],当然,这并非就是技术专家所贬斥的“非理性”,但传统科学理性与社会理性的人为分割使得公众的判断被完全排斥与边缘化,使得公众的话语权孱弱,其利益要求得不到足够的重视。
如果在科技风险规制政策中,继续按照这种不平等的逻辑来进行社会管理和提供公共服务,那么,科技风险政策中的“马太效应”就会显现,将使对科技风险应对能力较弱的弱势群体面对更多的风险,而具有较强风险应对能力的强势群体却在制造了风险之后逃避对风险管理的责任,将不可避免地形成贝克所讲的“有组织的不负责任”的社会事实,从而导致更多风险的产生,并因此陷入“因果累积”的恶性循环中[17]。因此,要破除这种被现代制度固定化的不平等,就必须实现政策张力的最大化——多方利益相关者沟通交流与合作,在科技规制政策的制定过程中不仅要有政府、专家,更应有公众参与,要充分发挥社会与民众的力量,达到社会协同,实现政策的多赢优化。
吉登斯认为,“过去一直将科学与技术看作政治之外的事情,但是这种观点已经变得过时了”。科技发展本身是科学家的事情,但是科技发展带来的风险已经直接或间接影响我们的健康与生存环境。比如化学灾害已经造成严重的环境污染,包括水污染、大气污染、海洋石油污染和酸雨等,另外还造成了食物、药物及农药中毒[18]。在这样的背景下,决策不能再留给那些“专家”去做,而必须使政治家和公民们也参与进来。吉登斯认为必须将他一再称道的“民主的民主化”引入科技领域。
专家知识的民主化是对专家知识权威模型的一种反思与批判,科学建议的权利被理所当然地赋予科技专家,而普通民众的发言权被完全剥夺,这是一种显而易见的民主缺陷与合法性的缺失。这种天然的排他性,将导致公众的利益被轻易忽视。“没有公共参与的(科技)决策不仅会使政府机构为经济利益所掣肘,而且也常常使公众对科学采取不加批判接受的态度”[19]。贝克认为,为了使人们有机会向一些科学技术的运用说“不”,就必须实现“民主制度的生态延伸”,即营造一个公众发言的公共空间。“只有一种激烈、有力、科学论证武装起来的公共争论才能将科学的精华与糟粕分离开来,……从而争取到其自身拥有的行使判断的权力”,“从而把‘我们如何去希望及生存’这一标准应用到科学的计划、结果和危险当中去”[20]。
要真正实现“专家知识的民主化”,就需要改变公众“集体行动”不足的问题,培育公众的公民精神,尝试公众与专家之间的最大化互动,成立一些由民间智囊团组成的非政府组织与志愿者组织,真正把广大社会成员纳入到科技规制政策的制定当中去[21]。
公民社会具有很强大的功能,它可以在某种程度上填补国家和市场机制所无法达到的领域;可以充当公权力与私人领域连接的过渡带;通过发动各种以实现社会公正、环境保护等为目的的社会运动,减少市场对社会的过度侵入,抵制利润至上的理念与价值。由于我国公民社会发展一直沿循“国家引导”的路径,公民社团整合资源和发挥作用的能力非常有限,从而呈现出对公共事务治理参与无力和参与不足的“社团有效性缺失”的现状[22]。据调查显示,在城市受访者中,只有4.5%的人参加了民间社团,其中包括志愿者组织、业主委员会、环保组织等。而在农村,参加民间团体的比例仅为1.7%[23]。要想改变这种现状,让公众真正有序参与科技政策的制定过程,就必须发挥公民社会组织的放大效应。公民社会通过把具有相似兴趣、观点和利益的单个人聚居在一起,并培养成员的合作精神与分担责任的意识,使该社会成员能为共同目的自愿地、而不需要外部强制地达成集体行动,有利于形成组织化的利益表达,从而为公共利益的凝聚提供相对清晰的力量对比。
公众具有了公民精神后,需要的是一种民主的载体与平台,让其可以进行集体发声,更好地与政府专家进行沟通交流。而协商民主是一种具有巨大潜力的民主治理模式,与代议制不同,它能够有效回应多元文化间对话和多元社会认知的某些核心问题[17]。按照大卫·米勒的看法,协商的理想“从这样一个前提出发,即政治选择会出现冲突,而民主制的目的是必须解决这个冲突”。他提出这类冲突的解决应该是民主的,所以必须“通过一种开放的和非强迫的关于重大问题的讨论,目的在于取得一致的判断”[24]。共识不一定是直接通过这样的讨论达成,重要的是,参与者的判断是按照他们所听到的和说出的东西做出来的。
在科技风险规制的政策制定过程中,通过协商民主这样的政治过程,使各方参与者可以自由、公开地表达或倾听各种不同的理由,通过理性、认真的思考,审视各种理由,或者改变自身的偏好,或者说服他人,从而把专家的意见经过民意的充分发酵,使政策张力达到最大化,达成合法决策的模式。而目前新媒体的出现,为其实现提供了可能性,新媒体的交互性与即时性、海量性与共享性、个性化与社群化的传播形态为各方参与者参与到政策的制定过程提供了新的手段和更加便利的条件。
除了发挥公民社会多主体治理以外,中央政府应该扮演更为关键的角色,加强宏观政策的引导,减少地方政府在对待科技发展政策中的选择性失语。继续坚持可持续发展战略,在科技政策的计划和发展中纳入对环境的关注与考虑,坚持国家、社会、人和自然的和谐发展;做好公共产品供给的整体规划,从全国配置考虑,从公共保障的整体角度考虑,满足全社会需求,防止地方政府“本位主义”行为;提高安全标准,建立安全举证机制,确立明确的责任人,防止“有组织的不负责任”现象的产生;建立生态健康系统服务价值体系,把对人类健康与生态的影响量化、货币化,促使地方政府对科技产生的影响进行经济思量。
[1]乌尔里希·贝克.世界风险社会[M].吴英姿,孙淑敏译.南京:南京大学出版社,2004.
[2]胡明艳.科技风险的治理[N].学习时报,2013-03-04.
[3]卡尔·波普尔.猜想与反驳[M].杭州:中国美术学院出版社,2003.
[4]安东尼·吉登斯,克里斯多夫·皮尔森.现代性:吉登斯访谈录[M].尹宏毅译.北京:新华出版社,2001.
[5](德)乌尔里希·贝克.从工业社会到风险社会(上篇)[J].马克思主义与现实,2003,(3):26-45.
[6]爱德华·弗里曼.战略管理:利益相关者方法[M].上海:上海译文出版社,2006.
[7]邬晓燕,程苹.基于利益相关者视角的科技风险认知与规制[J].北京交通大学学报(社会科学版),2012,(10):76.
[8]赵万里,李艳红.专家体制与公共决策的技术-政治过程[J].自然辩证法研究,2009,(11),82.
[9]许志晋,毛宝铭.论科技风险的产生与治理[J].科学学研究,2006,(4):489-490.
[10]新浪调查:农业部批准进口三种转基因大豆[EB/OL]http://survey.finance.sina.com.cn/result/79665.html.2013-10-06 18:13:14.
[11]鄢琳.公共政策中的短视效应及其对策研究[D].电子科技大学硕士论文,2009:19-20.
[12]王江琦,肖国华.我国科技风险投资政策效果评估——基于典型相关分析的中国数据实证研究[J].情报杂志,2012,(6):109.
[13]史卫民.政治参与蓝皮书(2012)[M].北京:社会科学文献出版社,2012.
[14](美)奥尔森.集体行动的逻辑[M].陈郁等译.上海:格致出版社,上海三联书店,上海人民出版社,1995.
[15](法)托克维尔.论美国的民主[M].董果良译.北京:商务印书馆,2009.
[16]Slovic·P.The Perception of Risk[M].London:Earthscan,2000.
[17]杨雪冬.风险社会与秩序重建[M].北京:社会科学文献出版社,2006.
[18]刘雯.科技风险、灾难与负面效应的实证研究[D].中国科学技术大学博士论文,2008,19.
[19]薛晓源,周战超.全球化与风险社会[M].北京:社科文献出版社,2005.
[20]乌尔里希·贝克.“从工业社会到风险社会:生存问题、社会结构与生态启蒙”.梁展选编:全球化话语[M].上海:上海三联书店,2002.
[21]Augele gulimaraes pereira.Science For Policy[M].Oxford University Press,2012.
[22]龚咏梅.联合的艺术:社团组织与政府的关系[J].社会科学,2002,(2):51.
[23]汝信,陆学艺.社会蓝皮书:2012年中国社会形势分析与预测[M].北京:社会科学文献出版社,2012.
[24]安东尼·吉登斯.超越左与右[M].李惠斌,杨雪冬译.北京:社会科学文献出版社.2009.