武 新,魏 榕
(1.东北大学文法学院,辽宁沈阳 110819;2.武汉大学政治与公共管理学院,湖北武汉 430072)
自上世纪70年代以降,西方社会政策评估领域开始了一场旷日持久的争论。争论矛头直指实证主义以及与之相关的政策评估实践中的客观主义认识论基础。批评者认为,受逻辑实证主义影响的决定主义[1]和经验主义[2]已经难于应对政策评估特别是复杂政策的评估,专家主导的评估阻止了其他群体参与评估[3]。政策评估的实证主义基础遭到了众多的批评[4],进而涉及到评估方法、价值、评估内容、评估参与者、评估结果的使用等方面[5]。评估变成了多学科的研究领域[6]。评估从单一的概念向多元的概念和多元的方法、测量标准、价值、视角、听众甚至多元的利益转变[7]。本文对这场争论涉及的社会政策评估的哲学基础、内容、方法与范式进行综述,以期对我国的社会政策评估研究和实践有所帮助。
西方社会政策评估从单一的以实验方法为主的量的研究方法和专家主导评估的单一模式向多元化评估发展,20世纪70年代兴起了对实证主义哲学范式的批评,在众多的批评中,后实证主义、解释主义和批判主义三种范式引起了人们的注意。
20世纪70年代以前,在社会政策评估领域中占据着主导地位的实证主义哲学范式受到科学主义思想的影响,认为政策评估能够像自然科学研究一样进行分析的、经验的、实证主义的定量研究。实验方法备受推崇,通过对实验的严格控制,实验者和实验对象之间不发生互动,或者使互动最小化,以使政策评估更加科学化、定量化和客观化。根据这一研究方法,研究应不受或较少受个体主观性的影响,以提出不受个人情感影响的、客观公正的研究结论。这一研究方法的“经验”层面强调通过经验(归纳)和实验(演绎、推断)的方法来揭示自然和社会现象,目的是探究自然和社会现象的本质和规律,预测、控制和解释自然和社会现象。经验、逻辑分析是“客观地”认识现实的基础,并通过采用测量的技术来追求研究的精确性,通过数据的收集、处理和分析,根据描述性和推断性统计数据对各测量变量进行分析,从而得出较为科学客观的研究结论。
自20世纪60年代中期,学者们开始在研究中使用实验设计、经济学和统计学的方法。评估者被敦促使用一系列让人喜爱的方法论原则和程序——实验模式——去评价项目达到目标的程度。为了坚持实验科学的信条,这个时代的评估者采取了客观的立场并坚信他们工作的结果使得社会计划和政策制定扎根于政治中立和科学合理性中[8]65。
后实证主义仍然代表着“不在王位上的旧确定性,但是并没有被废止”[9]。它保留了对实验科学定量研究方法的偏爱。这种偏好包括继续强调与社会因果律相关的因果解释,更喜欢错综复杂的多变量的统计学的相互作用而不是简单的几个因素的主要影响。
然而,后实证主义对实验方法的权威性持谨慎态度,其在两个方面扩大了实验方法。其一,扎根于多元操作主义的经典概念中,其用不止一种工具去测量给定的社会现象以便加强工具的合理性[10]。后实证主义还把这个概念扩大到了咨询的其他方面,提倡把同一组数据进行多元分析作为一种提升有效性的工具。其二,后实证主义通过吸收来自于其他价值体系的批评来增加其对研究结论的信心。“只要最终的事实不是可接近的,分配有效性的过程就是社会的和部分依赖于争论中获得的共识。”[11]争论是或应该是政策评估和研究的主要产品。政策评估者的工作就是去创造这些存在于证据、信息和逻辑中的争论,这将构成在民主商议和决策中被当事人使用的话语。后实证主义将引导参与者和公众增加参与政策分析和决策的争论机会[12]。
后实证主义评估研究被预期有一种来自于多样化分析、理论视角和价值框架支持的实验的和定量的核心。因此,系统分析和精致的准实验设计就成为后实证主义评估方法的核心[13]。社会测量和观察数据以及回归分析和聚合分析的联合使用表明后实证主义对多元方法的偏爱。邀请来自于项目受益者和政策制定者对评估发现的解释是后实证主义希望公开批评作为它评估有效性基础的一个很好的例证。
解释主义坚持人类现象最好不要由普遍的规律来解释,而应该依据它们所处的时间和地点范围进行社会现象意义的社会建构。对一个给定的社会现象,一个人的认识可能不同于其他人的,而对于获得对社会现象整体的理解,代表两者的意见都须要考虑[14]。解释主义主要依靠质的研究方法,特别是访谈和观察这些能够使调查者和被研究的社会现象直接进行相互作用的研究方法[15]。当然,这种方法本身固有的主观性和价值负荷以及所获得的资料受到了咨询者个人的有色眼镜的筛选,对于这些,解释主义是非常清楚的。然而,解释主义认为,在咨询中价值负荷主观性的合法性是不同于对咨询过程和结果产生误解所导致的偏差[16]。解释主义哲学指导的评估研究可能适合进行单一项目或单一地点的个案研究。解释主义评估者从某个时间点扩展开来,发展了有关背景的关键特征的细节描述。对于正在进行的数据收集和分析的相互影响问题,评估者也发展了一种自然产生的理解,这些理解针对不同参与者怎样看待他们的经历、这些经历意味着什么和为什么等内容。解释主义评估者的目标就是形成一种对这些不同的经历、意义、价值以及他们与特殊背景联系的整合的解释[5]。解释主义评估增加了市民和利益相关者提供评估输入的机会,它也在政策生产的过程中更多地牵涉那些被选的利益相关者。
在解释主义的评估中,参与者和市民不断地被请求通过分析过程去帮助分析者全面理解分析的背景,包括不同的价值和这些参与者亲身经历的解释。政策评估者不再是寻找正确答案的科学家和准科学家。相反,他们是政策环境的合作者和在给定的环境中尽力做好的执行者[17]。
批判社会理论来自于哲学传统,它受到法兰克福社会批判理论的影响,它也为项目评估提供了不同的范式。批判理论是在主体—客体的总体化运动中研究社会的,批判理论对社会认识每一步骤的实现都有赖于科学和历史经验中所积累起来的对人和自然的认识[18],其分析立场所保持的争论、程序和语言的逻辑一贯性要不断地接受检验。这种分析的着眼点集中在对制度以及其中的社会规则、不平等的权利分配的怀疑[19]。它的批判矛头直指社会的不公正和人类受苦受难的根源,并向往合理而公正的社会。其方法是量和质的研究方法的混合、历史分析和批判的整合。
实证主义评估所推崇的以实验方法为主的经验式的评估方法遭到了多种质疑。评估方法变得更加动态了,评估发现应该以一种进行中的方式被使用,在这个进行着的交换过程中,评估者不得不修订现有的实验设计,选择混合方法,以便对利益相关者关心和提出的问题进行解释。
评估方法变化的另一个原因是社会思潮的多元化,社会意识进入了一个冲突、多元和分化的时代。不同的群体有着不同的要求,他们收集与他们有关的信息,用于获得参与者观点的质的研究方法流行起来。
评估正在朝着多元组织框架发展。这种情况把政策评估置于一个广阔的政策发展背景中,评估应该设计成去回应政策制定者、项目行政人员、一线机构的操作人员、利益群体、观察员和选民等利益相关者的信息需求[20]。评估的日程取决于利益相关者将要发现什么有用,评估的目标是进一步实现利益相关者的目标。
早期的政策评估文献介绍了系统分析和操作研究方法并描述了评估怎样运用定量研究方法,通过随机的实验组和对照组设计,对假设进行标准化的检验[21]。实证主义哲学基础的动摇打破了定量方法一统天下的局面,质的评估方法受到了一些人的青睐。由评估者像罗伯特和拜瑞倡导的质的研究方法形成了一个后续的、实践的和最终的研究合理性。但是,量的研究方法和质的研究方法之间的争论在20世纪70年代异常激烈[22]。
经过长期的争论之后,大多数理论者接受混合方法的和睦局面形成了。政策评估的混合方法原则在他们的评估设计、数据收集和解释中渐渐地接受了量的和质的策略。这些原则证明了现代评估理论朝着多元化的运动受到了新近的后实证主义的鼓励和解释主义的长期重视[23]。20世纪90年代,评估被认为是运用量和质的混合研究方法进行的研究活动的观点得到了较多评估研究人员和评估实践者的认可[24]。
早期的评估只是去评价哪个项目执行得最好。多数评估者认为社会科学能够清晰地指出社会问题的原因和提出解决问题的政策干预,这些政策干预能够被执行,政策评估能够提供毫不含糊的答案,管理者和政策制定者能够热情地接受这些发现,进而使社会问题得到解决。可是,事实说明这些想法过于天真。社会科学并非能够清晰地指出社会问题的症结所在,政策干预也不是全部有效和完全按照政策制定者的意愿被执行,政策评估得出的结论可能会遭到来自不同利益群体的质疑,一方面,政治家和政府官员批评政策评估的结果无法使用,政策评估的作用越来越受到质疑。经济学家难以解释为什么决策者们愿意把大量的资源花在一项他们几乎用不上的产品上[25]23。而普通民众也因为评估结果过于专业化,而不能理解评估的结论。另一方面,那种认为项目管理者会轻而易举地接受评估结论并调整或终止他们的项目的想法从来都没有得到相关事实的支持。评估结果被使用到什么程度,这方面的争论进行得异常激烈。一种观点认为,评估结果的工具性的使用,即作为评估的直接结果的项目修正几乎没有发生过[26]。Weiss坚持启蒙是评估结果被使用的一种方式,使用者渐进地把评估结果吸收进他们的参考框架中,而不是直接地改变项目。相反,Patton强烈地为工具性使用的可能性进行辩护,他坚持只要评估结果被适当提出,它们就会被使用[27]。评估者认同的是如果评估是有用的,那么他们必须提供这些项目及其背景的很好的描述。
现在评估不仅仅集中在政策的结果,而更涉及政策结果的使用、政策结果的社会影响、政策发展的阶段、政策执行的质量、多种政策因素的相互关联等等[28]。在项目的执行阶段评估内容集中于服务地点、被服务的案主、工作人员的层次和资源使用情况的描述。
成本效能也是近几年备受关注的政策评估内容。通常情况下成本效能评估要涉及以下六个方面的问题[29]:①项目对这些相应的受益人起作用了吗?②项目被完全送达了吗?③基金使用恰当吗?④项目的效能真的能被评估吗?⑤项目真如预期的那样运转吗?⑥项目值得花费这些费用吗?
在上述内容变化的综合影响下,社会政策评估出现了众多的范式,但是,科学研究、实证辩论逻辑、直接的社会变化和社会公正理论这四种社会政策评估范式较有影响力。
这是20世纪70年代以前政策评估的主导范式。自政策评估出现伊始,大多数政策和项目评估就借用了科学研究方法,自然科学家和社会科学家致力于将知识和技术运用于解决社会现实问题。就是把政治和社会问题转化成通过行政目标实现的技术定义的目标,繁杂的经济和社会问题被诠释为须要改进管理和项目设计的具体事项,通过应用那些定义了政策科学的技术决策方法来解决这些问题。在政策评估领域,实证主义表现为一系列实证—分析技术的结合:成本—效益分析、准实验研究设计、多元回归分析、民意调查研究、投入产出分析、运筹学、数学模拟模型和系统分析[30]。以科学理论检验方法为例,评估问题被转化为科学假设检验问题。这一方法预测的政策的影响是来自于社会或自然科学的某些领域,比如,保障年收入政策的评估就被转变为关于劳动力参与的经济学假设的检验。评估通常要通过实验的方法来收集数据,他们的研究用高度精确和数学抽象的符号来表示,目的在于回避党派政治利益,这就要求评估者尽可能地保持价值中立。客观、公正、准确、精确、可重复、预测和控制等价值对评估具有特殊的影响。评估者被希望忠实于上述价值,而尽可能保证其个人的任何价值不要影响实验数据的收集和解释。这种方法的一个最重要的假定就是决策制定者行为的合理性。这意味着在作决定时要考虑预期的收获和费用,并且这个被选中的决定能够表明比其他的决定有比较有利的前景。但是,这种理性的假设并不意味着能被检验,在许多评估的重要领域中许多假设是不能被检验的。
科学理论检验方法的局限性还在于,基础科学中的程序有效性在公共政策中的应用变得越来越困难,有些原则在公共政策领域根本不适用。通过严格的研究程序获得的评估结论仍有一定的不确定性,有些社会问题仅仅用钱是解决不了的。
无论是在定量的还是在定性的评估中,企图把评估还原为事实判断都可能导致关于价值中立的争论。当然在评估中的个人价值判断是不恰当的,但是特点判断、标准判断等不仅是恰当的而且是必需的。
这是由弗兰克·费希尔提出的一种后实证主义评估范式,其基础是对实证主义评估的批评,而理论则来源于“约根·哈贝马斯的综合合理性,斯蒂芬·图密的实际论据的非正规逻辑,还有保罗·泰勒的评估论点逻辑”[25]228三种既有理论。实证辩论逻辑范式是事实—价值结合的多重方法论框架结构,这种框架结构就是要克服实证主义评估中事实—价值两分的状态,旨在连接事实—价值两分法,把具体的经验分析同与社会和生活方式相关的更抽象的问题关联起来。实证辩论逻辑提出了同时验证经验主义与规范政策判断的辩论框架,政策评估逻辑框架包括项目验证、情景确认、社会论证和社会选择四个阶段,“目的在于解释一项完整的或全面的评估的基本构件,此种评估把经验主义和规范的、能纳入评估的所有因素全面地结合起来”[25]18。费希尔通过运用实证辩论逻辑评估范式意在克服实证主义评估中专家的绝对权威。
但是,这种范式的局限性仍是不能离开专家的社会政策评估范式。费希尔建立实证辩论逻辑政策评估范式的基础是对实证主义评估的批评,批评之一就是政策评估中的专家的绝对权威。然而,费希尔的实证辩论逻辑是一种多元主义方法的组合,这个模式综合了实证主义、解释主义、社会批评理论等多种评估模式和方法,意欲克服每一种单一方法存在的问题,可是,新的问题恰恰出现在这种综合的过程中,它使政策评估活动变得不比实证主义评估简单。虽然,评估中吸收了非专家的参与,但是,不经过专门的社会政策评估训练的非专业人士是不可能掌握评估模式中的各种方法的,实际上,这种评估模式还是不能摆脱专家的操纵。
早在20世纪40年代,与科学研究范式同时兴起的评估范式还有直接的社会变化评估范式,这种范式认为评估并不完全是寻找社会现象背后的规律,而是针对解释主义评估者的目标形成一种对他们不同的经历、意义、价值以及他们与特殊背景联系的整合的解释。参与者和市民不断地被请求通过分析过程去帮助分析者全面理解分析的背景,包括不同的价值和这些参与者亲身经历的解释,参与者差不多总是能够被评估的经历所改变。对于许多政策评估者来说,政策评估引人入胜之处不在于科学或研究技术而在于有计划的社会变化,评估被用来改变参与此过程中的每个个体的认知和态度。这些人被指导参与项目或政策的系统检验的过程,他们对政策的认知变化,他们行动的热情被调动起来了,这才是评估的力量所在。政策评估者不再是寻找正确答案的科学家和准科学家。相反,他们是政策环境的合作者和在给定的环境中尽力做好的执行者。
为了有用,评估中的发现必须能够被运用。不断地抓住形成评估提问的问题即是一个发现的历程,在每个步骤中不同的党派坚持不同的行动方针,每个决策必须是协商的结果。评估者特殊的能力在于指导或利用这个发现或变化的过程。
直接的社会变化评估范式的局限表现为:①把评估问题与项目决策和个案治疗实践结合起来是这种范式有意义的途径,但是,评估的影响力主要依赖于政治权力,人们有意识设计的评估不可避免地迎合现有的已经建立起来的权力。②这种由多方合作参与的评估也可能引起社会中权力的不平衡[31],为了平衡这种权力关系可能须要建立新的组织。③直接的社会变化范式更大的局限还表现在这种评估适用于小规模的评估特别是个案的评估,而大规模的评估研究还要借助于定量的数据分析。
社会公正理论的评估范式既不把评估看成是科学也不把它看成是技术,而是把它看成应用社会哲学。这种范式根源于社会批判理论和社会公正的平等主义理论,特别是源于约翰·罗尔斯的理论,他声称公正的概念为评价一个社会系统的分配方面提供了一个标准。
该范式下的平等主义和功利主义方法在政策评估时并不是接受已给定的一系列政策作为他们工作的背景,相反他们要为政策制定工作创造一个背景和议程[8]35-36。功利主义方法不仅对其拥有的权力感兴趣,它还提供了一些在其他两个范式中没有被认识到的价值假设。
评估的功利主义观点作为一种研究范式缘于几种功利主义哲学的主要原则。首要的就是实用主义的原则。为了遵守这个原则,政策必须被设计成为人类整体取得好与坏的最大可能的净平衡。与这个原则相关的一个假设就是平等不是绝对权力。过于强调平等可能降低经济发展的速度并从而减少可用于社会福利分配的资源[32]58。比如,收入可能是自然获得的也可能是政策赋予的,但是,有时收入支持政策可能会降低受助者寻找工作的动力。
功利主义观点认为公共部门中的社会分配应该主要以经济自由和机会最大化为目标,个体应以自我价值最大化为目的,他们中的大多数应对自己的命运负责。因此像贫困这样的社会问题主要是由于个人的特点造成的。因为个体最大化他们的效用,福利救助对工作构成了阻碍,处理这类问题的有效方法就是增加不工作的机会成本,也就是说确保那些不愿工作的人得不到这些救助[33]。
借助于这些基本的概念,社会服务的任务应该是尽可能有效地把那些落后的人带回到主流社会。评估的主要角色就是确保社会服务完成这一功能。因此,评估是政策制定者和政策管理者的工具。它的知识基础是经济学、操作研究和管理学。有效的行政管理将防止浪费和对国家的不必要依赖[32]101。效能和效率是评价社会服务结果应该优先考虑的价值。其次还要考虑平等、包容和民主参与。
评估的平等主义观点主要是由约翰·罗尔斯发展的,这一观点认为社会政策主要应该通过它们对个人自由的基本影响和它们在社会中的分配功能来评价。这些基本的自由包括政治自由、演讲和集会的自由、认识的自由、思想的自由、身体的自由、拥有个人财产的权力以及不受任意监禁和控制的自由。评估是一种手段,这种手段把曾经仅仅在技术和专业层面上政策隐含的和深远的伦理意义,展示在它们的表面[34],在这个表面下经常存在着一个没有被认识到的功利主义的伦理体系。政策遭受了功利主义的所有限制,评估就是使这些限制看得见并成为研究对象的手段。因此,平等主义认识到评估是一个与科学问题差不多的哲学问题,评估必须利用哲学研究的概括和方法。观察资料要借助于伦理模式以及科学模式来解释。在评估中,平等主义优先考虑那些具有重要的再分配功能的政策,如平等主义也优先评估收入转移政策,这一点与功利主义一样。然而,他们的目标不是评估这些政策在改变个人行为方面的效率和效能,而是这些政策作为一种收入再分配手段时的适度性。平等主义评估中要问的最重要的问题是:这些政策在什么程度上成功地缩小了收入鸿沟,社会政策如何消除社会的不公正和人类受苦受难的根源,社会政策如何实现社会的公正,等等。
评估中社会项目行政管理的公平性是平等主义的另一个优先考虑的价值。这里的含义是评估应该集中于这样的问题,如美国的食品券救助的是低收入人群而不是农业产业。在平等主义看来公共利益评估应该与再分配的研究获得同样的优先权。
当然,平等主义的评估方法也受到了批评。平等主义把注意力集中于伦理问题,但是这些伦理问题是很难清楚地与数据收集程序相联系的。在处理这些问题之前必须完成价值的分类工作。另外,也要清楚地展示价值怎样被用于实验观察模式[32]126。
综合上述内容,我们看到评估问题显而易见地跨越了自然科学和人文科学的界线。一方面,经验主义者对实验的谨慎严密难于求证;另一方面,科学的、方法的和社会变化的原则又表明这当中没有一个原则可以单独为评估提供一个适当的基础。排斥评估中的价值结果是事与愿违。尽管想保护资料的可靠性和有效性,但是,排斥价值通常减弱甚至消灭了资料的质量。减少评估中观察和描述带来的问题的努力总的说来也没有成功。因此,一个合理的综合性的评估框架或许能够帮助我们。
参考文献:
[1] Majone G. Evidence, Argument, and Persuasion in the Policy Process[M]. New Haven: Yale University Press, 1989.
[2] Hawkesworth M E. Theoretical Issues in Policy Analysis[M]. Albany: SUNY Press, 1988.
[3] Dryzek J S. Discursive Democracy[M]. Cambridge: Cambridge University Press, 1990.
[4] Brunner R D. The Policy Movement as a Policy Problem[J]. Policy Science, 1991,24:65-98.
[5] Durning D. The Transition from Traditional to Postpositivist Policy Analysis: A Role for Q-methodology[J]. Journal of Policy Analysis and Management, 1999,18(3):389-410.
[6] James L P, Joseph S. Public Policy: An Evolutionary Approach[M]. 2nd ed. Wadsworth: Thomson Learning, 2000.
[7] Guba E G. The Paradigm Dialogue[M]. Newbury Park, CA.: Sage, 1990.
[8] Cronbach L J. Associate, Toward Reform of Program Evaluation[M]. San Francisco: Jossey-Bass, 1980.
[9] Cook T D. Postpositivist Critical Multiplism[M]∥Shotland R L, Mark M M. Social Science and Social Policy. Beverly Hills: Sage, 1985:21-62.
[10] Campbell D T, Fiske D W. Convergent and Discrimination Validation by the Multitrait-multimethod Matrix[J]. Psychological Bulletin, 1959,56:81-105.
[11] Cook T D. Quasi-experimentation: Its Ontology, Epistemology, and Methodology[M]∥Morgan G. Beyond Method: Strategies for Social Research. Beverly Hills: Sage, 1983:74-94.
[12] De Leon P. Democracy and the Policy Sciences[M]. Albany: State University of New York Press, 1997.
[13] Trochim W M K. Advances in Quasi-experimental Design and Analysis[M]∥New Directions for Program Evaluation: Vol.31. San Francisco: Jossey-Bass, 1986.
[14] Greene J C, McClintock C. The Evolution of Evaluation Methodology[J]. Theory Into Practice, 1991,30(1):13-21.
[15] Guba E G, Lincoln Y S. Effective Evaluation[M]. San Francisco: Jossey-Bass, 1981.
[16] Smith J K. Quantitative Versus Interpretive: The Problem of Conducting Social Inquiry[M]∥House E R. Philosophy of Evaluation: Vol.19. San Francisco: Jossey-Bass, 1983:27-51.
[17] Guba E G. What Can Happen as a Result of a Policy?[J]. Policy Studies Review, 1985(5):11-16.
[18] Horkheimer M. Traditional Theory and Critical Theory[M]∥Critical Theory: Selected Essays. New York: Herder and Herder, 1972.
[19] Popkewitz T S. Whose Future? Whose Past? Notes on a Critical Science and Methodology[R]. San Francisco: Sage Publications, 1989:2.
[20] Goldenberg E N. The Three Faces of Evaluation[J]. Journal of Policy Analysis and Management, 1983,2(4):515-525.
[21] Davis D F. Do You Want a Performance Audit or a Program Evaluation?[J]. Public Administration Review, 1990,50(1):35-41.
[22] Eisner E W. The Educational Imagination[M]. New York: Macmillan, 1979.
[23] Lincoln Y S, Guba E G. Naturalistic Inquiry[J]. Beverly Hills: Sage, 1985.
[24] Durning D. Debating Technologies: A Methodological Contribution to the Design and Evaluation of Participatory Policy Analysis[M]. Tilburg: Tilburg University Press, 1997.
[25] Fischer F. Evaluation Public Policy[M]. Belmont, CA.: Wadsworth Group, 1995.
[26] Weiss C H. Evaluation for Decisions: Is Anybody There? Does Anybody Care?[J]. Evaluation Practice, 1988,9(1):5-19.
[27] Patton M Q. The Evaluator's Responsibility for Utilization[J]. Evaluation Practice, 1988,9(2):5-24.
[28] Howleet M. Studying Public Policy: Policy Cycles and Policy Subsystem[M]. Oxford: Oxford University Press, 2003.
[29] Berk R A, Rossi P H. Thinking About Program Evaluation[M]. Newbury Park, CA.: Sage, 1990.
[30] Putt A D, Fred S J. Policy Research: Concepts, Methods and Application[M]. New York:Prentice-hall, 1989.
[31] Coleman J S. Models of Change and Response Uncertainty[M]. Englewood Cliff: Prentice-hall, 1964.
[32] Crane J A. The Evaluation of Social Policies[M]. Boston:Kluwer Nijhoff Publish, 1982.
[33] Aderson M. “Welfare Reform” in The United States in the 1980s[M]. Stanford: Hoover Institution, 1980.
[34] Shrader-Frechette K S. Nuclear Power and Public Policy[M]. Dordrecht: Reidel, 1980.