杨建武
[提要]责任困境正成为人工智能嵌入政府治理的难题,剖析其生成过程以及理性应对,有助于发挥人工智能技术价值,提升智能社会的政府治理效能,推动实现以人民为中心的服务型政府。责任困境是一种程序化与过程化的问题,需从动态过程来分析,基于“信息—解释—结果”的分析框架,从避责、问责、追责的全过程视角,剖析人工智能嵌入政府治理的责任困境。通过推进算法透明度技术创新,构建责任清晰的政府治理决策机制,建立健全智能时代责任追究制度,推动建立公共治理演练数据库,加强智能时代行政文化建设等举措,确保智能治理与公共伦理同步发展。
责任是人类社会的核心价值追寻,无论是公共行政,还是私人行政,其均被视为最为重要的词汇。从传统公共行政的“效率至上”偏执,到新公共行政的“责任价值”复苏,再到新公共服务的“责任伦理”复兴,公共行政责任价值的演变,见证了公共行政发展历程。公共行政的公共性、服务性、价值性等特性,决定了“责任伦理”并非简单的价值旨趣,而是一个“以维护公共价值为皈依,又根植于行政人员内心深处的政治价值取向和行政道德规范。它包含一系列的价值判断和伦理品质,其中包含自由民主、公平正义、公民意识、服务意识、效率意识、法治意识等”[1]。随着公共行政的发展,清晰明了的责任机制是提高公共治理效力和效率的工具,也是确保公共行政行为合乎目的性、保证公共行政事务顺利进行、减除公共行政合法性危机的重要保障。党的十九届四中全会提出了“坚持和完善中国特色社会主义行政体制,构建职责明确、依法行政的政府治理体系”目标任务。因此,在国家治理体系与治理能力现代化背景下,责任是推动制度优势转化为治理效能的关键因素。
党的十九大报告指出当前国家治理体系和治理能力有待加强,并提出了建设“数字中国”的战略目标。从技术与政治的互动来看,政府治理现代化就是通过运用科学方法,改善治理体系,提供更好的公共服务。而由数据、算法与机器识别等带来的人工智能正处于革命性发展中,高效率、低成本的运用前景,使得其在技术和人类互动方面的影响无处不在。对于紧扣技术发展脉搏的政府治理而言,人工智能的广泛应用为世界各国政府带来了无数机会,引入人工智能有助于优化政府治理决策、改善公共服务质量、提高城市风险识别能力,成为推动政府治理智能化转型的核心力量。与此同时,由于技术黑箱、制度缺失等原因,其存在的责任困境也是人工智能嵌入政府治理所面临的伦理困境之一。责任是一个复杂性问题,尤其是涉及人工智能这一更为复杂技术之后,变得更为棘手,然而在弱、强、超的不同阶段,人工智能嵌入政府治理所形成的责任困境是不同的。从当前人工智能技术发展现状以及趋势来看,其尚处于弱人工智能阶段,在此阶段,人工智能仅是政府治理的辅助手段而不是治理主体,政府治理的主体仍是实体的政府与社会主体。因此,探讨智能技术嵌入政府治理的责任困境具有可行性。我们应反思与追问:在人工智能日渐助推政府治理能力提升的时代背景下,作为其核心价值的责任实现为何会成为一个难题?其又是如何产生的?又应如何应对?因此,在风险社会与智能技术叠加时代,必须关注技术对政府治理的消极影响,全面把握技术发展与政府变革的关系,这对发挥人工智能技术价值、提升智能社会的政府治理效能、推动实现以人民为中心的服务型政府,有着重要的理论与现实意义。
随着人工智能的持续发展及其不断嵌入政府治理,国内外学者从不同视角分析了人工智能嵌入政府治理存在的责任困境问题。
一是智能机器的责任归属问题。在国外学界看来这一问题属于元问题,有学者认为尽管大多数研究者意识到计算机的识别算法和确定性性质缺乏相应的“人”的意志,即使是这些智能机器被严密地监控,但仍有约五分之一的研究者将责任归咎于机器的错误,[2]从这一点来看,智能机器似乎被推上了责任承担者前沿。那么,智能机器是否已具备承担相应法律责任的人格属性呢?有学者指出计算机与设计师的工作间存在着不同,认为只有人类设计师才是道德主体显然是没有认识到科技和计算机系统对人类行为的塑造功能。[3](P.221)而在另外一些学者看来,智能机器似乎已达到了某种程度的主体自主性,因此有必要运用“集体责任”分配智能机器的行动责任,[4]甚至基于学习能力可以将智能系统视为一个具有独立地位的责任主体,[5]就目前人工智能的发展阶段来看,智能机器暂不具备道德责任主体地位。在国内学者看来,人工智能的行动责任既不能归咎于人类设计者或使用者,也不能归咎于人工智能自身,责任鸿沟问题实际上产生于归因的过程中,[6]一旦人工智能和自动系统的智能化判断或决策出现错误和偏见,人与机器、数据与算法的责任往往难以厘清,因此机器人没有能力承担全部道德责任,[7]如智能驾驶中出现的过错侵权责任难以适用于智能机器人,追究责任将愈发困难,甚至带来责任鸿沟。[8]针对这一问题,可根据与人类关联的形式,将人工智能所承担的义务责任视为联合义务责任,分为多种责任承担形式。[9]
二是人工智能嵌入政府治理的责任问题。虽然算法越来越有助于从根本上调解个人和公共机构之间的关系,但算法决策的责任正在成为讨论的中心问题和实践的关键问题,[10]由此而来的缺乏透明度挑战着社会的道德、政治秩序。[11]在人工智能不断赋能公共服务质量、政府决策、价值创造的过程中,其可用来更好地理解和模仿官僚的决策和裁量权,但公职人员在提供数字化公共服务过程中的责任值得关切,尤其是缺乏必要的分析工具来理解和评估参与这些系统的设计、开发、采购和维护等因素的人员所起的作用。[12]另外技术黑箱的存在、无法确定人工智能责任的法律和司法框架,[13]使得不能清楚谁应对使用人工智能做出的决策负责,[14]不清楚谁负责以及谁拥有控制权。[15]而在国内学者看来,当智能技术嵌入政务服务时,由于政务服务自身特征与智能技术之间的差异,以机器代码自动化为特征的实践运用容易造成行为主体“虚化”,从而引发责任性问题。[16]且随着人工智能嵌入的不断加深和扩展,政府公共行政过程中责任主体模糊、责任追究困难的尴尬争论可能会越来越多,谁负责任、向谁负责、负何责任以及如何负责等问题更加需要理性考量,[17]而造成这些问题的原因,主要在于算法的不透明性,使得某些平台企业与商业公司集聚了数据和财富乃至分享了公权力,但这又缺乏明确的公共问责机制。[18]倘若运用人工智能辅助决策,则因决策者的避责和人工智能缺乏担责的能力,导致行政人员利用权力转移之机摆脱责任追究,也无法追究相关责任主体的责任,[19]从而导致没有主体来承担决策失败的责任,决策责任认定上的道德风险问题开始凸显。[20]
整体而论,学者们在剖析人工智能嵌入政府治理的责任困境时,主要从智能机器是否可承担相关责任以及存在何种责任困境中寻找答案。无论何种视角,均倾向于从静态层面剖析问题,一方面其基本逻辑依然是从主体性视角出发,把人工智能作为一般的技术工具,但忽视了人工智能的“自主性”特征,具备自主性的人工智能嵌入政府治理,本身就是治理网络中的“行动者”,必然给政府治理结构变更产生革命性影响,但弱人工智能暂不具备承担道德责任的主体地位,将责任归属于人工智能不具备可能性。另一方面从结果可能性角度梳理责任困境,然而责任追究并不仅仅局限于结果责任追究,而应是过程性问责。因此,现有研究没有较为准确分析为何产生责任困难,实际上政府治理是具有鲜明“情境—场域”的社会实践活动,责任概念自然也是“重叠的、矛盾的并且不断发展的”[21]。当人工智能嵌入政府治理,涉及政府治理的过程性因素,以及人工智能系统的数据、算法等结构性因素,二者的过程性与结构性要素不能有效耦合,是产生责任困境的重要原因。鉴于此,本文试图从人工智能嵌入政府治理的动态角度出发,通过辨析影响其责任困境的多个因素间的复杂关系,全面把握人工智能嵌入政府治理的责任困境问题。
所谓分析框架,其实质是因素间的逻辑呈现,以及一系列变量间关系的确定。[22](P.7)马克·博文斯在剖析和评估问责制时认为,一个有意义的责任实践应由信息(透明度)、解释或证明、结果(可能性)等三个阶段组成,首先必须要有任务执行情况、结果或程序的各种信息,并且在出现风险时能提供相关解释或缘由,最后根据信息、解释提取责任的可能性。[23]人工智能嵌入政府治理的责任困境之形成,不能简单地从技术或政府治理结构视角剖析问题,本文将借用博文斯关于评估责任制的三阶段要素,基于“信息—解释—结果”的分析框架,探索性剖析人工智能嵌入政府治理的责任困境:其一,人工智能嵌入政府治理是具有鲜明实践特征的动态过程,从人工智能开始进入政府治理伊始,其与政府治理关系就已从传统“治理主体→治理客体”向“(治理主体-技术)→治理客体”的具身关系转变,技术自身因素也随之进入政府治理系统,而信息是支撑人工智能的基础要素,也是政府有效治理的前提,只有掌握大量的信息,政府治理才能有效开展,但信息的不对称却使得避责更为方便。其二,信息只为减少信息不对称,却不能解决责任问题,因为责任与可回答性紧密相关,也即人工智能运用于政府治理的过程是否具有可解释性。然而,要求披露代码和数据集的规制手段或许在某一时间段具有规制效果,但却无法保障具有动态性特点的算法决策能提供解释和审查依据,[24]问责成为难点。其三,信息与解释是评估和判断所采取的决定或行动是否适当的基础,技术进步是公共行政发展的关键因素,智能技术为政府治理带来透明度、可控性和响应性,[25]也为政府治理的问责体制设计提供了技术支持,有效消解执行偏差的可能,并降低了行政负担。但与此同时,政府治理也面临着信息越多却理解越少的悖论,当人工智能嵌入政府治理时,在治理系统中流动却脱离了情境的海量数据容易导致新的意义黑箱,并强化了官僚组织理性特质,从而出现操纵数据、扭曲政策、推卸责任等新难题。可见,这一分析框架克服了单纯从智能技术或政府治理角度剖析责任困境的弊端,从避责、问责、追责的全过程视角,剖析人工智能嵌入政府治理的责任困境。
图1 人工智能嵌入政府治理责任困境的分析框架
人类已迈入信息化时代,信息成为政府运行的杠杆,某种程度而言,政府治理是通过多种方式搜集整理信息数据并做出决策的过程,而人工智能正是在数据的支撑下,通过大量数据训练集进行有效的“输入—输出”,将其映射到解决某些治理问题的方法上,并“通过建立跨部门共享的信息收集平台和智能化的公共服务需求识别系统,传统政府组织的权力运行、监管方式、信息机制和决策模式都面临着调整,一种扁平化、协同化和一体化的科层治理结构有望形成,打破了传统科层结构中封闭、本位和保守的碎片化状态”[26]。换言之,智能时代社会事实以高度信息化的形态流动,而政府治理实质是通过智能技术不断收集、扫描社会事实信息,并将其置于高度缜密的算法系统,以提高治理的清晰度。从人工智能嵌入政府治理的具体过程来看,其一,算法是一个独立的决策支持系统,需要具有高度专业性的技术团队提供支持。其二,在政府治理中使用算法需要各种专业知识,以及知道如何使用系统的专家,也需要维护算法并确保其正确安装到组织信息环境中的专家。然而,在此过程中政府无法独立创设一套人工智能算法并运用于政府治理,算法等核心技术往往被技术主体所掌控,这也造成了技术与治理不同主体间处于信息不对称状态。信息不对称最先用于微观信息经济学研究,简而言之,即在某些事情上一部分人掌握的信息比另外一部分人要多,这既有主观能力差异,也有信息渠道等限制因素。在信息不对称下,政府运用人工智能实际上存在着某种“委托—代理”关系,“委托—代理”理论来源于经济学,是指信息不对称的双方存在将信息优势方视为代理人,而另一方为委托人的交易行为。一般而言,简单的委托代理能有效澄清责任,但在智能治理场域中,不对称导致委托代理链条增加,责任关系也变得日益复杂。
尽管人工智能具有一定的操作复杂性,但数字时代的政府面临治理困境,而人工智能能更快速、高效以及规模性解决政府面临的复杂问题,加速了其向政府治理嵌入速度。因此,政府迫于治理压力,将借用强大的人工智能技术系统处理复杂问题,但由于专业性限制以及注意力有限等原因,政府不得不“委托”人工智能从事决策、执行等行政行为,甚至以合同制或外包制等形式将部分权限让渡给技术精英。然而,人工智能主要依靠以代码为主的指令,嵌入政府治理过程,而就当前的智能技术而言,其不能预测行为后果,加之智能技术裹挟下的政府治理,不太可能有能力来评估算法输出和预测所必需的参数是否有效,特别是数据模型的假设、数据结构与关键特征交互有效性,无法避免出现安全风险。一旦出现减损性后果,“委托—代理”将为行政人员利用权力转移空间排斥责任提供特定情境,同时双方也面临定义和分担责任的挑战,对参与者决定和行动或不行动的洞察使得责任追究陷入困境,在胡德看来这属于机构性策略避责,通过信息不对称而层层分散责任,最终达到规避责任。[27]如“算法权力”的兴起,使得更多的政府行为是通过算法予以表达,然而一方面机器学习具有绝对的信息优势,政府并没有有效监督其输出结果的能力,[28](P.25)另一方面算法背后的运行原理一直被商业企业视为高度机密而不愿意公开,[29]这也加剧了公共部门对算法模型的严重依赖,当出现不利影响时,政府部门会认为这是算法代码或第三方的错误,而非政府自身责任,被委托企业则会指出算法自主性在复杂环境下处理信息以及输出结果不是设计者所能控制的,存在着某种难以预估的行为,因此在以政治晋升激励、“一票否决”、人事升降等为核心的问责形式下,[30]当脱离具体情境,孤立地谈论具有一定自主能力的人工智能系统应为其自身缺陷而要承担与人类一样的道德责任,极易使政府参与者逃脱责任追究。可见,“委托—代理”关系下的人机互动为政府避责提供了“避风港”。如备受争议的美国罪犯管理分析(COMPAS),原本用于刑事司法中替代制裁,但出现一系列问题后,其算法背后的源代码以及工作方法一直未被披露,这也导致了公共部门无法遵守其对受影响公民的披露职责。
政府治理过程的透明度与责任自成一体,意即能窥探治理过程背后的逻辑,尤其是在信息爆炸时代,人类大脑认知的局限,使得对信息技术、智能算法日渐依赖的背景下,推进国家治理能力与治理体系的现代化,就必须“构建职责明确、依法行政的政府治理体系”[31]。随着人工智能不断成功运用于政府治理各方面,技术人员、研创企业等尝试使嵌入政府治理的算法模型容易理解,如利用可视化技术透视交互过程,使其成为人类大脑思维所熟知的事物。然而,在现有认知条件下,人工智能的复杂性使得筛选、识别、分析其嵌入政府治理的背后逻辑变得困难,这也使得试图解释这些人工智能的行为难以实现,更遑论去追查其中的责任归属问题。
一是算法的难以解释性。算法本质上是一种计算机代码,通过输入代码从而输出或获得某种响应,尤其是深度算法的成功运用,使得智能算法拥有“上帝视角”美誉。也正因人工智能算法的专有性和复杂性,使得往往对其难以解释,且长久以来被人诟病,一直被视为“黑箱”而限制人工智能在特定领域的运用。当政府运用人工智能进行治理时,冰冷代码与输入变量仍是算法治理固有逻辑,且缺乏统一解释标准,政府人员要发现其存在意想不到的后果有难度。以最伊始的神经网络算法为例,其虽诞生于20世纪40年代,但经历几次迭代更新,逐渐衍生出胶囊网络、元学习等算法,并在语言识别、人脸识别等领域广泛运用,成为最为常见的算法之一。然而,即使它是最普通的算法,也是由多个隐藏的人工神经元层组成,涉及数以百万计权重,再借助超高算力将海量数据的输入和输出联系起来,但其背后存在的层层叠加的神经元层,[10](P.5)以及复杂源代码对于非专业人员而言,无异于天书。可见算法的难以解释性绝大部分原因来自于其自身的复杂性。例如,在英国被用于政府评估危害风险的工具“HART”系统,拥有成千上万个嵌入和特有的决策树,单决策点就有450万个,试图从中找到特定的决策解释难度似乎较大。[32]在这种情况下,如果向社会公众公开算法决策的运行路径,横亘在公众面前的专业认知鸿沟,使得即使是知晓代码与模型,公众仍无法了解一个复杂系统的运行逻辑,甚至专业人士也难以完全理解,更遑论普通人。因此,讨论规制算法系统存在的黑箱,是建立在对运行逻辑的可理解性基础上,但就目前来看,因为自身的不可解释性,算法运行似乎不会遇到现实挑战,也使得追责变得苛求。如由于英国国家卫生医疗系统(National Health System,NHS)的乳腺癌筛查安排软件中的错误算法,使45万名女性没有受到邀请而错失筛查机会,引发广泛关注,但错误算法究竟是如何产生的,因果关系如何厘清,国家卫生医疗系统、公共卫生局以及负责软件维护的日立咨询公司等三方却相互推诿。[33]
二是因果关系的模糊性。依靠人工智能进行政府治理,主要是利用智能技术将纷繁复杂的数据有效转化为可供政府治理的智慧知识。与此不同的是,常规的政府决策是建立在一定规范程序基础上的预判,并有着与之相对应的决策文本,当需要溯源时相关人员可较为清晰地解释决策过程以及理由,一般称之为责任归因叙事。但由于政府注意力有限、数据获取不全面,尤其是敏感信息掌握不全,导致政府在做出相应的决策时存在认知局限性。而人工智能借助其强大的分析与建构能力,在嵌入政府治理时将数据整合并描绘出具体事件的“情景”画像,改变了以往“事件链”的线性因果分析模式。[34]然而,一方面从智能技术嵌入政府治理的因果条件来看,目前人工智能算法系统对某项事务的预测,是建立在相关数据间的关联性基础之上,并非因果关系。由于信息不对称性、算法的复杂性、专有算法的保密性等,公共部门等治理主体的意图、决定与人工智能行为后果间缺乏明确的因果关系,也就无法依据因果联系有效控制行为发生。[35]因此,从本质视之,责任困境是主体模糊的问题,如运用人工智能拥有政府决策,这是一个连续过程,且涉及到算法研发者、系统开发者、工具使用者,并分布于不同环节、不同场景,倘若最终决策出现问题,如何确定责任主体则面临挑战,因为决策并非单个个体行为,而是多重合力作用下的结果,权力转移中出现的裂缝让归责与问责愈发困难。[36]另一方面从责任归因的叙事结构来看,因果关系的叙事均是基于主谓结构进行,且受制于主体的信息呈现。[6]一般而言,我们将具有一定自主性的行动者视为能承担责任的主体,而就目前来看,人工智能系统暂不具备对道德判断的情感感知能力。更为重要的是,自动化决策系统的非人类化使其脱离了人类主观判断,技术形式的进化始终是人类对技术的聚焦点,过往人们对相关问题责任归属的判断,是建立在生活经验基础之上的理性行为,但作为人类智慧延伸的人工智能自主学习,将人类视为技术的载体而非主体,甚至将人矮化为附属物,这似乎意味着人承认技术进化如同生物自然进化,人无法对其进行有效掌控,而只能臣服于神秘性之下。如智能系统因算法黑箱而绕开监管,并轻松地将一些重要邮件自动删除,但人们却不知道其为什么要删除,无法解释机器背后的原因,这样使得责任归属更是扑朔迷离。
判断某一责任是否可实现的核心在于结果的可回答性,然而,囿于复杂的信息问题以及缺乏对算法功能的充分解释,随之而来的是人工智能嵌入政府治理将出现诊断失败和确保纠正的困难,责任后果难以把控。
一是责任追究制度的缺失。相关制度的缺失使得基于信息不对称、不可解释性做出的错误决策,不能采取必要措施予以纠正与解决。尽管人工智能技术实现了政府决策的强理性以及政府运行的清晰化,但社会伦理与道德体系难以嵌入这一决策与运行体制内,导致无法对政府治理运行的环境以及突发情形做出预判与应对,此时对技术的监督就变得格外重要。从当前来看,我国缺少强力AI监管机制以及追责机制,尤其是政府治理中的AI运用,存在着数据采集授权超限、约束不够;数据分析AI安全标准不明,应用安全评估缺失;漏洞监测披露机制不健全等情况。数据应用追责机制的不足,数据泄露、存储混乱、非法使用以及精英垄断将导致政府陷入无力应对的窘境。
二是“技术先行”策略牺牲了责任审议原则。由于科层制考核压力,加之上级政府部门通过“行政目标责任书”形式将行政任务摊派给各下级单位,同时“晋升达标赛”的推行,使得不同层级政府面临着繁重治理任务。[37]在这种制度语境下,数字形式主义滋生,有些政府不得不急于采用智能技术以提升治理绩效,这也导致智能技术嵌入政府治理中缺乏伦理审查,没有及时将人工智能技术存在的黑箱问题进行排查,导致带有偏见、歧视等弊端的技术渗透至政府治理中,美国新奥尔良警察局为提高治理效率,与帕兰提尔公司开展了一项预测性警务合作,利用其软件识别潜在的犯罪者,但之前合作并没有经过公众和议会的审查,最终因对个人隐私等带来较大风险而终止。[38]再者,智能治理对人工智能技术的强烈依赖,使得政府需借助核心企业的帮助,二者维持着一种外包与合作的关系。然而,双方存在的较大价值差异,加之政府监管不够,极易从安全风险衍化为责任风险等。另外,人工智能是建立在算法基础上的技术系统,其主要依靠算法执行指令,而政府治理因素繁多,过程复杂,各种规则与程序既是开放性的,也是实质性的。囿于治理责任压力、技术时髦主义等,相关政府并不关心技术治理效果,政策执行中“机器程序主义”增加了追责难度。
三是算法私权力与政府公权力的冲突。从人工智能嵌入政府治理过程来看,这一过程涉及到以政府为主的公权力以及以算法为核心的私权力。政府的公权力较为容易理解,其是依法所获得的公民让渡的与生俱来、不可剥夺的能量。而以算法为核心的私权力则是伴随人工智能发展而生成的,从技术角度而言,算法本身并不具有权力色彩,但其一旦与公共利益相结合,广泛运用于公共领域,继而能对公共事务运行规则产生影响,此时算法便褪去了技术纯粹性,权力色彩便随之而来。算法产生的私权力与政府所具有的公权力在人工智能嵌入政府治理中不期而遇,此时私权力已具有“公共属性”,其是“智能治理时代主流政治权力的技术延伸,承载了治理者的权力意志和政治意识,成为社会治理的重要方式”[39]。借助其机器架构优势搭建智能监控体系,甚至在某些方面具有对政府公权力的僭越。一旦缺乏相应监控举措,公私权力便面临着异化风险,“Facebook数据门”事件向世界展示了算法私权力如何影响公权力,甚至是如何影响美国大选的。其一,算法权力这一新兴权力形态出现,并逐渐向公权力渗透之后,政府开始担忧其嵌入政府治理将对自身权威地位造成威胁,开始谨慎甚至限制某些核心领域采用人工智能。可以预见的是,此时的公私权力将出现彼此消耗与争斗,政府须在维护公共利益与自身权威中作出取舍。其二,与前述不同的是,囿于在算法层面的知识匮乏,政府与算法企业之间存在不对称甚至失衡问题。在诸多治理领域,政府只能将部分治理权限让渡给算法私权力,私权力将得到极大强化,扩大其在公共领域的执行能力,加之政府监管制度等缺失,人工智能将带来不可预知的“隐层”,将侵蚀社会公共空间,对社会安全、公平、民主等价值造成减损,伦理风险随之而来。
人们在思考如何有效管控人工智能风险,以减轻其对人类社会生活的困扰时,还应该思考如何在人工智能嵌入政府治理,并不断冲向伦理困境时,不会导致政府治理失去对公共价值的关怀,更不会肆意践踏人类赖以维系的伦理道德价值,从而采取积极举措,确保智能时代政府治理与公共伦理同步发展。
其一,增强算法透明度。透明度简而言之即信息可见,而人工智能算法透明度则是算法的可访问性与可审查性。从当前情况来看,许多研创企业因投入巨大的人力物力成本才将算法演练成熟,因而将算法视为提升企业竞争的绝对工具,最终导致企业以商业秘密为由隐蔽算法操作流程与标准,但这也给使用者提出了难题:无法知晓算法运行逻辑。因此,可在不涉及核心机密及所有者权益基础上,将算法代码、算法准则、操作标准,以及可供审查的信息适度公开。特别是对于运用于政府治理的算法,要充分保障服务对象的知情权以及质疑权,并制定算法透明度的技术标准,从而增强算法透明度。其二,提高算法解释度。所谓解释度即逻辑可知,算法的本质是指令代码,在常人看来这些代码不通俗易懂,因此其嵌入政府治理中的算法逻辑就让人难以理解与评估。因缺乏解释度导致算法规则不明晰,一旦其嵌入政府治理而带来决策错误、歧视偏见,不可避免对个人造成伦理价值减损。因此,各研创企业应定期公布算法技术内容与特征,向公众演示数据采集、算法决策的大致流程以及解释算法的内部结构,特别是向社会公众告知智能系统存在的信息隐私和其他基本权利的风险,以及程序和实质公平的风险。[40]
不可否认的是,人工智能能为政府决策提供传统经验主义所不能揭示的数据关联性与事件规律性,大大提高决策能力。也正因如此,有些行政部门与行政人员忽略智能治理的权力边界与技术嵌入的限度约束,只看到了人工智能能依据运行逻辑自主决策,而没有看到二者间具有明确的界限,“在科层制行政场景中,权力中枢的指令依赖于决策—执行体系,依赖于上下级之间通畅的信息传递系统。而在‘窗口’场景中,信息依靠系统自动传递,权力实践也不再依赖于对官僚的身体控制,办事员只是接受系统的指令,而非上级指令”[41]。可见,人工智能绝对不是某些行政部门推卸责任,奉行“机械程序主义”,形成“无为之恶”的借口。因此,有效克服人工智能嵌入政府治理的责任困境,既需要规避算法本身“黑箱”,又必须拓展公众参与范围,充分尊重公众的参与权利,发挥其资源知识、监督批判功能,以此避免单一治理主体的“致命的自负”(哈耶克语)。着眼于此,要革新现有政府决策模式,摒弃经验决策,克服信息孤岛,保证数据共享,努力创造出多元主体参与治理决策模式;着力畅通社会参与机制,以促进共同参与,加强对话与协商,寻找合理的解决方案。要积极引导社会公众、企业团体等参与相关规则的制定;引入独立的第三方监管组织,平衡人工智能嵌入政府治理的科学与民主互动关系。要明确职能边界,详列“责任清单”,规避职能模糊与层级节制弊端造成的责任监督缺口。
责任是制度的重要组成部分,并服务于制度的目标。从人工智能嵌入政府治理构成来看,其涉及政府、企业与社会等不同主体,相应地就会有政府责任、企业责任与社会责任。在政府层面,政府有义务与责任提供公共服务,满足人民需要,人工智能与公共服务的全面结合,为政府公共服务供给提供了全新视角,这一过程将涉及到政府多个层面的责任:职责赋予的法定责任、引入技术的决策责任、技术发展的监督责任。引入人工智能,不是让政府对治理放任不管,其地位与职责赋予的法定责任不能被人工智能技术取代,无论人工智能技术如何先进,政府的主观能动性不能缺失。而技术引入并不是一劳永逸地解决了效率与公平问题,相反,谁引入的,如何引入的,这均涉及到政府治理的决策责任,倘若不充分论证而随意引入不成熟技术造成对社会价值的减损,应当对相关责任人进行问责,要求行为人能对自己的决定或行为作出解释,并对相应过失进行弥补,此举在于约束相关行政主体行为。此外,技术对企业的评估与监督责任不可或缺,人工智能创新主体作为技术提供商,应保证技术供给过程中的质量,而这离不开政府的监督责任。因此,要完善智能治理过程中的政府问责机制,避免政府不作为、乱作为,对智能治理中随意泄露个人信息的相关政府部门与个人要追究其责任;对技术供给过程中因技术漏洞而造成伦理损失的企业,要健全对技术创新主体的责任追究机制,并设立“行业黑名单”制度;通过完善相关法律体系,明确人工智能开发主体的法律责任;要建立健全政府公权力与算法私权力的制约与监督体系,并且尝试建立利益相关者的网络化权力监督与问责体系,并加强民主、科学与依法决策,充分吸纳社会公众参与人工智能嵌入政府治理的决策议程,践行全过程人民民主。
公共治理是一项复杂、动态的活动,且牵涉到公共服务、公众权益、政府合法性等核心问题,一旦出现失误则会造成重大影响。而运用人工智能,政府公共治理则又面临着新的挑战,即智能治理需依靠模型处理数据,但算法却存在不确定性。因此,从人工智能嵌入政府治理实际来看,要规避责任风险,利用数据对算法进行尽可能的演练,以使模式更为成熟可靠是现实需要。演练数据库顾名思义即强化算法学习的数据集,这种方法在人工智能领域并不新鲜,如美国四所顶级大学联合推出大规模机器人学习数据集用于预训练模型的训练,以强化机器自主学习能力。[42]而在政府治理领域,也可借鉴这种方式。一方面,政府可设定相关机制,将收集的部分不涉及隐私的公共数据给相关智能技术企业,使其对算法不断进行演练,找到技术漏洞,以完善人工智能技术。另一方面,政府要针对公共治理的具体领域建立公共治理演练数据库,在正式投入前不断训练,以提高技术针对性与数据安全性。要顺利推进公共治理演练数据库建设,须在算法容错设计、技术漏洞检查和修复等方面加强监管与评估。所谓算法容错设计,即当算法因各种原因出现数据、偏见等问题时,系统能自动检测,并保持系统功能在可接受范围内,其主要目的在于提高算法的可靠性。这其实是一种消极悲观策略,即承认算法存在漏洞的应对方式。技术漏洞检查与修复是建立在算法容错设计之上的步骤,当检查出技术漏洞时,系统应将错误限制在一定范围之内,防止错误进一步扩散,尤其是对存在算法黑箱的人工智能技术,应检查出漏洞并禁止运用于安全责任要求较高的政府治理领域。
行政文化被视为公共行政之灵魂,正如劳伦斯·迈耶等人所言:“一个现代政治体系文化形式会在许多方面受到其国家历史的影响,其中影响最深的恐怕算是这个体系的政治文化了。”[43](P.15)良性行政文化对公共行政发展具有强大的导向和调节功能,尤其是智能时代,推动人工智能嵌入政府治理的实现需要一种新型数字文化,其区别于传统行政文化,具有强调技术领先、追求和谐合作、鼓励社会参与、主动共享资源等特点。因此,良性行政文化对促进资源共享、提升行政效率具有重要价值。从当前智能治理的实践过程来看,存在着形式主义的消极文化、忽视人文关怀的政绩文化、技术依赖的懒政文化,这制约了政府治理效能的提高。因此,面对陌生而又神奇的人工智能技术,一方面部分政府部门及其工作人员将引入智能技术视为追赶时髦,而不论自身是否适合引入以及相关配套设施是否完善,有的存在职业伦理失范、数字能力缺失、知识革新欲望较弱等不足,而这将会导致随意收集数据、错误收集数据等问题。另一方面,积极向上的行政心理文化是保证行政人员以充满活力的精神状态完成行政目标的关键因素。而在现实中,由于部分工作人员面对新兴技术时缺乏必要的心理准备,容易将其视为圭臬而不思发挥主观能动性。立足于此,其一,要不断重塑智能时代的责任伦理体系。责任伦理是行政文化的重要内容,康德曾高度认可责任的重要性,责任一旦被理性主体理解与吸收,则会逐渐内化并指导自身行为。因此,必须着眼于智能时代政府治理建设需要,培养公共行政人员的风险识别能力、批判性思维,注重伦理美德养成,明确自身责任,加强行政心理的调适,努力适应智能技术带来的强大冲击力。其二,要防止引入人工智能而使得政府治理滑入价值悖论与技术官僚主义旋涡,从而须构建智能时代的法治性、积极性行政文化,以支持政府模式与技术创新的态度,增强行政人员数字能力素养,使其了解智能技术本质,明晰运用人工智能并非机器替换人,而是作为提升政府治理效能的有效手段。不能用机器责任替换行政固有责任,克服智能官僚主义,推动政府治理革新。其三,要努力打造崇尚公共服务精神的行政文化,当智能系统能有效处理政府治理中日常性事务时,各级政府应注重自主性管理,主动作为,不能成为智能机器附庸,以智能自主性挤兑行政自主性,而要提高自我价值判断和自主选择能力,使自身成为能动性道德主体,将更多精力置于提高公共服务质量和公众满意度之上。
注释:
①“堕距”一词最先来源于奥格本(William Fielding Ogburn)的文化堕距理论(Culture Lag),意指由于文化的变迁,但文化各部分变迁速度不一致,将导致各部分之间的紧张和失调(参见[美]威廉·奥格本.社会变迁:关于文化和先天的本质[M].王晓毅,陈育国译.杭州:浙江人民出版社,1989.),后来被广泛用于应然与实然之间的悬殊和失调的现象,如政府职能、制度与执法等。本文所指问责堕距是指由于诸多因素影响导致实际问责与应然存在差距。