□ 文 孙 瑞
“技术中立”的算法决策模型限制了权力寻租和人情干预司法的机会和可能,为廉洁政府建设提供了技术支持。
人工智能时代,算法拥有超强的数据运算能力,能精准快速地筛选到需要的数据,在海量的数据中发现各变量参数之间的相关性,并可以利用数据代码、算法程序、深度学习等方式对用户产生的大数据快速处理并模拟人类思维自主地做出决策,因此常被不同主体运用到不同的场景来解决各种问题。
目前,政府部门已经习惯于使用算法进行公共治理,为政府决策、行政治理、公共服务等领域提供了崭新的技术支撑,改变了传统的政府行政科层结构。由人工决策转为自动化决策,提高了决策效能,限制了行政执法权的滥用,促进了数字化政府建设进程,其中健康码的应用与推广是算法决策深入公共治理的典型表现。但介于算法本身固有的缺陷,算法决策在渗透行政系统时会产生许多冲突和风险,必须要减少算法决策运行的冲突,化解可能出现的风险,探索算法决策的善治路径,才能真正实现大数据时代智慧政府公共治理体系和治理能力的现代化。
算法决策已经被广泛应用到商业领域,随着算法应用的扩张以及疫情防控的影响,算法逐步深入到公共治理中,并且重要性日益凸显。算法决策深入公共治理有两个层面的技术优势。第一,算法决策改变了传统的公共决策模式,由人类决策转向自动化决策,提高了决策效率和质量。算法通过算法植入、算法俘获、算法支配的路径深入政府公共治理中,对获得的数据进行分析、运算、快速生成治理方案并落实执行,即将算法作为行政管理中的治理术,其内核是自发式的决策模式。而传统的公共决策是行政机关主体根据治理场景的不同进行自主判断,相较于传统的决策模式,算法决策的效率更高、成本更低。政府使用算法进行行政审批、资格审核、假释评估等,算法的技术优势大幅度提升行政治理的效率和决策质量,节约公共资源,降低行政治理成本,实现了政府服务智能化转型。第二,算法决策限缩了行政裁量权滥用的可能性,确保公共决策的公正性,某种程度上促进了“法律面前人人平等”。个人在算法面前只是数据对象,在代码规则面前人人平等。“技术中立”的算法决策模型限制了权力寻租和人情干预司法的机会和可能,为廉洁政府建设提供了技术支持。同时,算法还能在公共决策中提供更精确的个性化公共服务,提升公众的参与感和获得感,增强公众对政府的满意度和信任度。
随着人工智能不断深入公共治理,政府部门可以基于海量数据对社会资源进行配置优化,算法决策逐渐取代了公权力决策,形成了新兴的技术权力,即所谓的算法权力。算法权力嵌入公权力运行的各个环节,不断冲击着权力适当原则和正当程序原则。
目前我国对于算法权力的研究还处于起步阶段,这也对规制算法权力提出了巨大挑战。算法善治也成为学科交叉领域研究的重点,算法善治是政府部门利用算法进行公共领域治理,以此提高公共治理的效率和质量,并在算法运行中嵌入社会正义和价值元素,构建算法正当程序,使算法决策的结果追求与法律道德规范的终极目标一致,即实现社会公平和正义。
算法决策的技术优势能够保证其在公共治理中的有效性,但这并不能掩盖算法决策属性背后的价值偏向和冲突,算法决策的应用不仅要追求决策的有效性,还要追求决策的正当性。
介于算法的“黑箱性”,存在算法不透明的情况,而公共领域算法决策可能会影响个人基本权利,公共领域算法决策必须实现公开透明,具备可解释性。算法透明和传统意义上公共决策的透明原则有所区别,透明原则强调的是公共决策的公开性和可救济性,而算法透明强调的是算法决策的可理解性。行政程序原则要求行政决策必须公开、透明、可解释,而算法决策作为公共治理的手段,其决策过程也必须公开、透明,具备可解释性。但由于算法本身的“神秘性”,算法决策过程可能出现算法偏差、算法黑箱、算法偏见、算法歧视、算法错误等问题。同时介于计算机技术的难度,普通人根本无法窥探黑箱里的秘密,算法语言有着天然的隐蔽性。实现算法决策透明的难点在于算法决策完全由计算机根据特定函数计算得出,过程中人力无法参与更无法更改。目前学界所持观点大都是要求公开算法决策和自动化运行分析的过程,然而这个要求在技术上并不现实,因为算法的自动化决策过程不可能实现完全透明,对于普通人来说只不过是一行行数字和字母,这种程度的公开达不到“可解释性”的要求。
算法决策和传统行政决策的最大不同在于,算法决策追求技术理性和行政效率,是以结果为导向,传统行政决策追求道德理性和程序正当性,强调过程的公平公正。当政府借助算法进行决策时,算法的技术理性和行政程序的正当性可能发生冲突。算法决策在深入公共治理时自发生成了一套程序规则,即将行政程序中的行政主体、相对人、行政行为和行政规范等通过复杂的代码进行数据化,并按照“数据输入-算法决策-数据输出”的程序进行。某种程度上,极大地精简和优化了传统行政程序,但程序精简并不意味着算法决策具备程序正义。不同于商业中的算法决策,政府机构在进行算法决策时,其已具备公共属性,具有准公权力的性质或公权力的性质。在传统法理中,当公共部门所做的某项决策可能会限制个人的基本权利,那么该决策就必须经过法律保留和法律优先的检视,而且也必须满足程序正当性的要求,需要告知行政相对人,允许其申辩陈述,为其提供参与程序的机会和具体的司法救济途径,这是行政机关必须履行的程序和义务。当行政权让渡给算法的时候,以上的过程都被算法杂糅到了一起,其决策结果的生成仅在一瞬间,无法分离出单个环节逐步进行,无法对算法决策过程进行正当性检验,导致行政决策过程机械化、程序化,算法决策追责难,算法决策不断冲击着正当程序原则。
当我们将传统行政治理权力和公共决策交给算法,享受算法红利带给我们的决策便利和效率的同时,也要意识到算法决策给公共领域带来的风险和挑战。算法决策的不透明使算法权利侵蚀政府的自主决策权,导致政府决策过程流于形式,算法背后的资本趁机敛取公共财产。算法决策的正当性无法得到保障,算法权力不断压缩个人基本权利,从而引发公共领域决策信任危机。而在技术光环的加持下,这些风险被悄然掩盖,如果技术风险在公共领域算法决策中得不到解决,那么将会严重损害政府的公信力。
我们需要从法律视角审视算法决策的内在冲突,规制算法决策的正当性,防止权力异化,实现公共领域算法善治。
算法时代,数字政府逐步推进利用算法处理行政事务,在技术理性的掩盖下,算法治理正在异变为算法支配,人类正在加速迈入“算法行政”时代。
首先,算法改变了传统的行政决策方式,操控行政官僚无限制地扩大算法权力。表面上算法技术大大提高了行政效能,但算法将原本应该交由政府部门公共协商的决策过程简化为形式上的数据分析和计算处理过程,政府事务处理者逐渐丧失对问题的分辨能力和评估执行能力,政府的行政裁量权缺位,表面上还是由行政官僚操控算法机器,可实际上政府的自主决策权逐渐丧失。其次,算法决策程序最初被用来提升行政效率这一公共价值,运行过程人工无法干预,更无法在其中注入公共精神和其他社会价值,行政正当程序中的某些关键因素缺失。算法的技术中立性掩盖了行政系统中的偏见与不公,公共决策中涉及的正当性问题被忽略,导致公共决策过程趋于形式化。同时,算法具有巨大的商业利益,政府想要使用算法,只能通过政府购买的方式和算法公司进行交易,而算法技术的应用是一个复杂的过程。算法公司和政府也因目的、利益取向和社会角色的不同而产生冲突,算法背后的资本急于逐利,在与政府合作中容易采取机会主义汲取超额公共财政资金,长此以往加剧了政府治理的空心化,引发政府公共领域治理危机。
算法决策侵蚀政府的自主决策权,少部分人掌握算法权力,算法权力无限制扩张发生异化,算法规则统治下的价值选择和社会分配正义问题浮现,算法权力异化最直接导致的便是个人权利的缩减。
首先,算法决策过程中的信息不对等剥夺了公众个人知情权和参与权。当政府让渡自主决策权,正当程序原则被架空,行政相对人对决策过程毫不知情,剥夺了行政相对人的自主能动参与的权利。其次,排除了公民的申辩权和救济权等程序性权利。即使《个人信息保护法》第24条规定,通过自动化决策方式做出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者通过自动化决策的方式做出决定。但介于算法决策的自动化,即使个人提出异议,也很难对其进行更改,而且司法救济目前也无法实现,国内并没有明确的法规规范对算法权力进行有效规制。最后,算法决策可能会演变为加剧社会不公的助推器,人工智能虽然具有人类无法比拟的数字计算能力和深度学习能力,但仍旧无法与人类共情。它只是准确而死板地执行系统中的指令,在面对涉及人性道义的抉择时,算法不会对弱者法外开恩,无法期待它会“枪口抬高一厘米”。基于如此缺陷,所以当算法进入公共领域时,应当对其设置禁区,对涉及个人基本权利的公共决策应该审慎应用算法,防止算法助推歧视风险。
算法的运行并非是一个价值无涉的绝对中立过程,早就有学者系统提出技术本身内嵌价值的观点,即在技术工程设计阶段就有一些价值被有意无意地嵌入其中。作为辅助决策机制的算法背后隐藏着独特的价值判断,即算法设计者的设计意图和价值取向,只不过这种价值判断隐藏在层层技术壁垒之下。我们若对算法背后的价值立场视而不见,就无法应对算法带给公共治理和伦理社会的巨大挑战。我国目前法律体系尚未对算法规制问题作出具体回应,我们需要从法律视角审视算法决策的内在冲突,规制算法决策的正当性,防止权力异化,实现公共领域算法善治。
算法正当程序的构建更多的是技术理性与法治原理的融合互助。
实施算法公开,提升算法透明度是规制算法决策和算法权力的重要手段。传统上,破解算法黑箱的第一步便是算法公开,即机械地要求公开算法结构或源代码,但这种公开很难做到。除却商业秘密这一“免死金牌”,这种程度的公开并没有太大的意义,因为人们并不能打破技术壁垒,无法对算法代码进行有效地解释。公共决策中的算法解释应当区别于一般性的算法解释,要明确在利用算法进行公共决策时哪些相关算法数据会对主体带来什么影响,即以主体为中心、有选择性的算法公开。
第一,算法公司在对政府出售算法时,必须告知政府该算法决策的设计意图和目的,必须明确向政府公开算法决策的“目标函数”,并将该算法决策在实际运行中可能出现的偏差和错误如实告知政府部门。算法公司在对行政部门算法决策系统作出更新时,也要对每一版本进行公开和说明,及时改正和改进算法决策运行中出现的算法偏见等情况,避免算法公司利用技术优势在算法程序中植入不适宜代码。第二,算法公司或算法设计者应当就算法决策的运行过程予以必要的解释,增强算法决策的可理解性。尤其是当算法决策中涉及公民的知情权、个人隐私权、平等权等基本权利时,应当尽量将计算机语言转化为法律语言,或是普通人可以理解的语言。提升算法决策要素和程序的透明,增强个人的知情权,增强双方算法信息的对称性。时刻注意对个人信息权的保护,绝不能以彻底牺牲个人信息权来换取行政效能的提高,坚持以人为本的治理原则,绝不可过度依赖算法。
算法透明并不意味着对算法决策的有效规制,算法透明只能是有限度的透明。算法决策仍持续侵蚀行政机关的自主决策权,行政正当程序不断受到冲击。程序正当性是对算法行政所预设的正义要求,正当程序原则应当合理地嵌入算法决策过程,既实现技术的有效性,也要强调技术的正当性,算法正当程序的构建更多的是技术理性与法治原理的融合互助。
首先,建立事前算法审查机制。加强政府算法技能人才的培养和选拔,成立专门的机构来研判算法决策实施风险,为政府部门进行算法决策时提供技术参考,从技术层面规避算法公司可能利用技术优势带来的潜在风险,降低政府和算法公司之间的算法不对称。同时借助外部力量,邀请业界专家、技术研发人员、算法公司内部参与者等专家团队对算法决策进行审核商讨,逐步建立健全公共领域算法决策规则。其次,赋予个人算法解释请求权或反算法决策权,贯彻“以人为本”的算法法治逻辑。即当个人对算法自动化决策结果存疑时有权请求算法使用者进行解释说明。算法只是工具,并非真正的决策者,个人在面对算法自动化决策挤压或侵占个人权益时,有权拒绝算法自动化决策,要求专门的行政职能部门介入处理。但这并非意味着完全排斥算法决策,只是在行政相对人质疑算法决策的正当性时,赋予其请求行政机关介入并获得帮助的权利。最后,疏通算法决策问责路径,消除算法决策带来的公共风险。当算法出现风险时,政府往往将责任推给算法及其背后的算法公司,导致算法决策审查难、问责难的局面。因此,有必要建立事后责任追究机制,算法决策本质上是行政机关“授权”产生,属于行政权力的延伸,应当由行政机关对外承担算法决策所带来的风险责任。行政相对人作为弱势的一方,不必研判问题由谁导致,只要确认算法决策侵犯自己的权益,便可直接向相应的行政机关主张责任,政府不能以技术不足为由推脱责任,算法公司不能以非决策实施主体为由推卸责任,应当行政机关首先承担责任,再厘清相关算法公司的责任。
算法被设计出来的最初目的是服务人类,促进个人美好生活和社会福祉,是实现社会善治的基本工具,是人们在追求共同福祉过程中的工具。社会歧视可以通过立法进行规制,但算法决策的过程是在黑箱之中的,是不透明的,其产生的价值偏见和道德影响是非常隐蔽的,人们无法通过道德论辩的方式展示算法歧视的过程,但是算法决策将偏见结果加以直观数据化,公众可以直观感受到算法决策产生的结果,这是算法决策的价值偏向和算法正义在现实生活中的体现。算法技术的中立并不妨碍算法决策作为准公权力的社会价值取向,算法决策具备了一定的公共权利形态,需要借助社会正义和道德伦理对其进行价值评判和规制,而社会正义价值理念将在决策方案和实施路径中加以呈现。
在具体手段上,实现算法善治要求积极主动地把有益于社会公共的价值融入到算法决策技术设计中去。算法设计者和决策作出者应当将社会正义作为基本价值追求,在算法设计中加入道德价值元素,并纳入数据开发、算法设计、场景应用的全部过程,使算法在“深度学习”时借鉴社会正义原则,为算法规制建立准确有效的正义框架。同时有效吸纳公众监督意见,利用公众对算法决策的“有感”来调整算法决策的实施路径和算法正义的内容,坚持算法向上向善,以实现算法善治。
算法归根到底只是工具,目的是为了改善我们的生活,提高治理效能,促进社会生产力的发展,但个人绝不可丧失主动权,被技术操控。算法行政需要考虑诸多问题,算法决策不仅仅是法律层面的问题,我们必须审慎应对其反映出来的道德、伦理风险,充分研判算法决策嵌入公共治理中可能出现的各种风险,要在强调算法决策有效性的基础上追求决策正当性,才能在有效提升行政治理效能的同时,使算法决策在公共治理领域中获得可持续的发展前景。■