人工智能算法辅助行政决策的法治风险及其化解路径

2023-04-29 14:31:16杜昕怡肖泽晟
学习论坛 2023年3期
关键词:依法行政人工智能算法

杜昕怡 肖泽晟

[摘要]人工智能算法辅助行政决策契合行政决策体制改革方向,能够应用于行政决策的全过程和多领域。其意义在于通过辅助公众参与、识别公众需求、自动收集数据、深度学习自主推导、评估风险预测行为、全面收集和深度分析大数据,以提升行政决策的民主性、科学性。但人工智能算法辅助行政决策可能存在法治风险:算法隐匿和算法偏差可能危及利害关系人的实体权利,包括利害关系人的真实权益关切、隐私保护和平等对待要求;算法代表和算法至上可能危及利害关系人的程序权利,包括不符合正当程序原则的基本要求、不利于利害关系人的真实意愿表达、不利于利害关系人的真实程序性参与;当出现算法决策错误时责任承担主体不明确。这在一定程度上违背了行政法治原理中的良法善治要求。因此,应当围绕人工智能算法问题,从人工智能算法自身、行政机关、利害关系人三个方向寻找法治出路,完善人工智能算法的合法化设计,加强行政机关对人工智能算法的合法性、伦理性和合规性审查,完善算法公开制度,健全算法辅助决策的行政责任制度,从而契合行政法治原理的要求。

[关键词]人工智能;算法;行政决策;依法行政

[中图分类号]  D922.1[文献标识码]  A[文章编号]1003-7608(2023)03-0122-08

一、问题的提出

行政决策是政府依据既定政策和法律,面对要解决的问题,收集信息、拟定方案、作出决定的行为过程。我国的行政决策模式几经嬗变,已由以权力集中、运作封闭和内部协调为特征的传统决策模式转为现代决策模式,更加注重决策过程的民主参与和专家参与,增强决策的开放性、合法性和科学性[1]。党的十九大强调了科学决策、民主决策和依法决策的重要性,推进重大行政决策的科学化、民主化和法治化更成为推进行政决策体制变革的基本目标。

在这一目标的指引下,如何完善行政决策体制成为热点议题[2],人工智能算法在行政决策中的应用逐渐成为现实。人工智能算法是一系列计算机指令组成的程序[3],其相比一般算法的特殊之处在于,人工智能算法能够模仿人类在解决问题时所表现出来的智能行为,进而推动特定问题的解决[4]。行政决策和人工智能算法在概念上具有内在亲缘性,但是囿于“弱人工智能”发展阶段的桎梏、算法设计的种种问题以及责任承担能力的欠缺,人工智能算法嵌入行政决策时只能处于辅助性地位[5]。但不论人工智能算法的发展阶段及其在行政决策中的地位如何,行政法治原理总是行政决策智能化的边界,也是人工智能算法辅助行政决策应当遵循的首要标准。学界亟须回应的问题是,如何化解人工智能算法辅助行政决策与行政决策的法治化要求之间的张力。

概括来说,行政决策的法治化要求既包括形式要求,也包括实质要求。一方面,在最基础意义上,行政决策应当实现决策的依法化,决策的程序与内容应当符合法律法规的指引。出于这个原因,人工智能算法辅助行政决策的法治化风险,首先可能体现为对依法化原则性的僭越。除此以外,决策的形式法治要求还包括决策对明晰、确定等合法性原则的满足,以及决策程序上的民主化与科学化。另一方面,在实质要求上,行政决策应当尊重并考虑个人权利、正义与社会福祉[6]。只有当人工智能算法辅助行政决策同时满足法治的形式要求与实质要求时,它才是不与法治相背离的、可接受的技术进步。

结合目前既有研究文献来看,人工智能算法辅助行政决策的法治化问题尚未成为关注和讨论的焦点,失焦表现为两点。第一,学界多是对人工智能的主体地位和权利问题[7]、人工智能算法的风险问题和规制问题[8]展开讨论。这些宏观探讨有助于我们理解人工智能的一般特征及其在其他具体领域中的应用,但尚未步入行政领域。第二,在行政领域,现有研究主要围绕人工智能参与行政执法[9]、公共治理[10]及其法治风险应对展开[11]。这些研究探讨了人工智能有可能造成的歧视问题、公平问题和行政相对人权利保护问题,在此基础上提出具体应对措施。总体而言,现有研究对人工智能算法辅助行政决策这一更为具体的现象关注较少,仅有的数篇文献研究焦点主要集中在以下方面:在人工智能对行政决策的作用上,赵友华、蔡振华认为,其有助于决策的智能化[12];张恩典认为,其有助于提升行政规制效能,促进决策公正[13];李进华认为,智能技术保障了多元主体参与,实现了决策全过程管理[14];燕晓婕认为,其有助于提升决策的民主性和科学性[15]。在人工智能算法辅助行政决策的法治风险上,赵友华、蔡振华认为,其容易产生歧视、算法专权问题[16];陈飏、裴亚楠[17]、张恩典[18]认为,其侵害了行政法治原理;燕晓婕认为,其可能导致歧视问题、政府决策能力问题和法律伦理问题[19]。在风险应对上,赵友华、蔡振华认为,应当加强算法治理,明确人工智能的辅助定位,约束资本权力[20];张恩典认为,应当加强行政相对人的权利,加强对算法决策的评估[21];陈飏、裴亚楠认为,应当明确行政机关的主体地位,确定算法解释责任,完善行政相对人权利救济[22];燕晓婕认为,应当完善人工智能辅助行政决策体系,制定针对风险的防范措施[23]。

这些研究构成了我们理解人工智能算法辅助行政决策的法治风险与出路的理论背景,但是,在人工智能对行政决策的作用上,现有研究并未按照行政决策体制改革目标加以评价,在人工智能算法辅助行政决策的法治风险上,并未结合行政法治原理进行统一论述,在风险应对上,并未给出体系性应对措施。在此基础上,本文对于这一主题的探讨尤其注意以下几点。第一,行政决策不是静态的,而是一个问题设定、收集信息、拟定方案、作出决定的动态行为过程,并且行政决策最终指向行政相对人和利害关系人的权利义务。第二,人工智能算法辅助行政决策是在我国行政决策体制改革这一大背景下产生的,人工智能算法的设计和应用直接关系行政相对人和利害关系人的权益。第三,在探讨人工智能辅助行政决策时,应当结合行政决策体制改革目标和行政法治原理,尤其是对行政相对人权利保护予以系统论述。

因而,本文首先指出目前人工智能算法辅助行政决策对于促进现代行政决策体制发展的应用与作用;其次以行政法治原理与行政相对人权利保护为标准,厘清其所引发的对行政法治原理的冲击风险;再次以行政机关、行政相对人、人工智能算法三者结合的系统视角指出化解风险的出路。

二、人工智能算法何以辅助行政决策

当前,人工智能算法在行政决策中的应用已经逐渐深入。人工智能算法的辅助作用具有时间上的全程性与结果上的优越性。因此,若想探寻人工智能算法辅助行政决策面临的风险,就应回答人工智能算法是如何应用于行政决策以及人工智能算法是如何辅助行政决策行为的问题。

(一)人工智能算法辅助行政决策的阶段与领域

基于现代行政决策的动态性,行政决策中人工智能算法的应用体现在行政决策过程的前、中、后期。

第一,在行政决策前期,人工智能算法收集信息、筛选信息和处理信息。在传统决策模式下,受制于信息不足或信息过载,往往难以有效获取和加工信息,造成了诸如厦门PX项目决策的问题。在算法设定之下,智能信息决策系统将决策对象所涉主体视作信息数据的生产者和发布者,辅助公众参与,不间断收集海量数据,对这些信息进行汇总分析和分类处理,捕捉特定信息,精准筛选所需数据,留待政府决策取用。

第二,在行政决策中期,人工智能算法提供决策咨询并评估决策方案。实际决策协商过程受制于成本、程序和多变性问题,而人工智能算法依赖自身的推理能力预测问题,快速响应问题,模拟专家决策,实现精准求解,模拟政策试验,权衡利益冲突,提供决策咨询服务,研判不同政策方案预期,灵活调整政策方案,相当于为行政机关提供了智囊团[24]。如在疫情防控的特殊时期,人工智能算法更凸显其应用于行政决策的独特优势。正如习近平所指出:“要鼓励运用大数据、人工智能、云计算等数字技术,在疫情监测分析、病毒溯源、防控救治、资源调配等方面更好发挥支撑作用。”[25]

第三,在行政决策后期,人工智能算法监督行政决策的执行。人工智能算法在评估决策后果和决策风险上具有天然技术优势,通过后果预测,人工智能算法建立起了行政决策与决策效果的因果关系[26]。智能设备实时监控决策效果是否偏离原定计划,实现了决策执行的动态调整[27],依靠评估决策的数字指标,实现对行政决策的“数目字式管理”。此外,人工智能算法在辅助行政决策中的细分领域也应用广泛,具体而言,包括辅助食品安全决策、辅助环境保护决策、辅助公共安全决策等。借助人工智能算法收集决策信息、评估决策方案、监督决策执行,促进行政决策朝着民主性、公正性和科学性提升的方向进步。可见,行政领域的数字化转型日益深化,行政决策与人工智能算法在全过程和多领域进行紧密结合,促进行政决策体制改革进步。

(二)人工智能算法辅助行政决策的优越性

1.提升亲民性,助力行政决策民主性改革

行政决策体制改革目标之一是民主决策。解决传统行政决策中公众难以参与和“一把手”决策问题,民主决策的关键是要精准识别民众需求,提升决策的亲民性。人工智能算法在这方面具有优越性。

第一,人工智能算法传达民众真实意愿。亲民意味着民众的真实意愿得到真实表达,传统民主决策形式是听证会、论证会和座谈会等,收集信息困难,样本数量有限,信息汇总缓慢,亲民性质不高,难以将民众真实意愿传达至政府。人工智能算法以优化数据收集、传输、运用的方式,通过大数据支撑、个性化指标设计、细分的场景应用,可以让行政决策在民主性的基础上,体现决策的亲民性。

第二,人工智能算法精准识别需求。在海量数据产生的今天,可以在依法合规的基础上,通过对算法的设计,就某一决策需要抓取特定人群特定种类信息,推导公众的行为特征和意愿,实现对数据的精准筛选和辅助行政智能决策,从而给政府决策提供更有价值的参考数据,使得行政决策更加符合公众意愿,提高行政决策的亲民性。

第三,人工智能算法自动收集数据。通过设计算法在法律法规授权下进行自动数据收集,也可以为今后的决策建立“数据海”,在实现社会人群“横向”数据搜索之外,实现时间轴意义上的“纵向”数据搜索,让决策在时间、空间两个维度上最大限度地体现亲民性,便于决策的落实与公民的接受。

2.提升智识性,助力行政决策科学性改革

行政决策作为行政机关作出行政行为的前端行为,需要民主的程序、科学的方法,必要时需要其他智力支持。

第一,人工智能算法可以深度学习自主推导。在传统模式下,科学决策要求组织专家进行论证,而人工智能算法辅助行政决策能够做到用算法模型模拟人类决策过程,通过对收集的信息加以深度学习,不断提高决策模型的复杂程度。此外,传统专家论证有时也会受专家的专业背景和利益所限,出现专家意见不协调、不中立和不客观的问题。人工智能算法不仅通过深度学习模仿专家决策,而且在知识储备上将超过专家,更为重要的是,人工智能算法因其无利益和专业背景的限制,其得出的结果更加科学统一。

第二,人工智能算法可以评估风险预测行为。行政决策在作出的同时,也需要进行风险评估。如何进行风险评估便是一个事关科学的问题,科学性是风险评估的规范要求[28]。一般而言,评估决策后果和决策风险需要运用科学技术和科学方法进行后果预测,风险评估一般只解决事实问题,风险评估的目的在于建立概率性的因果关系[29]。引入人工智能算法来开展数据分析或行为预测,有助于研判复杂的政策问题,促进评估风险[30]。

第三,人工智能算法有助于帮助审查决策过程、决策结果是否科学。人工智能算法不仅能够辅助政府决策,提高行政机关作出决策的科学性,还能够检验行政机关的决策科学性,即实时监控行政机关决策的施行是否偏离原定计划与原定目标,并将民众的新诉求传递给行政机关,以期实现决策执行过程中的动态调整[31]。当这一过程不断被重复时,便能够形成一套成熟的行政决策执行监控系统,建立一套评估决策科学性的数字指标,实现对政府的“数目字式管理”,大大提高了行政决策的科学性。

三、人工智能算法辅助行政决策的法治风险

行政决策体制改革的目标之一是依法决策。从广义来看,人工智能算法辅助行政决策所展现的效能有助于实现依法决策,但行政法治原理要求行政机关在作出行政决策时充分尊重利害关系人的实体权利与程序权利。在此标准的审视下,人工智能辅助行政决策存在法治风险。

(一)算法隐匿与算法偏差危及利害关系人实体权利

算法隐匿是指算法自身自主运作后相对于行政机关和利害关系人具有封闭性和不可解释性[32]。算法偏差是指算法的运作偏离预定目的。目标设定、数据收集、算法设计一旦存在不合理,其程序运行偏离公正时就很难由技术人员自身从技术角度进行纠正。算法隐匿和算法偏差的结合将对利害关系人的实体权利造成损害。

第一,危及利害关系人的真实权益关切。尽管算法本身抓取数据的能力已经十分强大,但它还是无法把握所有能够由人把握的因素。换言之,算法无法体验丰富的世界,其得到的数据无论有多么海量,终究也是有限的。例如,算法难以捕捉人们的社会地位、情感需求、道德上的接受水平、人们的期望和对于自身利益的认知等,而这些无法量化的感性因素也是行政机关进行行政决策时应当考虑的相关因素,也是决定行政相对人评判决策结果公正与否的重要因素。

第二,不利于利害关系人的隐私保护。在数字化的今天,隐私的保护成为公民关注的重大课题,传统行政决策一般不涉及社会大范围的公民信息收集、运用,而人工智能算法的优势就在于海量数据的收集与运用,特别是为各项决策准备的“大数据”,其具有“大”(功能强大)、“数”(数字化存储便于计量和统计)、“据”(功能性强)[33]的特点,虽然是在法律授权下长时间、大范围的搜集数据,但一旦出现算法设计以外的人为数据泄露等问题,则公民的隐私权就会难以保护。同时,算法的设计如何规避不必要的数据收集,也依赖技术人员的职业操守与监督程序的建立完善。人工智能算法不同于一般的数字算法,其具有的深度学习、智能决策的属性,也增加了保护公民隐私的难度,即使技术人员依法合规地设计了算法,在人工智能自主运行后,甚至可能连设计者也不知道算法如何决策[34],公众更是无从了解算法决策的依据与数据碰撞的具体情况。

第三,危及利害关系人的平等对待诉求。任何行政决策的内容制定与方案实施都不能背离社会公正性的规范要求[35]。公正性要求不歧视、平等、公开。但是,由于当前人工智能算法的设计、建立需要技术人员进行设定,而技术人员设定方面存在的数据选择、运用偏差,在人工智能算法辅助决策运行中会造成无法逆转的、持续性的不合理结果,最常见的是由于某些难以察觉的原因而对相同的人造成不同的结果,或者对不同的人造成相同的结果[36]。上述不合理结果的产生即算法歧视,包括但不限于算法性别歧视、算法用工歧视等,甚至在经济领域,针对用户个性化的定制也会带来算法价格歧视[37]。此外,机器学习本身也存在缺陷,技术人员自身的价值判断会在设计算法中体现,导致算法一定程度上成为机器化的技术人员,行政决策需要的公正中立就难以完全实现。

(二)算法代表与算法至上危及利害关系人程序权利

算法代表是指算法设计的指标和数值成为民众真实意愿的数字化指征。算法至上是指算法设计目的取代其他目的成为算法运行的必然目的。算法代表和算法至上与民众真实的程序性参与和真实意愿表达不符,将对利害关系人的程序性权利造成损害。

第一,不符合正当程序原则的具体要求。行政决策需要一套行之有效、合法合规的程序,而作为决策的程序,正当程序原则是其基本的价值遵循。公平、公正、公开则是行政程序正当原则的三个面向[38]。通过设置正当行政程序规范行政权,为行政相对人提供最低限度的程序正义,驱使行政机关在实现行政目的时采取善良手段,从而提高行政决策的可接受度。正当程序原则要求充分保障行政相对人行使陈述、申辩、听证的权利,关注行政相对人的诉求,对行政行为作出的依据和理由进行解释说明。但人工智能算法辅助行政决策在一定程度上与上述要求存在抵触。由于算法行政决策在一定程度上的自主性、瞬时性以及不可解释性等因素的多重共同作用,正当程序原则所要求的决策公开可能被架空[39],进而,由于程序正当性的缺失,决策的可接受度与信服力也将下降。

第二,不符合利害关系人的真实意愿表达。人工智能算法的基础在于大数据的收集、应用,而对于何种数据信息才是行政相对人的真实意愿表达,本来是由行政相对人所决定的,但人工智能算法的应用使得其所选取的数据、设计的应用模式成为行政相对人表达意愿的“代表”,该“代表”有无获得行政相对人授权、何种程度上体现行政相对人真实意愿,则有赖于技术人员在设计算法前收集、了解的情况。由于行政决策所面对的社会情况复杂多变,技术人员设计算法前收集、了解的情况与社会情况总是难以一一对应,设计的深度学习方向也可能存在偏离,导致人工智能算法辅助行政决策中提供的数据支撑并不能充分保障行政相对人的程序权利。

第三,不符合利害关系人的真实程序性参与。人工智能算法辅助行政决策会进行决策模型的建构,计算哪一模型更能取得良好的收益,但在最高效益与最真实的参与之间存在一定的张力。一方面,真正重要的是行政相对人真实的意愿表达,当其把真实意愿反映到行政决策之中时,行政决策便具备了民主基础,不应再对该决策进行修改,否则便违背了民主原则,漠视行政相对人的真实意愿,行政相对人的知情权、听证权和监督权可能因此而遭到破坏[40];另一方面,实际作出的行政决策未必总是最好的决策,有时决策的作出需要参考专家意见,需要运用科学技术和科学方法,以提升决策的质量。这便意味着多数人的真实意愿应当受到一定的限制,行政决策不完全是根据真实意愿做出的,其应当在最高效益与最真实的参与之间找到平衡,但是如果偏向了一方便意味着对另一方的侵害,人工智能算法辅助行政决策偏向于最高效益这一向度,同时意味着行政相对人真实参与的分量在行政决策中的降低。

(三)人工智能算法风险的责任分配难题

人工智能算法辅助行政决策的法治风险既表现在对利害关系人实体权利与程序权利的可能侵害上,也表现为当出现算法决策错误时,行政责任承担主体配置不明的问题。行政责任的存在是确保政府“负责任”治理的最终保障[41]。然而,与传统行政决策体制机制不同,人工智能算法辅助决策过程,涉及行政组织主体、算法运营主体、算法系统本身以及利害关系人的多方互动。算法决策错误的行政责任无法像传统行政责任一样,原则上概由行政组织体承担,这是因为算法隐匿、算法偏差等问题的存在,并不来源于行政主体的过错与失职。此外,交由算法运营主体承担行政责任也不妥,因为它们不具有行政主体的资格能力。再者,算法系统本身是没有责任意识与责任能力的,因此人类之间的责任关系也不应当被转移到机器与人类[42]。同时,算法行政决策中还可能出现第三方开发者介入的情况,开发者在算法实际运作过程中扮演着相当程度的行政管理者角色,但如果由此而课予其行政责任,又将面临混淆行政行为与市场行为的困境[43]。

四、人工智能算法辅助行政决策法治风险的化解路径

为了应对人工智能辅助行政决策可能造成的法治风险,必须结合行政法治原理,以保护行政相对人和利害关系人的合法权益为底线,约束人工智能算法在行政决策中的应用。为此,有必要围绕人工智能算法问题,从人工智能算法自身、行政机关、利害关系人三个方向寻找法治出路,强调完善人工智能算法的合法化设计、加强行政机关对人工智能算法的合法性审查、保障利害关系人对人工智能算法的合法权利主张,从而契合行政法治原理的要求。

(一)完善人工智能算法的合法化设计

第一,明确设计人工智能算法的合法性要求。人工智能算法的合法性要求与利害关系人的权利在法律中的宣示是一体两面的。就实体权利保护而言,主要涉及个人信息保护和隐私泄露问题,但当前对于公民隐私权的保护仍处于发展阶段,完善的法律法规尚未形成。因此,当人工智能算法辅助行政决策时,为了避免泄露公民隐私引发行政争议,应当主动在设计算法阶段进行合法审核。在法律法规不完善情况下,对公民隐私权保护设定除了参照宪法、民法典等法律法规,还应当在符合法律原则的基础上设计算法。可以通过参照行政合理性原则、比例原则等最低限度获取必要公民信息,完成决策所需要的大数据支撑。必要时,行政决策者可以通过竞争选择算法,可以通过构建大数据基础上的算法推荐系统[44],让决策者在合法性考量基础上进行选择。

第二,增强人工智能算法的合法性设计与运作。人工智能算法辅助行政决策在算法设计之初,应当鼓励、支持公众参与设计讨论,通过听取公众意见,完善信息采集范围、使用方式、后期深度学习智能运行的控制模式。在辅助行政决策的过程中,也应坚持行政法上的合理性原则,说明决策理由、听取公众意见,从而实现行政机关自我约束,以后行政机关在处理类似事务时就承担一旦偏离“一致性”原则就负有更沉重说理负担的义务[45]。当人工智能算法辅助行政决策产生了对行政相对人不利的影响时,如过度收集相对人隐私信息等,必须要求行政机关对此说明理由。

第三,注重人工智能算法基于情境的识别技术的开发与运用。人工智能算法运算看似中立,却可能潜藏着不平等对待,造成算法下的歧视风险。背后的原因是,在行政决策过程中,算法系统将某些不相关因素不恰当地纳入考虑,使这些因素推导出差异化的决策结果。无论是在行政决策还是在司法裁判或者其他价值判断领域,同等情况同等对待、不同情况区别对待的平等原则,都标示着决策的合理性与正当性。关键在于,判断者应当熟悉掌握区别同等情况与不同情况的技艺。参考司法裁判中“同案同判”的理论探讨和实践经验,可以总结出可能影响情境异同比较的标准。首先,分享同一条法律规范的构成要件的,构成相同情境[46];其次,关键性事实的相同,是获得相同处理的必要前提;再次,如果存在与待决策的情境相同的已决情境,那么后者的存在可能构成前者应当获得相同处理的理由[47]。换言之,在已决情境中影响决策作出的因素,如果没有更强理由,在待决情境的决策中也应当获得相同的评价。当人工智能算法可以正确地学习哪些情境是相同的、相似的或者不同的,就可以对相同情境作相同处理,对相似情境作类比推理,对不同情境作差异化决策,从而避免算法歧视和算法偏差的出现。

(二)加强人工智能算法的合法性、伦理性和合规性审查

第一,加强行政机关对人工智能算法合法性的规制。对于人工智能算法一系列问题的规制需要秉持审慎的规制原则,在效率与公平之间把握平衡。可以通过对产生算法歧视的原因进行分析和分类,针对性地解决不同类型的算法歧视问题。针对算法隐匿问题,要求算法设计者在不违背商业秘密的前提下作出解释;针对算法代表和算法至上的问题,要求人工智能算法指标设置充分合理;针对算法偏差问题,要求人工智能算法完善自我审查与自我纠错机制。

第二,加强行政机关对人工智能算法行业的伦理性审查。针对技术人员自身的价值判断不一的问题,可以建立算法研发行业准入和监管制度。进行算法研发的人员须通过一定的伦理测试方可进入该职业,旨在最大化消解算法研发人员的道德倾向对于算法中立性的侵害。在进行伦理测试时,尤其要注意算法研发人员对于少数群体的伦理态度。建立算法研发行业监管制度,要不断强化对算法研发的审查工作,要求算法本身必须符合一定的伦理标准方可投入使用。

第三,加强行政机关对人工智能算法收集运用数据的合规性审查。一方面,要求人工智能算法设计者通过技术手段,筛选和“过滤”歧视性信息,或通过算法设计之初,在反歧视领域实现规范整合[48],对歧视因素设置不同权重,采用算法监测的技术,分级分类进行信息收集、运用规制,避免社会交往空间中的偏见、某些群体的弱势地位以及权利不平等等信息代入行政决策信息系统[49];另一方面,要求尽可能扩大辅助决策的数据集成范围,更加注重代际公平,减少“数字鸿沟”,采取一定的纠偏手段来应对数据收集中的问题,避免对“少数数据”和弱势群体的忽视。

第四,探索与建立人工智能算法辅助行政决策的偏离机制。已如前述,算法代表与算法至上是人工智能辅助行政决策过程中可能出现的法治风险。这两类风险都基于“唯算法论”,即不加反思地信任与运用人工智能算法提供的决策方案。因此,风险的化解尤其需要警惕“唯算法论”。决策人员在得益于算法带来的巨大便捷的同时,仍然应当审查人工智能运算所依据的前提是否合理、可靠,反思是否存在算法未予考虑的其他因素。除此以外,建立算法可偏离的机制是必要的。当工作人员经过审慎研究,主张人工智能算法提供的决策方案有违法理人情时,即应当启动机制,重新(通过另一套人工智能算法系统或者通过传统决策程序)敲定决策内容。人工智能算法辅助行政决策的可偏离机制,是既能确保算法决策的巨大优势,又能避免算法减损行政机关决策的自主化与理性化的体制机制。

(三)完善算法公开制度,保障利害关系人的合法化主张

第一,明确利害关系人对人工智能算法的知情权。人工智能算法辅助行政决策让公民难以如同过去那样通过政策民意恳谈会、听证会等传统路径参与决策过程,又鉴于算法依赖于数据的收集,公民产生对自身权利保护的自然需求,因而可能对行政决策需要收集公民信息的行为产生心理抵制。针对现实的需要,提升算法透明度,让公民理解决策需要的数据限度,增进政府与公民之间的互信,是完善人工智能算法的题中应有之义。

第二,依法公开算法内容。人工智能算法收集与处理的数据显然构成2019年修订的《中华人民共和国政府信息公开条例》第二条规定的政府信息内容,因此也应当坚持以公开为常态、不公开为例外的原则。尤其值得注意的是,通过人工智能算法获取的数据材料,不应当简单被当作过程性信息而免于公开。虽然算法决策建议作为过程性信息可能与最终的行政决策存在偏差,但是算法运算的结果并不体现出典型过程性信息所拥有的主体间磋商的特征。此外,如果人工智能算法具有公众性,那么决策机关还应当依法主动予以公开;反之,则需要依当事人的申请而公开。当然,并非算法的所有内容以及通过算法获取的所有数据都需要被完整地公开。公开过程要考虑不同主体间法益冲突的可能性,并尽可能小地减损次要法益[50]。例如,技术性算法是可公开的,涉及商业秘密、个人隐私的数据则原则上不予公开。

第三,建立保障利害关系人知情权的算法公开与解释制度。为提升算法透明度,应当在算法公开与知识产权保护之间进行权衡,建立完善算法公开制度,公开算法流程、数据收集与运用的原理和实际应用记录。技术人员应当鼓励社会公众、社会组织等各方参与,应当在设计及应用人工智能算法辅助行政决策之前对算法如何决策向公众作出解释,包括该算法的技术原理、该算法获取和加工数据的方式以及该算法的技术局限等,行政机关也应当为辅助决策进行必要的行政公开。此外,还须对人工智能算法运行过程予以完整记录,方便之后的溯源管理。机器学习的记录也必须完整地保存并适时公开。这些数据记录乃是解释算法何以如此决策的重要证据。通过上述的努力,可以加深公众对算法的了解,进而提升公众对算法的接受度。

(四)健全人工智能算法辅助行政决策的行政责任承担制度

一方面,传统行政责任配置方式是算法决策行政责任制度的基础与底色。建立健全人工智能算法辅助行政决策的责任制度,并不是抛弃传统的行政责任机制而另起炉灶。在传统责任机制中,当出现了行政决策错误而需要承担责任时,首先依据行政法律法规向行政主体施加责任,再由行政主体在内部向致使错误发生的公务人员个体课以责任。在算法决策错误中,原则上同样应当由行政主体承担责任。这不仅因为它是决策过程中唯一出场的行政主体,而且因为行政决策最终是以它的名义作出的,是它的行政权力行使的结果,对外代表的是它的决断。行政主体对决策结果拥有相当大程度的控制能力,应当意识到算法至上和算法代表的陷阱,进而决定是否有必要补充算法提供的数据、偏离算法的决策方案。当其他参与主体不存在过错之时,由行政主体来赔偿或补偿利害关系人,是较为公平合理的做法。除此以外,如果内部的公务人员存在失职,也应该按照传统的责任分配机制来承担相应责任。

另一方面,原则上不应由人工智能算法的第三方开发者承担行政责任。但是人工智能算法作为第三方开发者的产品,如果存在缺陷或瑕疵,那么行政机关仍然可以依据委托开发的合同、行政合同法以及民事法律法规,来主张开发者的违约责任并要求相应的救济。为了保证追责的有效性,责任承担内容可以包括经济赔偿、合同单方解除权利、纳入政府采购黑名单等[51]。如果开发者基于合同而将应当承担的责任全部履行,那么行政机关由此获得的经济赔偿可以作为向利害关系人予以赔偿或补偿的经济来源。

五、结语

依法行政是实现国家治理体系和治理能力现代化的题中应有之义,面对人工智能算法日益嵌入社会治理的现状,回避与放任其参与行政决策之事实都是不可取的态度。我们应当检视现状,科学分析利弊,在此基础上作出回应,将人工智能算法辅助行政决策纳入科学化、法治化轨道。与大多数技术进步一样,目前正在探索的人工智能算法辅助行政决策,机会与风险同行。一方面,假如我们审视“辅助”这个概念,摆正人工智能算法的“辅助”地位,就会发现,政府运用数据库检索、整理和分析材料,早已经不是什么新鲜事。换言之,通过科学和技术的发展,我们提升了行政决策的能力和效率,这是我国行政事业发展的长期规律,人工智能算法的参与只是在这个基础上更上了一层楼。另一方面,我们也不应当过度依赖人工智能算法,或者说完全轻信算法运算结果,否则,人工智能算法就不是辅助而是替代行政机关的决策全过程。

人工智能算法辅助行政决策有助于决策结果的针对性、亲民性,也为决策提供了智力支持,但由于其自身的算法问题,对利害关系人的实体权利和程序权利可能带来损害,对强调公平、公正、公开的行政法治原理论造成冲击。针对上述风险,可能的出路在于对算法设计、运用上进行合法规制,通过合法性审查、伦理审查、技术手段避免算法歧视,提升算法自身透明度。当然,上述完善路径是现阶段的学术探索,如何协调人工智能算法与公共行政决策、理顺“法律之治”与“算法之治”的相互关系,仍是值得进一步探讨的课题,还有待学界与实务界的共同努力。

[参考文献]

[1][2][14][35]李进华.基于“大数据+区块链”技术应用的重大行政决策模式变革研究[J].大连干部学刊,2021(8):53-59.

[3][17][22]陈飏,裴亚楠.论自动化行政中算法决策应用风险及其防范路径[J].西南民族大学学报,2021(1):74-81.

[4][5][15][19][23]燕晓婕.人工智能时代行政决策的法治化进路[J].哈尔滨师范大学社会科学学报,2020(1):37-40.

[6]雷磊.法教义学与法治:法教义学的治理意义[J].法学研究,2018(5):58-75.

[7]张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017(6):56-66.

[8]马长山.人工智能的社会风险及其法律规制[J].法律科学,2018(5):47-55.

[9]李飞达.人工智能在公安行政执法中的应用、风险及其规制[J].北京警察学院学报,2022(1):21-28.

[10]秦小建,周瑞文.人工智能嵌入政府治理的探索及启示[J].国外社会科学,2022(2):30-45.

[11]徐辉.人工智能在社会治理协同中的应用、问题与对策[J].科学管理研究,2021(5):32-40.

[12][16][20][27][31][32][49]赵友华,蔡振华.人工智能时代行政决策体制优化的技术范式与风险因应[J].理论月刊,2020(2):60-68.

[13][18][21][26]张恩典.人工智能算法决策对行政法治的挑战及制度因应[J].行政法学研究,2020(4):34-45.

[24]林敏,陈洁宏.海关行政执法自由裁量权人工智能辅助决策初探[J].中国口岸科学技术,2020(1):63-65.

[25]习近平主持召开中央全面深化改革委员会第十二次会议强调:完善重大疫情防控体制机制 健全国家公共卫生应急管理体系[EB/OL].http://www.gov.cn/xinwen/2020-02/14/content_5478896.htm.

[28][29]赵鹏.风险社会的行政法回应:以健康、环境风险规制为中心[M].北京:中国政法大学出版社,2018:173、173.

[30][34]宋华琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大学学报(社会科学版),2018(6):82-90.

[33]顾理平.大数据时代公民隐私数据的收集与处置[J].中州学刊,2017(9):161-167.

[36]刘友华.算法偏见及其规制路径研究[J].法学杂志,2019(6):55-66.

[37]许身健,郜庆.反垄断视阈下的算法价格歧视问题[J].中国法律评论,2022(3):105-116.

[38]章剑生.现代行政法基本理论:上卷[M].北京:法律出版社,2014:106-108.

[39]陈亮,薛茜.行政公开视域下行政决策算法化的法律规制[J].理论月刊,2021(3):119-129.

[40]程关松,苗运卫.相对人参与算法行政的困境与出路[J].东南法学,2021(2):43-57.

[41][43][50][51]王怀勇,邓若翰.算法行政:现实挑战与法律应对[J].行政法学研究,2022(4):104-118.

[42]Luís Greco.没有法官责任的法官权力:为什么不许有机器人法官[J].钟宏彬,译.月旦法学杂志,2021(8):170-195.

[44]王天恩.人工智能算法发展的人类演化效应[J].华东师范大学学报(哲学社会科学版),2022(3):21-30.

[45]章剑生.面向司法审查的行政行为说明理由:郴州饭垄堆矿业有限公司与国土资源部等国土资源行政复议决定再审案评析[J].交大法学,2020(2):184-192.

[46]雷磊.如何理解“同案同判”?——误解及其澄清[J].政法论丛,2020(5):28-38.

[47]朱振.从依据到理由:迈向一种实质性的同案同判观[J].浙江社会科学,2022(4):36-44.

[48]张欣,宋雨鑫.人工智能时代算法性别歧视的类型界分与公平治理[J].妇女研究论丛,2022(3):5-19.

[责任编辑:向长艳]

猜你喜欢
依法行政人工智能算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
依法行政 推进外汇领域“放管服”改革
中国外汇(2019年6期)2019-07-13 05:44:06
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
进位加法的两种算法
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
依法行政 执法为民
——湖南省工局2016年工作掠影
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
一种改进的整周模糊度去相关算法