摘要:我国的自动化行政裁量应用在政策推动下处于世界领先水平,但存在数据瑕疵、转译偏差、算法黑箱等基础诱因,易产生行政权利与义务被技术性悬置、官僚系统越权与卸责蔓延、机械裁量与个案正义相冲突等负外部效应。若要科学解决这些基础问题及其负外部效应,则需改进既有的发展优位规制模式,构建兼顾创新发展与合理规制的包容性规制框架。在以人为本与权利保障双向融合的技术赋权趋势下,自动化行政裁量的技术创新应注重提升公民参与行政活动的信息能力。技术性正当程序是正当程序的数字化升级与过程论阐释,有助于推动自动化行政裁量应用边界的划定与实质化人工干预机制的构建。
关键词:人工智能;自动化行政裁量;技术性正当程序;包容性规制
目次
一、引言
二、自动化行政裁量的容许性分析
三、自动化行政裁量的负外部效应
四、自动化行政裁量的包容性规制原理
五、自动化行政裁量的包容性规制路径
六、结语
一、引言
国外关于人工智能与法律相结合的研究,最早可追溯至20世纪60年代。随着凯文·阿什利(Kevin Ashley)等人设计出根据案例进行推理的HYPO软件,法律人工智能逐渐被纳入法律专家和技术专家的研究视野。此后,各国相继开发了各类法律人工智能系统,如ROSS、Lex Machina等。相较于国外,国内开展法律人工智能的研究最早出现在20世纪80年代,如龚祥瑞、李克强1983年提出法律工作计算机化具有现实可能性。2009年,以环保行政处罚自由裁量辅助决策系统为代表的智能辅助行政裁量开始出现。2022年,OpenAI公司发布的ChatGPT-3.5,更是掀起了法律人工智能的研究热潮。相比于个案化裁量,机械化裁量可以提升行政活动的一致性、缓解行政资源的不均衡。但行政裁量从“人类”到“机器”的载体变化,引发了行政权力运行机制、行政裁量运行方式的深刻变革。尽管部分学者将目光从“自动化行政”移向了“自动化行政裁量”,较全面地阐释了自动化行政裁量的学理基础与功能定位。然而,当前关于自动化行政裁量的学术研究囿于理论探讨与前景预测,未触及自动化行政裁量的负外部效应以及因应手段的实质匮乏。
各国针对自动化行政裁量的规制研究均处于起步阶段,规制模式各具特色:欧盟在数据保护框架下采取严格监管模式,美国通过发布法案与作成判例而呈现渐进规制模式,中国积极推动人工智能与行政活动的深度融合而形成发展优位模式。尽管我国自动行政裁量应用走在世界前列,但是相关规制研究却长期处于缺位状态。习近平总书记在2014年两院院士大会上强调,“抓住新一轮科技革命和产业变革的重大机遇,就是要在新赛场建设之初就加入其中,甚至主导一些赛场建设,从而使我们成为新的竞赛规则的重要制定者、新的竞赛场地的重要主导者”。因此,我国既应保持推动自动化行政裁量应用的政策连贯性以巩固先发优势,也应主动提出规制方案以避免技术控制的“科林格里奇困境(Colingridge’s Dilemma)”再现。这种对发展优位模式的前瞻性改进思路,体现了兼顾创新发展与合理规制的“共建共治共享”与“包容审慎监管”理念。本文通过考察自动化行政裁量的政策依据、技术原理、权力来源及容许性限度,揭示自动化行政裁量负外部效应的基础诱因与外在表现,在此基础上进一步提出自动化行政裁量的包容性规制原理和规制方案。
二、自动化行政裁量的容许性分析
自动化技术可以发掘行政机关搜集信息的潜力,进而彻底改变行政机关解决复杂问题的方式。由于自动化行政裁量在依据上具有政策引导性、在应用上具有技术可行性、在法理上具有权力正当性,因而在我国行政执法领域得以快速推广应用。然而,当前技术发展所处的弱人工智能阶段,决定了自动化行政裁量的辅助功能定位以及必要的容许性限度。
(一)自动化行政裁量的运作原理
自由裁量权允许执法部门选择“执法优先权”,但这些选择却可能带有社会性和政治性,同时又不能期望执法部门随处都能全面执法,因为他们的自由执法行为可能带有歧视性和武断性。在此意义上,使用自动化行政系统有助于减少自由裁量权的负面影响。我国行政处罚领域最早引入了自动化裁量。南京市环保局早在2009年就研发了“环保行政处罚自由裁量辅助决策系统”,该系统的研发思路是按照违法事实“无、轻微、一般、较重、严重、特别严重”的六个等级,将每个违法事实二维概分为违法行为和违法后果,每个违法行为和违法后果再拆分为若干个子行为和子后果,通过子行为和子后果的分别叠加,计算出总行为和总后果,进而得出违法事实的相应等级。这类基于二维数组的行政处罚裁量辅助决策系统,主要是通过创建算法模型来模拟行政处罚的自由裁量过程。目前,行政处罚裁量辅助系统在我国市场监管、城市管理、交通运输及税收征管等领域得到了全面推广。
人工智能的本质是功能模拟,自动化行政裁量实质是通过机器模拟行政裁量的过程,其运作原理可被概括为三个环节,即“从场景到数据”“从数据到模型”“输出裁量结果”。首先,“从场景到数据”环节以历史违法事实、既有裁量依据的结构化为目标,通过语料获取、数据清洗、特征标注等步骤,搭建自由裁量辅助决策知识库。在这一知识库中,数据的完整性与真实性将决定算法模型能否还原行政裁量场景。其次,“从数据到模型”环节以选取最优算法模型来拟合输入与输出关系为目标,通常需要完成通用模型选配和模型选配后的结构改造两项工作。算法模型只有随着行政裁量任务的调整而持续优化,才能不断接近程序正义的理想状态。最后,“输出裁量结果”环节以自动化行政系统输出个案裁量结果为目标,通常是将个案事实与自由裁量辅助决策知识库中的违法事实、裁量依据分别进行匹配,从而给出具体的行政裁量结果。
(二)自动化行政裁量的政策依据
相比于欧洲国家的保守态度、英美国家的慎重态度,我国对法律人工智能应用整体上持积极发展态度。在开放包容的政策氛围下,我国的“智慧警务”“智慧法院”“智慧政务”等人工智能应用处于世界领先地位。回溯我国“互联网+政务服务”的发展历程,可以管窥“人工智能+政务服务”的未来发展趋势。在2015年政府工作报告提出制定“互联网+\"行动计划后,国务院随即印发了《关于积极推进“互联网+”行动的指导意见》。而在2016年政府工作报告提出推行“互联网+政务服务”后,《关于加快推进“互联网+政务服务”工作的指导意见》《“互联网+政务服务”技术体系建设指南》等指导文件陆续出台。因此,在2024年政府工作报告首次提出开展“人工智能+”行动的政策背景下,综合过往“互联网+政务服务”的发展历程、地方“人工智能+政务服务”的实践案例以及当前我国对数字中国、数字政府等命题的重视程度,推动“人工智能+政务服务”的顶层设计势在必行。
除《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)从个人信息保护视角对人工智能应用(自动化决策)作出限定外,我国既有法律对行政领域的人工智能应用还未有直接规定。在我国,政策是法律的灵魂,是制定法律的依据,因此规范意义上的政策几乎具有等同于法律的实施效果。一些走在法律规制前面的政策甚至更具实效性。政策的支持是我国推动自动化行政裁量应用的正当性根据。首先,中央的政策文件为自动化行政裁量提供了原则指引。例如,中共中央、国务院2021年8月印发《法治政府建设实施纲要(2021-2025年)》,提出运用人工智能技术促进依法行政。其次,国务院所属机构发布的指导文件为自动化行政裁量的推广应用提供了实质性支撑。例如,国务院办公厅2019年1月印发《关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》,明确要求研发行政执法裁量智能辅助信息系统。生态环境部2021年1月印发《关于优化生态环境保护执法方式提高执法效能的指导意见》,旨在推动自由裁量系统研发以实现行政裁量的电子化。国务院办公厅2022年8月印发《关于进一步规范行政裁量权基准制定和管理工作的意见》,要求运用人工智能技术将裁量基准嵌入行政执法系统。
(三)自动化行政裁量的权力正当性
赫拉利(Harari)指出,人类已被海量数据所淹没而无力处理大量数据,导致其正将手里的权力交给集体智慧、外部算法等。从传统行政裁量到自动化行政裁量,尽管裁量主体由行政人员转变为人工智能,但本质上仍是行政裁量权的运作。行政裁量的存在,主要是调和立法万能与行政万能两种理想的需要。在行政裁量所具有的法律正当性与平衡功能基础之上,自动化行政裁量应用可以技术性修复传统行政裁量长期存在的固有瑕疵,进一步增强自动化行政裁量的权力正当性。
不违背法律禁止性规定是自动化行政裁量应用的法律基础。《中华人民共和国宪法》第2条第2款允许人民通过多种形式管理国家事务、第27条第1款要求国家机关不断提高工作效率,这些条款是允许以自动化方式作出行政行为的宪法渊源。此外,《中华人民共和国行政处罚法》(以下简称《行政处罚法》)和《中华人民共和国行政许可法》(以下简称《行政许可法》)均未限定行政裁量的实施方式,《行政许可法》第33条倡导行政机关推行“电子政务”,《行政处罚法》2021年修订时在第41条新增“利用电子技术监控设备”的执法规定。
行政裁量的平衡功能是自动化行政裁量应用的功能基础。相比于司法活动的被动性,行政活动具有更高的灵活性和更多的能动性。尤其在适用法律时,行政人员享有更多的裁量空间,导致行政活动存在更多的平衡空间。迈耶(Mayer)认为,行政裁量是对集体利益、正义、目的性等自行权衡的过程。行政裁量理论经历了从严格限制到相对独立的发展历程,在现代行政活动中扮演了能动、灵活的平衡功能。这种平衡功能体现在除非这一概念明显被错误解释,否则司法机关不能审查行政机关针对不确定法律概念作出的权衡性决定。
修复行政裁量瑕疵是自动化行政裁量应用的价值基础。德国行政法学者毛雷尔(Maurer)认为行政裁量应是“受法律约束的裁量”,行政裁量瑕疵主要呈现出裁量逾越、裁量滥用、裁量怠惰三种形态。自动化行政裁量具有主体多元性、裁量自动性等算法技术特征,可以技术性修复传统行政裁量的固有瑕疵:其一,算法不存在二义性,因此法律代码化过程可以确保裁量结果的唯一性;其二,自动化系统只能按照预设的基准和流程运行并输出裁量结果;其三,自动化系统每秒可以输出百万级的机器语言指令,极大节省了非必要的行政裁量程序流转时效限制。
(四)自动化行政裁量的容许性限度
我国对以半自动化方式作出行政裁量持包容态度。江苏省、甘肃省等地先后研发了环保行政处罚裁量辅助系统。在地方取得可复制、可推广的经验后,国家层面相继印发政策文件指导并鼓励各地使用自动化行政裁量智能辅助系统。
以人工智能技术在行政裁量中发挥的作用为界限,自动化行政裁量可分为辅助计算、执行规则及机器学习等模式。不同模式背后所体现的是人工智能介入行政裁量的深度和广度。自动化系统的设计研发往往依赖于市场机制中的科技企业,在理论上为科技企业介入行政裁量开放了空间。然而,实践中的智能化(电子化)系统不仅在名称上被行政机关限定为“裁量辅助系统”,而且在系统运行步骤上被设置为“两段式裁量”:第一阶段为程式化的机器裁量,第二阶段为个案化的人工裁量。美国宇宙学教授泰格马克(Tegmark)指出,构建具备人类水平的通用人工智能(AGI)是人工智能领域的“圣杯问题”。自动化行政裁量应用当前仍处于弱人工智能的技术发展阶段,已然决定了其行政辅助的功能定位。
明确自动化行政裁量的辅助功能定位,并不意味着禁锢其技术优势的最大发挥。既然我国在政策与制度上并不限制自动化行政裁量,那么就应以发展的眼光、进取的姿态对待自动化行政裁量的容许性限度。这是因为,尽管行政裁量具有实现个案正义的法律品格,但在事实清楚、关系简单、小额频发的行政案件中,裁量一致性意味着更高的正义追求。并且,随着技术迭代与样本扩容,机器裁量与人工裁量之间的差距正在逐步缩小,有望无限逼近人工裁量的集体经验和裁量水准。近年来,以ChatGPT为代表的生成式人工智能席卷全球,让自动化行政裁量的拓深应用有了更多想象空间。而以贝叶斯模型(Bayesian Model)为代表的人工智能模型不断涌现,为自动化行政裁量的因果推理提供了方法论启示。
三、自动化行政裁量的负外部效应
自动化行政裁量的本质是算法自动化决策,在撼动行政规律与提升行政效能的同时,亦生成了权力行使、责任承担及公平正义等法治维度的负外部效应。究其原因,既有自动化行政裁量固有的技术性缺陷,也有传统行政法存在的立法局限性。
(一)自动化行政裁量负外部效应的基础诱因
自动化行政裁量在世界范围内的应用推广缓慢,源于复杂因素的叠加作用。由于数据、规则、算法是法律人工智能运行的核心驱动要素,因此引发自动化行政裁量负外部效应的基础诱因主要存在于数据收集、规则转译及算法设计等方面。
第一,大量的行政案例为自动化行政裁量提供了基础性数据,但是数据质量不高、数据样本不足、数据共享不充分等实践难题,导致创建可信数据算法模型的目标难以实现。首先,高质量训练数据的匮乏影响了机器学习的效果。以中国裁判文书网为例,大量裁判文书的分析、论证过程较为简略,而较为详细的合议庭笔录等内部文书却无法成为底层数据。其次,数据的规模和代表性不足,可能对数据分析结果的完整性、代表性产生影响。最后,数据共享不充分将催生政务服务的“数据孤岛”。尽管中央层面2023年已经成立了国家数据局,但是自下而上的跨层级数据共享渠道还不够通畅。
第二,将裁量规范与基准(以自然语言表现)转码为机器可识别的算法规则(以机器语言表现)的过程中,可能存在对照转译、细化转译、创设转译等情形。对照转译是将裁量规范与基准直接转译为算法规则,但囿于技术水平而存在表述差距。细化转译是将相对宽泛的裁量规范与基准进行算法解构以涵摄个案事实,本质是对裁量规范与基准的技术性修正,甚至可能修改其法律构成要件,具有实施意义上的立法功能。创设转译则是通过机器学习自主创设裁量规范与基准之外的算法规则,将从根本上动摇法定立法权。若创设转译不受限制,则《中华人民共和国立法法》确立的立法权体系将面临人工智能的巨大威胁,尤其是下位法规、规章制定权将面临技术性扩容的风险。
第三,自动化裁量的黑箱化运行无法满足行政信息公开原则。算法黑箱是对算法运行过程不透明现象的比喻。算法黑箱的存在,导致自动化行政裁量出现了逻辑隐层,即裁量算法的运行逻辑处于不可知的隐蔽状态。伦敦大学法学教授拉迪加(La Diega)将产生算法黑箱的原因归结于组织、技术、法律三个维度:在组织维度,在最低限度的透明度义务下,算法运行被追求利益最大化的私主体所操控;在技术维度,人工智能使算法决策的技术原理在本质上难以获得,比如以人脑为模型的人工神经网络同样不透明;在法律维度,算法和源代码受到了现有知识产权等法律制度对技术的保护。科技企业通常为承担算法系统研发任务的第三方,拥有以软件著作、方法/产品专利、商业秘密等知识产权保护为由的公开抗辩权,合法阻却了算法和源代码的公开。例如,在智搜诉光速蜗牛一案中,法院认为经智搜公司优化后的推荐算法属于不为公众所知的劳动成果,应予以商业秘密保护。
(二)自动化行政裁量负外部效应的外在表现
自动化行政裁量与传统行政裁量所追求的价值目标具有同一性。然而,自动化行政裁量固有的技术缺陷与人工智能嵌入行政裁量的理想图景之间张力渐增,具体表现为行政权利与义务被技术性悬置、官僚系统越权与卸责蔓延、机械裁量与个案正义相冲突等。
哈贝马斯(Habermas)认为参与交往行动的主体愿意使其行动计划建立在一种共识的基础之上,而这种共识又建立在对有效主张的相互表态和主体间承认的基础之上。然而,自动化行政裁量过程的非交往性,容易导致行政法规定的告知说明、陈述申辩、要求听证等权利与义务被技术性悬置。首先,行政机关的告知说明义务被虚化。行政机关既可能以算法运行黑箱为由不履行法定的告知说明义务,也可能囿于专业知识匮乏而无法释明机器裁量原理。其次,行政相对人的陈述申辩权利名存实亡。核心在于,自动化行政裁量的非现场性易导致相对人行使陈述申辩权利的时点发生了后移。最后,行政相对人要求听证的权利被实质剥夺,听证程序因技术壁垒而被完全架空。域外已有与之相应的立法动态,如《德国联邦行政程序法》第28条规定“借助自动化设备作出行政行为时,可以免除事先听证程序”。
受制于算法黑箱化运行,自动化行政裁量可能加剧现代官僚系统的越权与卸责伴生现象。自动化行政裁量的外在表征通常为电子设备、机器屏幕,甚至可以笼统称之为机器。自动化行政裁量过程由多个关联的行政行为及其辅助行为构成,导致既有身份识别制度无从适用。行政人员以机器裁量为由进行越权裁量或推卸责任,将引发侵权责任分配方式与比例的争议。首先,行政权力包裹于算法权力之中,将会遮蔽行政人员可能的裁量越权行为。其次,在传统问责理论中,问责力度越大,卸责可能性越高,二者呈因果互动关系。若自动化行政裁量引发的不利后果被问责,则自动化系统将是行政人员转移问责压力绝佳的“替罪羊”。官僚系统有组织的越权与卸责伴生蔓延,进一步产生无法问责自动化行政裁量的连锁后果。
自动化行政裁量的机械裁量与个案正义之间存在巨大张力,主要表现在法治价值空心化与裁量路径依赖化。首先,效率优位易引发价值迷失。虽然自动化行政裁量提升行政效率的功用已得到普遍认可,但在技术解决方案中如何实现法治价值并未受到应有重视。一个著名的反对图灵测试的理由是,虽然算法可以模仿道德,但除非算法理解它所做的道德选择,否则它就不可能是道德的。若在自动化行政裁量中坚持效率优位,将导致公平公正、程序正义等法治价值的失衡。其次,行政人员易被机器裁量的技术中立表象所迷惑。因技术万能而产生的路径依赖,将会深层次、系统性地削弱行政人员的专业知识与裁量能力。
(三)自动化行政裁量负外部效应的行政法检视
现代行政法已然踏上了人工智能开拓的制度荒土,相对滞后甚至缺位的法律制度加剧了自动化行政裁量负外部效应的溢出。因此,有必要进一步分析其负外部效应的制度因素。
以法律关系恒定为视角,自动化行政裁量带来了行政法律关系的微妙变化,传统行政法面对其负外部效应时供给不足。首先,行政机关数字化转型促使行政裁量由“人际型”向“人机型”转变。传统行政裁量受人力资源、时间成本等影响,呈现“严格立法、选择执法”态势。自动化行政裁量则由“人机互动”作出,设备设置不够科学、行政执法全域全时更是加剧了非现场执法的“全民违法”现象。其次,自动化裁量引发行政法律关系由“封闭型”向“开放型”转变。全网协同的自动化行政裁量打破了行政法律规定中关于管辖地域的限制,裁量过程的主体多元化打破了行政法律规定中关于“两造恒定”的限制。
以法律秩序异化为视角,自动化行政裁量被深深地打上了算法烙印,法律规范与算法规则皆成为维护行政秩序的现实工具。行政秩序由建立在传统行政法基础之上的“法律秩序”异化为由算法规则支配的“算法秩序”。随着自动化行政的普及,行政机关因技术中立和技术依赖而过度信任机器裁量,导致现代风险社会的行政秩序常常需要依赖不同的自动化系统进行维持。行政场域在事实上演变为被各种算法规则所驱动的计算空间,行政机关与相对人沦为算法规训对象。自动化行政裁量依赖算法驱动,意味着以算法为中心重建了整个行政场域中的法律秩序。
以法律适用缺陷为视角,当前行政法没有对自动化行政进行回应性立法,更难以针对自动化行政裁量进行立法规制。相较于传统行政裁量,自动化行政裁量具有主体多元性、程序自动性等算法技术特征,确有进行特殊制度安排的立法必要性。具体而言,对裁量自动化系统从设计研发到责任追究进行有效规制的行政法尚处于空缺状态:在系统设计环节,既未建立研发主体的市场准人制度,也未建立行政主体的研发监管制度;在运行反馈环节,既未构建自动化行政裁量的偏差预警机制,也未构建裁量偏差的人为干预机制;在责任追究环节,既未明确自动化行政裁量的法律定位,也未建立自动化行政裁量的信息披露制度。
四、自动化行政裁量的包容性规制原理
作为全球人工智能技术发展的重要引领者,我国继《全球发展倡议》《全球安全倡议》《全球文明倡议》之后,于2023年10月对外发布了《全球人工智能治理倡议》,倡导构建一个兼顾发展与安全的人工智能包容性治理框架。在全球人工智能治理框架下.我国自动化行政裁量规制方案的设定,应当坚持以人为本和权利保障,推动多利益攸关方积极参与,并强调规制过程的互动合作和利益均衡,实行具有中国特色的包容性规制原理和方案。
(一)包容性规制:自动化行政裁量的规制原理
行政裁量与包容性规制都呈现“利益均衡”的价值向度。自国务院2017年印发并实施《新一代人工智能发展规划》以来,积极推进人工智能技术在行政领域的实践运用已成为我国的政策导向。现代公共行政的生命在于裁量,行政裁量是通过利益博弈、协调及权衡实现实体内容“均衡合理”的过程。当前我国处于自动化行政裁量应用的无人区,以《全球人工智能治理倡议》为代表主张包容性规制的全新方案,体现了本土规制理念的原创性。从理论源流看,包容性规制的创新提出,主要受中央所倡导的“共建共治共享”与“包容审慎监管”理念的深刻启发:前者以包容为内涵,首次出现在党的十九大报告有关构建社会治理格局的论述中,强调多元主体参与社会治理、共享治理成果;后者以包容为前提,在国务院有关加快新旧动能转换的指导意见中首次被提出,尤其是包容审慎原则于2021年被明确写入《中华人民共和国科学技术进步法》第35条,所表达的激励发展、增进效率之要旨极为突出。
包容性规制重视对弱强制色彩、未型式化行政行为的应用,采用非正式机制回应大数据、人工智能等新兴技术的规制需求,为技术发展提供了必要的容错空间。随着数字社会信息不对称加剧,不同群体的信息需求日趋复杂,包容性规制因而呈现出浓郁的合作规制范式转向,在规制制度形态上则表现为“多元行政法”。尽管包容性规制中充斥着大量不确定法律概念,但通过构建“技术—制度”协同演化的试验性规制框架,有机会科学解决自动化行政裁量引发的大部分负外部效应。如前所述,负外部效应既源自技术缺陷诱因,也有行政程序失范问题,故构建包容性规制框架就是在构建一个以法律为基础,统合技术、伦理的多元治理秩序。其中,针对技术缺陷诱因,不仅应坚持人工智能治理中的以人为本原则,而且要实现行政裁量中的权利保障要求,因此在数字技术赋权公民参与的发展趋势下,应当重视自动化行政裁量的技术研发与创新应用;针对行政程序失范,则需以行政过程论为视角全面、动态考察自动化行政裁量,适时引入技术性正当程序推动自动化行政裁量应用边界的划定与实质化人工干预机制的构建。技术赋权与技术性正当程序均具有规制新兴技术的前瞻性与包容性,二者共同服务于激励发展与合理规制相协调的包容性规制目标。概言之,包容性规制坚守以人为本原则和权利保障要求,践行技术赋权和技术性正当程序,通过创新发展与合理规制之间的利益均衡,为全球的自动化行政裁量规制提供了中国方案。
(二)技术赋权趋势:以人为本与权利保障的双向融合
任何成熟的法律思想体系均离不开作为逻辑起点的人的预设,否则整个理论大厦将会坍塌。为降低人工智能应用风险,学界相继提出了“人在环路”“人本主义”等哲学观念,以及“机器伦理学”“道德计算观”等伦理观念,这些创新观念无不指向了以人为本的科技伦理观。随着人工智能立法的持续推进,以人为本的科技伦理观逐步成为降低人工智能应用风险的标准指引。例如,欧盟2024年正式批准了全球首部具有法律约束力的《人工智能法案》,该法案的立法目的之一即为“促进以人为本与值得信赖的人工智能应用”。
若聚焦于自动化行政领域,以人为本的科技伦理观则体现为以人为本的行政理念。以人为本的行政理念是以“国家尊重与保障人权”的宪法要求作为逻辑起点,其本质内涵为维护行政活动中人的主体性与人格尊严。在数字社会,行政相对人与行政机关获得了普遍性的技术赋权。尽管新兴技术为拉近二者关系创造了基础架构,但这种双向赋权方式在实践中对行政机关的赋权远超行政相对人,带来的后果是以人为本的行政理念并未完全融入保障相对人程序性权利的行政法之中。需要警惕的是,自动化行政裁量的应用初衷是为了提高行政裁量的一致性与成本效益,却可能与人工智能所倡导的以人为本科技伦理观和现代行政法所追求的程序性权利保障相悖。解决这一悖论的可行性进路是将“以人为本”与“权利保障”进行双向融合,适应自动化行政裁量的技术赋权发展趋势,进而提出技术性正当程序理论。
美国社会学家所罗门(Solomon)最早提出赋权理论,他认为“赋权”是一个过程,外化为协助弱势群体对抗社会压迫以降低其无权感。美国政治学家亨廷顿(Huntington)进一步指出,“若要保持政体稳定,则需从提高公民参与程度与制度化程度两方面着手”。该观点在数字社会仍具有借鉴意义,并且技术在现代国家治理中的赋权、增权作用更加凸显。技术赋权既增加了体制运行的韧性与载荷,也拓宽了公民参与的机会和渠道。在“以人为本”与“权利保障”双向融合的技术赋权趋势下,自动化行政裁量的系统研发、部署应用及运行反馈均应以是否有助于保障行政相对人程序性权利作为重要判断标准。此外,数字技术赋权公民参与,可以为自动化行政裁量的事前、事中及事后规制提供评判尺度,纠偏技术赋能过度所带来的行政权力无序扩张,借此强化自动化行政裁量应用中的程序性权利保障。
(三)技术性正当程序:正当程序的数字化升级与过程论阐释
目前学界针对自动化行政的规制研究,形成了信息权利规制、算法权利规制、行政过程规制三种主流方案。相较于后一种方案的程序法属性,前两种方案均属于实体法范畴。作为自动化行政的下位概念,自动化行政裁量的规制方案应当由实体法转向程序法,这可以从算法定义、行政概念、争议属性等维度找到合理依据。其一,算法主导了各领域人工智能应用运行的全生命周期。因此,阿比特博(Abiteboul)将算法定义为“解决问题的进程”。其二,行政是一个动态、连续的过程,由多个关联环节组成并且分步骤进行。其三,自动化行政裁量风险本质是程序性争议,主要源于机器裁量中产生的程序价值损失。
引入行政过程论对自动化行政裁量进行分析,对于变革行政法学研究范式具有重要的方法论意义。远藤博也、盐野宏等日本学者最早提出的行政过程论属于典型的程序规制理论,可以对行政裁量的行为与要素进行全面、动态的考察。传统正当程序的中立性、参与性、公开性等最低限度要求具有“鲁棒性”,不因人工智能技术在行政裁量领域的应用而贬损。美国学者希特伦(Cit-ron)对传统正当程序进行技术性改造后,于2008年在《华盛顿大学法律评论》上提出了具有赋能取向的技术性正当程序(Technological Due Process)理论。随后,该理论被写入美国电气电子工程师协会(IEEE) 2017年发布的第2版《符合伦理的设计(Ethically Aligned Design)》法律部分之中。从理论演进脉络来看,技术性正当程序是行政过程论在自动化行政领域的重大理论发展,有效克服了传统正当程序在数字社会的解释力失灵问题,有助于充实自动化行政裁量负外部效应的包容性规制框架。
技术性正当程序强调对行政相对人的技术赋权,以参与性、中立性、公开性等为最低限度要求,围绕轨迹留存、系统测试、理性听证、原理公开等过程要素而展开。第一,在自动化系统中留存审计轨迹,既可以建立行政行为的使用台账,也可以增强自动化裁量的可解释性。第二,自动化系统在投入使用前、运行期间及内置规范修改时应进行严格的测试评估,这既有利于识别设计环节的算法偏见,也有助于发现转译过程的规范误读。第三,建立听证法官的技术培训机制与决策释明机制,可以确保相对人获得“被听取意见的机会”。第四,以透明性与可问责性作为设计目标,合理公开自动化系统的数据及算法。政府预算部门可以将算法公开作为提供资金的先决条件,采购部门可以在签订合同时明确研发机构的公开义务。
五、自动化行政裁量的包容性规制路径
对自动化行政裁量进行过程规制,应当基于包容性规制原理,实现激励发展与合理规制相协调的价值目标。在此过程中,若自动化行政裁量的质量具有提升可能性,则应从激励发展视角思考如何建构技术创新方案。若自动化行政裁量的质量不具有改良可行性,则应从合理规制视角思考如何建构法律规制方案。
(一)技术创新推动自动化行政裁量的质量控制
习近平总书记在2016年全国科技创新大会上强调,“科技创新、制度创新要协同发挥作用,两个轮子一起转”。制度工具通常是在技术工具无效的情况下才出场。在通过制度工具解决自动化行政裁量负外部性前,应先在“技术一制度”框架下探索可行的技术路径。学者关于自动化行政裁量的规制研究,深受人工智能“通用技术+通用流程”的影响而在认识论维度存在不足。但并非在通用领域取得成功的技术都可以适用于行政裁量领域,照搬通用技术的质量控制方案往往成效不彰。自动化行政裁量在研发主体、技术路径、数据知识、模型设计等方面具有领域特殊性,使得人工智能通用技术遭遇了特定的技术障碍。为实现法治引领科技向善,需要将行政法学理论映射到人工智能通用技术的质量控制方案之中。
在研发主体方面,法律专家“单向度”的认知障碍导致其长期游离于技术研发之外。事实上,法律专家与技术专家的对话合作,有助于破除“领域知识壁垒”。在“十三五”至“十四五”期间,科技部发布了若干涉及智慧司法、社会治理的国家重点研发计划,东南大学、清华大学等高校法学教授牵头的多项重点专项获批,表明国家层面鼓励法律专家结合专业知识在技术研发中扮演积极角色的科研导向。因此,法律专家在技术研发中的角色与状态应由“游离”转变为“嵌入”,形成“法律专家+技术专家”的研发主体人员结构。
在技术路径方面,人工智能的道德设计通常有“自上而下”“自下而上”两种技术方案。道德判断依赖于价值判断,英美法语境中的价值判断对应于欧陆法中的自由裁量,二者在技术路径上具有一致性。其中,“自上而下”模式预设了知识框架,依赖专家知识的人工构建;“自下而上”模式虽没有预设知识框架,但依靠机器学习的自动获取。自动化行政裁量的技术复杂性,促使现阶段“自上而下”模式占据了主流地位。“自下而上”模式中的自然语言处理(NLP)、光学字符识别(OCR)、计算机视觉(CV)等技术应用问题较多,仍需大量的人工干预进行裁量纠错。随着技术发展,未来可通过“自上而下”与“自下而上”的融合路径,推动行政裁量领域知识框架的自动化构建。
在数据知识方面,自动化行政领域的数据知识要求与通用技术领域截然不同,这种区别表征为训练数据集、法律知识库的构建依据与更新频次不同。德国民法学者拉伦茨(Larenz)将“构成要件”与“法律后果”视作法律规范的基本逻辑结构。法律构成要件属于法律规范的最小单元。在训练数据集创建伊始,为提高数据质量,可以遵循“法律规范一解构标注一深度学习一人工智能”路径,提取法律规范中的构成要件作为数据标注的标签特征。此外,自动化行政裁量依赖的法律法规、法条释义、司法解释等法律知识内容庞杂且更新较快,因此法律知识库在创建完成后需要保持动态更新才能确保其有效性。
在模型设计方面,数据驱动的同时若将规范要求融入模型设计,可以对机器裁量进行前置性纠偏。在实践中,可供选择的技术实现方法不一而足,示例如下:一是基于有向无环图技术习近平:《为建设世界科技强国而奋斗》,载《人民日报》2016年6月1日第2版。(DAG)将行政裁量“三段论”推理建模为多层级任务的因果关系,贝叶斯网络(BayesianNetwork)就是典型的有向无环图模型;二是使用事前可解释性(Ante - Hoc)、事后可解释性(Post-Hoc)的机器学习模型,推动算法模型的可解释性迭代;三是基于模糊逻辑理论,在模型设计中解析不确定法律概念、认定不完备待证事实并作出模糊综合评判。
(二)法律保留作为自动化行政裁量的应用界限
为从根源上规避自动化行政裁量的负外部效应,有必要对其适用范围加以限制。当前技术正在快速迭代,若按照以往中国制度建设“三张清单”的方式,将因数字社会治理的异步困境而较难提出有效的自动化行政裁量应用清单。行政权力本质上属于一种由法律设定与控制的国家公权力,并且不是所有的法律规范都适合进行代码转译,因此自动化行政裁量的适用范围应遵循法律保留的合理限制。至于法律保留采取何种模式作为自动化行政裁量的应用界限,可参照《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)与欧盟《通用数据保护条例》(以下简称GDPR)禁止完全自动化决策的“原则+例外”规范模式:《个人信息保护法》第24条与GDPR第22条第1项规定了禁止完全自动化决策的一般原则,GDPR第22条第2项规定了禁止完全自动化决策的例外情形。
自动化行政裁量的原则禁止,主要针对以全自动化形式作出行政裁量的情形。除非有法律规范的明确授权,否则不得以完全自动化方式作出行政裁量,这属于法律保留的经典表达。对此,德国《联邦行政程序法》2017年修法引入全自动化行政概念时,在第35a条明确对行政裁量情形进行了附条件的禁止性规定。德国立法者对完全自动化行政裁量所秉持的加重法律保留态度,根源在于机器无法适用于需通过个案解决进行法律续造的领域。之所以设定这种原则性应用界限,与全自动化行政裁量的技术局限与法治国原则下的权利保障息息相关。一方面,行政裁量要求行政人员在事实与规范之间不断保持目光的“往返流转”,但全自动化行政裁量的自动性、单向性决定了其无法在事实与规范之间反复对比。另一方面,全自动化行政裁量应用始终存在行政效能与权利保障之间的张力。这是因为全自动化行政裁量虽然显著提升了行政效能,但其“去人类中心化”趋势却动摇了人的主体性地位。
自动化行政裁量的例外允许,主要针对以半自动化形式作出行政裁量的情形。若一律禁止自动化行政裁量应用,有违数字政府建设与行政体制改革的初衷。人工智能在技术原理上并非完全不可控,针对半自动化行政裁量的“允许性保留”是实现个案正义的有效方式。要求法律规范对全自动化行政裁量进行明确授权,同样意味着立法者应当在特别法中明确半自动化行政裁量的应用界限。在立法模式上,由于技术发展与人类认知间的交互作用效应,半自动化行政裁量不宜采取统一立法模式,而应进行个别性立法权衡。在功能定位上,“人机协同”意味着“人机互助”与“人机互限”,故以“人机协同”定义行政机关与人工智能的关系更为恰当。在适用事项上,从“人机协同”的关系定位出发,确立半自动化行政裁量适用事项的“充分+简单”选择标准:其一,裁量因子是机器裁量的基础,因此在形式上应先判断某一事项的行为与后果形态是否可以充分转码为自动化系统的裁量因子;其二,机器裁量在处理低复杂度事项时比人类表现的更加公正,因此在实质上应判断某一事项的内容复杂程度,从中选取高发常见、事实清楚、争议不大并且易于数据化的简单事项。
(三)基于技术性正当程序的实质人工干预机制
行政领域的人工智能居于辅助地位已是共识,对自动化行政进行人工干预是不言自明的。但是,当前的人工干预并不以实际参与程度与干涉效果作为评判标准,“口号式”的人工干预俨然成为自动化行政弊端的“遮羞布”。在自动化行政裁量中,行政机关需面对人工智能对其行政行为的实质拘束,相对人需应对人工智能对其程序权利的实质侵蚀。因此,作为解困之道的人工干预机制,亟需从形式化走向实质化。人工干预机制的实质化配置过程,需要对照技术性正当程序的最低限度要求而展开。
在程序参与维度,围绕“人在回路”构建行政监督与行政参与机制。所谓“人在回路”(Hu-man in the Loop),通常是指人有意义的存在于算法决策回路中。在自动化行政裁量中,“人在回路”谋求建立一种人机交互的混合决策模式。混合决策意味着在决策场景中,将人工监督内嵌于人工智能系统的工作流程。欧盟《人工智能法案》序言第91条提出,“执行人工监督的人员应具备必要的能力,特别是适当的人工智能知识水平、培训以及适当履行这些任务的权力”。这其实是强调人工智能应用中的人工监督应当是一种有意义的监督,人在回路中扮演了错误纠正、故障介入、决策正当化、责任承担等实质化人工干预角色,可以最大限度规避算法决策下的“判断力萎缩”(Judgemental Atrophy)。但人工干预的法律效果应受到“禁止不利变更原则”的约束。即,若人工干预后的自动化裁量结果对行政相对人更为不利,则应维持自动化裁量结果不变。
在程序中立维度,围绕增强听证人员与行政相对人的信息能力而展开。首先,行政机关应建立技术培训机制,提高听证人员对自动化行政裁量的技术认知,确保行政相对人可以获得“被听取意见”的公平机会。而在听证报告中,行政机关应要求听证人员就初步裁决结论与自动化裁量结果的关联性进行说明,这属于一种干预并纠正听证人员偏见的裁决释明机制。其次,行政机关应要求系统供应商在自动化系统中设置“留存审计轨迹”的功能。审计轨迹包括与自动化行政裁量过程相关的案件事实、规则依据等原始记录。相应的,行政机关应配套建立针对审计轨迹的自动留存与防止篡改机制。最后,行政机关应要求系统研发主体在系统使用前与调整后均开展测试与评估。在制定测试标准时,应以ISO标准、国家标准等权威标准为先导,以企业内部标准作为重要补充。在制定评估标准时,应当将行业倡议、道德伦理等社会共识作为重要依据。
在程序公开维度,围绕技术原理公开与行政信息告知展开。行政机关既应承担公开自动化系统技术原理的义务,也应承担向相对人告知“有意义的通知”的义务。首先,行政机关可以要求系统供应商以透明性与可问责性作为系统设计目标,并且公开自动化系统的源代码与算法。例如,行政机关内部的预算管理部门可以将“公开源代码与算法”作为预算编报条件,实际使用部门可以将“公开源代码与算法”作为合同必备条件。其次,行政机关在自动化行政裁量过程中应向相对人告知“有意义的信息”。当前,行政机关的电子告知事项存在立法缺陷,导致自动化行政裁量面临信任危机。未来应当统一电子告知事项的案件事实、职权依据,告知行政相对人享有的权利、救济途径等具体内容。只有约束行政主体按照法定程序进行信息告知,才能有效预防行政主体在行使裁量权过程中滥用职权、恣意裁量等现象的发生,提高行政裁量行为的准确性,确保行政裁量行为的合法性。
六、结语
人类社会自16世纪以来经历了多次重大科技革命,如机械化、电气化、信息化、智能化等。前几次科技革命对人类生产生活的影响,更多的是把人类从体力劳动中解放出来。当前以大数据、人工智能为代表的新一轮科技革命,呈现全行业替代人类的发展趋势,正在形成以数字化、智能化新技术为支撑的新质生产力。随着现代行政国家的崛起,“人机关系”成为了“人际关系”的重要补充,数据驱动下的智能机器脱离了工具属性,开始具备自动化裁量能力。新兴技术融入行政裁量所引发的负外部效应已经凸显,对既有的行政管理与行政法治产生了巨大冲击,成为新时代数字法治中国建设中亟需解决的重大命题。“共建共治共享”与“包容审慎监管”是当前我国推动数字经济社会高质量发展的原创性规制理念,为理解激励发展与合理规制的二元关系提供了鲜活的制度样本。面对技术创新与经济发展的高度不确定性,包容性规制理念的提出,代表了现代行政法学研究范式从“规制导向型”向“发展导向型”的演化趋势。为应对公共行政领域人机关系的深刻变革,学术界与实务界应当形成包容性规制的理念共识,充分研判人机关系变革可能引发的法律问题,遵循自动化行政裁量的行政属性,坚持以人为本与权利保障相融合,遵循技术性正当程序的程序规制框架,提升我国在自动化行政裁量规范化与法治化进程中的国际规则引领。
(责任编辑:王青斌)
基金项目:2024年山西省高等学校哲学社会科学研究项目“自动化行政技术性正当程序的系统建构”(项目编号:2024W003)的阶段性成果。