2007年,时任马里兰大学法学教授的希特伦提出了“技术性正当程序”的概念,强调通过优化计算机程序设计提高自动化决策系统的透明性和可问责性。此前,德国著名行政法学家毛雷尔教授在1999年就已经提出,必须从法治国家的角度认识和规范“专门的技术程序”。申言之,再复杂、高深的技术程序也不允许从法治国家的规范中逃逸,否则就会形成法治国家的“虫洞”,最终造成法治国只剩下一个“合法性的空壳”。
排除偏见,确保算法的公开、透明和程序一致性。排除算法歧视的技术,需要借助于算法的公开、透明,同时确保程序的一致性。
第二,说明理由,提高算法的可解释性。算法的解释方法因算法模型的不同而有较大差异。影响算法可解释性的关键因素,除了算法的透明度(白箱模型或黑箱模型),还有算法结构的复杂度。在具体的解释方法上,需要根据具体情况灵活运用或者综合运用预建模的解释和建模后的解释、全局解释与局部解释等方法。同时,提供审计跟踪记录以保证算法的可解释性。
第三,听取意见,包括允许质疑、事后听证、专业审计以及及时纠错。其一,对自动化决策应当允许提出质疑和挑战。其二,自动化决策的适用场景只能采取事后听证。这也意味着:自动化决策不能完全免除听证,但听证的形式可以变通。其三,在专业审计人员的协助下审查算法并及时纠错。
技术的发展带来治理模式的转变,自动化行政方式下的行政处罚制度发展也出现了一定的变化性与不确定性。为了在这样的变化中保护相对人的基本权利,需要构建一定的程序底线,不管技术如何变化,相对人可以通过程序的保护来获得应有的公正。在自动化行政时代,正当程序原则还将继续发挥重要作用。
第一,提高透明度与可解释性。自动化行政处罚中如果在程序、证据等方式中,使用了包含人工智能算法等在内的新技术,当这种新技术对相对人权益产生重大影响时,应当对这种技术影响处罚决定的方式做出解释,或者说,应当至少保有解释的能力。第二,确保技术运用中的形式公平。在行政处罚这样的负担行为中应当建立起一系列程序公平的具体要求,从而使得新技术平等地适用于每一个体以及程序的设计不会特别地不利于特定的人。第三,评估与认证。可以通过专业机构与专业人士对技术手段予以测试,交流和发布可能存在的风险,满足正当程序的需求,同时提高公众的可接受度。
另外,在现阶段的行政处罚中,自动化系统出现错误所导致的责任形式还难以以“人的行为”作为类比,而更多地接近于“物的瑕疵”。自动化行政处罚的赔偿责任中采用无过错责任原则更为恰当。不过也应当注意到,自动化系统错误所导致的行政赔偿责任与一般的物之责任还是存在明显不同的。比如按照我国现行法,公共设施致害的“物的瑕疵”责任不纳入国家赔偿的范围,是按照民事程序处理的。这对于行政处罚错误的责任和救济来说是明显不合适的。随着技术的不断发展,这两种责任之间的不同还将愈发明显。因此,从长远来看,将自动化系统错误导致的责任予以单独类型化,确定专门的责任构成要件,是一种更为可取的路径。
第一,基于行政信息公开原则增强算法自动化决策透明度。现有算法自动化参与的行政活动中,我国法律作出了一定调整,但仍在某些领域需要行政信息公开规则的回归。首先,应增强算法自动化决策的可见性,作为行政信息公开的基本要求。其次,算法作出决策的基本规则和因素权重,应该对公众与社会公开。具体包括行政信息公开原则在算法数据收集环节的贯彻、行政信息公开原则与保护算法商业秘密的衡平以及行政信息公开与算法决策输出的说明等三个方面。
第二,基于公众参与原则进行算法影响评估。行政正当程序中的公众参与原则具有重要的实体权利保障功能,应从加强公众参与与恢复相对人陈述和申辩权利两个方面,发展算法治理时代的行政正当程序。具体包括以算法影响评估保证公众参与算法系统订购与使用、将通知与申辩环节作为算法决策生效必经程序等两个方面。
第三,基于说明理由规则创设算法解释权。由于数据来源的不透明、“算法黑箱”等因素,算法自动化决策的结果是如何得出的却难以为个体所知晓。算法治理时代应在适用算法自动化决策时坚持并修正行政行为说明理由的制度。具体包括发展算法解释权说明具体行政行为的理由、行政行为算法解释的内容和标准以及解释语言清晰平实以书面形式作出等三个方面。
第一,从广义的角度来看,行政程序也是救济路径之一,如告知、听证等。对于处罚数额不大、情节认定较容易的违法情形,自动化执法完全可以引入,同时为了保障相对人的程序性权利,减少或避免后续出现的救济等问题,应要求当事人知情、确认并认可,而不能单纯依赖自动化执法机器,不然很容易使相对人陷于“无知之幕”的恐慌之中。告知环节本身也应依行政程序法的要求,行政机关应采取短信、网络等电子化方式辅之以书面告知等形式。此外,还有一点需要强调,即依赖自动化行政所作出的决定,在技术手段上需要确保行政相对人,即指令施加对象的可识别性。在多数情况下,自动化行政更适宜于可采用简易程序的场合,实际上也就排除了听证会的适用问题。如果自动化行政在获取信息的后续过程中,出现了诸如隐私权的侵扰等问题,也就依然需要程序上的保障,尤其是正当程序的保障。技术性正当程序要求告知、听证等必要的程序适用,尤其当自动化行政决定涉及公民的人身权、自由权时;同时还须在技术上采用无歧视的数据挖掘技术,避免个人被歧视;此外,还要求行政机关作出一定的理由说明。
第二,在特定的情形之下,作为传统的救济方式——申诉,仍存在适用的必要性。然而,基于自动化行政的特征,我们需要对现有的申诉、信访制度进行一定程度上的改革以适应信息时代。例如,设立机器智能委员会等专业委员会来辨别判定一些涉及自动化行政的专业性问题。再如,欧洲议会法律事务委员会主张建立欧洲机器人和人工智能机构;还有些学者主张建立跨国的、独立的、多利益相关的人工智能和数据委员会。他们认为,人工智能不仅仅是一个公用事业,一旦成熟就需要被监管,它更是重塑生活、互动和环境的强大力量,是人类栖息地向信息圈深刻转变的一个部分。人工智能专业委员会不应仅仅是行政机关的智囊团,也应当为行政机关和普通公民之间搭建桥梁,对于自动化行政决策发挥说明、阐释作用。在处置申诉、信访过程中可以借鉴这种专业委员会的设置目标,即加入专业性的考量因素,借助第三方委托、协助等方式,更好地提升申诉、信访处置的水平以及行政机关处理自动化行政所涉问题的能力。如健康码实施至今,各地都有设立复核制度,通过网络化的复核实则也是信息化时代的一种申诉方式。下一步,司法实践领域可借鉴英国法的经验,设立数据保护专员为数据控制者提供数据方面的建议,处理申诉。
第三,针对瑕疵指令所导致的不同后果,行政程序、行政活动抑或事实行为更易在复议和诉讼环节发挥作用。总体上,更多情况下,数据来源的瑕疵在自动化行政决定中更容易构成复议和诉讼中的证据来源。算法瑕疵在理论上是有可能构成复议、诉讼的直接审查对象的,也就是说,伴随着法院审查算法能力的加强,未来也应具备审查算法的能力。系统瑕疵,则更多被归入事实行为,即使因此产生了对相对人权利义务的影响,也有复议、诉讼的可能性。在现有的法律体系下,审查对象实际上依然只是依据自动化行政所作出的相应的决定,而非自动化行政本身。在复议和诉讼环节,涉及自动化行政的案件需考量几点:首先,从系统的设定、算法的设计等方面来看,自动化行政在当下更多地发挥了“辅助”和“助手”的功能,即便在直接作出决定的情形中也是如此。因此,在绝大多数情形下,相应责任也应归由行政机关及其工作人员承担,除非有相反证据可以排除其责任。其次,举证责任的分配或者相关问题的解释,都应本着有利于行政相对人的角度来进行。随着自动化行政的发展,更需要加强对事前、事中的控制,司法机关作为最后的救济主体,在未来会面临着更多算法审查的挑战。
〔文献来源〕
余凌云:《交警非现场执法的规范构建》,载《法学研究》2021年第3期。
谢明睿、余凌云:《技术赋能交警非现场执法对行政程序的挑战及完善》,载《法学杂志》2021年第3期。
刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,载《比较法研究》2020第5期。
胡敏洁:《自动化行政的法律控制》,载《行政法学研究》2019年第2期。
胡敏洁:《论自动化行政中的瑕疵指令及其救济》,载《北京行政学院学报》2021年第4期。
张凌寒:《算法自动化决策与行政正当程序制度的冲突与调和》,载《东方法学》2020年第6期。
马颜昕:《自动化行政的分级与法律控制变革》,载《行政法学研究》2019年第1期。
马颜昕:《自动化行政方式下的行政处罚:挑战与回应》,载《政治与法律》2020年第4期。