摘 要:《中华人民共和国个人信息保护法》第二十四条第三款将对个人信息的利益保护转变为对算法决策的行为规制,并赋予个人拒绝算法决策的权利。基于该法的公法属性及其在行政领域的适用性,相对人享有在自动化行政中的算法决策拒绝权。面对算法决策方式对行政法治的技术挑战,拒绝权能够丰富相对人在自动化行政中的权利体系,发挥对抗算法决策异化的功能。算法决策拒绝权具有保障相对人参与自动化行政过程,并在设置与改造的程序装置中予以实现的程序属性,以及在权利地位上能够请求利益实现与法律保护,在权利内涵上能够主动选择的积极属性。相对人算法决策拒绝权的实现,需要结合该权利的程序属性和积极属性,构造在自动化行政不同环节的具有即时性特征的行使规则,包括算法决策方式选择规则、算法决策过程脱离规则和算法决策结果抵抗规则。
关键词:自动化行政;算法决策;算法决策拒绝权;个人信息保护
中图分类号:D922.1文献标志码:A文章编号:1009-055X(2024)02-0088-11
doi:10.19366/j.cnki.1009-055X.2024.02.009
进入信息化时代以来,以移动互联网、大数据、人工智能、云计算等为驱动的数字技术变革,深刻地影响着优化管理和服务的公共行政改革进程,体现在行政活动开展方式的变化之上,即促成了自动化行政方式的诞生[1]。在发展阶段和具体类型上,自动化行政包括通过算法进行决策的完全自动化行政[2],此时,技术应用从行政程序环节扩展到实体决定层面,形成算法独立分析与决断的行政方式。算法决策给行政系统带来高效的技术优势,也引发行政相对人对算法存在黑箱与歧视等弊病的担忧。为相对人配置算法决策拒绝权的赋权路径,成为应对自动化行政中算法决策弊端的可行方案之一。《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第二十四条第三款规定了个人面对算法决策时的拒绝权①。但从个人信息保护领域到自动化行政领域,相对人的算法决策拒绝权需要进行规范证成和功能分析,并放置在行政场景下研究拒绝权的权利属性与行使规则,以期使之成为规范算法决策方式和保障相对人合法权益的有效举措。
一、算法决策拒绝权的规范依据
算法决策的概念在与自然人决策的对比中产生,其是指利用算法技术进行自动分析而得出决策结果的决策方式。通过对《个人信息保护法》公法属性的规范解读,并关注其中从个人信息利益保护到算法决策行为规制的思路转变,结合自动化行政中算法决策方式的运行特征,可以将《个人信息保护法》作为行政领域中算法决策拒绝权的规范依据,使之完成从新型权利到法定权利的证成。
(一)个人信息保护中的算法决策拒绝权
相较于依赖有限经验与理性进行利益权衡的自然人决策,算法决策在决策主体方面表现为由技术主导而非人工决定,在决策基础方面则建立在数字时代和网络环境中的相关个人信息之上。算法决策以高效算法为技术依托,以高速运转为技术样态,能够应对数据海量化和用户个性化的信息社会的决策需求,因此逐渐被用于社会生活的各个领域,也成为行政决策的重要方式。
算法决策不仅拥有横跨公私法领域的技术优势,也不断塑造着数字化与算法化的个人生存环境,继而产生一系列的法律风险:一是在利益诱导下,算法决策的应用主体缺乏全面考虑而单方决定将应用范围无序扩张,甚至未经个人同意而处理敏感个人信息;二是存在于算法决策中的技术黑箱不具备透明性和可解释性,致使个人在决策过程面临知情难的问题;三是算法的设计偏见和技术缺陷,经过算法决策过程将放大为侵害个人权益的歧视或错误决策结果。
随着我国数字经济的快速崛起,体现保护个人信息之时代需求和民众诉求的《个人信息保护法》于2021年8月20日正式出台,成为我国个人信息保护领域具有综合性与专门性特征的法律基石。《个人信息保护法》第二十四条采取算法透明化要求和个体赋权的方式对算法决策进行规范,成为该法的一大亮点[3]。其中,该法第二十四条第三款赋予个人在其权益受到重大影响时对算法决策的请求说明权和拒绝权。该条款并未拘束于对个人信息的利益保护,而是转变为对算法决策的行为规制,即只要采用的算法决策方式对个人权益产生重大影响,个人就有权予以拒绝。
欧盟《通用数据保护条例》也对算法决策方式进行了规范,其中第二十二条第一款规定,数据主体有权拒绝完全依靠自动化处理方式对其作出的具有法律影响或其他严重影响的决策。为解释该条款,第29条数据保护工作组(WP29)制定的《为实施第2016/679号条例的自动化决策和分析指南》中明确,拒绝权并非仅在数据主体积极援引时才能适用,而是对完全自动化决策的普遍禁止。因此,欧盟采取“严格禁令”方式对待算法决策,形成了以“禁止为常态,应用为例外”的基本态度。相较而言,结合我国算法决策的应用实践和《个人信息保护法》的规范文本,我国对于算法决策的规制不应解释为“严格禁令”方式,而倾向于一种“主动权利”方式,即当满足算法透明和公正要求时,个人信息处理者可以采取算法决策方式,而算法决策拒绝权由个体主动行使,以此来平衡算法决策的应用和个人权益的保护。
(二)自动化行政中的算法决策拒绝权
属于领域立法的《个人信息保护法》采取兼容公法保护和私法保护进路的统一立法保护模式[4],这使得该法成为公私法交融、超越单一部门法的个人信息保护立法。《个人信息保护法》对国家机关处理个人信息的规定能够体现该法的公法属性。具体而言,该法要求国家尊重个人信息主体,通过规范国家机关对个人信息的处理行为,使之符合法律规定的权限与程序,以防范侵害个人信息权益的公权行为[5]。据此,《个人信息保护法》中规制算法决策的内容理应适用于行政领域,其赋予个人对算法决策的拒绝权也具有公法上的权利形态。由此出发,自动化行政中相对人享有的算法决策拒绝权能够以《个人信息保护法》为规范依据。
讨论自动化行政中相对人的算法决策拒绝权,一个必要前提是认识自动化行政的算法决策方式。在行政领域分析算法决策的运行特征,需要建立在完全自动化行政的发展阶段和类型基础之上。自动化行政作为开展行政活动的新型方式,其产生与发展和数字技术引入公共行政的历史进程紧密相关,根据技术变革与应用程度的差异可以划分为部分自动化行政和完全自动化行政[2]。在完全自动化行政中,技术系统不再局限于发挥程序性或辅助性的功能,而是涉足行政活动的实体决定层面,取代人成为决策的主导者,从而使行政活动的实体决策过程呈现自动化特征。通过算法决策方式开展行政活动,需要以个人信息作为资源要素和以算法技术作为行为要素:一方面,通过对由个人信息构成的数据化基础的分析,行政机关实现治理对象的可计算性和行政活动的可预测性要求;另一方面,随着人工智能算法的产生与应用,算法决策所依赖的算法并非人工编写而是系统生成,决策结果也是由人工智能算法根据输入数据而自主作出,真正在功能上形成脱离人的参与或控制的自动化决策[6]57。
因此,在自动化行政中,行政主体依赖个人信息与算法技术开展行政活动,自动化行政行为与个人信息处理行为高度契合,但属于权力的扩张本质让个人信息面临来自行政机关处理行为的安全威胁,作为个人信息处理者的行政主体“本身也需要被纳入监管”[7]。此外,算法决策方式的引入,不仅会削弱正当程序制度防范与矫正传统决策失当的功能,还将引发技术权力异化侵犯个人权益的新风险。此时,面临减损威胁的不仅是个人信息权益,还包括个人信息载体之外的其他人身权益与财产权益。《个人信息保护法》第二十四条第三款将对个人信息的利益保护转变为对算法决策的行为规制,并将规制算法决策的目的由保护个人信息权益扩展到个人权益,符合在自动化行政中应用算法决策时保护相对人合法权益的需求。
当然,拒绝权并不等于拒绝数字化[8],赋予相对人算法决策拒绝权也绝非以“退回到一个前数字时代的方式”[9]来抵制数字政府建设的发展趋势。算法决策拒绝权与数字政府建设的平衡策略在于:第一,《个人信息保护法》以“主动权利”而非“严格禁令”方式规制算法决策,即自动化行政中的算法决策并非为立法所完全禁止,而是相对人能够主动拒绝的权利对象。因此,赋予相对人以算法决策拒绝权,具有行政系统引入数字技术应当契合相对人利益诉求的意蕴,符合数字政府建设应当“坚持以人民为中心”的基本原则【参见《国务院关于加强数字政府建设的指导意见》(国发〔2022〕14号)。】。第二,算法决策是脱离人的控制与参与的决策方式,这意味着算法决策拒绝权并非针对所有的自动化行政活动,其权利行使场景被限定为完全自动化行政。第三,鉴于自动化行政所承载的公共利益需要,相对人算法决策拒绝权的享有与行使应当具有一定的条件限制,需要在特定情形下认同行政机关对算法决策的选择与安排,包括在已具备技术普及条件与社会认同基础时仅提供自动化行政方式,如通过电子技术监控设备进行的非现场执法,以及在特殊场景中适用自动化行政方式,如突发公共卫生事件中“健康码”的应用等。
二、自动化行政中算法决策拒绝权的功能
自动化行政方式的兴起,关键在于其具有效率与公正价值。然而,自动化行政在将技术优势引入行政系统的同时,算法决策也给行政法治带来了实体公正和程序正当方面的技术挑战。对此,赋权是应对算法风险的有效方式,算法决策拒绝权的功能在与其他权利的对比中得到彰显。
(一)算法决策对行政法治的技术挑战
人类决策不全是理性的过程,常因夹杂情感因素而在认知和处理上出现偏见。算法“技术中立”的研发初衷,使其能够排除行政过程中人为偏见而促进行政结果的公正[10]。但技术中立的命题仅能起到在法律场景下呼吁关注技术专业性的作用,其本身并不具有价值中立的内涵[11]。在行政活动中发挥决策功能的算法从设计到应用都存在价值判断,因此需要揭开技术中立的伪命题,关注其带来的挑战人的平等、固化社会不公和减损人的价值等歧视性后果[12]。
自动化行政中存在不同的算法歧视类型。其一,在“输入垃圾,输出垃圾(garbage in, garbage out)”的计算机程序运行规则中,当算法决策所依赖的数据存在偏见性内容或不相关因素,经由算法分析得出的结果也将呈现歧视性内容。实际上,这是算法技术对社会现实中歧视的复现[13],即自动化系统仅是发挥着对歧视的传输功能。其二,人工智能算法的自主性是经过海量数据训练后的结果,因此,当算法将社会歧视内化为自身的偏见规则,即便输入正常数据也可能得到歧视性结果。此时,算法对数据进行关联、归纳与推导,形成带有歧视的决策结果。算法本身就是歧视的来源。其三,算法作为人为技术产物,在设计之初便不可避免地包含设计主体的主观认知和价值理念。当前自动化行政的技术架构主要通过合作行政方式完成,其中,技术设计内容由行政委托或行政协议确定的技术公司完成。这意味着自动化行政中的算法决策模型,在产生伊始就可能被注入来自技术公司的脱离行政机关控制的偏见内容,进而引发对相对人的歧视性结果。
除了算法歧视对行政公正的挑战,算法决策更为严重的技术问题在于算法黑箱与正当程序之间的冲突。从传统官僚制行政迈进现代民主制行政的进程中,行政机关和相对人之间形成了一种互动的行政法律关系,互动性体现为对行政过程开放性和相对人参与性的正当程序要求[14]。算法中夹杂的偏见性内容理应放置在开放与反思的正当程序中进行即时修正。然而,自动化行政通过技术逻辑营造封闭式的行政系统,排斥相对人参与行政活动。由于算法专业性的技术因素、算法秘密保护的设计因素或算法理解能力的应用因素,算法主导的行政决策环节处于缺乏透明与开放的技术“黑箱”之中,这与行政法治的正当程序原则相悖。
相对人知悉行政活动开展的依据和程序是其参与行政的必要前提,行政机关需要通过履行行政公开和行政告知义务来满足相对人的知情需求。但算法决策的算法技术原理和算法运行过程并不对相对人实质性公开,决策环节前后关联的秘密信息收集和行政结果通知,由于依赖技术程序进行,同样可能致使相对人陷入知情困境。一旦获悉行政活动的相关信息,相对人就可以通过行政程序装置表达意见,与行政机关沟通互动,以表示其主体地位和确保所交涉内容的合理性。但在自动化行政的封闭技术程序中,相对人的陈述意见难以转化为技术语言并影响决策结果[15]。算法决策方式对数据资源的依赖性,让行政机关选择忽视相对人的意见表达及其对行政行为的补充与纠错功能。而行政机关对算法决策中技术要素应尽的说明理由义务,则表现出因行政机关缺乏算法技术知识而说理不能或说理不清,以及以技术标准或合格证明进行机械答复而难以令人信服的局限[16]。
(二)算法决策拒绝权功能的对比分析
面对算法决策方式给行政法治带来的技术挑战,通过为相对人配置新型算法权利以对抗算法决策异化风险的赋权进路,较之行政系统内部对算法决策进行行政自治,被视为更加长效的矫正方案[17]。规制算法决策的赋权进路需要从尊重相对人的主体地位出发,传统官僚制行政将相对人完全视作管理对象,忽视其作为行政法律关系一方的平等主体地位。迈向现代化行政的改造方案,内容包含配置并保障相对人程序性权利,确保相对人在行政活动中的参与性,以此平衡行政机关的行政优先权。而在数字化时代,算法技术不断对人进行分类、分析与评估,通过这一存在偏见与缺乏透明的过程将人驯化为可计算、可预测、可控制的客体,从而使相对人的主体地位面临新的技术难题[12]。反映到行政领域中,算法主导的决策模式,改变了传统行政权力与相对人权利的平衡格局,造成相对人运用传统行政权力应对算法决策的不足。因此,为避免人的主体性与平等性被算法技术侵蚀,在相对人所享有的传统行政权力基础上,确认其有关数据与算法的新型技术权利,成为对抗算法权力附加的行政权力的基本要求。
从个人信息保护领域到自动化行政领域,将规制算法决策的赋权进路展开,可以将相对人应对算法决策方式的权利体系予以类型化,包括针对个人信息处理行为的各项新型权利、针对算法决策的要求说明权以及本文所论证的算法决策拒绝权。这些权利皆在规制算法决策方式中发挥重要作用,但相较于前两类权利而言,相对人享有的算法决策拒绝权具有独特功能。
《个人信息保护法》第四章规定了个人在个人信息处理活动中享有的一系列权利,其中与相对人的算法决策拒绝权密切相关,甚至被认为存在功能混同可能性的权利,包括对个人信息处理的限制权、更正权和删除权。上述各项权利建立在个人对其个人信息的自决与控制基础之上,但应用到自动化行政中以应对算法决策方式时,出现了适应性和功能性问题。首先,《个人信息保护法》第四十四条规定了个人信息权利行使的“法律、行政法规另有规定的除外”的例外条款【 《个人信息保护法》第四十四条:个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理;法律、行政法规另有规定的除外。】,而行政领域的个人信息收集,往往由于履行行政职责的必要,被规定为无须相对人的授权同意,甚至在某些场景中,提供个人信息被视作相对人的义务[18]。因此,由于适用例外条款,相对人无法行使针对行政机关个人信息处理行为的限制权。其次,在发现行政机关掌握的个人信息不准确或不完整时,相对人可以行使更正权,这既未突破行政机关实现行政目的的基本职责,也有助于相对人得到公正的行政结果。但更正权的权利对象仅是决策环节之前的个人信息,虽然此举可以对基于个人信息的算法歧视予以纠偏,但无法针对性地纠正更具危害性的算法决策中的错误算法逻辑[19]。最后,当认为行政机关处理无关个人信息时,相对人行使删除权具有正当性,但若想通过删除个人信息达到拒绝算法决策方式的目的[20],则面临可删除的个人信息范围有限的弊端,也无法改变其像更正权一样并未直接针对算法决策方式的功能不足。
《个人信息保护法》第二十四条第三款规定了个人要求个人信息处理者对算法决策予以说明的权利,通过类比自动化行政中算法决策拒绝权的证成方式,相对人亦享有对算法决策的要求说明权。面对算法决策中存在的技术黑箱及其在行政活动中的衍生风险,算法的公开透明和可解释性成为打开算法黑箱、促进程序正义和追究相应主体责任的必然要求[21]。赋予相对人对算法决策的要求说明权,有利于其主动参与自动化行政活动,缩小自动化行政过程中的信息不对称差距。但相对人行使要求说明权的效果因算法技术的解释性难题而饱受质疑[22],具体表现在:一是解释后的算法内容可能并未脱离专业技术范畴,仍在技术黑箱的范围内兜转,无法为相对人所实质理解;二是人工智能算法的运行是一种“概率统计”逻辑[23],即便通过在自然语言下对算法功能进行解释,其所揭示的仅是导入数据和决策结果之间的相关关系,难以满足揭示技术行为和决策结果之间因果关系的说理性要求;三是由于相对人对算法技术应用于行政活动的天然不信任,无论对算法决策进行何种解释以及达到怎样效果,都难以在影响个人权益时拭去相对人的主观质疑。
自动化行政中算法决策拒绝权的功能特征在与上述权利的对比中得以彰显。相较于针对个人信息处理行为的限制权、更正权和删除权,算法决策拒绝权的权利对象直接为算法决策方式,这意味着该权利的行使场景并不局限于自动化行政的信息收集环节,而是基于保护个人权益的目的关注整个算法决策过程。相较于针对算法决策的要求说明权,由于要求对算法决策予以说明并非拒绝算法决策的必要前提,相对人可以直接行使算法决策拒绝权,规避算法解释的技术可行性和设置必要性争议,从而将其意志控制范围扩展到影响算法决策方式能否应用,进而对算法决策方式和结果起到决定性作用。当然,针对个人信息处理行为的各项新型权利以及对算法决策的要求说明权都有其特定的权利功能和行使场景,将算法决策拒绝权与二者进行比较的目的,并非否定二者的作用,而是意在描述算法决策拒绝权的功能,从而丰富相对人在自动化行政中应对算法决策方式的权利体系。
三、自动化行政中算法决策拒绝权的属性
在面对算法决策的异化风险时,通过个人信息权益保护到算法决策行为规制的模式转变,并采取“行为规制权利化”[24]的技术路径,在个人信息权益扩大到个人权益的保护基础上,《个人信息保护法》赋予个人以算法决策拒绝权,并与要求说明权等组成个人应对算法决策的权利体系。在个人信息保护领域,这些权利确保个人能够参与到个人信息处理活动中[25]。而当算法拒绝权被引入行政领域时,其既表现出相对人能够参与自动化行政活动的程序属性,也表现出相对人能够主动选择决策方式的积极属性。
(一)算法决策拒绝权的程序属性
为了确保相对人请求的实质化和实效性,需要通过行政法律规范构建规范行政主体活动的客观行政秩序,其中就包括具有约束功能的行政程序。在传统行政法治中,相对人的参与性与互动性要求,通过包含行政公开、陈述意见、说明理由等具体内容的法定程序装置实现。而从动态意义上来看,法律程序是当事人特定程序权利义务的实现过程,因而从中产生相对人的知情权、陈述权、申辩权和听证权等程序性权利[26]。
随着数字技术对行政系统的改造,约束行政行为和保障相对人权益的传统行政程序出现适用性障碍,给相对人通过程序装置行使程序性权利造成困境[27]。为了平衡技术要素导致的行政权力和相对人权利的失衡状态,自动化行政中的技术程序愈发受到关注,被视作克服传统行政程序对算法决策规制不足的突破口。其中,围绕技术程序的规制路径为:通过对算法技术程序的功能优化,提高自动化行政的公开性与透明性,使之达到技术程序正当化标准[28]。在技术程序正当化的基础上,将行政规范中的法定程序要求内化为对算法决策的技术规范要求,并通过行政规范的认定使技术规范得以法律化,运用法律规则来增强技术规范的合法性与强制力[29]。
行政决策的自动化,源于提升行政效率和服务的算法应用价值,以及在人工智能环境下的算法技术变革,而自动化行政方式扩展到某一具体行政场景的动机,更多的是出于行政机关在大数据环境下履行行政职责的需要。但算法的技术优势不仅要体现在行政机关完成行政任务的单方需求中,还要适应相对人在行政活动中的身份地位与利益诉求,能够发挥减轻相对人负担的便民效果。然而,当算法决策方式的应用未考虑相对人的客观能力与主观意愿时,将会给相对人带来现实处境和主观心理方面的负面效果。因此,相对人享有拒绝算法决策的程序性权利,并能够通过自动化行政中拒绝算法决策的程序规则加以实现。
规制算法决策的目的从保护个人信息权益到个人权益的延伸,为相对人通过行使算法决策拒绝权来维护自身合法权益奠定了基础。算法决策拒绝权作为相对人参与自动化行政的程序性权利,通过程序性装置发挥着对抗得到算法权力增强的行政权力,以实现在维护与救济相对人实体性利益方面的工具性价值。算法决策作为行政决策的方式转变,当通过其作出的行政行为在客观上仍可归属于具体的行政主体[1],或被确认为行政机关“自己的”行政行为时[30]438,并未超出行政法治的控权范围,但可能产生不同的行为结果。为避免算法决策中隐含的算法弊端对相对人实体权益造成不公正影响,相对人通过行使算法决策拒绝权,为自动化行政中的个人权益寻求程序性保护。
算法决策拒绝权的配置与行使,体现了相对人在面对算法决策方式时的主体地位。即便该权利本身并未给相对人增添人身性或财产性的实体性利益,但仅认可算法决策拒绝权能够保障实体权益的工具价值,未能揭示其程序属性的本体价值,这将在自动化行政中形成对该权利主张、行使和保障的轻视氛围。在程序正义理论中,行政程序具有独立于实体结果的公正、平等、参与等程序价值。同样,程序性权利行使过程中体现的交往理性,使其摆脱对相对人实体利益的依附性而具有独立地位[31]120,这其中蕴含着维护程序利益和表达自由意志的独立功能。就自动化行政中的算法决策拒绝权而言,该权利表达了相对人拒绝算法决策的程序主张,能够发挥从相对人立场批判算法决策的功能,促使行政机关反思对算法决策的选择及其效果,从而尊重与保障相对人的程序利益。
(二)算法决策拒绝权的积极属性
相对人依据《个人信息保护法》而享有的算法决策拒绝权,在公法领域的自动化行政中同样适用。这意味行政机关在适用算法决策方式时,需要通过创制或改造的客观程序规则,将算法决策拒绝权纳入相对人的程序性权利体系。由于行政法律关系中行政主体的优先权和强制力,相对人被迫放弃建立在实体性权益之上的自卫权,通过程序性权利的防御功能对抗来自行政权力的侵害[32]15。算法决策拒绝权体现的相对人消极地位,对应着行政机关应当履行尊重该权利的消极义务,即禁止于相对人算法决策拒绝权之上强加未经法律规范认可的否定性或限制性的命令与强制[33]92。
现代行政广泛地建立在个人利益基础之上,相对人拥有区别于反射性利益的要求行政机关履行义务的法律请求权[34]154。因此,算法决策拒绝权不仅包括不受行政机关妨害的消极地位,而且呈现出在受到妨害时请求利益实现和法律保护的积极属性。在自动化行政中,对算法决策拒绝权的妨害具体表现为:一方面,嵌入自动化行政中的算法决策方式,使得行政任务在相对人不知情的情况下瞬时完成,行政机关对于公开义务与告知义务的履行懈怠,阻碍着相对人算法决策拒绝权的行使;另一方面,出于方便行政任务的单方需求,行政机关在行政过程或技术程序中对相对人拒绝方式进行限定与变相强制,干预相对人行使算法决策拒绝权的自愿心理,从而使相对人被动地放弃权利。
作为程序性权利的算法决策拒绝权,蕴含着相对人独立的程序性利益,与之对应的是行政机关提供拒绝方式和设置相应程序的义务。相对人能够主动要求行政机关履行程序义务和遵循程序规范,通过拒绝算法决策的程序性调整,有效制约得到算法技术增强的行政权力的恣意运行。此外,根据《中华人民共和国行政复议法》和《中华人民共和国行政诉讼法》的规定,违反法定程序是行政行为的违法情形之一。因此,通过程序装置实施的程序性权利在法律规范上被赋予了救济可能性。当行政权限和程序中制度性的自我统制装置被破坏时,相对人拒绝算法决策的程序性利益无法得到满足抑或受到侵害,对于算法决策拒绝权的保护将成为相对人通过行政复议与行政诉讼进行权利救济的契机[32]15。
配置算法决策拒绝权的预设前提是行政主体单方决定采用算法决策方式,预设过程是相对人通过拒绝与否的方式表达对算法决策的应用态度,预设结果是通过否认算法决策的应用以引入人工决策方式。然而,这一套算法决策拒绝权的预设逻辑存在问题。一方面,相对人出于算法弊端或选择意志而行使算法决策拒绝权,建立在行政主体应用算法决策方式的基础之上,因而该权利并未在行政机关选用算法决策方式时发挥功能。这意味着在自动化行政的瞬时性特征下,算法决策拒绝权演变成只针对算法决策结果的拒绝权。另一方面,即便相对人能够在自动化行政过程中积极行使算法决策拒绝权,但“拒绝”体现出消极与被动的行为内涵,其并不等同于默示同意或主动选择。相反,只有在直接与正面的意思表达而非被动拒绝中才能体现相对人的同意与选择[35]。换言之,相对人的拒绝行为并不能显示其选择算法决策方式的自由意志,也并不必然包含对人工决策方式的主动诉求。因此,分析相对人算法决策拒绝权的属性,不仅需要强调权利行使中的积极属性,也需要拓展权利内涵中的积极属性,在自动化行政兴起、算法决策方式和人工决策方式并存的背景下,使相对人能够通过算法决策拒绝权,达到对行政决策方式积极选择的效果。
自动化行政中的算法决策拒绝权肇始于个人信息保护领域,个人信息处理必须经个人充分知情并取得其同意的“知情同意原则”,被视作该领域的“帝王条款”[36]58。这一原则产生于医学领域,是指患者在充分知情和理解医护人员披露相关医疗信息的基础上,作出是否接受治疗的决定。正如从医学领域推广适用到个人信息保护领域,自动化行政领域中的算法决策方式也需要符合知情同意原则,并通过制定算法决策的知情同意规则,来满足相对人的知情同意需求[37]。在数据与算法驱动的自动化行政中,行政行为与个人信息行为处理高度契合,相对人享有的算法决策拒绝权,也应以“知情同意”为前提。在对算法决策方式充分知情的基础上,算法决策拒绝权的拒绝对象能够从算法决策结果延伸到算法决策程序,因而权利行使场景从算法决策后的结果输出环节,扩展到包含信息输入环节、算法分析环节和结果输出环节的自动化行政全流程。在自动化行政的算法决策中贯彻知情同意原则,意在将适用算法决策的正当性建立在相对人的同意基础之上[38],通过清晰和明确的同意,算法决策拒绝权的内涵从对算法决策方式的被动拒绝转变为积极选择,真正发挥其作为一项权利而非相对人义务的功能,从而减轻行政机关施加给相对人对算法决策方式的风险控制负担,形成对相对人权益的强保护[39]。
四、自动化行政中算法决策拒绝权的行使规则
从《个人信息保护法》规制算法决策的规范分析,以及其在行政领域中的适用性出发,可以实现自动化行政中算法决策拒绝权从新型权利到法定权利的证成。但对算法决策拒绝权内容的探讨,并未超越其作为相对人应然权利的理想化状态,也未能实现从权利享有到权利行使的过渡。因此,将算法决策拒绝权转变为相对人的实然权利,需要结合算法决策拒绝权能够保障相对人参与,并在设置与改造的程序装置中予以实现的程序属性,以及在权利地位上能够请求利益实现与法律保护,并在权利内涵上能够主动选择的积极属性,构建在自动化行政不同环节的具有即时性特征的权利行使规则。
(一)算法决策方式的选择规则
信息输入环节是从技术程序视角下拆分自动化行政后得出的首个环节,此时行政系统通过技术设备进行信息收集或通过政府平台进行信息共享,完成算法决策前的信息准备。若信息输入环节是在相对人不知情的情况下进行的,相对人就无法获知自动化行政开展的必要事项内容,无法监督和判断对其个人信息的处理是否符合必要性限度。作为算法决策前的环节,秘密进行的信息输入过程将导致相对人算法决策拒绝权的落空,无法发挥该权利的防御性价值,难以通过权利行使来影响行政主体的决策方式。因此,从自动化行政的信息输入到算法分析,需要人为在环节过渡之间架设程序公开与告知环节,以满足相对人对行政活动所获取信息和行政主体所采取方式的知情和同意需求。
根据《个人信息保护法》第二十四条第二款的规定【《个人信息保护法》第二十四条第二款:通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。】,个人信息处理者在应用算法决策时,需要履行“同时提供不针对其个人特征的选项”或“向个人提供便捷的拒绝方式”的义务,前者已有将规制算法决策的反对性内涵转变为选择性功能的趋势,即个人有权在个人信息处理者提供的针对其个人特征和不针对其个人特征的选项中进行选择。沿此思路出发,在行政领域中,具体行政行为建立在相对人利益之上,因此难以区分针对个人特征或不针对个人特征的选项,但相对人的算法决策拒绝权可以延伸为对算法决策方式和人工决策方式的选择权利,即由行政机关在决策方式上提供算法决策和人工决策的选项,由相对人根据其主观意愿和客观能力进行选择。此时,相对人能够摆脱行政主体单方决定算法决策应用时的被动地位,既可以出于效率等技术优势考虑而适用算法决策方式,也可以从信息安全等角度出发而选择人工决策方式[40]。
对于决策方式的公开或告知,应当成为自动化行政中后续程序进行的必要条件,行政机关需要以获得相对人对决策方式的选择或对算法决策的同意,作为其行政行为的正当性基础。为保障相对人知情的充分性和实质化,需要将行政公开、说明理由和听取意见的法定程序要求内化为算法透明与算法解释的技术规范要求,通过技术程序正当化来增强相对人选择决策方式的认知水平。在对决策方式充分知情的前提下,相对人行使算法决策拒绝权来选择行政决策方式,应当在预设的时间范围内进行,一旦超出这一时间范围,权利将丧失原有意义[41]。超过行使期限的算法决策拒绝权所产生的变化,表现为从相对人选择决策方式的主动性,转变为对行政机关所适用决策方式的服从性,并最终达到在知情基础上默示同意的效果。
(二)算法决策过程的脱离规则
当自动化行政的程序从信息输入环节顺利过渡到算法分析环节,意味着相对人已通过明示或默示方式行使了算法决策拒绝权,发挥其选择权能而适用算法决策方式。但所要构建的算法决策拒绝权行使规则,应使该权利的行使具有动态化与即时性,能够在自动化行政全流程中发挥长效作用机制。因此,相对人可以在算法分析过程中主张要求脱离算法决策方式。但相较于信息输入环节,算法分析环节中算法决策拒绝权的行使,不再仅是建立在相对人的主观意愿之上,还需要自动化行政中出现客观违法事由。此时,算法决策方式尚未得出于相对人而言具有终局性效果的结论,并未产生有关其实体利益的决定性影响。因此,相对人拒绝算法决策的主要依据为算法分析过程中可能存在的程序性违法事由,表现为对相对人知情、陈述、申辩和听证等程序性权利的损害。
在自动化行政的信息输入环节,相对人行使算法决策拒绝权建立在对决策方式的充分知情基础上,然而一旦行政机关所披露内容出现片面与错误,将在适用算法决策方式进行算法分析的过程中引发连锁反应。在算法分析环节,相对人可以向行政机关积极表达意见,并有权要求就算法决策方式作出进一步公开和说理,从而在该环节中架设行政机关与相对人之间的信息沟通机制[42]。这既是作为对信息输入环节中相对人认知算法决策方式的内容补充,也是作为在算法分析过程中相对人脱离算法决策方式的前置条件与必要步骤,从而在通过一系列程序性权利的积极主张和有效行使后,使相对人能够在自动化行政中表达利益诉求,消弭算法决策可能对相对人权益产生的负面效应。
当选择算法决策时的程序性利益未能在算法分析环节得到弥补,或是适用算法决策过程中程序性权利受到侵害,相对人可以行使算法决策拒绝权,主张对算法决策方式的脱离。脱离意味着在程序权益受损或算法风险存在的情况下,相对人要求行政机关停止算法决策方式。而考虑到行政活动仍需继续进行,脱离算法决策方式的进阶效果是将决策方式变更为人工决策,通过申请人工介入形成对算法决策的替代或修正。即便在保障公正、效率与准确等功能方面人工干预并不一定能发挥更好的效果[43],但将完全自动化行政转变为部分自动化行政,既能够让技术要素继续发挥辅助性功能,也可以增强相对人对行政活动的信任。
(三)算法决策结果的抵抗规则
通过瞬时完成输入信息到输出结果的时间性能力,以及减少与相对人物理接触的空间性能力,算法决策方式彰显效率优势。因此,最终呈现在相对人面前的多为算法决策后的结果。当在信息输入和算法分析环节,相对人未能有效行使算法决策拒绝权脱离算法操控,对于算法决策结果的抵抗可以作为行政过程中消除算法决策风险的又一重保障措施。
在传统行政法理论中,相对人享有对无效行政行为的抵抗权[44]。当行政行为出现重大且明显瑕疵时,该行政行为自始至终不发生法律效力,即丧失其自作出就推定合法有效的公定力,成为无效行政行为[45]。一旦行政行为无公定力,相对人不必先行服从,因此可以进行抵抗。这是在相对人通过行政复议或行政诉讼救济自身权益前设置的一种权益保障方式,但出于维护行政主体权威性和行政行为功能性的考虑,相对人能够抵抗的范围仅针对行政主体的无效行政行为。
若以无效行政行为理论为算法决策拒绝权的理论基础,将限制相对人抵抗算法决策的范围。在个人信息保护领域中,信息自决权理论是个人抵抗算法决策的理论依据。信息自决权理论强调信息主体对其信息的积极控制,信息主体具有决定其信息处理时间、地点与方式的能力,从而能够防御国家对其信息的不当干预与操纵[46]。因此,借助信息自决权理论,相对人能够抵抗通过处理信息实现的自动化行政行为。但追溯信息自决权的起源,德国1983年“人口普查案”的宪法判决主张,在自动化处理面前并不存在不重要的个人信息,此时个人对所有信息都享有支配权[47]。这将导致信息自决权在自动化处理中的绝对化倾向。因此,以信息自决权理论作为自动化行政中相对人抵抗算法决策结果的理论依据,又将极大地泛化抵抗范围。
在自动化行政中,算法决策蕴含的算法权力是传统权力与技术权力的结合,算法的自主性令算法决策中甚至存在行政主体都难以控制的外来影响和技术因素[17]。经由算法决策方式呈现的行政行为,即便是一般性违法,也并非行政主体应用算法进行决策的初衷。然而,通过算法决策作出的合法行政行为,又是自动化行政领域中技术优势的体现。因此,区别于传统行政中对无效行政行为的抵抗,在自动化行政中,相对人行使算法决策拒绝权而对算法决策结果予以抵抗的范围,包括由算法决策方式作出的所有违法行政行为。此举既可以形成相对人在面对违法行政行为时的初步防御机制,来获得及时和正确的行政决策结果,又能够唤起行政主体对算法决策错误结果的自我纠正程序,以调适高效率追求下的公正性问题。
为使相对人对算法决策结果的抵抗得到行政主体的有效答复,避免演化出采取激进方式进行抵抗的负面影响[48],在自动化行政的结果输出环节应当设置回应算法决策拒绝权的行政程序。相对人在拒绝算法决策结果的同时,可以要求行政机关暂停自动化行政行为并对此予以说明。虽然相对人可对算法决策形成的所有违法行政行为予以抵抗,但是抵抗的效果将根据行政行为的违法程度而有所区分。当算法决策过程仅具有轻微的程序违法,如忽视相对人的公开请求,并未影响实体结果的正确性,出于程序经济的考虑,可以在事后对算法决策过程中的瑕疵内容予以补正[49]94。而一旦算法决策中出现重大且明显的程序违法,如将歧视性内容引入算法决策中,此时行政机关应当以人工决策方式替代算法决策方式,重启行政程序并重新作出行政行为。
五、结 语
伴随数字技术的自身发展及其被引入行政领域,行政决策迎来从自然人决策到算法决策的模式转变。在充分发挥算法决策带来的技术优势之余,还需要警惕与治理其对行政法治的技术挑战。以算法决策拒绝权为代表的赋权路径能够丰富相对人在数字时代的权利体系,对抗与平衡得到算法权力增强的行政权力。通过构建与完善算法决策拒绝权在自动化行政过程中的行使规则,相对人能够在信息输入环节选择算法决策方式,在算法分析环节脱离算法决策过程,在结果输出环节抵抗算法决策结果,充分发挥算法决策拒绝权的防范算法技术风险与保障自身合法权益的功能。
将算法决策拒绝权应用到自动化行政并作为相对人的公法权利,符合《个人信息保护法》在行政领域的适用性及其规范算法决策的功能性。但将拒绝算法决策放置在行政程序中并予以权利化的改造,在当前至少还面临着如下难题:第一,无论是在个人信息保护领域还是自动化行政领域,算法决策拒绝权仅是得到规范证成,但具体的行使规则仍有待立法回应。第二,在自动化行政中,算法决策拒绝权作为相对人享有的程序性权利,仅具有权利化的名义而并不具备完整的权利形态,实质上属于在行政程序中被赋予的权能,而尚未达到权利地位,尤其表现为缺失作为独立诉求而请求法律保护的功能。第三,当个人权利和公共利益之间出现紧张关系时,就会产生限制权利的讨论。近年来,算法决策方式的巨大推动力为突发事件中的技术治理需求,此时相对人行使算法决策拒绝权将不利于有效预防、及时控制和消除风险与危害,并与相对人在应急状态下所需承担的配合义务和风险责任相悖。因此,当出现突发公共事件时,常态下的算法决策拒绝权将被限制。当然,对相对人算法决策拒绝权的限制不仅要求具有正当化目的,还需要合法化依据与合理化手段。这些算法决策拒绝权所面临的难题,或需要获得法治实践的回应,或有待进一步展开研究。
参考文献:
[1] 展鹏贺.数字化行政方式的权力正当性检视[J].中国法学,2021(3):114-138.
[2] 马颜昕.自动化行政的分级与法律控制变革[J].行政法学研究,2019(1):80-92.
[3] 程啸.十大亮点彰显个人信息全面保护[J].法治与社会,2021(11):48-50.
[4] 程关松.个人信息保护的中国权利话语[J].法学家,2019(5):17-30,191-192.
[5] 王锡锌.个人信息国家保护义务及展开[J].中国法学,2021(1):145-166.
[6] 卡洛,弗鲁姆金,克尔.人工智能与法律的对话[M].陈吉栋,董慧敏,杭颖颖,译.上海:上海人民出版社,2018.
[7] 蒋红珍.《个人信息保护法》中的行政监管[J].中国法律评论,2021(5):48-58.
[8] 韩旭至.认真对待数字社会的个人拒绝权[J].华东政法大学学报,2023(1):22-34.
[9] 蓝江.智能算法下人的数字异化与生存变革[J].人民论坛,2021(Z1):20-22.
[10] 张恩典.人工智能算法决策对行政法治的挑战及制度因应[J].行政法学研究,2020(4):34-45.
[11] 郑玉双.破解技术中立难题——法律与科技之关系的法理学再思[J].华东政法大学学报,2018 (1):85-97.
[12] 洪丹娜.算法歧视的宪法价值调适:基于人的尊严[J].政治与法律,2020(8):27-37.
[13] 曹博.算法歧视的类型界分与规制范式重构[J].现代法学,2021(4):115-126.
[14] 程关松.论民主制行政法治范式[J].武汉大学学报(哲学社会科学版),2009(1):22-27.
[15] CITRON D K, PASQUALE F. The scored society: due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1-33.
[16] 谢明睿,余凌云.技术赋能交警非现场执法对行政程序的挑战及完善[J].法学杂志,2021(3): 48-58.
[17] 蔡星月.算法决策权的异化及其矫正[J].政法论坛,2021(5):25-37.
[18] 陈晓勤.公共行政领域中的个人信息保护[J].法学杂志,2013(10):134-140.
[19] 唐林垚.《个人信息保护法》语境下“免受算法支配权”的实现路径与内涵辨析[J].湖北社会科学,2021(3):134-142.
[20] 唐林垚.“脱离算法自动化决策权”的虚幻承诺[J].东方法学,2020(6):18-33.
[21] STOHL C, STOHL M, LEONARDI P M. Digital age managing opacity: Information visibility and the paradox of transparency in the digital age[J]. International Journal of Communication, 2016(10):123-134.
[22] 辛巧巧.算法解释权质疑[J].求是学刊,2021(3): 100-109.
[23] 郑智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),2021(1):14-26.
[24] 吕炳斌.个人信息权作为民事权利之证成:以知识产权为参照[J].中国法学,2019(4):44-65.
[25] 丁晓东.基于信任的自动化决策:算法解释权的原理反思与制度重构[J].中国法学,2022(1):99-118.
[26] 王锡锌.行政过程中相对人程序性权利研究[J].中国法学,2001(4):75-90.
[27] 刘东亮.技术性正当程序:人工智能时代程序法和算法的双重变奏[J].比较法研究,2020(5):64-79.
[28] CITRON D K. Technological due process[J]. Washington University Law Review, 2007, 85(6): 1249-1313.
[29] 程关松,苗运卫.相对人参与算法行政的困境与出路[J].东南法学,2021(2):43-57.
[30] 毛雷尔.行政法学总论[M].高家伟,译.北京:法律出版社,2000.
[31] 哈贝马斯.交往行为理论[M].曹卫东,译.上海:上海人民出版社,2004.
[32] 孙祥生.程序性基本权利法律保障研究[M].北京:法律出版社,2018.
[33] 耶利内克.主观公法权利体系[M].曾韬,译.北京:中国政法大学出版,2012.
[34] 小早川光郎.行政诉讼的构造分析[M].王天华,译.北京:中国政法大学出版社,2014.
[35] KOSTA E. Construing the meaning of Opt-Out-An analysis of the European, UK and German Data Protection Legislation[J].European Data Protection Law Review, 2015(1): 16-31.
[36] 齐爱民. 信息法原论[M]. 武汉: 武汉大学出版社,2010.
[37] 杨立新,赵鑫.利用个人信息自动化决策的知情同意规则及保障——以个性化广告为视角解读《个人信息保护法》第24条规定[J].法律适用,2021(10):22-37.
[38] SU J. Google book search and Opt-Out procedures[J]. Journal of the Copyright Society of the USA, 2008, 56(4): 947-965.
[39] 冯恺.个人信息“选择退出”机制的检视和反思[J].环球法律评论,2020(4):148-165.
[40] 宋华琳.电子政务背景下行政许可程序的革新[J].当代法学,2020(1):79-88.
[41] 熊赖虎.时间观与法律[J].中外法学,2011(4):681-694.
[42] 张凌寒.算法自动化决策与行政正当程序制度的冲突与调和[J].东方法学,2020(6):4-17.
[43] 张欣.免受自动化决策约束权的制度逻辑与本土构建[J].华东政法大学学报,2021(5):27-40.
[44] 王锡锌.行政行为无效理论与相对人抵抗权问题探讨[J].法学,2001(10):16-20.
[45] 南博方.行政法[M].杨建顺,译.北京:商务印书馆,2020.
[46] 赵宏.信息自决权在我国的保护现状及其立法趋势前瞻[J].中国法律评论,2017(1):147-161.
[47] 杨芳.个人信息自决权理论及其检讨——兼论个人信息保护法之保护客体[J].比较法研究,2015(6):22-33.
[48] 张旭勇.权利保护的法治限度——无效行政行为理论与制度的反思[J].法学,2010(9):111-121.
[49] 沃尔夫,巴霍夫,施托贝尔.行政法:第2卷[M].高家伟,译.北京:商务印书馆,2002.
On the Right to Refusing Algorithmic Decision-making in Automated Administration
MIAO Yunwei
(School of Law, Southeast University, Nanjing 211189, Jiangsu, China)
Abstract:Article 24 (3) of Personal Information Protection Law in China transforms the protection of personal information interests into the behavioral regulation of algorithmic decision-making, and gives individuals the right to refusing algorithmic decision-making. Based on the public law attribute of the law and its applicability in the administrative field, the counterpart enjoys the right to refuse algorithmic decision-making in the automated administrative mode. In terms of the technical challenges posed by algorithmic decision-making methods to the rule of administrative law, the right to refuse algorithmic decision-making can enrich the counterparts rights system in automated administration and plays a role in combating algorithmic decision-making alienation. The right to refuse algorithmic decision-making has the procedural attribute of ensuring relative participation in automated administrative processes and implementing them in the set up and modified procedural devices, as well as the positive attributes of being able to request benefits and legal protection in terms of rights status and actively choose the content of rights. To realize the counterparts right to refuse algorithmic decision-making, it is necessary to combine the procedural attribute with positive attribute of the right to construct the exercise rules with immediate characteristics in different links of automated administration, including the selection rules of algorithmic decision-making methods, the separation rules of algorithmic decision-making processes and the resistance rules of algorithmic decision-making results.
Key words: automated administration; algorithmic decision-making; right to refuse algorithmic decision-making; personal information protection