韩万渠 王思雨
(河南师范大学,新乡 453007)
大数据、区块链、算法等新技术在政府治理中的运用,使得行政互动方式由人与人之间的互动逐渐转化为人与机器之间的互动。自动化行政指通过算法技术、知识图谱、专家系统等人工智能技术在行政体系中的运用,实现行政活动无人工介入的完全自动化或人工个别介入的部分自动化[1]。自动化行政作为人工智能时代的新兴产物,以其显著的效能优势发展成为一种新型行政活动方式。传统上依赖人力进行驱动的行政运转方式,开始转向以智能算法为引擎的自动化运转,甚至在“自动化行政审批”“自动化工商登记”“自动化办税”等实践场景下实现了机器替代人力的完全自动化行政运作,进一步推动了行政的自动化、信息化和智能化发展。自动化行政的具体应用往往以“自动化决策”的形式呈现。算法作为自动化行政的主要技术路径,在行政运行过程中直接参与决策或辅助人工决策,带来了行政运行效率的提升,但也因算法偏见等问题引发了诸多有关自动化行政风险及其规制的探讨。总体上,现有研究大多围绕政府运用人工智能技术与外部行动者互动和服务给付中的负外部性效应展开,并将其治理之策集中于法律规制、伦理规制等,一定程度上忽略了自动化行政的内部效应及其与负外部效应之间的关联。尤其是ChatGPT等生成式人工智能技术的兴起及其在行政体系中的运用,将因其与行政体系的运行规则、一线官僚行政经验的交互而产生新的不确定性,并延展至行政体系对于公共事务的治理。基于此,本文提出自动化行政研究应从负外部性效应治理,转向挖掘人工智能技术对行政体系内部运行产生的影响,并进一步探索内外部之间的关联,以期从内部探寻最小化自动化行政负外部效应的治理之策。
自动化行政的本质在于智能算法嵌入行政运行过程。自动化行政因算法不透明、算法偏见等引发的有关自动化行政的法律地位、不公平等问题已经引起学术界的广泛关注[2]。从技术维度审视,自动化行政的负外部效应来自智能算法的风险属性:机器学习、编码知识缺口和算法“黑箱”。
1.算法的“机器学习”性质
机器学习(Machine Learning)是人工智能技术的核心,主要研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能[3]。机器模型的选择需要先由算法设计者确定,之后再由机器自主学习完善。由于机器学习的数据本身就承载着算法设计者的价值判断,进而这些带有社会偏见和算法设计者主观偏见的数据可能会被机器带入模型不断训练,由此构造新的编码知识[4]。因此,“机器学习”的不确定性和动态演进属性使其可能偏离自动化行政所预设的、符合正当性的行政程序。机器以无限的学习能力填补了人类有限认知能力的缺陷,同时也潜在地消解了人的主体性和应有的自由裁量权。同时,针对决策结果进行问责也面临着主体责任难以界定的困境。
2.算法的编码知识缺口
编码知识缺口是指算法系统中的编码知识不足以覆盖所有偶发事件,从而造成输出上的知识缺口[5]。编码知识缺口在自动化行政系统运行中较为常见,输入端的指令得不到回应或者被提醒操作错误、输出端的结果与输入端的指令不相匹配都属于编码知识缺口的范畴。就自动化行政的运行场景而言,在完全自动化行为下,行政相对人通过网络平台和聊天机器人交互[6],这种基于文本通信的交流方式通常会在机器人识别人类语言的时候出现故障,从而导致决策结果无法输出。而在部分自动化行为下,自动化行政裁量在根据实际案例匹配法律、法规依据时,往往会超出系统中编码知识的范围,从而导致输入和输出的匹配偏差。这种算法失灵的内在缺陷可以通过误导判断的形式,进一步扩大自动化行政负外部效应的发生概率。
3.算法的“黑箱”性质
算法运行过程主要分为输入阶段、中间阶段和输出阶段,“黑箱”可能存在于这三个阶段中的任意一个或者多个阶段[7]。输入端由算法设定,数据采集和选择实现自动化运行,这一阶段呈现出完全无人工干预的状态且不具有透明性和可解释性,使得有关个人隐私和集体隐私的采集和使用存在潜在的隐私安全威胁。中间阶段是在算法特有的运行规则下,通过识别输入端的文本和语言,根据既定的语法和句法规则,自动生成的一套不易直接观察和解释的回应逻辑。尽管输出端的结果是可以预先设定的,但值得警惕的是,输出端既包括显示在终端的预先设定的结果,也包括在终端并未显示的输出结果。对前者的监管相对容易,对后者的监管会引起因算法不透明属性而导致的监管困境,并暴露出隐性操纵的风险。
尽管自动化行政负外部效应的来源主要表现为智能算法技术的不确定性,但具体表现形式有所不同,表现为损害社会公平正义、威胁集体和个人隐私安全、责任主体难以认定等。
1.损害社会公平正义
智能算法可以对复杂的行政任务进行高效处理,并能最大限度地减少人为偏差。但是由于算法本身不具备客观性和中立性,所以并不能保证其决策结果的公平性。同时,如果算法设计者对智能算法训练所选的模型和模拟数据本身带有偏见,将会产生算法行政的歧视模仿行为,导致自动化行政系统在真实运行的过程中出现有偏向性的选择[8]。因此,算法遵循何种规则以及在行政运行作何选择取决于算法设计者的价值选择。而算法设计者的价值选择除了来自自身的知识结构,更多来自委托方——政府的知识体系,其中既包括规范层面行政运行的规则体系,也包括经验层面基于特定业务的“隐性知识”。生成式人工智能技术具有较强的机器学习功能,并通过与一线官僚的交互实现对特定行政业务“隐性知识”的习得。这些隐性知识既包括行政运行应有的自由裁量,也包括自由裁量中的结构性偏差,通过算法的隐性筛选机制损害社会公平正义。
2.威胁集体与个人的隐私安全
智能算法时代的隐私安全问题更为复杂。自动化行政应用场景中,算法技术对隐私安全的影响表现出由个人隐私发展为集体隐私的倾向。集体隐私不是指一个集体中所有人隐私的总和,而是指一个集体中的成员有一个或者多个共同属性的隐私[9]。算法会将这些隐私作为数据按照不同的属性进行自动化的分类组别。但是,在算法分组的基础上对这些隐私的利用会以集体特征的形式显示出来,且目前在数据保护方面并未注意到集体隐私的问题[10]。此外,算法披露旨在对算法不透明导致的歧视等问题进行规制,但也可能对数据安全产生威胁。算法披露是指针对算法“黑箱”中的程序不透明赋予行政相对人算法解释权,即要求行政机关对算法应用的源代码、输入数据、输出结果及推理过程予以解释的权利[11]。按照算法披露的要求需要公开输入数据,这将和个人隐私权的保护产生冲突。因为行政相对人在对算法决策结果不满意的情况下,可以行使自己的算法解释权,此时算法应用中的输入数据将会被公开,其中公开的数据不仅包括行政相对人的个人数据,还包括所涉事件中其他人的数据,后者如果被披露将涉及侵犯他人的个人隐私权。
3.责任主体难以界定
自动化行政带来的责任主体界定模糊问题应该予以重视。自动化行政的主体不仅包括科层体系中具体的行为人,还包括有待认定的“算法官僚”属性的行为人。行政场景的复杂性造就了行政主体的模糊性。在完全自动化行政场景下,算法自动化决策造成的后果由谁承担、向谁问责存在难题。这一难题源于算法“机器学习”属性,开发者预设的算法是否会随着机器学习和迭代更新而偏离预设的轨道,尤其是这种偏离一旦因算法不透明而不易被监控到,将导致开发者、使用者对自动化行政算法的失控,由此造成问责主体模糊的问题。另外,自动化行政系统的开发与维护大多依托于大型技术公司,通过公私合作的方式达成,由此形成自动化行政运行的混合组织形态。混合型组织不仅存在不同类型组织的多重逻辑调适问题,也存在着责任分担失衡的难题,即政府最终因为“无限责任”而无法形成对平台企业、算法开发者的有效约束。
针对自动化行政运行出现的问题,实践层面主要采取伦理规制与法律规制相结合、行业自我规制与政府规制监管相结合、包容性审慎规制与敏捷性响应规制相结合的原则,寄希望于多元规制力量的敏捷反应和协同发力。
1.伦理规制与法律规制相结合
伦理规制主张建立一套政策框架以确保对自动化行政的信任,主要通过算法设计者遵循“伦理设计”原则进行负责任开发[12],动员利益相关者进行协商并制定政策行动,以促进对自动化行政的信任。而法律规制主要强调对负外部效应的惩戒性治理,侧重于事后权益受损的保护。一般而言,自动化行政负外部效应的直接作用对象是社会公众,社会公众的权益在受到损害时,最直接的回应方式就是寻求法律援助。因此,伦理规制与法律规制路径的结合,在确保多元利益相关者信任自动化行政的基础上,尽可能地保护其权益不受损害。
2.行业自我规制与政府规制相结合
自动化行政往往伴随着智能算法技术研发企业深度嵌入行政运行之中。政府在其中处于技术劣势地位。这一状况意味着政府不得不依赖智能算法企业及所在行业的自我规制。同时,这也意味着政府规制不可以缺位,应该加强政府规制与行业自我规制的合作。行业自我规制属于源头规制,一方面要强化行业自身伦理规范的建设,另一方面则应致力于推动智能算法企业加大对自动化行政缺陷“技术补丁”的研发力度。政府规制路径则主张建立一套完善的监管体系,通过数据接入和穿透式监管对其进行有效监管。作为源头的行业自我规制、强化过程监管的政府规制以及底线防范的法律规制,共同构成针对自动化行政风险的协同规制体系。
3.包容性审慎规制与敏捷性响应规制相结合
对自动化行政负外部效应的规制,在方法论上强调包容性审慎规制和敏捷性响应规制的结合。包容性审慎规制旨在搭建一个动态监管框架,通过联合各方利益相关者设计监管沙盒,划定风险范围并将自动化行政的外部治理问题及其衍生风险限定在“盒子”内,同时保证“盒子”内部的可控性。敏捷性响应规制则主张建立一套完善的敏捷响应机制,对自动化行政运行中不确定性的外部治理问题,及时组织自动化行政系统设计者、伦理学专家、法律专家以及政策专家共同开展评估与研究,并提出应对策略。包容性审慎规制强调要保证问题的“可控性”;敏捷性响应规制则强调要承认治理问题的“不确定性”以及问题解决的“快速迭代性”[13],两者的结合有助于将自动化行政所带来的负面影响降到最低。
贝克(Ulrich Beck)提出风险社会的两个特征:一是具有不断扩散的人为不确定性的逻辑;二是导致现有社会结构、制度以及关系更加复杂[14]。这一推论同样适用于自动化行政。前述分析主要围绕自动化行政受算法不确定性带来的负外部效应。自动化行政对社会结构、制度等的影响存在两条路径:直接路径和间接路径。既有研究主要关注直接路径,即聚焦自动化行政的核心技术——算法,主要基于其他领域算法技术直接作用于行政客体、社会结构所产生的影响,进而提出治理算法负外部效应的多元规制策略。这一路径容易混淆一般意义上的算法对社会结构、制度运行产生的直接影响,和算法技术运用于行政体系对社会结构、制度运行产生的间接影响。因此,未加区分、没有细致考察自动化行政运行具体场景,将一般意义上算法的负外部效应“套用”到自动化行政场景存在逻辑推论偏误。因此,学界更应关注自动化行政对社会结构和制度运行的间接影响。即算法技术首先作用于行政体系自身,并通过行政体系在解决公共问题等职能履行中,引致社会结构和制度运行的变迁,进而对社会运行秩序和规则产生影响。
韦伯认为权力是一种力量,这种力量使得行动者在一定社会关系中,即便其意志遭到反对,但依旧能够有效贯彻[15]。随着算法在行政领域的渗透,算法显示出作为新的权力形态的属性,而不仅仅是一项新技术[16]。与传统意义上的政治权力不同,自动化行政中的算法权力是一种建立在技术基础上、依托并内化于行政权力的“软权力”。算法技术重新建构了行政的运行环境,利益相关者在新的运行环境中享受到了算法带来的福利,也逐渐自觉接受行政运行模式转型提出的新要求和新规范。此外,算法权力以其技术理性催生合作性的社会权力[17],在其自身权力属性隐性化的基础上,通过外显化其内在缺陷来凸显负外部效应产生的根源。但实际上,负外部效应的产生也与行政内部权力的运行息息相关。
算法权力介入政府治理引发的科层制数字化转型是理解自动化行政体系内部运行的宏观维度。科层制数字化转型构成对传统科层制价值导向、组织结构、工具方法层面的重塑。在此情境下,行政体系内部控制机制的数字化转型构成理解自动化行政的中观维度。行政体系内部的绩效监测、考核评估、奖惩监督等,深刻影响着行政体系中不同层级、不同部门、不同岗位的职责运行及行政主体的行为选择,进而导致微观层面基层行政管理者的自由裁量权面临着与机器之间的张力关系及其调适和博弈。因此,本文提出自动化行政研究应转向行政体系内部运行的论断,并从宏观、中观和微观三个层面对此进行分析,以期在避免算法权力异化的基础上最小化自动化行政的负外部效应,为理解自动化行政的内外部关联提供分析理路。
算法权力对行政体系内部运行三个层面的影响,按照“结构-过程-行动者”的影响逻辑层层递进,微观层面的人机权力博弈发生于中观层面行政内部控制机制智能化的背景之下,同时中观层面的内部控制机制智能化又发生于宏观层面的科层制数字化变革的结构限定之中。
1.宏观结构层面:科层制的数字化变革
科层制的现实运行存在组织体制僵化、层级信息传达滞后、部门利益分割、去人格化难以实现等问题,制约了作为理想型组织的效率追求,引发了一轮又一轮的围绕科层制改造的变革。科层制的数字化变革作为新一轮的探索,通过运用以互联网为代表的信息通信技术,提升行政运行效率、强化政民互动,为应对多元社会对行政的回应性诉求压力提供了制度变革的切入口,一度被称为“后科层制”[18]。但是,这一判断也引发诸多争议。无论是理念层面还是技术层面引发的组织变革均未能触动其底层逻辑。“行政定义技术”等概念的提出,揭示出数字技术对科层制变革的努力与行政对技术的定义、吸纳和塑造是并行的[19]。
人工智能技术嵌入行政体系催生出算法官僚主义,将公共行政人员、算法、机器以及其他组织制度条件结合起来,以应对复杂性并克服传统官僚主义的一些局限性,同时还保留公共部门核心价值观[20]。生成式人工智能技术的兴起及其在行政领域的深入运行具备了深层触动科层制运行逻辑的可能性[21]。生成式人工智能技术的交互性进一步提升了人工智能技术对隐性社会技能的习得,降低了传统科层制对人及其自由裁量能动性的依赖,在去人格化方面拓展出新的空间。算法运行规则对传统科层制运行规则的置换,使得规则更多地以隐性的方式呈现出来,融入行为公共管理设计的运行规则,更易于发挥出“润物无声”的控制力。
2.中观过程层面:行政体系内部控制的智能化
组织的有效运行离不开控制职能的发挥。内部控制机制通过一整套制度安排对组织行为进行引导和纠偏,使其按照预定的路线实现组织预期目标。行政体系内部控制的智能化是指自动化行政内部大到行政活动小到行政单位的日常管理都由智能算法控制,或者通过智能算法的运行增强行政体系内部的控制力。行政内部的活动和日常管理也开始逐渐由人作为制度执行者的控制体系,转向算法介入的过程性自动控制。诸如预算审批、自助报销等业务已经基本实现完全自动化。这些领域业务的自动化转型简化了行政流程,提高了工作效率,增强了财务内部控制体系的有效性。同时,算法辅助行政人员参与决策、执行预测分析功能以及定制个性化服务,在行政内部控制的日常管理和业务活动中实现了部分自动化。算法辅助行政工作人员精准化采集、分析和利用数据,有效避免了人为带来的误差与风险。以工作考核为例,量化管理下的工作考核可以依托智能算法技术获取考核对象的所有数据,基于工作细分,构建实时、全流程的考核指标评定,实现对行政人员工作绩效的精准量化,并形成对考核对象的“用户画像”[22]。
受宏观层面科层制数字化的结构性重塑的影响,行政体系内部控制的适用对象和驱动力均发生了根本变化。不同于传统科层制以规则为导向的等级控制模式,行政体系内部控制的智能化实现了精准点控,但弥散于组织运行全流程的控制力,也不可避免地约束了科层运作应对不确定性事务的自主性。与之相伴的是公共治理事务的复杂性和不确定性日益增强。事实上,这一复杂性和不确定性也来自自动化行政本身。因此,过密过细的智能化内部控制机制的边界值得关注,由此形成的对行政主体的全景式规训,到底意味着什么,如何调适有效控制组织行为和有效适应环境变化的关系成为自动化行政研究的关键。
3.微观行动者层面:人和机器自由裁量权的博弈
自动化行政场景下科层制的运行因为嵌入了作为等级规则的替代品的智能算法,使得技术乐观主义者往往认为智能算法包含的技术理性,实现了对自由裁量权的替代,其本质转为算法官僚和街头官僚自由裁量的博弈[23]。技术中立主义者相对谨慎看待此问题,认为算法官僚和街头官僚之间形成了“人机协同”的状态,但也不否认算法的确削弱了街头官僚的自由裁量权[24]。曾经被视为滥用自由裁量权的官僚弊病,在自由裁量权被压缩的自动化行政场景下,又恢复了其克服科层制内在缺陷的本性。科层规则的算法替代既有其合理性,也面临着因规制锁定而出现的僵化,同时还面临着对算法机器学习和生成式人工智能技术导致的不确定性。
因此,针对完全自动化场景中算法官僚与街头官僚之间的自由裁量权博弈,构成微观层面考察自动化行政内部效应的关键。Hartzog等人认为行政活动一般可以划分为“预测—分析—行动”三个部分[25]。如果算法嵌入在这三个部分均实现了无人工干预,则构成了所谓的完全自动化行政。目前,完全自动化行政限定在一些重复性、技术性的工作范围[26],例如,一些程序简单、事实清晰、无须人工思考的交通抓拍处罚决定以及行政智能审批等。对于智能算法介入下的预测和分析结果的使用,学界提出“如你所想”的判定原则,即如果人工智能的建议能证实街头官僚的专业判断,就会得到采信,揭示了街头官僚对算法决策的审慎态度[27]。但这一研究随着生成式人工智能技术的大发展,尤其是适应了生成式人工智能技术的新一代人类成为街头官僚时,他们还会不会把算法决策视为“强化自身判断”的一个辅助性验证,有待进一步追踪考察。但从这一意义上,建立对自动化行政负外部性的协同规制体系,理应有一个针对算法决策的快速的、必要的审核机制,通过敏捷规制实现对其可能偏误的防范。
1.宏观层面:自动化行政中的算法权力异化与自主性缺失
自动化行政负外部效应的产生除了源于算法“机器学习”的不确定性和算法“黑箱”的不透明性等算法内在特性外,行政内部的权力配置也是负外部效应产生的重要来源。权力是行政体系运行的基础。传统科层制的权力体系建立在现代理性权威和等级规则的基础上。权力由科层体系中的各级官僚行使。自动化行政运行过程中,算法的嵌入突破了传统科层制的组织边界,使得层级分明的有形组织朝边界模糊的无形组织发展,进而重塑了科层体系的权力结构。算法技术具有了典型的权力支配属性。自动化程度越高,算法权力的支配性越强。算法作为自动化行政体系中的隐性权力,因其不透明性和不可解释性,为传统科层制的权力体系制造出难以触及的隐秘空间[28]。自动化行政中的隐私安全、主体责任界定等外部导向问题同样构成传统科层制中权力体系无法触及的盲区。权力异化的根源在于掌控权力者一旦缺少监督就很容易突破权力应有的边界。算法权力作为一种新形态的支配力量,同样难以摆脱这一根本属性。尤其是,算法技术的机器学习属性和不断迭代中的自我强化效应,一旦缺少有效监管,就会出现权力异化现象。
这里强调的算法权力异化侧重于内部层面的异化,区别于算法直接作用于社会主体引致负外部效应的权力异化。后者突出表现为算法技术本身的内在缺陷,前者则突出表现为算法权力重塑科层权力结构引致的“行政人”自主性的缺失。算法权力的内部异化源于算法官僚主义的制度逻辑对技术理性的过度推崇,弱化了行政人的独立性和自主性。算法技术对科层制中人的主体性的消解,使得基于理性自治的官僚结构将从“人的组织”转向“算法的组织”[29]。科层制中的公共行政人员则游离于算法规则之中,沦为算法的附庸。这一内部行政规则的转变将会诱发自动化行政的外部关联效应,例如:强调利益、绩效的算法规则,对传统官僚科层体制下公平正义、自由平等的价值原则带来威胁,使得自动化行政中算法偏见的负外部效应显露。综上,为规避算法权力异化,并且减少触发自动化行政负外部效应产生的可能,需要更好地发挥技术与组织的互构作用。技术治理不能脱离科层组织而单独存在,否则算法权力就会脱离控制的范围进而触发一系列的关联效应。科层制中权力结构的失衡成为自动化行政负外部效应产生的重要原因。负外部效应是科层内部权力结构失衡的潜在性后果,并通过权力行使转化为外部导向的现实性后果。
2.中观层面:自动化行政中的全景式规训与避责行为的加剧
包括算法在内的新兴技术不管是在研发目的上,还是在应用手段上似乎都可能会疏离“为了人”的现代目的,而走向“控制人”的超现代目的[30]。自动化行政强化了行政体系的内部控制。行政内部体系的设计、运行、评价、奖惩由算法主导,行政内部体系的运转规则在算法控制的主导下也将被重新塑造。算法作为一种信息支配权,通过嵌入内部考核体系实现对不同层级、不同部门、不同岗位的控制,形成以智能算法支配科层体系运行的新秩序[31]。这一新秩序的合理性在于改变了既有考核控制的模糊性,实现了精准、全流程的控制体系,但也不可避免地出现了智能算法对“行政人”的全景式规训。福柯指出权力规训的三重实现机制:层级监视、规范化裁决和检查。其中,层级监视通过各类技术装置实现对行为的“观察、记录和训练”。规范化裁决主要通过仪式和符号将规训客体标签化[32]。支撑自动化行政的智能算法技术使得标签与“画像”建立起更精准的匹配关系,并衍伸至其他领域。检查机制事实上通过层级监视技术与规范化裁决技术的结合,将上述匹配关系制度化,完成了智能算法技术与科层制度规则的互嵌,构成对行政主体的全景式规训。
在此过程中,智能算法对“行政人”全流程的行为追踪机制与“行政人”的隐私权之间存在模糊地带。嵌入内部控制体系的智能算法增强了内控监督机构的权力运行效率。行政体系内部掌控考核权的机构与智能算法开发机构的合谋,将加剧行政体系内部监督体系的紧张性。在此情境下,科层体系中的“行政人”首要的是对智能算法内控机制的遵从,而不是对外部主体诉求的回应。避责而非担当,成为科层体系运行的第一准则。自动化行政增强内部控制机制主要以考核机制的智能化实现。除了前述过程考核性的全景规训产生的避责动机,在考核内容方面同样产生了深刻影响。政府对负外部性的规制与治理是行政体系内部考核内容的主体。对政府治理任务完成程度的考核一旦实现了智能化,必将增加“行政人”的指标投机主义行为,甚至对行政伦理产生影响。这将进一步让街头官僚成为算法官僚的附庸,减少了行政人通过自主性对算法歧视进行纠偏的可能性,同时也加剧了自动化行政情境性的繁文缛节的程序主义,降低了行政体系对环境变化的适应性,进而增加自动化行政算法异化产生负外部性的概率。
3.微观层面:人机协同自由裁量剩余控制权虚置与负外部性的出现
自动化行政运行中算法官僚和街头官僚围绕自由裁量权的博弈,本质上取决于自由裁量剩余控制权在二者之间的配置。决策事务的结构性良好时,自动化行政“人机协同”处理的是一些直观的审批决定和数据、知识等决策支持,自由裁量剩余控制权的分配界限分明,街头官僚或者科层体系的制度权威占主导地位。但是,在高度不确定性和复杂性的应用场景下,算法官僚和街头官僚之间的剩余控制权配置存在较大的模糊空间,增加了自动化行政内部效应的风险属性,并连锁反应至负外部效应。剩余控制权来自经济学的不完全契约理论。决策事务的复杂性和不确定性导致契约的不完全性。人们无法在初始合同中对所有可能的状况及其对策(权责分配)作出完备的规定。剩余控制权的配置旨在为出现初始合同未约定事件时作出相应决策[33]。自动化行政中智能算法的机器学习属性使其不断迭代,并逐步偏离初始合同约定的剩余控制权介入的判断规则。
在当下“人机协同”的场景中,算法官僚作为“辅助角色”所拥有的剩余控制权是不确定的。算法官僚作为辅助角色看似没有被明确赋予自由裁量权,但是它在行政裁量中发挥的真实作用往往会被其“辅助”外表所掩盖[34]。前述“如你所想”的论断是对当下街头官僚仍掌控自由裁量权的实证结果。但生成式人工智能技术的深度学习功能,对此论断的学习将进一步优化算法官僚对特定领域街头官僚决策偏好的学习。当算法官僚越来越精准地适应并深谙街头官僚的自由裁量偏好,甚至算法裁量已经优于街头官僚裁量、并被街头官僚自认为“所见略同”时,街头官僚事实上已经不自觉地依赖算法裁量进而诱发“自动化偏向”[35]。因此,算法辅助也有可能变为算法主导,算法官僚将会削弱街头官僚的自由裁量权。
尽管已有研究针对自动化行政开发了风险预测模型,即算法官僚与街头官僚针对同一事务进行的决策一旦存在差异极化,决策双方将进行二次博弈,并在第一次决策的基础上陈述决策理由,由第三方确定决策结果[36]。但是,如果这一规则本身被利用了,则两种决策方案的折中未必符合解决公共问题本身所需要的合理性。因此,智能算法机器学习属性决定了第一选择是识别出一个与街头官僚选择相对立的方案,并通过二次博弈实现真正的主张[37]。这一主张对于纠偏街头官僚利益捆绑问题具有合理性,但一旦算法官僚被权力与技术合谋俘获,则会产生带有技术理性和制度防范双重光环的决策,让人们不自觉地接受有偏差的决策,导致负外部效应的出现。
智能算法技术嵌入行政体系运行已经成为数智时代政府治理变革的主要趋势,由此引发学术界对自动化行政的广泛关注,并集中于自动化行政负外部效应及其治理的研究。既有研究认为自动化行政负外部效应源于智能算法技术的内在缺陷与机器深度学习属性研究,主要从伦理规制与法律规制、行业自我规制与政府规制、包容性审慎规制与敏捷性响应规制相结合的维度,提出构建多元协同规制体系的治理之策。事实上,这一分析理路将算法在不同领域应用引致的风险视为同质性的,并未对自动化行政运行的场域特征予以差别性处理,考察自动化行政的内部效应及其对负外部效应的影响。自动化行政运行中的算法风险,一方面来自无差别的算法技术属性的内在缺陷和机器深度学习带来的不确定性;另一方面来自算法嵌入科层体系对行政内部运行机制的影响,进而延伸至自动化行政的负外部效应。前者是算法引致负外部效应的直接路径,侧重于技术路径;后者是算法通过嵌入行政体系进而引致负外部性的间接路径,侧重于技术与组织的互构。智能算法技术与行政运行体系的互构是理解这一间接路径的关键,由此引发宏观结构层面科层制的智能化变革,延伸至中观过程层面行政体系内部控制机制的智能化,进而影响着微观行动层面“人—机”自由裁量权的再生产和重新配置。基于“结构-过程-行动”的分析为自动化行政研究转向行政体系内部运行提供了逻辑进路。
生成式人工智能技术的兴起对科层制运行产生的结构性重塑,让技术忧思的想象逐步变成现实。生成式人工智能技术的交互性,不仅习得了社会自身运行的隐性技能,也将习得科层体系中各级官僚的隐性技能,进而影响到科层体系运行过程中的权力结构和运行过程。自动化行政对科层制运行过程的影响集中于内部控制机制的智能化,由此构筑的全景式规训体系,加剧了科层体系中“行政人”的避责动机。政企合作格局下自动化行政的运行,并在此过程中形成了依赖于算法官僚自由裁量的避责格局,使得“行政人”在人机协同中自由裁量剩余控制权的主导地位进一步减损。科层制的数字化转型是大势所趋,但科层体系内部控制机制的智能化则存在较大的自主空间。无论科层制的数字化转型未来趋向何处,调适过程维度全景式规训与适应性行政之间的张力关系成为关键。现有研究普遍对自动化行政外部效应予以关注,本文尝试通过“结构-过程-行动”的分析框架,将研究视角转向行政体系的内部运行。不足之处在于仍停留于规范性论述,并未对此进行实证分析。因此,行政体系内部控制机制的智能化影响“行政人”的避责动机,并进一步削弱自由裁量剩余控制权的主导地位的作用机理,亟待通过参与式观察、追踪调查、实验法等研究方法开展实证研究。