近年来,各国均大力发展电子政务,积极推进数字政府建设,广泛借助自动化决策系统作出行政决定,除了提高效率的考量之外,希望排除行政过程中的恣意是一个重要因素。的确,自动化决策在很多领域胜过人类裁量。在需要前后一致超过裁量价值的情形下,实施良好的自动化决策比人类裁量更为可取;在与人类偏见有关的风险超过自动化偏见导致的风险之领域,自动化决策也更有吸引力。
简言之,当某一问题不需要根据特定情况进行裁量时,自动化决策具有人类决策无法比拟的优势。然而,凡事皆有两面性,自动化决策的长处同时也是其短处。由于算法的确定性特征,在编程中不允许存在二义性,自动化决策系统难以像人类一样针对具体情境选择最适当的决定。这种在设计算法时就不得不限缩裁量甚至放弃裁量的做法,如果按照传统行政法学理论予以判断,明显属于“裁量怠惰”。
依靠指令,这种裁量成为机械化的规则制定,裁量中须考量的相关因素可以通过系统事先的设定输入,不需要考量的相关因素则事先被剔除。机器将计算出数以百万计连接的微指令,这些指令可以实现法律规范的策略目标。这个复杂的微指令目录可以针对行为的小实例应用于更大的行为动作网络,实现更广泛的目标。当然,法哲学家对此颇有争议,因为在他们看起来法律必然是模糊和不确定的,法律推理过程需要理解和支持类比推理的原则。再比如,法律往往要求实现公平,那这种公平可以被量化吗?
首先,公平是一个模糊的概念,法律上的公平被翻译成算法公平可能存在困难;其次,公平被量化、被算法化可能带来歧视问题。美国联邦贸易委员会发布的《大数据:包容性工具抑或排斥性工具?》报告,特别关注大数据中的歧视和偏见问题:数据集是否具有代表性?所使用的数据模型是否会导致偏见?基于大数据进行预测的准确性如何?对大数据的依赖是否会导致道德或者公平性问题?这些问题往往都伴随着缩减裁量而产生。
尽管我们一直为滥用裁量权所困,但基于行政的效率考量以及个案决定要求,它的存在却是必要的。当我们从一个需要个性化判断的行政决定走向规程化的程序中,社会的整体利益、人性情感、地方习俗等因素都可能被忽略。