自动化公共信用评价的程序控制
——以技术性正当程序为视角

2022-11-08 09:56张涛
湖北社会科学 2022年3期
关键词:信用决策行政

张涛

一、问题的提出

大数据、算法等技术的快速发展和广泛运用,使人类社会进入了一个“被算法操控生活”的时代。在私人生活中,算法决策在个人的求职、消费、出行、社交、爱好等方面发挥着越来越重要的作用。在公共行政中,政府决策的自动化程度越来越高,行政机关运用算法来预测打击犯罪、评估社会风险、监控环境污染风险、治理城市交通拥堵等。由于政府决策通常会对不确定多数人的合法权益产生重大影响,因此,算法自动化决策系统在政府决策中的运用引发了广泛的关注。

在信用规制实践中,算法自动化决策系统广泛运用于信用规制活动中,尤其是个人和组织的公共信用评价,绝大多数都是基于算法自动化决策系统而开发和运行的。换言之,在信用规制中,自动化公共信用评价已逐渐成为一种主要趋势。由于算法自动化决策系统普遍存在不透明性、自动性、高度复杂性和模糊性等特征,这给传统的法律程序带来了挑战,使得很多程序性权利难以实现。对此,理论界提出了许多规制策略,部分学者主张应当采取“适应性正当程序”(adaptable due process)理念,对正当法律程序进行改革和创新,使其能够应对算法自动化决策系统带来的挑战。在法治政府建设、行政法典的制定以及对自动化行政的法律控制上,学者也主张应当采取一种程序主义进路。

自动化公共信用评价是自动化行政的缩影和实践,如何通过一种程序主义进路使其实现法治化成为当下亟待解决的课题。鉴于此,本文以自动化公共信用评价为研究对象,以捍卫公民的程序基本权为价值支撑,剖析自动化公共信用评价的实践样态及产生的法律效果,进而指出其带来的挑战,并提出在自动化公共信用评价中落实“技术性正当程序”的建议。

二、算法自动化决策在公共信用评价中的应用

近年来,受大数据、算法等技术的影响,传统消费者信用评价系统不断进行技术迭代。“所有数据都是信用数据”(all data is credit data)已经成为信用评分行业的重要口号,利用大数据技术、算法自动化决策系统等技术,可将传统的信用信息与个人的线下信息、网络中爬取的数千个数据点结合起来,形成所谓的“大数据信用评分”(big-data credit scor⁃ing)。公共信用评价深受传统消费者信用评价的影响,其采用的技术系统与后者密切相关。

(一)何为算法自动化决策

算法自动化决策系统是使用复杂的数学算法来识别大型数据集中“有意义的关系”和“可能的模式”。例如,算法可以分析众多变量,包括互联网浏览行为、消费历史、居住地邮编、就业经历、教育背景、工资水平和家庭关系等,来预测具有特定特征的人成为高效员工、失信对象、有效领导者或合格医疗服务对象的可能性。从这个意义上看,算法可以描述为任何输入一些值或一组值并输出一些值或一组值的定义明确的计算程序。即,算法就是将输入转换为输出的一系列计算步骤。以复杂程度为标准,算法可以分为用于解决简单、定义明确的问题和用于解决复杂、定义不清的问题。其中,将定义明确的问题称为结构化问题,定义不明的问题称为非结构化问题。由于结构化问题没有内在的随机性和不确定性,因此,用于解决结构化问题的算法一般都是固定不变的,不会因输入变量的不同而改变。非结构化问题的基础过程以及输入数据都存在不确定性,即,一个非结构化问题可以有多个“正确”答案,其中一些答案可能比其他答案更好。在此情况下,用于得出解决方案或输出的公式通常不是一成不变的,可以根据输入数据的不同而改变。

(二)我国自动化公共信用评价的实践

公共信用评价也称公共信用评级,作为信用规制的中间环节,它是在信用信息的基础上展开的。公共信用评价结果既是信用公示的内容之一,也是信用应用(激励、惩戒或者分级分类监管)的重要参考依据。关于公共信用评价的确切内涵,目前还存在争议。有观点认为,信用评价是指行政主体基于归集而来的信用信息,根据一定的评价标准和程序,对相对人的信用状况进行评价的行政活动。国家标准《信用基本术语》(GB/T 22117—2018)则将“信用评分”界定为根据信息主体的信用信息,运用统计和其他方法,建立信用评分模型,对信用主体的信用进行评价,并用分数的形式表现出来的活动。本文所指的公共信用评价主要是指行政主体根据特定的标准,依靠大数据、算法等技术手段,对信用主体的信用状况进行综合评价,并用简单明了的符号加以表达。

理论上,信用评价制度的形成与发展和声誉理论密切相关。研究者认为,在范围较小的社会群体中,如果群体成员知道其他人过去的行为方式,良好的声誉可以成为诚实行为的有效纽带,即使任何两个特定的群体成员只是偶尔见面。声誉机制可以激励群体成员诚实行事,通过制裁违规者,敦促群体成员改善其行为方式。信用评价制度正是一种以技术作为支撑的声誉机制,可以激励社会成员信守承诺,诚实行事。作为一种“技术化”的声誉机制,信用评价制度是信用规制的关键制度。2019 年7 月,国务院办公厅印发的《关于加快推进社会信用体系建设构建以信用为基础的新型监管机制的指导意见》(国办发〔2019〕35 号)明确提出“深入开展公共信用综合评价”,要求“依法依规整合各类信用信息,对市场主体开展全覆盖、标准化、公益性的公共信用综合评价”。当前,中央和地方各级政府部门均制定了大量有关信用评价的规范。在中央层面,交通运输部、水利部、国家税务总局等部门分别就交通、水利、税务等领域市场主体的信用评价制定了规范;在地方层面,与信用评价直接相关的地方规范性文件多达400 余份,涉及医疗保障、供水、园林绿化、电力交易、房地产开发、公路施工、家政、旅游等众多领域。从信用评价的实践看,主要有四个特征:一是广泛性,信用评价的对象几乎涵盖所有领域的市场主体;二是标准化,信用评价的标准基本上采取定量指标,并以量化的分数或等级作为评价结果的标识;三是公益性,信用评价是由政府部门实施的,具有强烈的“公益取向性”特征;四是强制性,信用评价是由政府部门主动依法实施的,不受相对人自身意愿的影响。

在我国信用规制实践中,大数据、算法自动化决策系统已被广泛运用于公共信用评价。从各个地方公共信用评价的实践样态看,目前主要是由公共部门委托私营企业、科研机构开发或运营公共信用评价系统,包括个人信用评价系统和企业信用评价系统。这些被委托单位在开发公共信用评价系统时,大多直接采用金融信用或者消费信用中的信用评价模型,既包括传统的FICO模型,更多的则是新型的以算法自动化决策系统为基础的“自动化信用评价模型”。在这些信用评价系统中,极其复杂的信用评分算法旨在分析和识别大量数据中的关系,特别是来自个人社交媒体和在线消费记录的非传统数据(如行为数据)。在监督算法的背景下,原始数据有时必须被转化为数据集。数据转换只是使信用评分系统的使用复杂化的一个组成部分。一旦数据被实际转化,它就会通过构成算法的许多复杂模型进行分析。这种复杂性要求调查现有监管计划的不足和最新发展,监管计划必须及时调整,以应对如此复杂的过程所带来的潜在风险。

尽管目前向社会公开的公共信用评价系统的相关信息很少(如底层逻辑、数据参数、算法系统等),但是我们仍然可以从负责信用评价系统开发的私营企业或者科研机构的专利公告中管窥自动化公共信用评价的技术原理。例如,芜湖市的个人社会信用评价系统——“乐惠分”。“乐惠分”背后的技术支撑正是惠国征信服务股份有限公司所掌握的“基于政务数据和应用的个人社会信用评分方法”这一发明专利。根据该专利的公告信息,该专利采用了线性回归和线性规划的方法,利用政务大数据作为原始参数对个人信用状况建模,通过各维度细分模型确定相关数据权重,最终形成个人社会信用评分。再如厦门市的个人社会信用评价系统——“白鹭分”,其背后主要的技术支撑也是厦门信息集团大数据运营有限公司所掌握的“信用数据的处理方法及计算机可读存储介质”这一发明专利,该专利的主要功能是可以对原始的信用大数据进行导入、编目、清洗、治理以及发布,使原本杂乱的数据具备实用价值。

三、自动化公共信用评价对正当法律程序的挑战

算法自动化决策系统以及大数据技术在信用评价中的运用,既是信用规制作为政府规制创新的一种典型特征,也是信用规制的一种制度优势,它有利于提高行政治理效率、提升行政治理的针对性与精确性、降低行政决策及行政执法的随意性。然而,这种自动化信用评价模式也对传统的行政法治精神和原则提出了挑战。

(一)自动化公共信用评价的法律效果

在信用规制过程中,自动化公共信用评价发挥着重要作用。2019年9月,国家发改委办公厅印发了《关于推送并应用市场主体公共信用综合评价结果的通知》(发改办财金〔2019〕885号),要求建立健全公共信用综合评价机制,以公共信用综合评价支撑分级分类监管。从目前自动化公共信用评价的实践看,自动化公共信用评价具有多种法律效果:一是,公共信用评价结果可以作为行政处理要件。在行政管理过程中,行政主体可以直接依据信用评价结果作出行政命令,如责令限期改正、取消行政奖励等。例如,《济南市房屋建筑市场信用评价管理办法》第29 条规定,对于信用评价等级为D 的企业,不得作为评优表彰、政策试点和项目扶持对象。二是,公共信用评价结果可以作为行政检查的裁量因素。在日常的行政检查过程中,行政主体可以依据信用评价结果对相对人采取强度不同的检查措施。例如,《长春市房地产开发企业信用评价暂行办法》第16 条规定,对于AAA 级信用企业,可以免于常规检查;对于B 级信用企业,则要重点检查。三是,公共信用评价结果可以作为行政指导的依据。在行政管理过程中,行政主体可以依据信用评价结果对相对人采取不同形式的指导,如警示提醒、指导约谈等。

(二)自动化公共信用评价引发的程序挑战

随着我国社会信用体系建设的不断推进,信用已经逐渐成为个人或组织在社会经济活动中的“第二身份证”,基于信用评价结果的进一步广泛应用将有可能对个人或者组织的合法权益产生重大影响。此外,尽管信用评价系统看上去是公平的,数字给人一种客观、真实的感觉,但其中隐藏着隐秘的操作流程,导致无论是被评价者还是管理者都难以对其进行质疑和审查,这无疑对公民的程序性基本权利造成了干预,进而也会影响实体性基本权利的实现和保障。

自动化公共信用评价引发的挑战与算法自动化决策系统本身存在的问题密切相关。有关算法自动化决策系统对程序正义的冲击,国内外学者从不同的角度进行了分析和阐述。例如,加拿大学者伊恩·克尔认为,自动化决策系统正在促成一种危险的“先发制人”(pre-emption)新哲学,这严重威胁了正当法律程序,这些未经验证的预测性技术将赋予程序员和使用这些技术的人巨大的压迫性权力,他们能够利用各种软件来规制人类的行为,并在不受常用法律机制制约的情况下对个人作出关键决定。美国学者丹妮尔·西特伦认为,自动化决定通常涉及对个人自由和财产的剥夺,这就触发了宪法中“正当程序条款”的保障措施。从程序保护的角度看,算法自动化决策系统首先可能对受通知权造成限制,其次可能不利于听证权的行使;从规则制定的角度看,算法自动化决策系统可能限制公众参与和透明度,不利于发挥“通知和评论”机制的作用。张凌寒教授认为,行政正当程序本质上具有“信息发送功能”,其诸多原则或制度均可视为一种“信息工具”,而反应型算法和预测型算法均对行政正当程序的功能造成了限制,具体表现为算法不透明遮蔽了行政信息公开、算法技术垄断架空了公众参与、算法黑箱阻碍了说明理由。

综合已有研究成果,笔者认为,在信用规制中,自动化公共信用评价同样也对正当法律程序提出了诸多挑战,主要表现在两个方面。

第一,自动化公共信用评价的自动性、隐蔽性等特征将导致事先通知、陈述意见、听证等程序难以实现。尽管目前理论与实践对信用评价的法律性质存有争议,一时难以准确定位,但不可否认的是,公共信用评价的背后是行政权力的行使,其结果将对公民、法人和其他组织的合法权益产生重要影响。在传统行政决定的场景中,法律通常为行政决定的相对人提供事先通知、听取意见的机会,并设置各种具体的程序制度。然而,在基于算法自动化决策系统的信用评价场景中,信用评价过程具有自动化特征,它通常是由算法自动化决策系统根据输入的数据,按照预先设定的算法程式,甚至是在自主学习的基础上,由算法模型自主完成的。此外,信用评价过程还具有隐蔽性。一方面,信用评价系统的开发、部署、运行等通常是在个人或公众不知情的情况下进行的;另一方面,信用评价系统中输入的数据可能是在个人或组织不知情或未经其同意的情况下收集的,还有可能是私人企业向政府机构共享数据的结果。正是由于自动化决策系统的自动性、隐蔽性等特征,导致行政相对人和利益相关者在信用评价决定作出之前,无法通过法定的程序制度参与行政决定过程,无法充分行使陈述、申辩、要求听证等各项程序性权利,而只能被动接受由自动化算法系统给出的评价结果。

第二,自动化公共信用评价的不透明、封闭性等特征将导致说明理由这一程序机制难以实现。说明理由是正当程序的一项基本要素,它要求行政机关在作出行政决定时,应当向受决定影响的相对人说明事实和理由,以表明其合法性和合理性。在算法自动化决策中,算法系统通常不透明(opaci⁃ty),即使相对方知道自己可能受到自动化决策的不利影响,却无法确定该决策的合理依据,进而无法提出“有意义的质疑和挑战”。一般认为,算法的不透明可以大致分为三种情形:(1)故意的不透明(intentional opacity),即故意隐瞒程序。算法系统的程式代码通常受商业秘密或版权的保护,因此很难知道“黑箱”的确切内容。(2)无知的不透明(illiterate opacity),即由于缺乏专业知识无法读懂代码。算法系统的逻辑通常由一系列符号、公式构成,即使公布了算法系统的过程(如源代码),受专业知识的限制,对于普通公众而言,不透明的现状仍然存在。(3)固有的不透明(intrinsic opacity),即算法系统的复杂性导致算法系统在本质上可能是无法解释的,即使有幸拿到了打开黑箱的钥匙,也很难揭开决策的逻辑。这三种不透明也可能出现在自动化公共信用评价系统中,行政机关和算法系统开发者同样可能以“故意的不透明”和“固有的不透明”为由拒绝对其决策承担说明理由的义务。与此同时,个人或公众也可能因为“无知的不透明”而难以知晓信用评价结果到底是依据何种理由作出的、此种理由是否合法及合理。

四、自动化公共信用评价的程序控制

科学技术的变化正在重塑我们的社会,也影响了公民可获得的程序性保障,正当法律程序的基本要求也必须适应不断变化的现实世界。政府在采用自动化决策系统时,不仅要考虑这些决策的实质内容,还要考虑这些治理方式的转变如何影响公共问责、信任和民主监督。这符合正当法律程序的基本价值,即政府程序应当是透明的、可理解的和可预测的。自动化公共信用评价带来的新事实、新情势、新挑战及其对正当法律程序的影响,引发了新的程序保障需求。首先,有必要建立一种“预听证程序”(pre-hearing process),以确定并推翻没有事实或法律依据的部署自动化决策系统的提议。其次,有必要提高自动化决策的透明度,尤其是当行政机关试图依据自动化决定对相对方的合法权益造成限制时。再次,听取意见的时间应当更为灵活,方式应当尽可能确保利益相关者无须借助法律专业人员也能有意义地参与。最后,应当通过程序机制强化行政机关的说理义务,破除算法黑箱。

有鉴于此,学者们提出应当将正当程序创造性地运用到算法自动化决策系统中。其中,最具代表性的是美国学者丹妮尔·西特伦提出的“技术性正当程序”(technological due process)理论。美国学者凯特·克劳福德和杰森·舒尔茨以此为理论原型,提出了“数据正当程序”(data due process),主张应当建立所谓的数据程序权利体系。刘东亮教授认为,对算法权力的规制和监督,需要从算法设计的源头建构“技术性正当程序”,实现程序的代码化。笔者认为,自动化公共信用评价是算法自动化决策的一种具体情形,因此,“技术性正当程序”对于正当程序在算法自动化决策中的适用所提出的创见值得借鉴。

(一)技术性正当程序:西特伦的分析

西特伦教授提出,法律学者和系统专家必须共同努力,在自动化时代塑造正当程序的新轮廓。她认为,在方法上,“技术性正当程序”主要借鉴了理论界有关“规则与标准”的讨论,以系统性的视角来思考自动化与人工裁量之间的关系;在内容上,“技术性正当程序”主要是通过提供维护正当程序和规则制定规范的机制,重新设想了自动化时代的程序保障。在西特伦教授看来,“技术性正当程序”理论在重塑自动化行政国家的程序保障机制时可以从两个方面着手。

其一,保护个人权利。西特伦教授认为,算法自动化决策损害了有意义的通知和陈述意见的机会这两项正当程序保障机制,应当从技术和法律两个角度予以回应。具体而言,首先是要确保有意义的通知。在设计自动化决策系统时应当建立审计追踪机制(audit trails),对支持自动化决定的事实和规则予以记录。审计追踪应当详细说明系统作出的每一项细微决定所适用的实际规则,有了审计追踪,行政机关就有办法向个人提供支持自动化决策系统对其重要权利作出裁决的理由。其次是要保障听证权利。行政法必须正视自动化决策系统存在的偏见,这种偏见影响了听证官员的公正性,剥夺了个人发表意见的机会。尽管彻底消除自动化决策系统存在的偏见非常困难,但是有两项规则至少应当实施:一是行政机关应当向听证官员明确说明,自动化决策系统是容易出错的,为此,听证官员应当接受有关自动化系统的培训。二是行政机关应当要求听证官员详细解释其对自动化系统的依赖程度,为此,行政机关应当查明其在作出行政决定时所依据的计算机生成的事实或法律结论。

其二,取代规则制定程序。西特伦教授认为,自动化决策系统的设计必须以透明和问责制为主要目标,以防止制定程序上有缺陷的规则,主要有以下几种基本的行为规范:(1)自动化决策系统的开发者应当向公众发布系统的源代码,源代码应当能够展示系统的工作原理。(2)行政机关应当测试自动化决策系统及其软件,测试应当在系统启动前、实施过程中和系统所依据的规则改变之时实施。(3)行政机关应当积极探讨如何让公众参与自动化决策系统的建设,例如,行政机关可以设立“信息技术审查委员会”,为利益相关者和公众评价系统设计和测试提供机会。(4)行政机关应当避免将未经过正式或非正式规则制定程序的政策自动化,如解释性规则和政策声明。换言之,由程序员编写的解释性规则和政策声明应当遵守规则制定程序,尽管这并不能彻底解决无意中将“立法权”下放给代码编写者而带来的“问责赤字”,却可以在一定程度上减轻这方面的隐忧。

总的来说,西特伦教授认为,自动化决策系统具备许多优势,它在一定程度上能够消除人为决策中存在的错误或失误,并促进决策的一致性,因此,政府决策的自动化已经不可避免。然而,自动化决策系统也带来了诸多挑战,它未能利用其纠正错误的潜力,反而成为传播错误的工具,因此,行政法应当正视自动化决策系统带来的挑战。“技术性正当程序”理论是在不放弃自动化决策系统带来的益处之前提下,为保护个人或组织在公平的、可问责的和透明的裁决和规则制定方面的利益提供新的程序性保障。

(二)技术性正当程序嵌入自动化公共信用评价

由于政府部门在个人和组织的信用评价中广泛运用了算法自动化决策系统,因此,算法自动化决策系统的设计、实施或运行中的缺陷有可能侵犯个人和组织的合法权益。对此,公法应当采取措施,除了保护特定个人和组织获取信息或获得救济的权利外,还应当解决系统性问题。“技术性正当程序”理论正是公法作出的回应,其可以为理论和实践提供指引。目前,在世界范围内,一些国家或地区已经专门为政府部门的自动化决策制定了法律规则,如纽约市于2018 年1 月颁布了《行政机关使用自动化决策系统的地方法》,大量条款涉及建立自动化决策系统的程序保障机制,包括信息公开、影响评估、解释决定等;加拿大政府于2019年4 月颁布了《自动化决策指令》,对自动化决策系统提出了要求:(1)算法影响评估;(2)透明度,包括决定之前提供通知、决定之后提供解释、访问组建、发布源代码等;(3)质量保证,包括测试和监控结果、数据质量、同行评审、员工培训、应急程序、安全保障、法律咨询、人为干预等;(4)追偿权,向个人或组织提供所有可用的救济途径,允许他们对行政决定提出质疑;(5)信息公开,发布有关自动化决策系统有效性和效率的信息。新西兰政府于2020 年7 月颁布了《算法宪章》,要求政府机构在使用算法时应当履行以下义务:(1)指定一个联络点,负责处理公众对算法的询问;(2)为质疑或起诉由算法作出的决定提供一个渠道;(3)明确解释人类在以算法为依据的决定中的作用。我国《个人信息保护法》也对自动化决策作出了回应:第73条对自动化决策进行了界定;第24条对自动化决策的透明度、解释说明以及公民的拒绝权作出了规定;第55条规定了自动化决策的个人信息保护影响评估制度。综合国内外已有的理论和实践经验,以“技术性正当程序”理论作为指引,笔者认为,可以从两个方面对自动化公共信用评价进行程序控制。

1.基于算法信息公开增强算法系统的透明度

虽然透明度是经济学和政治学的一个重要概念,但其思想根源在于政府信息的获取。在理论上,透明度主要分为两种类型:一种是所谓的“鱼缸透明度”(fishbowl transparency),指的是公众窥探政府内部并获取有关政府官员所作所为信息的能力。这种透明度关注的重点是公众获取政府所掌握的信息和有关政府工作的信息,它包括公众对政府听证会、档案柜中的记录和计算机系统中的材料的获取。另一种是“说理透明度”(reasoned trans⁃parency),强调的是信息的有用性,即政府是否揭示其采取行动的原因。换言之,“说理透明度”强调政府通过说明理由来解释其行为的重要性。

那么,如何通过算法信息公开来增强算法系统的透明度?笔者认为,首先应当明确两项基本原则:一是算法自动化决策的可见性,应当成为行政信息公开的基本要求;二是算法作出决策的基本规则和因素权重,应当向社会公众公开。其次应当处理好算法信息公开与商业秘密保护之间的关系。美国学者罗伯特·布劳内斯和埃伦·古德曼提出的方案或许值得我们借鉴。他们认为,为了在行政信息公开与商业秘密保护之间取得平衡,实现“有意义的透明度”,政府部门应当利用其“订约权”(contracting powers),坚持适当的记录建立、提供和披露。具体而言,当政府部门与算法系统开发商在签订开发协议时,应当将行政信息公开的要求与商业秘密保护条款联系起来,要求系统开发商必须在合同中标明具体受商业秘密保护的记录以及可以公开的记录。换言之,系统开发商不能笼统地以商业秘密受法律保护而拒绝公开算法系统相关信息,而是需要将合同中商业秘密保护条款的内容进行细化,具体区分受保护和不受保护的记录,这并不是要求系统开发商公布源代码,而是要求其公开系统所依据的法律规则以及将其转换为代码的基本原理。通过在算法系统开发合同中载明相关记录,公众可以申请政府公开合同来满足对算法透明度的需求。

通过算法信息公开来增强算法透明度也越来越受到各国的重视,可以为我国制定相应的规范提供参考。例如,德国信息自由专员会议于2018年10月通过一份决议,要求公共机构必须确保算法足够透明,在法律允许的情况下,应当公开如下信息:(1)数据类别的信息;(2)算法的技术逻辑;(3)算法自动化决定可能产生的后果。为了确保能够实现前述基本要求,公共行政部门应当在制定算法系统开发方案时就考虑上述内容,通过设计实现透明度。法国《公众与行政部门关系法典》第R.311-3-1-2 条规定,行政部门应当在不侵犯受法律保护的秘密之前提下,应个人行政决定的对象之要求,以可理解之形式向其提供以下信息:(1)算法处理对决定的贡献程度和方式;(2)处理的数据及其来源;(3)处理参数及其加权;(4)进行这种处理的具体操作。此外,法国宪法委员会于2018年在审查法国数据保护法与欧盟GDPR 保持一致的法案时指出,当一种算法的操作规则不能在不侵犯受保护之秘密或利益的情况下进行传达时,行政部门不能仅根据这种算法作出个人行政决定,即,如果一个行政部门在行政决定中完全依靠算法,则不得以商业秘密为借口不公开其运作情况。

2.通过算法影响评估增强算法系统的问责制

保障公众参与是正当法律程序的基本要素之一,参与可以带来更多的信任、更多的满意度和更大的公民接受度,最终结果是公共行政绩效的正当性得以提升。对于政府部门而言,如果在没有建立适当的问责制框架的情况下就在公共行政中部署针对不特定多数人的算法决策系统,很有可能导致他们不了解决策过程,从而难以发现或应对偏见、错误或其他问题,最终导致合法性或正当性质疑。

算法影响评估是指能够帮助行政机关更好地理解和减少自动化决策系统相关的风险,并提供与所设计的应用程序类型相匹配的适当的治理、监督和审计需求的框架。这并非一种全新的制度,影响评估早已在科学和政策领域广泛实施。算法影响评估可以充分利用已有的制度框架,并结合科学和政策领域内影响评估的研究和实践成果,形成专门针对算法的评估机制,并为建构系统性的算法问责机制提供重要支撑。

尽管算法影响评估不能解决自动化决策系统可能产生的所有问题,但它确实提供了一种重要的机制,让公众了解情况,并让决策者和研究人员展开富有成效的对话。具体而言,算法影响评估有助于实现以下几个政策目标:(1)尊重社会公众的知情权,让公众能够了解影响其日常生活的自动化系统有哪些,这些系统会在哪些方面对其合法权益产生影响。(2)提高政府部门的专业知识和能力,让政府部门能够对其开发或采购的自动化系统作出科学评价,以便能够预见应当注意的风险,如产生歧视性影响、侵犯公民隐私、违反正当程序等。(3)确保加强自动化决策系统的问责制,为外部研究人员提供有意义的、持续不断的机会,使他们能够利用发现和测算问题的方法审查、审计和评估这些系统。(4)确保社会公众具备申诉机会,能够对某一自动化系统的使用或行政机关的算法问责办法作出积极回应。

算法影响评估已经成为世界公认的算法治理机制。许多专家学者、技术人员、政策制定者都在积极推广算法影响评估,一些国家甚至已经(准备)将算法影响评估予以法制化。例如,加拿大《自动化决策指令》规定:(1)在生成任何自动化决策系统之前,应当完成算法影响评估;(2)当系统功能或自动化决策系统的范围发生变化时,应当更新算法影响评估。综合已有的研究成果和实践经验,笔者认为,我国应当建立统一的算法影响评估框架,对自动化决策系统在公共行政中的运用进行评估。具体到自动化公共信用评价系统而言,算法影响评估框架应当至少包含以下要素:(1)行政机关应当对现有的或拟部署的自动化信用评价系统进行自我评估,评估该系统对公平、正义、公正等价值的潜在冲击,了解该系统对个人和组织的合法权益可能造成的潜在影响。(2)行政机关应当制定有意义的外部审查程序,允许技术专家、法律专家等组成算法影响评估工作小组,对自动化信用评价系统进行长期跟踪调查研究。(3)行政机关在部署自动化信用评价系统前,应当向社会公布有关自动化信用评价系统的内部评估报告和外部评估报告。(4)行政机关在决定采用自动化信用评价系统前应当公开征求公众意见,主动澄清比较重要的问题以及可能引发争议的问题。(5)自动化信用评价系统在正式作出信用评价结果之前,应当通过技术设计将“通知”融入其中,自动通知个人或组织将对其信用状况进行评价,并给予个人或组织一定的时间进行回应。(6)自动化信用评价系统在正式作出信用评价结果之后,应当自动告知个人或组织,并允许其查阅具体的评价过程以及依据。允许当事人对评价结果提出异议,可以通过内部申诉、行政复议、行政诉讼等途径寻求权利救济。

结语

在大数据时代,尽管大数据、算法等技术可以弥补传统信用评价之不足,提升公共信用评价的准确性、及时性和完整性,但也引发了新的问题,尤其是算法系统的“黑箱化”、自动化趋势,已经威胁到公民的程序性基本权利。对此,我们应当坚持行政法治的基本理念,并积极拓展相关原则或者规则的可适用性,以此来适应自动化行政提出的挑战。“技术性正当程序”正是传统正当程序原则在自动化行政国家中的发展,它不仅可以为自动化公共信用评价的程序控制提供解决方案,也可以为整个自动化行政的法律控制提供启迪。

猜你喜欢
信用决策行政
关注《行政与法》方式
神秘的植物工厂
做决策也有最佳时间段
论行政和解中的行政优先权行使
决策大数据
诸葛亮隆中决策
失信商人的悲剧
从新修改的行政诉讼法谈行政行为
信用消费有多爽?
“信用山东”微信号正式启动发布