钟一苇
(贵州财经大学 法学院, 贵州 贵阳 550025)
数字时代,人工智能自动发现疑似违法行为的能力正迅速提升。随着大数据技术的迅猛发展,先进的传感器技术、深度学习技术、算法技术以及网络技术,使人工智能系统能够与执法反馈循环机制有效结合起来[1]。相较于传统执法模式耗费大量人力物力且赋予执法人员自由裁量权的不确定性,“智慧执法”系统不仅能以较低的成本对违法行为加以惩罚,亦能保证执法行为的确定性与公正性,从而为提高执法质量,为科学的执法决策提供客观而精准的依据。
在国外,许多以人工智能技术为基础的“智慧执法”系统已开始应用于具体的执法活动中。如在美国,纽约警方使用的“领域识别系统”,能够链接并记录约9 000个传感器收集的视频资料,并通知执法人员正在发生的疑似违法行为[2]。IBM研发的“交通事故处理系统”,能通过识别要素,利用指数、时间、地点、天气等来预测可能发生的交通事故,执法人员只需在事故高发的时段重点巡查,即可减少交通事故。在德国,“属地型警务预测软件”依据数据智能分析结果,通过挖掘某一地区的违法行为报告,进而预测未来可能发生的同类违法行为[3]。
在我国,自《法治政府建设实施纲要(2021—2025年)》提出“积极推进智慧执法,加强信息化技术、装备的配置和应用”以来,学界对“智慧执法”建设亦作出了富有成效的探讨。如在理论方面,雷磊[4]将“智慧执法”界定为利用网络与人工智能技术推动政府服务管理信息化,推动社会治理模式创新。具体而言,即将传感器收集的执法信息汇总到执法系统中,通过智能化的算法技术,将信息分发到相应的执法终端,并由其关联和实时处理[5]。“智慧执法”的核心问题是如何让人工智能在执法中进行自主推理,实现调查取证的自动化,进而达成处罚决策的自动化[6]。在实践方面,近年来各地执法部门亦开启了“智慧执法”应用的建设之路:如北京“规划和自然资源领域违法行为信息系统”,通过线上移动执法APP应用,实现规划国土执法业务融合[7]。浙江“环境执法通”应用将立案、告知、决定、执行、结案设置为软件操作程序,实现案件现场检查、调查取证、行政处罚的全过程“云办理”[8]。贵州“执法司法办案平台”则以业务应用系统为基础,推出执法办案流程、政法协同、法律监督、智能辅助、职务犯罪侦查等线上功能[9]。
然而,不管在理论还是实践中,现有的大多数研究仍集中于对“智慧执法”概念与发展趋势的探讨,或聚焦于对各地执法机关实践应用的梳理与总结[10]。不仅忽略了对“智慧执法”建设中具体路径的分析,亦鲜有论文专门对“智慧执法”可能面临的风险及如何规制进行论证。因此,在世界各国都在努力通过人工智能技术提高其视觉、听觉、嗅觉及记忆能力,使其执法行为变得更加“智慧”的背景下,本文试图在积极的立场上论证我国人工智能应用于“智慧执法”的三层次路径,并对“智慧执法”在运行过程中存在的两大隐忧——算法黑箱与被执法人信息保护问题进行分析,从技术、程序与实体3个层面探寻对应规制之策,从而使“智慧执法”应用真正成为治理违法行为,保护公众权利的利器。
1.执法监测系统:违法信息自动收集
“智慧执法”应用的主要目标是通过人工智能中的数据分析、深度学习、自动化等技术,辅助执法人员形成科学的执法决策,帮助其减轻负担、提高效率,进而解决各类社会问题。其首要功能是以较低的成本持续监测可能涉嫌违法的区域,并通过网络化传感系统,对监测设备记录的违法数据进行收集与保存[11],即利用人工智能技术对可能或已经发生的违法信息进行公开收集,为执法行为的实施提供依据,并对可能的违法行为形成“威慑”。根据执法用途,执法监测系统主要具有“识别”“定位”“跟踪”3种功能:
第一,执法的首要环节是对违法人员及其行为进行识别,当系统通过传感器监测到违法行为并将相关信息连接至数据库时,即能够以一定的准确度通过运行算法确定主体身份。例如:在交通执法中,车牌读取器可以精准识别牌照,通过查询机动车记录数据库即可以确定车主。在网络执法中,Web浏览器亦能够被唯一识别,如某人在某网站发布违法信息时,可由网站向Web浏览器发送Cookie来唯一识别浏览器,进而识别违法主体。在“智慧执法”应用中,影像识别技术能够对执法监测系统收集到的各类影像进行精确判断。通过对影像信息的预处理、区域分割及智能提取,系统就能对违法主体的信息进行精准筛选。同时,结合系统的监测数据,通过建立违法主体活动区域的监测模型,即可锁定其身份信息并进行有效识别。
第二,在完成对违法主体行为与身份的识别后,人工智能能够为监测系统提供自动的且具备高精度的定位机制。例如:GPS接收器的功能之一即为提供位置信息,携带具有GPS定位功能的设备(如智能手机、智能导航仪)的人或车辆均能够被精准定位。又如射频识别标签(RFID tag)收集的信息亦可在几十米范围内被读取,通过监控相机指向已知方向来监测被关注的主体,并精确定位主体的位置。在“智慧执法”应用中,地域管控监测系统则能够利用矢量数据,实现对行为人的定位,并评判出监测区域的各类违法情况:对于可能的违法行为,可利用收集到的历史数据与实时数据,通过相关分析、聚类分析、回归分析等方式,分析其可能发生的时间、区域、频率及变化趋势;对于已经发生的违法行为,则可利用区域卫星监测图、卫片对比影像图等数据,核实某一违法行为在何时何地发生,并筛选出同一类型的违法线索。
第三,对于一系列定位信息的记录,系统会产生疑似违法人员移动的轨迹和路径。由此,系统即可对疑似违法人员加以追踪,以防止可能的违法行为,并对已经产生的违法行为进行处罚。例如:电子收费系统能够记录相应车辆进出高速公路的时间和地点数据,交通监控摄像机亦可以对监测区域内部和周边的道路进行常规性监控。在“智慧执法”应用中,视频监控与可视化技术则能够辅助执法人员对违法行为进行追踪。通过从视频监控数据平台读取视频数据流,按执法需求对视频内容进行实时分析,并对分析出的数据流中的异常情况进行预警。而可视化技术则用于帮助执法人员直观地看到分析结果,以解决传统执法模式中无法从大量数据中精准识别目标信息的困境。通过可视化技术,执法人员能够迅速筛选出与违法行为相关的数据流,以实现对违法行为的直接追踪。
2.信息处理系统:违法数据自动分析
“智慧执法”应用的一个重要特征,是能够以远超人类计算能力的速度处理信息。相比于传统执法模式,“智慧执法”系统通过对违法主体与行为的定位、追踪与识别,能够快速聚合若干传感器收集的数据,以形成一个对违法主体活动更为全面的认识[12]。更为重要的是,这种数据聚合可将系统收集的不同时间、不同地理位置、不同来源的数据结合起来,并利用深度分析技术,对可能或已经发生的违法行为进行预测与事后分析。
第一,预测分析,其主要作用是利用收集到的时间、位置、身份信息等聚合数据,结合执法系统的智能分析结果,对可能出现的违法行为进行预测并加以防范[13]。目前,已有很多系统软件能够实现该功能,如PredPol系统能够通过已有的违法类型、违法地点、违法时间等载体信息来预测未来可能的违法行为。Beware软件以个人的交易数据、社交媒体信息、公共行为记录为基础,对个人行为进行评估并划分等级,使执法人员能够以此为依据对相关人员进行调查[14]。而HunchLab模型则可将各种物理情境、社会环境、个体行为等不同因素赋予不同的风险权重,并结合不同的违法行为类型,形成统一的违法分布图,通过风险的叠加与分配提炼最有可能出现违法的区域,为合理调配执法力量提供参考[15]。
第二,事后分析,其主要作用在于通过对已发生的违法事件的智能分析,将收集并保存的信息作为证据,为执法行为的合法性提供相关依据;同时,亦可对违法行为的原因进行分析,并对相应的执法措施进行评价,形成可定量分析的案例,从而为后续更准确的预测与执法响应提供支持。以违停执法为例,过去一名执法人员可能需要花费大量时间来确定车辆是否违停并开具罚单,而“智慧执法”系统则能同时监测大量车辆,且在毫秒内完成分析并作出处罚决定。正如Glasson[16]所言:“那些结合新兴人工智能技术、传感技术以及数据挖掘技术的智慧执法系统,意味着未来的执法活动能够将广泛且不断扩大的违法主体列为目标并予以审查及处罚,处理事务的时间不断缩减,且没有潜在的人为干预。”
3.执法应用系统:执法措施自动采取
以人工智能为基础的“智慧执法”应用的原理与逻辑是:数据收集→数据分析→数据预测与应用,在对传感器监测到的数据进行收集与分析后,系统即可根据具体的违法情况自动采取相应的执法措施,主要包括:取证(如监测设备对违法行为的录音录像)、通知(如发送信息告知违法主体的违法行为)、警告(如通过手机APP向使用者列明哪些行为可能导致违法)、处罚(根据法律规定自动采取相应处罚措施)等。以公共交通执法为例,“智慧执法”的应用场景为:
第一,数据收集:通过在街道和高速等道路网络设置的传感器与监控设备,收集海量的道路交通信息,如车流信息、车速信息、时间信息、位置信息、车辆行驶轨迹信息等。第二,数据分析:对收集到的海量数据进行智能分析,如某时段某区域车流量大,交通拥堵,车辆违法频率高;某高速道路某时段超速现象频发;某时某刻驾驶员更倾向于行驶至某条道路,以逃避酒驾审查等。第三,数据预测与应用:通过分析后的脱敏数据,对违法行为进行处置。事前数据预测:通过智慧执法系统或授权第三方,提示驾驶员该路段为违章或超速多发区,告知其若违法将承担相应的法律后果;提前至酒驾高发区域布置执法人员,查处可能的酒驾行为。事后数据应用:监测到驾驶员违法行驶时由系统自动开具罚单;若违法主体提出异议,则转换为人工审查,公布审查结果,并告知其权利救济的手段(如向执法机关提出复议或向司法机关起诉)。
图1 “智慧执法”应用的工作流程
1.技术风险:算法的黑箱困境
黑箱困境是指在利用人工智能分析数据时,工作人员只是输入指令然后得到系统的输出结果,而并不了解其内部运作机制,即系统的整个运算过程是不透明的[17]。在传统的执法模式中,执法决定需要进行充分的说理和论证以便公众理解,但以人工智能为基础的智慧执法系统却并不如此运作,普通人往往很难理解算法的机制和原理,因为自动化决策通常是在“黑箱”中作出的。公众对执法决定的信任是建立在透明的基础上,但如果算法保持“神秘”,在本质上即与执法的“公开”属性存在冲突。算法确定性与执法灵活性的区别正如规则与标准之间的区别:规则是事先设计和确定的法律要求,易于理解和执行,但缺乏灵活性;标准是与事实相关的指向,往往由执法机构事后依据案件事实决定,具有灵活性,却缺乏可预见性和确定性[18]。因此,系统依据事先设计的确定程序所作出的执法决策可能并不适用于具体且灵活的案件事实。由此引发的问题是:
第一,执法人员无法理解系统为什么会作出这个决策。“智慧执法”系统虽能够在并不为人知的深度和细节上判断违法主体的倾向、特征和意图,并以此为依据预测违法主体未来的行为,但也会未经反思地使用收集到的数据。这些数据或缺失了原有的语境,或不能反映最新的事态,而若系统基于上述数据作出决策,则很可能让人无法理解作出这些决策的过程和原因。正如有学者所言:“在使用算法的情况下,即使参与创建算法的设计者对被深度学习修改后的程序也不甚了解。克服自动执法系统的黑箱特性,需要高水平的专业知识和使用复杂的程序,其障碍是巨大的。”[19]
第二,若被执法人对决策有疑问或反对,执法机构亦无法很好地对作出该决策的理由和依据进行解释。当一位公民的行为因执法系统的决策而被判定为违法时,其并不了解系统作出该决策的依据,亦看不到判定其行为为何违法的全过程。而执法人员并非程序的设计者,不仅无法解释系统作出的执法行为的成因,也无法提供审查所需要的依据和相关解释说明。“一些地方的智慧治理加剧了城市的两极分化和社会隔阂,并产生了由技术官僚化带来的计算机官僚主义为城市设置的新道德秩序。”[20]因此,若系统作出的执法决策既难以解释又不公开透明,那么执法机构制定规则的权力与责任便会受到质疑,执法行为的透明度及准确性亦会丢失。
2.法律风险:被执法人信息的违法收集
“智慧执法”应用的基础在于对公民行为信息广泛地自动收集与使用。而每一个执法系统又需要不同的组织来设计、安装、操作、运行和执行,一旦这些个人信息通过数据网络连接至系统,电脑内的软件即会通过运行算法来自动确定即将或已经发生的违法行为。但问题的关键在于,系统在收集和使用信息时,并不会自动判断其目的与手段是否合法正当,亦无法区分其采集的个人信息哪些是合法的、哪些是违法的。
尽管执法决策是执法机关依职权作出的行为,实际上是执法机关履行公权力的“副产品”。我们并不能认为执法机构只要是在履职过程中即可以随意收集公共数据并以此为依据作出执法决策,且不受任何约束和限制。根据法治的基本精神与理念,个人信息的保护应始终伴随着对公权力的限制,执法机构不能无节制地采集和利用个人信息。因此,法律应对执法者收集、处理和利用公民个人信息的能力进行限制,以确保公权力不被滥用;同时,亦应采取必要措施,保障个人信息的安全。
可见,由智能系统取代人工进行自动执法,乍看似乎是一个节约成本的实用方法,但在推进“法治中国”建设的今天,执法活动应是社会共同体的延伸以及公众自发遵从的结果,而非对于执法系统的“恐惧”。若任由“智慧执法”系统无节制地收集和利用个人信息,其引发对被执法人权利的损害,很可能会抵消为提高执法效率而带来的收益。因此,如何通过法律手段来确定执法系统收集信息的目的与手段是否合法正当,如何判断系统收集的信息哪些属于合法信息可以使用,哪些属于违法信息不能使用,这些是当前“智慧执法”在应用过程中亟需解决的问题。
1.增强算法的可解释性
对于“智慧执法”应用中算法的“黑箱困境”,可针对不同的执法场景,采取不同的解释模型与方法,以增强系统在决策过程中的可解释性。
第一,对于执法场景较为简单的案件,如治安、交通执法等,可采用“自解释模型”。该模型本身是可解释的,即对于已完成训练的模型,无需额外信息即可理解其决策过程与依据。自解释模型主要包括逻辑回归、线性模型、贝叶斯决策列表等,这些方法均可使观察者能够测试系统中机器训练与深度学习的可靠性,以确定是否可以信任该模型。“增强人工智能的可解释性意味着开发分析工具,使系统具备观察和分析自身操作的能力,从而识别因果决定因素,并以人类可理解的方式予以呈现。”[21]例如:谷歌推出的“模型卡片”,通过为算法提供简明易懂的可视化解释文档,对算法的运作原理进行解释。该模型能够清晰地展现犯罪预测系统识别人脸时的运作机制与考量要素,显现其是否存在算法偏见或歧视[22]。又如IBM研发的“AI事实清单”机制,通过对人工智能模型用途、指标、影响因素、训练数据、警告与建议等方面的解释说明,使执法者能够更好地理解AI模型[23]。
第二,对于执法场景较为复杂的案件,如网络执法、环境执法等,则可采用“独立于模型的解释”。该方法将解释过程与机器学习模型分离,主要依靠分析特征的输入与输出,而不关注模型的内部细节。其优点是松耦合,解释时能够替换底层学习模型,具有解释灵活性,主要包括部分依赖图(PDP)、个体条件期望(ICE)、累积局部效应(ALE)等[24]。如在网络执法中,即可采用PDP解释方法,该方法能够描述“特征(表示为被执法人在网络中的具体行为)”是如何影响模型预测的,并解释“特征”和“标签(表示为判定行为是否违法的标准)”之间是否相关。其解释流程为:将预测完成的某个违法“特征”进行展示,利用训练模型将“特征”与“标签”进行比对,通过绘制PDP图,解释两者是否相符、是否具有线性相关性。而在环境执法中,则可采用ICE解释方法,该方法能够解释“个体(表示被执法人)”的预测值与“变量(表示为行为是否导致环境违法的范围)”之间的关系。其解释流程为:对某一“个体”,随机置换选定的特征“变量”的取值,绘制“个体”与特征“变量”的ICE关系图,通过可视化方式对“个体”的行为是否超出了“变量”的限度进行解释。
第三,对于税务执法等针对特定对象的现场执法案件,则可采用“反解释方法”。即在不打开“黑箱”的情况下提供反事实的推理解释,其原理为:某人显示一个Xi的特征,对其进行反事实推理解释的模型则为“因为你的特征是Xi,所以生成的结果是Y;而如果展现的特征是非Xi(-Xi),那么则会生成结果-Y”[25]。将该解释方法应用到“智慧执法”系统中,即为对执法的负面结果做一张“正面清单”。例如:某纳税人在申请退税时被执法系统拒绝,即会收到系统发出一份反事实的表格,表明还需要提供哪些必需的信息或修改哪些资料才能申请退税成功。由于该解释是基于“反事实”的假设展示了一个具体可代替的未来,且对于被执法人来说具有较高的可理解性,因此在执法实践中,亦可能会提高被执法人改变自己的行为或减少对负面执法决定提出异议的几率。
2.推进算法的全过程公开参与
在“智慧执法”应用的运行过程中,若将绝对透明视为算法解释的标准,难免过于苛刻,就效果而言,亦未必能良好地维护公众的权益。因此,在不能保证算法完全透明或具有极高解释性的情况下,执法机构要对系统运行的机制与原理予以披露,并赋予被执行者申请解释的权利。
一方面,执法机构应对“智慧执法”系统算法予以披露与公布。首先,其有责任和义务告知公众“智慧执法”系统的存在,并披露与系统相连接的执法设备在何时、何地及哪些领域(如交通、税务、环境、网络等)已准备或开始应用。披露的内容则应包括目的、范围、数据来源、做法及实施时间表等详细信息。例如:2017年,纽约立法当局责成“使用算法自动处理数据系统,对个人进行执法并施加处罚”的公共机构应当“在该机构的网站上发布该系统的源代码”。2018年,德国国家司法部长会议建议履行向公众通报使用自动化决策系统情况的一般职责,立法强制使用自动化决策的公共部门必须发布系统的“逻辑”“权重”以及管理人员的专业程度等信息;其次,执法机构应将“智慧执法”系统的相关信息予以公布,以使公众能够了解系统的运行原理与执法方式,为公民被执法后的权利救济及上级机构的监督提供依据与保障。公布的信息则应包括:系统的基础数据、模型和决策逻辑、执法系统的数据标准、系统的参考或配置文件、系统针对有关个人作出的执法决策的判断标准等。
另一方面,应赋予被执法人获得人工解释的权利。由于算法的确定性和非精准决策无法涵盖所有可能落入合理使用范畴的情形,亦无法对较为复杂的情形作出准确判断,因此,若被执法人就算法提出异议或申诉,应在算法审查标记为不确定的情况下,进行人工解释[26]。对此,丁晓东[27]指出:“当个人提出算法解释权的主张时,自动化决策者应通过人工服务的方式解释算法的运行机制。”专业高效的人工解释更有利于信任的建立,对于一些造成重大社会影响的算法,人工解释应成为兜底性要求和保障,以便公众对算法应用主体进行监督。由此,在执法的参与层面,应赋予被执法人相应的程序性权利:一为算法的参与权,执法机构可通过便捷、可视化的操作流程,实时向公众展示对执法系统算法的解释信息,并对其疑问进行回应;二为算法解释的申请权,当被执法人不信任对其造成不利后果的算法时,有权向执法机构申请启动算法的人工解释程序[28]。
1.目的合法:明确执法信息的使用目的
在“智慧执法”系统自动作出执法决策的过程中,如何确保被执法人的合法权利不受侵犯,关乎“智慧执法”应用的合法性基础与实施前景。因此,行使国家的赋权责任,需要在程序层面对智慧执法系统的目标和理念予以规制,也即系统在行使执法权力时,必须有明确的目的并经合法程序,才能收集和使用个人信息。有学者对人工智能在执法过程中应遵守的义务进行了阐述:(1)揭示系统的规制作用;(2)保护与使用系统有关数据和信息的安全;(3)保证与使用系统有关的透明度;(4)明确与使用系统有关的责任和义务[29]。
目的合法是“智慧执法”应采取的首要原则,即系统对个人信息的利用应具有明确和特定的目的和用途,且应在法律规定的目的和用途范围内收集与使用数据。具体而言,明确执法目的的合法性应主要包括如下3个方面:(1)数据处理的目的必须是明确的,并具有结果的可预见性,不能是一个宽泛而抽象的目的(如国家安全、公共利益等)。(2)数据处理的目的不得以侵犯公民的基本权利为代价,不能侵犯商业秘密和个人隐私。(3)数据处理的目的应符合形式标准。即若个人信息的收集或使用可能对数据主体的权利造成不利影响,应给予其质疑、表达意见与寻求司法救济的机会和权利。
2.手段正当:明示执法信息的处理规则
除目的合法外,“智慧执法”应用的手段亦应是正当的,即要求执法机构必须明示收集信息的范围与方式,并在执法中尽到告示、说明和警示义务。具体而言,要求执法主体审查数据处理所选择的手段是否足以实现预定的目的:(1)执法数据处理的手段,包括收集、存储、记录、使用、恢复、删除等全周期,均应有明确的程序并予以公开。(2)执法系统拟采取的手段,亦应与数据处理可能给数据主体权利造成损害的范围、程度和性质相适应。
由此,应从事前、事中、事后3个环节对执法系统收集和使用个人信息的自动决策机制进行规制:首先,在执法前,公开执法信息的收集使用规则,明确信息安全评估程序;其次,在执法时,对收集到的信息进行再审查,判断系统使用信息的手段是否正当、执法结果与对被执法主体造成的损失是否相适应;最后,在执法完成后,向被执法主体提供针对自动决策结果的救济渠道与人工复核。
1.信息自决:强化个人敏感信息的保护
在保证执法目的与手段合法正当的基础上,“智慧执法”应用还须解决的问题是:被执法主体的哪些信息是合法的,可以收集使用?哪些信息是不合法的,不能收集使用?目前,我国法律对个人信息的收集与使用遵循“授权原则”,即数据主体基于具体的目的而对处理其个人数据的行为表示同意。其理论基础来源于“信息自决权”,即“保护个人数据不被无限制地提取、存储、使用和继续传输,保障个人有权自我决定、透露或使用其个人数据的权利”。根据上述要旨,公民拥有对其个人数据自决处理的权利,司法与执法的任务在于保障公民的信息权不受来自国家公权力的侵害。因此,为划定“合法”与“违法”信息的界限,明确哪些信息在执法活动中“能够”或“不能”被收集使用,笔者认为对于个人敏感信息,应遵循“信息自决”原则,对“智慧执法”系统认定和处理敏感信息的行为进行规制。
目前,我国《个人信息保护法》对敏感信息的界定采取“概括+列举”的方式,将其认定为“一旦泄露或非法使用,容易导致人格尊严、人身、财产安全受到侵害的信息”,并列举了“生物识别、宗教信仰、特定身份、医疗健康、金融账户、行踪轨迹、不满十四周岁未成年人的个人信息”7种类型。但在具体的执法实践中,由于敏感信息更多是主观认识,没有具体的评价标准,导致系统对敏感信息的认定存在极大困难。在此情况下,较为可行的方法是:首先,细化敏感信息的类型,使执法系统更容易识别。如生物识别信息可细化为遗传信息、家族病史信息;医疗健康信息可细化为病历材料、体检资料、医疗记录;金融账户信息可细化为财务记录、收入记录、银行卡账号密码等。其次,可基于“场景理论”辅助敏感信息的判断。该理论可对个人信息在不同场景的信息要素进行评价:(1)信息主体要素,如不满14周岁的个人信息即应认定为敏感信息;(2)信息处理的身份要素,如医生使用患者的医疗健康信息即不应认定为敏感信息;(3)信息处理的目的要素,如公民购买汽车行为不被视为敏感信息,但若持续收集其驾驶轨迹、出行规律等行为,则应被认定为敏感信息[30]。由此,可根据被执法人的信息要素,制定不同场景中的执法模型,进行深度学习与反复训练,辅助判断其是否属于敏感信息。
在对个人敏感信息进行认定后,执法系统还需判断是否有必要收集和使用该信息。若判断为“否”,则放弃对该信息的处理,这是执法系统易于做到的;而若判断为“是”,系统对敏感信息的处理则须符合法律的规定。目前,《个人信息保护法》规定了敏感信息处理的条件,即“特定目的”与“充分必要”。首先,“特定目的”要求执法行为的目的必须是具体明确且特定化的。其次,“充分”要求执法行为只有在理由充分的情形下方能处理,“必要”则要求是否有其他方式可以替代。然而,在当前“弱人工智能”局面下,要求系统进行如此复杂的主观价值判断,显然勉为其难。因此,若系统将被执法人的行为认定为敏感信息,且判断确有必要进行处理,即应告知执法人员,由人工判断该信息是否应被收集和使用,以及是否应成为执行执法决策的依据。
2.利益平衡:推进个人一般信息的利用
在具体的执法活动中,若完全遵循“信息自决”原则,那么执法权则可能会失去行使的空间。因此,为保障执法活动的正常开展,对于个人非私密可公开的一般信息,法律应授权执法系统合法收集并使用,以兼顾敏感信息保护与执法决策实施的利益平衡。正如赵宏[31]指出,法律对信息自决权的确认与保护,并不意味着将这一权利的绝对化,“信息自决并非无限,对于其自身信息,个人并不具有任何绝对的控制。个人是在社会共同体之下发展其个性,即便是个人信息,亦同样是社会事实的反映,而非纯粹与个人关联”。因此,为了迫切的公共利益,个人在原则上必须接受对其信息自决权的某种限制。
在未来的数字社会中,数据治理需要兼顾个人信息的权利保护与流动,并全面促进数据的利用。例如:《欧盟GDPR合规指引》制定之目的即解决个人信息权利保护与数据流动的平衡。该“指引”开宗明义指出:“本条例旨在确立个人数据处理中的自然人保护和数据自由流通的规范。”因此,推进个人一般信息的利用,促进其公共管理与社会价值的发挥,已成为数字时代各国掌握信息话语权的必然选择。在我国,新颁布的《数据安全法》即明确鼓励数据的依法合理有效利用与有序自由流动,以促进数字经济和数字治理的发展。同时,相关法律亦规定了授权原则的例外,如个人自行公开或已合法公开、与公共安全或公共利益直接相关、与刑事判决执行直接相关的信息,无需取得信息主体的同意即可收集。可见,设计“智慧执法”应用的目标不仅仅是对个人数据权利的保护,更是民众利益或福利的最大化。正如程啸[32]所强调:“不能仅仅为了保护自然人的权利,无限度扩张对个人数据权利的保护边界,从而妨碍数据的流动、分享与利用。”因此,将个人一般信息纳入“智慧执法”系统合法收集并使用的范围,能够保证执法机构为了公共管理与社会利益,在不侵犯公民信息自决权的前提下,最大程度地利用个人信息。