翁孙哲
(浙江警察学院,浙江 杭州 310053)
计算机科学技术、大数据技术、互联网技术在社会生活中作用日益显现,警方也充分利用这些技术来预防与打击犯罪,采用预测警务系统就是其中的典型。美国预测警务系统的采用与发展已经有二十多年的历史,使用预测警务系统的警察机关在增多,开发预测警务系统的公司也在增加,学术界对预测警务的研究也日益增加。实务部门侧重于预测警务对警察机关打击犯罪与维护社会治安的效果。国内学术界对预测警务产生的风险已经展开了相关探讨,但缺乏全景式的研究,对预测警务的最新进展缺乏深入研究,也缺乏从多学科多视角来看待预测警务的风险。本文对预测警务的最新进展、存在的风险以及规则路径进行了系统的研究。
对于何谓预测警务,学术界和实务届并没有形成一个权威的定义,但是预测警务包含警方的一系列战略与行动,是一个客观事实。
有学者认为,预测警务是指运用统计技术,聚集犯罪受害人、犯罪发生的时刻等信息以及其他详细信息,通过统计预测为警方预防和打击犯罪,或预测已发犯罪案件最可能的目标的警务[1]。该观点指出了预测警务的技术基础、目标定位,并指出它是警务而非技术层面的应用系统,殊值赞同。
预测警务的实践需要以相关的预测警务系统为基础,如美国纽约警察局采用Compstat 系统进行预测警务。该系统包括以下几个原则:一是使用服务、犯罪和逮捕的数据,产生及时准确的情报,这些情报用于生成地图、趋势及其他产品。二是基于过去成功运用资源有效应对类似问题的智慧与有效策略来解决问题。三是快速部署到已经识别的问题,以防止未来的犯罪活动。四是持续跟进和评估,其中的成功结果通常是通过减少或替换犯罪行为[2]。可以看出,Compstat 系统依赖历史数据,同时在一定程度上提高了警力资源配置的准确性。
Compstat 系统的开发与使用,得益于计算机技术与数据处理技术的发展。在其推行之后,纽约市的犯罪率下降。虽然对犯罪率下降是否归因于该系统的采用有争议,但是Compstat 系统受到其他一些城市的支持与采用,如洛杉矶市、圣克鲁兹市。由于预测警务的市场潜力巨大,形成了几家比较知名的设计开发预测警务系统的公司,如Predpol 和Hunchlab。
预测警务的产生具有以下理论支持:一是犯罪生态理论,犯罪生态理论包括日常犯罪理论和情境犯罪预防理论。日常犯罪理论用三个基本元素来解释犯罪的组成:可能的罪犯;合适的目标;缺乏有能力的看护人。这三个元素在时间、空间汇聚时,犯罪机会就会存在。情境犯罪预防理论认为犯罪是犯罪者的理性选择,犯罪者在考虑一系列情境变量后,决定情境是否构成犯罪机会[3]。这些理论表明,犯罪总是与一定的时空背景相联系,一些区域和场所,由于特定的地理位置、经济条件、安防设备配比、居住人员构成等因素容易造成犯罪机会,成为犯罪的温床。而一旦这种客观环境条件难以改变时,犯罪行为也难以消除。因为这些区域发生的犯罪模式会重复发生,因而能够被预测。二是犯罪的惯技因素[4]。从事犯罪活动时需要特定的方法,一些类型的犯罪行为或一些特殊人群的犯罪,有着共同或类似的方法,被称为惯技,产生惯技原因是多方面的。一些已经存在的惯技,被潜在的犯罪分子学习与运用;一些场所的特定地理结构促使特定作案方式的形式;犯罪团伙甚至黑社会组织在传授与强制中形成共同的作案方式。在美国的实践中,帮派犯罪、黑社会组织犯罪、有色人种聚集地出现的犯罪甚至非法移民犯罪等存在着一些类似的作案手法。上述理论说明,犯罪并非孤立的、偶然的现象,通过对犯罪产生的时空背景进行干预,能在一定程度上减少与预防犯罪。这些理论能从不同侧面说明了预测警务产生的背景以及其存在的可行性与必要性。
预测警务发展具有以下特点:一是私人企业、高校与科研院所在系统的设计、开发与运行中发挥积极作用,统计学、计算机科学和犯罪学的专业人员积极参与;二是预测警务有选择性地对犯罪进行干预,它只面向特定的犯罪类型、犯罪区域和犯罪行为人,受制于资源约束以及成本效益考虑,无法履盖全部犯罪类型、犯罪区域和犯罪行为人;三是预测警务的外延在不断扩宽。最初,对预测警务的探讨局限于系统的使用上,随着互联网、人工智能与大数据的迅猛发展,数据的流转与共享十分便利,不同平台间的数据汇集会显示可能的犯罪行为与犯罪嫌疑人,及时作出预判与预测,能有效地防止犯罪行为发生。
预测警务的实践离不开预测警务系统的开发与应用,而预测警务系统根据预测警务的运用效果、大数据技术的发展以及参与公司的增加不断推陈出新,使预测警务不断迭代发展。在过去二十多年的时间里,美国警方先后应用几种不同的预测警务系统,并形成了几种具有特定目标导向的预测警务。
第一种预测警务以财产犯罪的位置为目标[5]。以洛杉矶市运用预测警务系统为典型,该系统关注三类犯罪:入室盗窃、盗窃汽车和从车里盗窃。之所以首先选取这三类犯罪,因为这些犯罪,受害人容易感知到损失,也容易引起社会关注,同时其发生与环境脆弱性有关,警察出现在这些区域可以减少其发生。区域的范围通常精确到500×500 平方英尺,并预测特定犯罪的类型。
第二种预测警务以暴力犯罪的位置为目标。这些暴力犯罪包括抢劫、严重殴打、枪击和帮派犯罪。其中以犯罪风险地形建模技术(RTM)为代表。RTM 开发数字化犯罪风险地形图,识别与特定犯罪相关的特定因素。已经识别的因素在计算机地图上有分层,以突出特定区域的风险强度。RTM并不关注过去的犯罪,而是聚焦于产生犯罪风险的现在的环境风险因素[6]。
第三种预测警务以参与犯罪活动的行为人或受害人为目标。其背后隐藏着这样的逻辑,消极的社会网络与环境脆弱性类似,也能鼓励犯罪行为,如特定帮派成员受帮派影响就从事帮派的犯罪行为,恐怖主义分子通过互联网也会形成犯罪网络。这个阶段,警方会通过历史犯罪数据、社交媒体等多种途径分析具有较高犯罪风险的人员名单,并对这些人采取相应的预防措施,以减少犯罪风险的发生。以美国芝加哥警察局推行的“战略对象清单”(Strategic Subject List)为典型,根据参与枪击或谋杀的可能性,将有犯罪记录的个人列为受害者或罪犯[7]。
第四种预测警务以犯罪行为模式为目标。以纽约市警察局应用Patternizr 系统进行预测警务为代表。该系统主要针对三种比较频发的犯罪:抢劫、入室盗窃与重盗窃。虽然这三种都是财产犯罪,并非是预测可能的犯罪发生地或可能实施犯罪的人。警方将已经发生并已经办理完结的案件录入系统,案件发生后,警察将该案件作为种子诉状输入系统。从中筛选出十个案件,并赋予0—1 之间的分数。分值越高表明两个案件的匹配程度越高,两个案件有共同的作案模式[8]。数据库中的案件已经有特定犯罪者的身份信息,包括姓名与地址,因此警方推定种子案件可能的犯罪实施者,并根据数据库中的身份信息展开进一步的侦查行动。Patternizr 的核心是分析与查找不同案件间存在着共同的作案手法。它基于以下假设:许多犯罪行为有相同的作案手法,但不同犯罪模式的作案手法不同。如果不同犯罪模式的作案手法都相同或大同小异,会使种子案件同时与许多案件相匹配,无法预测到具体的犯罪行为人,但这在实践中不可能。不同犯罪模式的作案手法也是动态变化[9],这说明种子案件匹配时,也需要考虑匹配分值排序靠后的犯罪模式,因为同一犯罪行为人也可能改变其行为,即使是匹配分值不高,也可能是由同一人实施。
预测警务不仅适用于有关犯罪行为没有发生,但特定区域很可能发生犯罪或者特定人很可能从事犯罪行为的场景,也适用于犯罪行为即将发生,即警方已经观察到特定时空环境下犯罪人行为的场景。需要说明的是,警察凭借其自身多年的工作经验来推断某人即将从事犯罪行为,也是预测警务。但是这种经验习得需要长期实践,经验难以复制与推广,因此具有个体意义。预测警务是充分利用大数据算法,利用统计学分析各变量间的相关性,只有基于大数据的预测警务,才能提供关于特定区域或特定人更多信息,应用更加广泛。
一是使警方树立预防在先的理念,并把这种理念落实到实践中。诸如抢劫、入室盗窃等犯罪大量发生,侵害公民的财产权,如果警察无法及时侦破这些案件,并对犯罪嫌疑人予以制裁,就无法发挥威慑作用。而预测警务使警方从引发犯罪的环境等方面入手,消除犯罪发生的条件,通过预防减少此类案件的发生。
二是减少犯罪者从事重复犯罪的可能性。通过预测警务系统的分析,识别一些高风险的人,将这些人纳入重点关注,采取一定的措施,如为其提供教育培训机会,加强社区监管等使其有机会融入社会,获取收入,从而弱化甚至消除其从事犯罪的激励。
三是能提升警务资源的使用效率。预测警务利用大数据运算,减少了统计与分析潜在犯罪地点与犯罪行为人的人力资源,并能实现重复统计与分析。
四是符合反恐与国家安全等特定目的需要。911 事件后,美国加强了反恐的预防与打击力度,通过整合航空业、酒店业旅客的数据,甚至运用监控摄像设备从个人行为、动作还有社交网络来监测可疑活动[10],从中发掘具有高风险的潜在恐怖分子,并先发制人采取措施。在美国边境,出于维护国家安全与打击非法移民的需要,美国宪法第四修正案所要求的关于拦截、搜身与扣押的正当程序标准有所放松,一个区域被主要用来从事非法目的,再加上其他非常宽泛的因素,就强有力地支持了合理怀疑的存在[11],强化了对非法移民的执法力度,而法院也会支持执法机关的决定。
五是预测警务在迭代升级中推进警察机关组织变革。一些警察机关成立了专门从事预测警务工作的内设机构,由专门人员从事数据分析等工作。由于预测警务引导警务资源向高风险区域派遣,从而减少一些犯罪率较低区域的警力配置,使得这些区域原有的机构被撤并,有利于减少警力资源的浪费。
如前所述,警方推行预测警务产生了积极的效能。预测警务的运行需要相应的预测警务系统作为基础,警方需要为预测警务系统的设计提供思路、为预测警务的运行提供数据,并且警方依赖预测警务系统给出的建议进行警力资源的配置和警务组织变革。预测警务包括从前端的预测警务系统设计到后端的警务活动的全过程,在这个过程中,由于数据质量、系统设计等等问题,使得预测警务在实践中产生的风险不容忽视。
在预测警务实践中,警方将历史数据作为训练数据录入算法系统后,算法在描述性特征与目标特征之间建立关联,得出特定区域、特定群体、特定种族的犯罪率较高,警方将资源有针对性地投向这些区域、群体与种族,从而使这些区域、群体与种族的犯罪被发现与查处的概率更高。如纽约市的盘查与搜身项目,从2004 年至2012 年的数据显示,83%的被盘查者是黑人或西班牙裔,只有10%的被盘查者是白人。但是,纽约市的人口中有52%是黑人或西班牙裔,白人占33%。这表明,黑人或西班牙裔被盘查的比例高于其人口比例。这也使得算法系统将黑人或西班牙裔的特征与导致犯罪预防的盘查联系起来[12]。又如奥尔良的预测警务系统将暴力或帮派犯罪的受害者或实施者确定为绝大多数年轻的非洲裔美国人、男性、受教育程度低下与就业不足等[13]。实践中,警方也会以这些群体作为执法的对象,增加警力资源,相应地发现这些群体更多的犯罪行为,进一步强化了这些群体高犯罪的形象。
对特殊人群或特殊区域的区别对待,会产生不当的威慑效果。从经济分析的视角而言,犯罪者在打算从事犯罪行为时,也会进行成本收益的权衡,只有违法收益大于违法成本时,其才会着手进行违法犯罪活动。从社会的角度而言,对犯罪者的最优制裁是等于其对社会造成的损害,一方面能够制裁犯罪,对犯罪者形成威慑,另一方面也无需额外增加资源,如果犯罪者缺乏经济能力,就需要通过监禁方式对其施加制裁。政府对违法犯罪的制裁水平体现为两个维度:发现犯罪的可能性以及惩罚的严厉程度[14]。在惩罚严厉程度不变的情况下,发现犯罪的可能性增加,也会增强对犯罪者的制裁,更多的人被逮捕与定罪。在惩罚严厉程度不变的情形下,利用算法发现与查处犯罪的概率会增加,从而形成过度威慑[15]。
预测警务不仅会导致威慑过度的问题,会产生威慑不足的问题。由于预测警务主要面向一些发生频率高、受社会公众关注的犯罪类型,并且警察将大量资源投放在这些领域。由于在一定时期内,警察机关的预算无法持续增加,甚至受制于经济形势的影响,出现预算削减的情况。其他各种犯罪类型不会随着预测警务的使用而消失,这表明警方投放在其他犯罪上的资源相对减少,这些犯罪包括白领犯罪,由于挪用资金、职务侵占、商业贿赂、伪造证明文件等犯罪隐蔽性较高,受公众关注度没有抢劫罪那样显著。从美国预测警务的现实经验来看,也少有专门针对白领犯罪的预测警务系统,即使一些白领犯罪的非法所得要高于一般的财产犯罪。警察将较少的资源投放在这些犯罪上,导致这些犯罪被发现的概率降低,即使在惩罚严厉程度不变的情况下,依然会导致威慑不足的问题。
所谓认知偏向,是指警务人员在办案时的思维模式与思考问题的方法受到限制而产生的偏见,包括自动偏见和确认偏见[16]。自动偏见是指人们倾向于相信计算机所作出的判断要优于人自身作出的判断。由于计算机代表复杂精巧的科学设计,其储存能力与计算能力也不断增强,而单个个体确实在信息储存与计算能力上与计算机无法比拟,使得人们会认为计算机作出的推断与判断更科学更准确。确认偏见是指算法所作出的判断与推荐,人们会积极寻找证据去证实该判断与推荐的合理性与准确性,而不会从反方向寻找证据去否定该判断与推荐的合理性与准确性[17]。确认偏见与自动偏见密不可分,由于算法也是复杂与精巧的设计,人们基于自动偏见接受算法判断与推荐,并加以巩固与强化。自动偏见反映出人们对科学过于乐观的倾向,也是大数据技术、预测警务技术能顺利被警方所采用的心理因素。
自动偏见与确认偏见会削弱执法激励的消极后果。一是使警务人员失去从执法实践中提升判断能力的机会。一旦预测警务被顺利使用,警务人员会产生对其依赖的心理。较长时间利用算法系统内判断可能的犯罪区域或违法犯罪嫌疑人,使得警务人员失去在街面巡逻、现场执法中通过言行等方式判断犯罪嫌疑人与犯罪行为存在的能力,而警务执法本身是一种需要实践理性的活动,这种实践理性经由长期执法积累而得来。特别对新入警人员,没有这种长期街面巡逻与现场执法养成的素养,对其并非有利,而一旦对预测算法过于依赖,在面对复杂多变的情境时,也不愿去行使自由裁量权。二是无法纠正数据与算法的错误。由于数据采集中的输入错误、采集对象错误、犯罪嫌疑人谎报数据、数据经过人为处理等原因,预测警务所依赖的原始数据本身错误。算法依据这些错误数据所作出的判断与推荐,被警务人员接受,由于自动偏见与确认偏见的存在,其缺乏激励去发现与矫正其中的错误。三是自动偏见与确认偏见会强化种族偏见。警务人员在执法中的种族偏见客观存在,在现有的犯罪记录数据中,拉丁裔和非洲裔等有色人种所占比例相对较高。依赖这些原始数据所得出的算法判断与推荐,警务人员会加大对这些有色人种的执法力度,从而发现更多的违法犯罪行为,又会提高其犯罪比例。警方将过多的资源分配到针对有色人种的执法中,强化种族歧视。四是警务人员寻找其他嫌疑人和其他证据的激励大大弱化。一旦算法作出判断与推荐,由于自动偏见与确认偏见的存在,警务人员需要花费大量的时间与精力去收集证据来推翻与否定算法的判断,普通执法警察囿于时间与精力的限制,无法实现这一目标。即使一些警务人员发现算法判断的失误,也可能由于利益或其他考虑而不愿意揭发。
预测警务依托大数据,其对数据的要求应当是充分的、客观的、正确的。充分是指应当尽可能将更多犯罪类型的数据,而不是选择部分犯罪类型的数据,但在预测警务运行的实践中不充分、不准确、不客观的肮脏数据客观存在。肮脏数据是指源于腐败的、偏见、非法实践的数据或受偏见与非法实践影响的数据,包括有意被操纵的数据以及被个体和社会偏见所扭曲的数据[18]。同时肮脏数据也包括因逮捕无辜者而产生的数据,这些无辜者身上被植入了栽赃证据或受到其他虚假指控。
在目前的实践中产生肮脏数据的理由有多个,一是警方缺乏关于收集、存储、评估与使用数据的标准与程序规定,使得数据收集等环节存在随意性,甚至在录入数据时,对数据进行人为处理与加工。二是警方在接到报案并到达现场时,对现场当事人行为的性质认定存在一定的自由裁量权,同一行为可能存在犯罪、摩擦与非犯罪行为的分类,警察有意将某类犯罪行为当作非犯罪录入或将非犯罪当作犯罪录入,无法客观地反映行为的真实情况。三是种族与偏见形成的反馈回路无法消除。预测警务的运行需要历史的犯罪数据,已经记录在案的历史犯罪数据,并非真实客观。特别是在美国执法实践中,特定种族、特定低收入群体、特定居住地的人,其犯罪率相对较高。这与执法机关长期以来的种族歧视有关。据实证研究,美国芝加哥市与奥尔良市警察执法的种族歧视引起关注。在民权组织提起诉讼期间,美国司法部展开调查的期间,他们与企业合作开发预测警务系统[19]。这些带有种族歧视的历史犯罪记录,就被作为预测警务的训练数据,没有迹象表明这些数据由于错误与违法行为而被删除。以这些数据为基础的预测警务也产生了相似的反映种族偏见的预测结果。四是操作上的失误。警察在录入有关犯罪行为的信息时,错误地输入姓名、地址、种族,由于数据库的庞大,微小的错误就可能引发匹配上的错误而影响预测的准确率。
肮脏数据的问题客观存在,但难以在短期内加以有效克服,其原因也是多方面的。首先,警察执法受民主监督较少,自由裁量权大。警察执法中的种族歧视是一个长期存在的问题,美国并没有建立起一套抑制警察种族歧视的有效制度,也很少对警察执法的种族歧视进行监督,即使在一些引发高度关注的案件发生后,警察也没有实质性改进执法。很多警察机关并没有设立专门的审计和监督机关,对执法中的种族歧视和不当行为进行监督。虽然美国有信息公开法,但是多年后的信息公开无法消除历史犯罪数据中的种族歧视问题,一些警察机关也不愿意公开相关数据。其次,预测警务系统的开发企业缺乏动力也缺乏能力去筛查与删除肮脏数据。出于追求利润的需要,系统开发企业一方面会标榜自身是客观的无偏见的,另一方面也会服从警察机关的要求,在一些种族歧视浓厚的区域,警察机关是不会同意删除这些具有种族色彩的历史犯罪数据。系统开发企业也难以将所有肮脏数据与好的数据区分开来。一些肮脏数据由诸如种族、性别等直接的变量指代,系统开发者已经明确将这种变量从算法中删除,但是诸如低收入、失业、特定居住地等变量也能反映特定种族或特定性别。预测警务系统无法将收入、职业、居住地这些变量删除。预测警务系统的算法也无法解决反馈回路问题,预测警务系统的算法依据变量间的相关性得出相关推断,而不是分析因变量与自变量间存在的因果关系,因此即使某人隶属于某种族或居住在某地,现实中并没有从事犯罪行为,但算法依然会对其赋予较高犯罪风险的数值。只要输入的数据包含种族偏见等信息,算法依然会强化反馈回路。
区别对待使特定区域或特定群体更容易成为警察执法的对象,违反平等原则。但是区别对待的产生与美国社会根深蒂固的种族歧视存在直接关系,因此实践层面是减少区别对待发生可能性,而难以根除。具体的措施有:
一是在预测警务的采购环节向公民公开信息。就采购的具体系统、采购对象、采购所要实现的目标以及系统可能存在的风险等详细说明,以便使公民掌握警方的采购行为。为使公众更好地了解预测警务系统的使用状况,警方有关预测警务采购、审批、运用的相关资料,应当允许公众查阅。由于预测警务系统存在的复杂性与专业性,普通公众难以理解其运行机理,有必要采用通俗易懂或可视化方式。
二是强化算法透明原则。算法透明原则应用于算法设计、运行的全过程。根据算法透明原则,应允许第三方对算法代码和决策标准进行审查。美国联邦贸易委员会专员斯威尼(Sweeny)提出了“设计责任”这一概念。根据这一概念,算法设计者在开发算法阶段应当接受第三方审查,从而发现算法可能存在的歧视和偏见[20]。如种族或肤色等变量容易被识别,在算法透明原则下,算法设计者应当剔除这些能直接反映与体现歧视的变量。
三是建立预测警务算法影响评估制度。2018 年10 月,美国纽约市率先颁布《算法问责法》,该法明确规定行政机构以及慈善团体应用自动化决策系统时应当接受自动化决策系统工作组在公正性、可问责性和透明度等方面的评估。华盛顿州和加利福尼亚州的相关立法也要求进行算法影响评估[21]。一些城市的执法机构在引入预测警务系统时,需要经过城市议会的同意与批准。在批准前,会成立一个算法影响评估委员会,对算法的风险评估后,该委员会出具报告并作出是否应当允许采购的建议。旧金山市议会颁布了《禁止秘密监视条例》,该条例还要求该市的各部门采购任何类型的监控技术,或者签订协议接受通过监控技术取得的信息时需报监督委员会(Board of Supervisors)批准[22]。算法影响评估制度是一种事前的风险预防机制,如果评估后禁止采用预测警务系统,其存在的区别对待风险也将不会出现。经过评估,也可能对算法的变量设计、代码运行规则等进行相应修改,也能减少区别对待的风险。
四是建立算法审计制度。在预测警务系统使用的过程中,应当定期向独立的审计机构报告或委托第三方进行审计。美国审计制度比较健全,有着坚实的法律基础。非盈利组织“为了人民”对美国刑事审判中的再犯风险预测算法Compas 开展审计,撰写了《机器偏见》审计报告。该报告引发了美国社会广泛关注,直接推动了算法偏见和算法歧视相关立法的出台[23]。由独立审计机构作出是否存在种族歧视、数据错误等情形。一旦审计确认存在上述问题,就需要中止预测警务系统的使用。由警方进行整改并出具整改报告。如果无法完成相应的整改,就应当终止使用该系统。由于受到社区压力以及缺乏证据来证明预测警务系统对犯罪率的实质影响,洛杉矶警察局于2020 年取消了与Predpol 公司的预测警务运行合同[24]。虽然实践中,终止预测警务运行合同出现较少,但停止算法系统运行作为一种警示或威慑手段,对于算法开发者、系统运行者和警方都构成一种约束。即使警方主动取消预测警务运行合同,其也需要面对合同产生的责任问题以及地方政府和代议机构对公共资金使用效率的审查问题。
一是发挥司法审查的作用。对警方仅仅依赖预测警务系统作出的判断和决策,司法机关作出否定性评价,能在一定程度上抑制认知偏见,有助于警方在收集更多信息的基础上作出决策。
警方基于预测警务而实施的拦截与搜身,可能会侵犯公民的人身权利与财产权,也会引发相对人通过司法程序对警察行为的合理性提出挑战与质疑。最为典型的是美国最高法院审理的Illinois V.Wardlow 案,该案中,Wardlow 出现在一个麻醉毒品交易猖獗的区域,其看到警察后就逃跑,警察对其拦截与搜身。警察在现场并没有发现Wardlow 从事麻醉毒品的交易,Wardlow 认为警察的行为侵犯其正当程序权利。美国最高法院认为,Wardlow 出现在被标签为高犯罪的区域以及其看到警察后就逃跑的事实,足以形成合理怀疑。最高法院的判决确认了该案中警察行为的合理性[25]。当然最高法院的判决也明确,仅仅出现在某一被标签为高犯罪区域,这一因素不足以构成合理怀疑。该案的判决可以提醒警务人员,对预测警务的自动偏见不必要也不可靠。警方应在预测警务系统提供的信息外收集更多的信息,结合现场执法判断作出相应的执法措施,而不是想方设法去证明预测警务系统的正确性。
二是加强对使用预测警务系统的警察培训。这种培训不仅让警察学会如何应用预测警务系统,更为重要的是让警察能够了解预测警务系统所存在的局限与问题,包括数据错误、算法歧视等,从而使他们尽可能用一种批判的思维来评估预测警务系统所得出的推荐结论与建议,而不是盲目地全盘接受,特别是能将预测警务系统推荐建议与执法场景相结合来作出决策[26]。
三是强化预测警务系统推荐方案与备选方案的比较。一些警察局规定,警察需要列明采用预测警务系统推荐的理由,并提出可供选择的备选方案,由上级或同行进行分析比较。这种做法有助于减少对预测警务系统的依赖,但这种做法本身可能会增加决策过程所消耗的人力物力。当然,并非预测警务系统所作出的所有决策、任何推荐都需要与备选方案比较。
四是建立独立的第三方审查制度。由于适用预测警务系统的警务人员已经存在的确认偏见,让其重新来思考手头的案件十分困难,因此没有接触该案件的独立第三方相对比较容易来分析与判断预测警务系统所提供的推荐方案。由于各种心理和组织原因,外部同行评审员更容易注意到错误和遗漏,也更容易指出错误和遗漏[27]。
首先,重视数据来源问题。2017 年1 月,美国计算机协会发布《关于算法透明性与可责性的声明》,并提出反歧视意识、回馈与救济、算法可问责、算法可解释、数据来源、算法可审计及验证与检测七项原则[28]。这表明数据来源问题已经受到重视。实践中,对数据采集方式、程序、采集的范围以及数据质量标准,一些行业和执法机关都已经在积极探索和应用中。而在预测警务的设计环节,一些算法系统已经剔除关于种族和肤色的变量,以尽可能减少种族因素对预测警务系统产生的消极作用。如费城和芝加哥所使用预测性警务程序的供应商决定在创建警务模型时不再强调一些逮捕数据,特别是与毒品相关和滋扰犯罪有关的数据,以避免系统性偏见[29]。因为根据这些犯罪的历史记录,有色人种的犯罪者比重较高。
其次,数据公开。数据公开能使公众了解与掌握警方的执法情况,也使一些公民与组织能够针对执法情况提起公益诉讼,通过这种机制能使警方规范数据的收集与使用。美国44 个最大的警察部门约有23 个要求警察收集每次拦截与搜身的具体数据。在纽约市,尽管多年来警方要求警察对拦截执法进行记录,但直到1999 年,在纽约警察杀害一名手无寸铁的黑人男子的抗议活动持续数周后,纽约总检察长下令纽约警察局交出两年的数据。尽管纽约警察局继续记录有关拦截执法的信息,但该部门也一直拒绝公布他们的记录,直到2008 年,一名州法官命令他们公开电子数据库,以回应纽约公民自由联盟提起的诉讼[30]。
由此可见,并非所有的警察局都要求收集和记录拦截与搜身等执法数据,没有原始数据记录,为警方伪造数据、篡改数据提供了可能;而一旦警方需要开发预测警务系统时,这些伪造数据、篡改数据就可能成为训练数据,从而得出不正确的结论。因此要求警方数据公开,能促使警方在日常执法中做好数据的记录工作,规范数据的保存,减少伪造数据、篡改数据发生的可能。特别是因逮捕无辜者而产生的数据,通过数据公开能比较容易地识别出,减少无辜者被植入了栽赃证据或受到其他虚假指控的可能性。
警方自己主动公开数据的动力不足,需要民众、非政府组织、检察官与法官等外在力量的推动。美国联邦信息公开法赋予公民向政府部门申请公开信息的权利。有学者向包括迈阿密、圣路易斯、林肯、费城四地的警察局申请公开关于预测警务系统HunchLab 的使用状况。林肯警察局提供了HunchLab 的一组数据输入样本,包括一个三十天滚动的警察事件报告窗口。每一份报告都包含所报告犯罪的街道地址、纬度和经度;犯罪类型以及犯罪的时间和日期等[31]。警察局愿意提供信息,表明其对数据质量比较有信心,通过这种信息公开的方式,也能督促警方提高数据的质量,规范数据的收集。
针对预测警务系统司法案件的出现,反映出预测警务系统对公民权益的侵害已经成为犯罪嫌疑人可以抗辩的理由,也使警方对预测警务系统使用的具体情况暴露在法院的司法审查之下,对抑制预测警务的消极影响有一定作用,但是司法审查也存在以下问题:
一是司法审查标准不统一。Illinois V.Wardlow 案留下几个悬而未决的问题。一是最高法院并没有明确定义何为高犯罪区域。二是最高法院并没有提供关于如何证明高犯罪区域的证据的任何指南。缺乏明确与可操作性的标准,使得下级法院在判定高犯罪区域上比较随意。有法院将毒品活动区域标签为高犯罪区域,也有法院将受警方监控的区域标签为高犯罪区域[32]。
二是司法审查的效果有限,司法审查只是在个案中解决相对人的权利受侵犯的问题,对预测警务系统本身错误与偏见等问题,无力审查与救济。
三是司法审查反而在某种程度上赋予预测警务系统的合法性。司法对警方结论的遵从会促进和强化警方对预测警务系统的使用,并使得警方对预测警务系统的不足视而不见,这不利于相对人权利的保护。
四是司法实践对较高犯罪风险的人是否构成合理怀疑并没有明确的立场。警方能否仅仅依据预测警务系统推断出来某人具有较高风险,而对其实施拦截与搜身?芝加哥的战略对象清单,根据历史犯罪记录对较高犯罪风险的人赋予较高的分值。但是预测警务系统并没有告知警方该人是否真的会从事犯罪以及何时从事犯罪,警方也不是通过其自身的观察来判断较高犯罪风险的人。相比较于较高犯罪风险的区域,其主观性更强。如果仅仅因为预测警务系统推断出来某人具有较高风险,就构成合理怀疑,会使得警方更加没有约束地利用该预测警务系统来判定高风险的人,无法为警方执法的规范化提供指南。
无论是美国联邦层面还是州层面,都没有制定规制预测警务的专门立法,有关规制措施分别规定在《算法问责法》《禁止秘密监视条例》等法律当中。虽然警方已经使用预测警务系统多年,但是随着技术的发展,警方采用的新技术、新系统越来越多,包括预测警务在内的多种系统既存在优势,也或多或少存在一定的不足。针对这些系统制定专门立法,既有可能导致立法的重复,也可能导致立法资源的浪费。没有专门立法,也存在不可忽视的局限性:
一是与预测警务的应用状况不相适应。预测警务的应用范围广,应用时间长。多年来,一些警察机关已经将预测警务作为配置警力资源和设置警察机构的重要依据,警察的干预行动和勤务设计不再是固定、滞后的,而是根据数据分析的结果动态调整,警务资源的配置更为合理,一定程度上缓解了警方资源不足与任务过载之间的矛盾[33]。
二是预测警务所产生的负面影响已经不能忽视。预测警务应用对一些高犯罪风险区域或高犯罪风险人产生过度威慑的效果,对其他一些犯罪威慑不足。这说明警方希望通过应用预测警务来打击犯罪、维护社会秩序的目标无法完全实现,现有的分散式立法中的一些规制手段,对于抑制预测警务的负面影响能发挥作用。但是一些规制手段不具有强制性,而且警方在应用预测警务系统时也处于非公开状态,社会公众不一定知情。
三是预测警务的应用与犯罪率变化的相关性并没有科学统计方法,甚至两者间的相关性都存在疑问。这种情形下,即使立法规定影响评估制度、公众参与制度等,也会由于上述原因而大打折扣。
四是分散式立法规制对象有局限。美国有关预测警务系统的立法主要以城市条例为主,这些城市条例仅仅从某个方面进行立法,一个城市也少有从多个方面制定多个条例,甚至还有许多使用预测警务系统的城市并没有制定相应的立法。这种立法局面既可能使预测警务系统的应用处于缺乏规制的真空地带,也可能处于监管不足的状态。如目前美国针对执法机关委托第三方公司设计开发系统,仅有个别城市立法禁止执法机关与第三方公司写入非披露条款[34]。第三方公司主张预测警务系统属于商业秘密,但是预测警务系统应用关乎公共利益,第三方公司主张其实是将其商业利益凌驾于公共利益之上。
虽然美国已经制定联邦信息公开法,各州也已经制定类似法律。但是这些法律明确规定,商业秘密或政府执法信息可以豁免公开。由于政府委托第三方开发算法系统,在政府与第三方的合同中都会有政府不得向他人泄露商业的条款。虽然该条款有助于第三方公司开发系统的积极性,却以牺牲公众知情权为代价;执法机构也经常会以执法活动涉及国家秘密等理由,反对信息公开。
预测警务系统将一些人列入受关注名单,当事人并不知情,即使知情后也可能缺乏相应的救济渠道。在Union Leader Corp.v.U.S.Department of Homeland Security,美国法院拒绝披露名单,因为披露名单将会揭示这些人的特征以及对这些人监控的后果[35]。该案对预测警务有负面作用,因为预测警务系统也会产生可能参与犯罪行为的人员名单,而该案却认为对基于个人的算法产生的结果进行保密是合理的。不仅如此,警方也可能会依据美国联邦信息公开法中第7 条E 款的例外进行抗辩[36]。虽然如此,透明度对于警务系统的有效运转意义重大,能增加社会公众对警方的信任感,减少警方与系统开发公司之间的共谋。
预测警务系统的使用目的在于打击犯罪,降低犯罪率。如果仅注重某特殊区域、特殊人群的犯罪率以及某几种类型的犯罪比例降低,不是最优结果。即使预测警务系统的使用导致对某几种类型犯罪的威慑水平增加,从而降低这几类犯罪率,也会导致其他由于威慑不足的犯罪行为发生可能性增加。同时受预测警务影响的犯罪者,可能会转向从事其他的犯罪行为,从而导致其他类型的犯罪增加,整个区域的总体犯罪率并没有下降,甚至可能会上升。这种情况出现违背预测警务系统采用者的初衷,无法实现警察的职能,应当及时中止预测警务系统的使用,就预测警务系统对社会治安状况、对总体犯罪率影响作出有效的评估后,再决定是否继续使用该系统。这个过程中,应当充分邀请犯罪学者、社区领袖、律师及政府官员参与,广泛听取意见与评论,并做出是否继续使用预测警务系统的决定。经过审慎评估后,认为预测警务系统对于降低总体犯罪水平作用有限,就应当及时终止使用。
美国实践中,中止甚至终止预测警务系统的案例较少。这并非表明预测警务系统都十分有效,而是警方在终止预测警务系统使用时存在多重约束:一是预算批准机关的约束。使用预算资金的项目不能说停就停,要有充分的理由,一旦警方表明预测警务系统效果不明显,反而表明其事前分析研究不足,无论是出于政治考虑还是出于继续获得预算支持的考虑,警方都不愿意让自己形象受损。二是预测警务系统采用都与供应商签订长期合同,中止甚至终止预测警务系统可能需要承担违约责任,对警方而言也是不小的负担。三是中止或终止预测警务系统使用会使公众形成警方能力不足的印象,使公众对警方打击犯罪、维护治安的效能产生质疑,不利于构建和谐良好的警民关系。虽然警方自身难以中止或终止预测警务系统的使用,但是城市政府特别是批准预算的城市议会可以发挥监督的作用,必要时可以中止或终止预测警务系统的使用。
人工智能、大数据技术应用于警务实践的趋势不可阻挡,其所产生的积极效能也是显而易见的。但是人工智能、大数据等技术也是一把双刃剑,其潜在的风险也不容易忽视。但我们不能采取极端策略,就因为预测警务系统存在风险而完全放弃使用。我们需要享受技术红利的同时,积极面对技术可能的风险并采取对应的规制措施,美国对预测系统风险规制的实践就体现了这种思维,虽然美国预测系统风险的规制实践还存在一些需要完善的空间,但是毕竟已经付诸行动。