夏润泽
(中国人民公安大学)
人工智能技术的快速发展为“智慧警务”建设提供了新生动力,也为扩大公安机关基层警务治理空间提供了可能。随着人工智能技术在基层警务中应用深度和广度的不断拓展,其本身以月为单位的更新迭代导致的不确定性带来了技术、边界、伦理等方面的风险,极大地挑战着基层公安机关的治理水平和能力。因此,如何化解人工智能技术在智慧警务中的应用困境成为亟待解决的命题。
当前,传统的警务模式已难以回应复杂的社会需求,“智慧警务”概念的提出为警务效能建设指明了方向。技术是推动社会发展进步的最活跃的要素,日新月异的技术变革不断推动生产力发展[1],“智慧警务”是指依托现代信息技术,以科技强警的战略部署为指导,推进公安警务工作信息化、交互化、智能化,搭建贴近警务实战的数据分析,研判机制建设和公安机关各部门间协同运转,最终实现警务效能最大化和最优化的警务工作新理念。人工智能技术的发展为基层警务效能建设提供了新的可行路径,公安机关治理与技术吸纳实质是一种双向互动关系,这构成了人工智能技术嵌入基层公安机关治理的内在逻辑[2]。人工智能技术的应用也因此成为智慧警务建设过程中无法规避的命题。
人工智能技术在智慧警务中的应用是指公安机关基于物联网、数据处理和可视化交互等关键技术实现警务模式的多元智能融合。首先是部分警务工作实现智能化和自动化,如警用人工智能在评估出警环境后认为存在潜在威胁时,可以直接调配警力支援[3],从而解放了警力,有助于延伸公安警务工作的广度。此外,依托人工智能技术搭建的一体化警务合成作战平台和警用地理信息平台[4]使公安机关能更全面高效地掌握辖区内信息,从而提高了辖区治理的能力和效率,拓展了警务工作深度。
警务是专业化警察运用国家强制力,预防惩治违法犯罪,维护国家安全和社会稳定的活动[5],可见,包含智慧警务在内的警务活动由主体、客体和过程三要素构成,因此,本文从这三个维度分析人工智能技术在智慧警务中的应用困境。
1)技术异化:警务主体正确履职遭遇困境
一方面,异化是人类在发展过程中创造的物质或精神的东西,其成为异己的存在力量并反过来控制、奴役人类自身[6]。人工智能与智慧警务的深度融合必然使其与使用者发生交互,并基于人工智能的思考和判断作为行使警察权的依据,甚至直接由人工智能决定行使警察权。由此而言,警用人工智能已经在一定程度上成为了警务主体,原本的警务人员则逐渐沦为附庸,警用人工智能异化的趋向已经有所显现,甚至反过来钳制警务人员。
另一方面,尽管人工智能号称“极致理性”[7],但警用人工智能能否正确履职仍然取决于其内设算法。算法编辑者的主观偏向会有意或无意地导致算法缺陷,使人工智能同样产生“主观偏见”。警用人工智能技术的前沿性、专业性以及开发公司的保密要求所形成的“算法黑箱”导致警务人员难以掌握其运行逻辑,其潜在的偏向性将导致警务活动偏离公正轨道,甚至使无辜者遭受不必要的惩罚,严重影响警务主体正确履职。
2)权力扩张:警务客体权利保护面临风险
智能社会下人类生活的不可侵犯性受到冲击[8]。为给人工智能技术提供足够数据,往往需要在特定时空内最大限度地收集和处理信息,公众不自觉地暴露于警务人工智能的监控之下,这种对公民个人信息的全方位收集将不可避免地压缩公民隐私权。
警用人工智能对公民隐私权的挑战主要体现在收集端和处理端。就收集端而言,相较于传统的信息收集,基于物联网的人工智能技术能够最大程度地全方位挖掘处理信息。由无人机、全天监控、人脸识别等工具共同连接成的信息收集网络甚至能够突破时间和空间的限制。这种无孔不入的信息收集将难以避免地触及私人领域,对公民隐私权保护构成挑战。就处理端而言,为更高效地预防犯罪,人工智能往往会将收集到的个人信息,甚至包括某些当事人并不愿为人所知的信息,作为研判和预测个体行为的依据,这些数据间的比对和碰撞在警务人员面前一览无余。警用人工智能广泛进行的数据分析画像和精准防控已经揭开了传统隐私空间的面纱。
3)伦理争议:警务过程监管存在归责障碍
人工智能快速更新迭代使其深度学习能力不断增强,逐渐实现从信息收集到决定执行全过程的自动化、自主化,甚至出现代替警务人员履职的现象。此时,警用人工智能已经从事实上由“工具”转为警务工作的“主体”,原本身为主体的警务人员则只能被动的依令行事,随着人工智能技术的进步及其应用深度的拓展,人类作为警务活动主体的地位将被削弱,作为警务法律关系中的管理及执法对象的人类成为客体,人类与人工智能主客体地位反转,人类显现出“主体客体化”倾向[9]。
然而,当警务过程转由人工智能主导,警务活动中的责任事故应当如何归责?在人工智能研判决定下被动行事的警务人员主观上并无过错,由其承担责任则有失公平。而作出决定的人工智能则很难被视为能够独立承担责任的主体,其同样也不具备接受处罚或救济损失的能力,也不能用警察职业道德去要求[10]。因此,一旦人工智能主导的智慧警务过程中出现损失甚至伤亡后果,现有的针对警察执法人员过错的监管归责机制将无法运用。
就警务人员而言,应当强调人的主体性,始终坚持以人为本的原则,即所有的警用人工智能都应当为警务人员服务,将决定的自主性回归警务人员自身,明确人类是采取警务活动的最终决定者。同时,将人工智能的算法设计向警务人员公开,赋予警务人员了解和质疑人工智能的权利,破除算法黑箱,以警察的职业伦理矫正警用人工智能可能存在的算法偏见,进而强化警务人员的主体地位。
就警用人工智能而言,应当强调其工具性。明确人工智能介入智慧警务模式的边界,即哪些警务工作可以借助人工智能辅助以及辅助的界限和程度,哪些警务工作只能由警务人员自主完成,通过制度设计明确警用人工智能在智慧警务中的辅助地位,防止其过度自主化,从而充分发挥警用人工智能在提高警务效能方面的积极作用,防止人工智能过度介入导致的技术异化。
首先,应充分发挥法律法规的规制作用。应当针对人工智能技术收集处理数据的范围、方式、用途和目的构建法律框架,并建立完善的数据安全监管体系,依托国家强制力确保个人隐私数据的安全性。同时以法律形式赋予公民合理的知情权和参与权,以规避信息鸿沟和数据独裁。
其次,应当制定使用数据的标准规范。建立数据合规性操作标准,明确数据使用流程和安全检验机制。公安机关作为数据的使用者应当建立起安全可靠的警用数据平台,设立数据使用守则,使警务数据信息的处理和使用均处于监管之下,防止警务人员滥用、泄露隐私信息。同时设置信息分类管理标准,划定信息处理的界线和范围,避免敏感和隐私信息的非必要收集和处理。
最后,应当加强数据安全保障体系建设。建设隐私数据保护平台,采取安全加密技术、安全存储等数据保护手段,实现数据加密、隔离和同步备份,并且采取匿名化或脱敏技术,对涉及个人隐私的数据进行加密处理,防止数据泄露,消除个人身份信息、敏感数据及其他个人信息的暴露风险。
一方面要建立涵盖“事前—事中—事后”的全流程监管机制,规避人工智能导致警务活动责任事故的风险。事前,对警用人工智能设计企业进行资质审核,同时对警务人工智能的源代码和算法设计进行评估,从源头上减少警用人工智能偏差的可能。事中,随时关注警用人工智能的运行状况,提高警务人员的知识水平和应用人工智能技术的能力,以人的主观能动性保障警务人工智能的正确运行。事后,要加强事后的评估优化,设置由公安机关领导、一线警务人员和技术专家组成的评估专家组,及时分析研判人工智能介入警务活动过程中存在的问题,并以此为依据对人工智能进行优化升级,逐渐完善警用人工智能技术的应用。
另一方面,建立可行的归责机制。尽管在人工智能所主导的警务活动中应当由谁承担责任仍是一个有待商榷的问题,但在公共治理领域,技术与行政价值的互动,须以责任明晰为前提[11],无法归责的模糊答案显然无法回应发生警务责任事故后社会公众的期待。确定的是,公安机关在应用人工智能技术时理应预见到其可能导致的后果,因此按照谁应用谁负责的原则,由公安机关对外承担责任在逻辑上是妥当的。在承担社会责任后,公安机关应当如何在使用者、设计者之间进行内部追责则需要根据个案情况进行理性分析。这种担责方式可以确保社会公众的权益得到及时妥当保障,也符合国家新一代人工智能治理专业委员会确定的“共担责任”原则。
警务人工智能的运用一方面能够促进智慧警务建设,使警务工作适应新时代的需要,另一方面也给警务活动带来了前所未有的挑战。需要明确并牢记的是:警用人工智能终究只是警务人员的辅助和延伸,应当坚持“人”的主体地位,高扬警务人员的职业伦理和主观能动性,以人的逻辑掌控人工智能而非被其所钳制,正确发挥其积极作用,实现人工智能与智慧警务的充分融合。