颜 韵
(中央财经大学 法学院, 北京 100081)
风险预防原则起源于德国行政法有关治理空气污染的尝试,随着科技进步与发展,风险的范围亦从传统风险升级为现代风险,风险预防原则的适用范围进一步扩大,正在成为一项应对不确定科技风险的习惯国际法原则。作为数字科学领域的代表之一的人脸识别技术是基于个人面部特征信息进行的一种生物识别技术,包含人脸采集、人脸图像规划、人脸检测、人脸特征提取和人脸比较五个步骤。得益于深度学习技术,人脸识别技术应用场景与市场规模不断拓展。纯粹的技术理性和多元的现实利益正驱动着人脸识别技术一路高歌猛进。短期即规模化运用的背后常常忽略了充分的风险评估,负面效应随之显现,例如人脸识别技术的安全性欠缺对个人的侵权影响不可逆,监视权力扩张导致社会异化为福柯笔下的“超级全景监狱”。改进代码等技术手段以处理上述问题的同时,现实也呼吁着法律对人脸识别技术作进一步规制。
实践中人脸识别技术法律纠纷案例屡见不鲜,试举2022 年“天津人脸识别案”加以说明。①参见“顾某诉天津城关物业服务集团有限公司案”,天津市和平区人民法院(2021)津0101 民初**号民事判决书、天津市第一中级人民法院(2022)津01 民终**号民事判决书(裁判文书编号未公开)。A 居住的小区B 物业公司采用人脸识别系统作为进入小区的验证方式,A 因担忧个人信息被泄露,要求B 物业公司删除其人脸信息并提供其他验证方式,协调未果后A 将B 物业公司诉至法院。经过两级法院审理后,其诉讼请求由一审的驳回改为支持。该案基本案情似乎并不复杂,然而省察本案及其他同类型案件的处置结果,需尤其注意的一个问题是,不同于“人脸识别第一案”法院将案件定性为服务合同纠纷②参见“郭某诉杭州野生动物园案”,杭州市中级人民法院(2020)浙01 民终10940 号民事判决书。,本案二审法院对案件性质重新界定为个人信息保护纠纷,强调了人脸信息作为敏感个人信息的特殊属性。但该案只能作为个人捍卫其人脸信息不被滥用的一次尝试,其背后暴露出一直以来人脸识别技术内嵌的极为强烈的高风险概率,以及社会公众对人脸识别技术潜在风险的担忧。
围绕人脸识别技术的法律规制,已有诸多学者进行了探讨,必须加强人脸识别技术的法律规制已成为学界的共识,争论的焦点在于法律应采取何种路径来加强规制。试拆分为多个小问题:为何规制?针对何种风险而规制?如何规制?对以上问题的讨论,构成本文的写作脉络。目前学界对风险预防原则已有一定的关注,但将风险预防原则应用于人脸识别技术法律规制的研究还不多见。有鉴于此,本文试图将风险预防原则纳入人脸识别法律规制的分析框架,对其应用目标、应用现状和完善路径等进行探讨,以期风险预防原则成为检验当下人脸识别技术法律规制实效的标尺和法律规制变革的“催化剂”。
德国学者沃尔夫指出,为了维护法律秩序的安全,政府需要事前预防风险、处理当下危险和事后消除危险。[1]预防行政是指政府为了防范特定社会风险的发生,主动介入相关活动采取相应措施。在预防行政语境下探讨人脸识别技术的规制,正是出于对人脸识别技术高风险的担忧,国家通过履行风险预防义务以解决当下人脸信息保护的困境。
风险预防原则虽起源于环境法领域,但随着社会上愈来愈多的风险不确定性和不可预测性出现,风险预防原则亦被用于处理这些风险。对人脸识别技术而言,法律面临着安全与利用价值的权衡,立法者面临着是否需从偏重后果规制至正视风险预防的规制理念与调控手段的转变。
(1)人脸的二重属性。人脸是“生物性的通用标识符”[2],不可隐匿,易采集而不易更改[3],具有肖像和身份的双重属性。在《个人信息保护法》出台前,人脸图像首要便与肖像权相关。肖像权是非物质性人格权,亦是标表型人格权,其本质为一种“受尊重权”而非“支配权”,是一种消极权利而非积极权利,这决定了肖像权的保护往往只能发生在遭遇权益侵害型不当得利时。《民法典》第1019 条进一步扩张了肖像权的保护范围,以丑化、污损的形式或者利用信息技术手段伪造他人肖像等行为都属于侵害他人肖像权。由此可知,除了肖像的商业化利用外,对于绝大多数普通人,通常只有在未经本人同意,对方以侮辱性、伪造等不法方式使用“人脸”时,才构成侵害肖像权的行为。[4]人脸的第二重属性为个人的“身份”。人脸识别技术可实现高度精确性,通过对个人肤色、五官等相貌特征的识别,锁定个人身份。这里的身份强调的是社会身份而非自然身份。正如马克思所言,人是先在市民社会中生活,后才在政治国家中生活。而人作为自然存在的个体,不是一蹴而就进入政治社会中的,这中间的一个环节是一个人成为社会意义上的人。个人的自然属性只有被“看见”、被“听见”,被他人“意识到”、被社会“考量”,才能体现个人在社会关系网络中的坐标位置。因此,相比于自然身份,强调将社会属性集合于人身的社会身份更具意义。那么,人脸识别起到身份认证的功能,成为激活各类社会身份与活动的钥匙。人脸识别不侧重于相貌的自然身份识别,而是重在识别的基础上进行社会身份分析[5],亦即将纯粹的身份识别转换为身份分析,分析个人在社会关系网中的所处位置。
(2)人脸识别技术的风险特征。人脸识别技术风险之所以要被规制,一个重要原因在于,人脸识别技术不仅关涉个人利益,其风险可能引发的连锁效应亦难以控制,对于社会秩序构成挑战与危害。对个人而言,人们对人脸识别系统的安全性忧虑与日俱增。以“欺骗攻击”这种常见黑客手段为例,攻击者基于目标人脸的图像构建虚假生物特征,通过假体在人脸识别系统中进行识别,从而通过人脸识别,取得目标人的访问授权。[6]实践中,诸如“00后”破解厦门银行人脸识别系统、运用3D 面具在支付宝平台刷脸成功等案例屡见不鲜。即便平台因未能防范欺骗技术而被罚款,安全性欠缺对个人的损害却是实质性的和不可逆转的。人脸识别信息具有不易更改性与唯一性,其背后更代表着个人的社会身份评价,一旦被泄露和非法利用将永久脱离被识别者的控制,此后所有与人脸认证相关的社会活动均处于危险状态。被识别者因此可能面临遭受身份窃取、歧视、欺诈和名誉受损的风险,人身和财产安全陷入极大的不确定性当中。即便人脸信息匿名化处理,技术发展也可能导致人脸信息被重新破译,或结合位置、行踪等线索指向特定人[7],而《民法典》1034 条与《个人信息保护法》第4 条以可识别性来定义包括生物识别信息在内的个人信息显然存在一定的隐患。在社会的视角下,监视权力的扩张可能会引发寒蝉效应。在金融、教育、医疗、社会保障等各个领域人脸识别都参与其中,甚至成为开启上述活动的钥匙或入场券。各个场景联合起来便构成了整个数据依赖型社会,因此人脸信息的使用不仅与个人利害相关,而且还与整个社会的运行机制关联。[8]在福柯笔下的“超级全景监狱”中,被监视者无法反抗监视的权力。而如今,处处可见的监控辅以人脸识别的身份识别机制,每个个体都可以被快速识别并持续追踪。不同于边沁、福柯所处时代下的比喻,现代社会的“超级全景监狱”有着更为隐蔽、泛娱乐化的特点,更多的商业场景经营者成为监视者,拥有类似公权力式的权力。无处不在的人脸识别可能会引发寒蝉效应,当人们意识到其正处于监视中,个体行为将受抑制,阻碍社会进步与个人发展。
对于如何防治人脸识别的危害,有两种应对方式:一种是传统的私法保护进路,等待已发生损害结果再去采取措施,提起侵权损害赔偿诉讼这一事后救济方式。另一种是通过一系列措施使人脸识别技术处于安全状态,对个人不产生影响,亦即风险的控制。人脸识别技术法律规制面临着如上的选择,本文认为,零风险的预防性原则并不适用于人脸识别技术。[9]但是,从人脸识别技术的后果控制到风险预防是必然趋势,这亦是国家作为个人信息保护义务主体从被动走向主动的必由之路。
通过对人脸识别技术风险特征的分析可知,人脸识别技术的风险来源是与个人之间存在持续性不对称关系、对个人实施压迫性监视的权力,且此种权力的行使有着极大的安全性欠缺之可能。由于人脸识别技术的隐蔽性特征,监视与生活的界限并不明晰,当发现损害结果时,个体难以判断侵权发生的时间点、危害程度与后果,这决定了人脸识别技术侵权的私法保护进路存在困境。而风险预防原则凸显了国家的个人信息保护义务,《个人信息保护法》第11 条规定国家预防和惩治侵害个人信息权益的行为,即确立了风险预防原则。实际上,风险预防作为一种更广义的国家义务早已得到法律的承认,预防义务是国家保护义务扩大的结果。[10]在我国行政法领域适用风险预防原则,大多数集中在食品安全领域。[11]迄今为止,学界与实务界已经对此原则形成了丰富的认知,行政法的其他领域,也有着适用风险预防原则的讨论。相比于私法给予的侵权损害赔偿外,行政权也可以对人脸信息控制者与使用者的日常进行监管。监管型的行政执法面向一般的人脸信息收集、使用场景,能够督促人脸信息控制者合规运营,实现事前预防的效果。
那么人脸识别技术风险预防的目的是什么?在各国立法和国际条约中,产生了对风险预防原则的多种定义和理解。在最基础的意义上,对风险预防原则的理解有“弱”“强”的区分。但无论是哪种定义,风险预防原则的核心在于对科学上不能确定的风险的规制。它要求政府在公民面临不确定风险时,采取保护公民的预防性规制措施,至于是这样规制还是那样规制,风险预防原则无法提供特定的、固定的答案,这将在政府综合考虑各种不确定性与信息后作出。[12]因此,这里内含着价值选择的过程。事实上纵观各国立法,根据不同种类的具体数据类型而制定不同的数据规则与制度是大势所趋。[13]本文认为,人脸信息作为一项敏感个人信息,涉及多元利益。不同于强调数据开发利益价值的一般数据,亦不同于关系国家安全与社会公共利益的核心数据,对人脸信息的关注点应是在数据安全的基础上实现利用价值,即安全是人脸识别技术风险预防的首要目的,利用作为次要目的。协调平衡二者关系,才能建立合理的人脸信息使用规则。
最高人民法院于2021 年7 月发布了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(以下简称《人脸识别司法解释》),这是我国专门针对人脸识别应用进行规制的第一部法律文件。2021 年8 月,《个人信息保护法》发布,其中关于敏感个人信息的规定、关于公共场所安装图像采集、个人身份识别设备的规定,与人脸识别密切相关。另外,《民法典》第四编人格权编规定了个人信息保护的基本原则和框架。这些法律规则构成了我国关于人脸识别规制的主要法律框架。其中,“风险”一词在《个人信息保护法》中出现了4 次,体现出立法者的风险意识,但相比于欧盟《一般数据保护条例》中“risk”(“风险”)一词出现了75 次,我国在《个人信息保护法》中未能表现出对风险的高度关注,且如何将风险预防原则制度化建设并细化发展仍待进一步的思考。
对于非公共安全场景而言,人脸识别技术构建在知情同意框架的基础上,基于个人对风险认知的困境,知情同意原则其实受到了极大的挑战。个体常常依赖于自我的直觉,对风险的反应并不理性,如果其近期经历过某一风险的现实化,或某一风险能使之联想起近期发生的事件,那么对于该风险,个体能够迅速作出关注与反应;倘若一项风险关系某一新发展的科学技术,囿于认知范围有限,个体往往低估潜在的风险,并将判断能力依赖于专家,专家便扮演着帮助人们对信息进行判断的角色。专家只提供专业信息与标准,对于缺乏技术专业背景的个体,其仍无法理解专业信息背后的利弊,而这些信息往往经过经营者之手,呈现到人们面前。经营者与被识别者有着不同的诉求、利益与关注点,对信息把握与呈现方式的期待是相互竞争与冲突的关系[14],个体希望得到通俗易懂的风险提示,而经营者则企图呈现出复杂的人脸信息使用政策以满足合规的需要并为其日后免除相关责任探寻路径。
人脸信息作为敏感个人信息,其承载风险极高,“牵一发而动全身”,一旦风险现实化,可能引发的连锁效应将对社会构成严重危害。表面上看,知情同意框架将人脸信息的决定权与支配权放置在个体手中,但实质上这是一种并不负责任的处理方式,将人脸信息泄露、非法使用的负担转移到个人肩上[15],将个人的选择权置于经营者这一“准官僚化”机构之下。人脸采集硬件设施一旦安装在经营场所等公共区域,即便能够做到充分的告知,个人在知情后并没有是否同意的余地[16],因为双方的权力并不对称,不存在合理的制衡措施,个人需要在离开经营场所不参加相应的社会活动与接受人脸识别之间作出选择。对此,《网络数据安全管理条例(征求意见稿)》第25 条对身份识别的方式作出了规定。但即便经营者自身有着合规的自觉,隐私条款冗长晦涩,加重用户阅读负担,用户不阅读条款而直接勾选同意成为一种常规操作。[17]如上文所述,个体认知的有限性导致了面对难以理解的隐私条款人们的风险意识较低,在此种敷衍式的同意下,用户想要理解隐私政策并作出信息自决几乎不可能。条款沦为一纸空文,人脸信息的自决权被架空。
阿列克西曾提出四个关于公共利益与个人权利的命题,他通过分析第一和第二个命题,认为公共利益是实现个人权利的手段,还是个人权利是实现公共利益的手段,反映出个人利益与集体利益的冲突关系。[18]对于公共安全场景下的人脸识别而言,根据《个人信息保护法》第26 条和《人脸识别司法解释》第5条,“维护公共安全所必需”是公共场所使用人脸识别技术处理个人信息的免责事由。问题是仅凭“为维护公共安全”本身能否认定刷脸的必要性?[19]换言之,是否可以不惜一切代价维护社会公共安全?倘若直接适用该条款,而忽视《个人信息保护法》第5条所强调的正当、必要性原则,将泛化的公共安全作为突破正当、必要性原则的例外,则易引发监视权的扩张。事实上,阿列克西对公共利益与个人权利关系的阐释只考虑到了双方的线性关系,公共利益与个人权利应是循环互补的关系,公共利益是权利束,指向无数个人权利,忽视人权保障的公共利益从不是“真”公共利益,与黄灯理论相似,公共利益与个人权利应平衡。当下缺乏关于如何适用《个人信息保护法》第26 条和《人脸识别司法解释》第5条的相关解释,对公共场景下的诸多风险缺乏必要关注,易导致公共利益突破比例原则限制的情形,且可能随着破窗效应,引来公民安全感缺失与政府公信力透支的诟病。
《个人信息保护法》第28 条规定了处理敏感个人信息的特定目的和充分必要性要求。本文并不否认上述原则是规制人脸识别技术所应遵循的准则,但应以“场景、风险导向”作为补充。人脸识别技术法律规制并不是固定僵化的,人脸信息的收集与使用是动态的,所在场景复杂多变,法律难以作出预定。[20]静态的知情同意框架与维护公共安全的理由难以适应纷繁多变的场景。特定目的的要求往往体现为立法的事先授权与控制,由于不可能存在滴水不漏与理想化的控制流程,特定目的要求事实上仅规制到人脸信息的收集的过程,而数据的跨越性决定了数据使用环节为全流程的主要环节,特定目的要求难以辐射到数据使用环节,且数据使用的目的难以唯一确定。
当下欧洲与美国均或多或少地采纳了场景与风险导向的新理念。美国《消费者隐私权利法案(草案)》规定了经营者只能通过相应场景中合理的手段收集、留存及利用个人信息,经营者须告知用户场景中的风险,并以合理的方式让用户选择是否要承担风险,并提供更低风险下的服务。欧盟《一般数据保护条例》亦以风险为导向,在知情同意的基本框架下将不同场景的风险分为高、中、低三个等级,强化数据控制者与处理者的义务。人脸信息不同于一般数据,对其关注点应是在数据安全的基础上实现利用价值。我国目前的个人信息保护模式与美欧存在一定的差距,因此,如果说对一般数据采用严格的风险预防会加重经营者合规负担,那么针对风险性极高的人脸信息采用场景与风险导向既有必要,也未操之过急而具有可行性。
我国可考虑以场景化为出发点,要求经营者将人脸信息收集处理的风险告知用户,由用户决定人脸信息采集处理工作是否为自己所接受,经营者后续对人脸信息利用时应将风险控制在原初风险之下,每超过原初风险,便再次向用户说明风险,征询是否符合用户合理预期,若无法取得用户授权,则应取消该高风险的人脸信息利用行为,因为安全价值为第一序位。上述对风险的评价均建立在风险评估的基础上,每个独特场景的要素都是风险评估的考虑因素,且风险评估建立在收集、利用的全过程,而非仅限于收集阶段。通过场景与风险导向,重点关注人脸信息的处理环节,而非僵化性适用知情同意或公共利益的需要,可避免陷入全有或全无的不合理困境,提升个人对人脸信息的实质性控制能力。
确立完风险预防的理念之后,应建立人脸识别风险规制框架,至少应包括“风险评估—风险管理—风险沟通”三个环节。
(1)人脸识别技术法律风险评估。根据《个人信息保护法》第55 条,人脸识别机制至少涉及第一项敏感个人信息与第二项自动化决策,因此必须进行风险评估。《信息安全技术个人信息安全影响评估指南》要求进行算法影响评估,但仅为推荐性指南。可见现行法缺乏对人脸识别技术风险评估的细致性规定。比较法上,美国华盛顿州《人脸识别服务法》第10 条规定应成立人脸识别工作组,引入专业化多方治理机制。欧盟《一般数据保护条例》提出隐私影响评估制度,列举了信息的可识别程度、自然人易受伤害的程度、信息处理的规模等多项评判风险的标准,将风险划分为三个等级。我国可以考虑由行政机关牵头,设立科技伦理委员会,在部署人脸识别系统之前应当进行伦理与科技等要素的风险评估,运用行业中成熟的评估工具,根据不同的场景,确定不同的风险等级,并以通俗易懂的语言向社会公众公布相应的评估报告。人脸识别风险评估应当贯穿人脸信息收集、使用的全流程,定期对人脸识别技术可能出现的新风险进行评估。
(2)人脸识别技术法律风险管理。对于公共安全场景,前文已提及缺乏关于如何适用《个人信息保护法》第26 条和《人脸识别司法解释》第5条的相关解释,易导致公共利益突破比例原则的限制。在“马普尔案”中,欧洲人权法院即表示,以公共利益为由无限期保留已无罪释放的嫌疑人的生物识别信息属于不合比例原则的措施。国家应意识到其自身亦为风险源,应避免过度收集使用人脸信息,对公共安全进行合法、正当、必要性审查。因此,《个人信息保护法》第26 条和《人脸识别司法解释》第5条必须作严格限缩,即便是为了公共安全,对人脸信息等敏感个人信息的处理也必须符合比例原则的要求。应细化《个人信息保护法》第26 条公共安全的范围,考虑采取明确的列举式规定,如追踪重大违法犯罪嫌疑人等。行政机关作为监管部门,可以发布责令停止、责令改正等行政命令以遏制人脸识别技术的不当运用。同时可以采用经营者信用评价,提示用户注意风险。当然,行政机关采取的风险预防措施本身应进行合比例性审查,牢记人脸识别技术风险预防的行政权定位,将安全视为人脸识别技术风险预防的首要目的,利用作为次要目的。倘若特定场景下人脸识别技术风险不高,则应允许经营者实现人脸信息的利用价值,不应片面追求严苛的执法。
(3)人脸识别技术法律风险沟通。广泛的公众参与是风险规制活动不可或缺的环节。单靠政府包揽风险预防并不能解决问题,民众作为风险的直接受影响者,有权知晓自己面临的风险并作出对自己有利的选择。美国加州《人脸识别技术法案》对问责报告、年度报告的要求,便体现了公众参与的理念。经营者与行政监管部门识别出人脸识别技术的相关风险后应及时提示用户,进行信息交换与互动,让用户认真权衡与判断,由人脸信息侵权的潜在受害者地位,转变为实质可以参与到风险决策过程中的权利人,督促政府与经营者不断完善风险管理方案,推动风险决策的优化。无论是知情同意原则在人脸识别技术应用过程中的失效,还是公共安全场景下监视权扩张,都要求在人脸识别技术应用的全部环节,引入公众参与机制,让公众了解风险现状。我国可以建立“评估信息公开—用户自我决策—提供低风险服务”的过程减轻公众对于人脸识别技术滥用的担忧。
人脸识别起到身份认证的功能,是激活各类社会身份与活动的钥匙。国家对人脸识别技术进行风险预防的义务是国家保护义务的扩大的结果。人脸识别技术风险预防中行政权的定位应是保障人脸信息安全第一,利用价值第二。为人脸识别技术建构一个现代化的风险管理框架,首先应确立风险预防理念,以场景化为出发点,告知个体风险,让个体拥有风险决策权。其次应关注风险评估、风险沟通和风险管理三个环节,建立人脸识别技术法律风险评估机制以及实现全流程的公众参与,同时在风险管理过程中还应强化比例原则的指引。最终在人脸信息安全和人脸信息利用相辅相成的基础上,促进技术更新与社会变革。