人脸识别信息的隐私风险与法律规制

2022-02-03 22:15:31
关键词:信息处理隐私权人脸识别

梁 瑛

一、问题的提出

人脸识别技术的广泛应用在给人们生活带来便利的同时也引起了隐私侵权担忧。新京报智库在《人脸识别技术滥用行为报告》中指出线上的隐私侵权风险主要体现在,其对78 款热门应用的权限设置进行了检查,发现八成以上的应用装载了人脸识别功能,但半数应用在启用人脸识别功能时不会征求用户的同意。线下的隐私侵权风险主要体现在,不少人在买茶饮、药品、卫浴产品时,已成为线下门店们眼前“行走”的数据。而这种悄无生息的渗透,才让人心惊:当某一天你走进店里购物时却发现无人接待,或许就是因为你已经被标记为“低消费人群”。当然,更大的风险在于人脸识别作为一个接口,将我们在各个地方的消费记录,通过点和面的方式就能把所有的信息结合起来,严重侵害我们的个人隐私[1]。

郭兵诉杭州野生动物世界案件[2],作为人脸识别第一案更是从法律角度引发了人脸识别信息与隐私之间是何种关系的思考。在该案中杭州野生动物世界意欲将其收集的郭兵的照片用于人脸识别的行为明显违背其收集时的使用目的,以上行为是否侵害了郭兵的隐私权取决于人脸识别信息是否属于私密信息,但该案发生时法律法规并未予以明确。以上情形均表明在人脸识别应用场景中的隐私风险亟需从法律角度提出解决方案。

《中华人民共和国民法典》(下称“民法典”)《中华人民共和国个人信息保护法》(下称“个保法”)《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》(下称“人脸识别司法解释”)相继生效后,确立了对隐私和个人信息进行区分保护的规则。对于隐私与个人信息的交叉部分即私密信息进行双轨保护,即首先适用隐私权的规定,隐私权未规定的适用于个人信息保护法的规定。对于人脸识别信息是否属于私密信息而适用双轨保护,仍未予以明确。未对人脸识别信息的属性进行明确界定,不利于人脸识别信息的精准保护。这就引发了两个需要详述的问题:第一,人脸识别信息的隐私侵权风险问题,即在人脸识别场景中隐私侵权事件频发的情形下,仅依据《个保法》能否充分保护人脸识别信息所承载的个人隐私利益。第二,人脸识别信息的法律规制问题,即可否将人脸识别信息纳入私密信息予以保护,实行隐私权与个人信息权益的双重保护。

二、人脸识别信息的隐私风险

(一)人脸识别技术的隐私侵害现状

根据《2021 年人脸识别行业研究报告》人脸识别技术目前已在多个领域落地,其中在安防和金融领域应用最广。海康威视、旷视等与公安部门、零售企业积极合作,通过自身技术颠覆性改变了传统刑侦和零售场景。可以看出人脸识别技术已经深入到生产、生活中的方方面面,引发以下诸多隐私侵权行为。

1.人脸识别技术过度收集个人信息

2021 年8 月4 日,上海市静安区市场监督管理局发布《行政处罚决定书》,处罚科勒(中国)投资有限公司在2020 年2 月至2021 年3 月期间未经消费者同意擅自在门店安装摄像设备抓取人脸信息[3]。2021 年10 月29 日,浙江省杭州市上城区人民法院受理了一起消费者诉商场人脸抓拍的案件,一名大学生在杭州某商场购物时,发现某门店外安装了人脸识别抓拍摄像头。消费者只要到店,就会自动被抓拍并注册为会员,而商家通过将人脸信息与消费行为结合分析,来进行精准营销[4]。

以上所述的人脸识别技术在应用过程中存在不必要信息过度采集以及未经信息主体的许可擅自对人脸识别信息进行采集的情况,这是对隐私侵害的第一层次。基于人脸具有唯一识别性、直接性等特性,通过对人脸的识别可以精准迅速的识别个人,给日常生活、工作带来了极大的便利,信息处理者在人脸识别技术带来的方便以及其背后蕴含的经济价值促使下,广泛的使用人脸识别技术。人脸识别技术在应用之初主要是进行身份识别,在身份识别的过程中需要事先采集个人信息储存在数据库中,才能在再次识别人脸信息时通过与信息库信息进行比对从而达到身份验证的目的。而在信息库建立的过程中存在不必要信息过度采集的情况,对私密信息的不必要采集即使没有产生实际经济损害或者精神上的重大痛苦,这种采集行为本质上属于对信息主体私密信息的刺探,侵害信息主体对其私密信息不希望被他人知晓的需求,侵害信息主体隐私权。

2.人脸识别技术分析个人其他私密信息

人脸识别技术在算法、人工智能等先进技术的支持下可以对信息主体进行识别分析,识别分析的过程会形成对个人偏好、实时情绪信息等信息的预测,整合信息主体的个人信息,从而形成数字人格,这是对个人隐私侵害的第二个层次。2021 年3 月15 日,央视报道科勒卫浴门店安装的人脸识别系统由苏州万店掌公司提供,其负责人表示,顾客不戴口罩时,人脸识别的准确率高达95%,即使戴口罩,准确率也在80%-85%之间。另一位负责人表示,目前已经收集了上亿个人脸识别数据。该系统不仅能抓取顾客的人脸信息,还能分析出顾客的性别、年龄,甚至此时此刻的心情[5]。另外,沃尔玛超市正在开发能够检测识别顾客面部表情的人脸识别信息系统,通过摄像机记录下顾客从排队到结账过程的面部表情和体态动作,以此评估和解决顾客对服务的不满[6]。为了探求在网络2.0 时代个人信息与人脸识别软件结合起来是否可以大规模、自动化地重新识别个人,并且推测出更多个人信息,美国学者Alessandro Acquisti、Ralph Gross 和Fred Stutzman 在2010 年进行了三项著名实验来识别陌生人,并推断出其个人敏感信息,实验结果表明,人脸识别技术可以精准推测个人敏感信息并根据这些敏感信息对个人进行人格画像,最终可以实现从人脸识别到大量个人可预测信息的飞跃[7]。这种识别分析、预测个人信息的行为,从信息处理者角度是加大了其监控信息主体的权力,从信息主体的角度,无疑使信息主体的隐私一览无余。

上述分析识别过程,针对个人进行的算法自动化决策过程均涉及海量个人信息,科技的发展使信息主体对其个人私密信息的控制能力逐渐降低,使个人信息被他人刺探、泄露的风险逐步增加,人脸识别技术的分析功能可以使信息处理者在掌握信息主体其他个人信息,即使不掌握信息主体某一项私密信息的情形下,也可以对其私密信息进行预测。更加削弱了信息主体对其私密信息的控制能力,使我们的隐私处于岌岌可危的状态。

3.人脸识别技术精准再识别个人

人脸识别技术在分析、预测,形成个人数字形象后的再识别行为使信息主体在社会中彻底处于全透明状态,这是对信息主体隐私侵害的第三层次。Facebook 公司在未经许可的情况下,从该州数百万用户的照片中获取面部数据用于标签建议,并且将标签建议作为用户的默认选项,一旦创建了人的脸部模板,Facebook 便可以使用它来识别每天上传到Facebook 的其他数亿张照片中的那个人,并确定该人何时在场, 在哪里等行踪信息。同时,Facebook 也没有告诉他们这些数据将保留多长时间[8]。据《纽约时报》(The New York Times)当地时间2020 年 1 月 18 日报道,美国一家 AI 人脸识别创业公司 Clearview 设计了一款突破性的人脸识别应用程序 Clearview AI,用户上传照片后,可以看到图片中人物的公开照片及相关链接,其中包含个人的个人信息集合。Clearview AI 的核心是一个拥有超过 30 亿张图片的数据库,Clearview 声称这些图片是从 Facebook、YouTube、Venmo 和数百万其他网站上抓取的,规模远远超出了联邦调查局(F.B.I.)和硅谷巨头的数据库[9]。根据明视公司设想的应用场景,未来一个酒店的保安通过增强现实眼镜就能够识别出所有陌生住客的身份,并且直接呼叫名字。同时,美国有学者称这些使得人们“零隐私”“隐私已经死亡”[10]。信息时代已经完全冲破了传统物理世界的界限,它使这个世界形成了一个风险突出的“熟识”社会。在信息时代到来之前,人和人之间的熟悉是基于地缘关系、业缘关系、亲缘关系等形成的,自然人与人之间的熟悉与认知是有限和可控制的。但当信息时代到来之后,我们的私密信息被存储在信息处理者处,私密信息从此脱离了个体的物理控制,加大了各种私密信息泄露的风险。另外,信息时代把这个世界变成了一个信息容纳量极大的小世界,使陌生人可以精准掌握其他信息主体的信息,形成了“陌生的熟识社会”,使信息主体在科技面前无处隐藏。

Milligan 认为将视频监控等人脸识别应用产品用于执法和其他目的是对个人隐私的侵犯,这削弱了个人的自主决定权,并可能违反在公共场所和私人领域不受监控的合理期待。应该有专门的立法和司法保护来规制这些新技术的应用[11]。人脸识别技术已经全方位的渗透到我们的生活中,并对我们的隐私产生巨大的冲击。

(二)人脸识别信息的保护不足

1.人脸识别信息的属性不明

目前法律法规并未对人脸识别信息是否属于私密信息予以明确,同时在理论界,各位学者对人脸识别信息是否属于私密信息呈现出不同的观点。认定人脸识别信息是否属于私密信息涉及敏感个人信息与私密信息的关系,王利明阐明关于敏感个人信息与私密信息的关系存在三种学说,一是交叉重合说,二是独立区分说,三是私密信息覆盖说,且王利明赞同交叉重合说[12]。并主张人脸识别信息属于个人核心隐私予以保护[13]。程啸认为个人信息与隐私确实存在一定的交叉与重叠关系。个人信息既有隐私性信息,如个人的财务信息、遗传基因信息、性取向等,也有非隐私性信息,如网络社交信息等[14]。面部容貌不属于私密信息,但应当加强保护[15]。张新宝认为碍于人脸通常暴露于外的社会公开性,人脸信息难以被视为私密信息[16]。林凌认为人脸识别信息有别于隐私信息[17]。郭春镇认为虽然人脸自身并不是隐私,但人脸本身无疑携带着重要的个人信息[18]。申卫星主张,敏感个人信息应当纳入隐私予以保护[19]。

综上,目前对该问题尚无定论,但是已经达成共识的是要加强对人脸识别信息的保护。造成上述认定混乱的原因为没有精准区分人脸信息与人脸识别信息的概念,使人脸识别信息在私密信息内外徘徊不定。

2.人脸识别信息的保护模式不足

目前对人脸识别信息的保护主要采取的是行为规制保护模式,没有采取主体赋权的保护模式。虽《人脸识别司法解释》明确侵害人格权益的,可以主张相应的侵权责任,但是并没有明确人脸识别信息与人格权益尤其是隐私权的关系,基于该规定我们可以得出的结论是我们需要明确信息处理者在处理过程中如何处理信息主体的信息、处理信息主体的哪些信息,我们才能进而判断是否侵害了信息主体的隐私权,但在人脸识别技术属于暗箱操作的情形下,信息主体无从了解其隐私权是否被侵害。同时,目前仅将人脸识别信息作为一项权益进行保护,权益与权利的保护力度显然是不同的,权利受到法律完全的保护,兼具法律正面规范和反面救济,而法益相比于权利处于弱势的地位,法律承认法益的合法性,但不对内涵、外延作出正面规范,保护力度也更弱[20]。基于目前关于个人信息保护是否需要上升为一项权利的讨论异常激烈,但是由于个人信息所具有的财产属性以及其对数字经济的发展所具有的积极推动作用,必须对数字经济发展以及个人信息保护予以平衡,其是否能够上升为意向权利尚不可知。即便其最终通过论证以及实践的检验可以将其上升一为项独立权利,连带将人脸识别信息进行赋权加以保护为时已晚。

3.人脸识别信息的保护规则不足

首先,对人脸识别信息的保护基于特定目的-告知同意规则建立的,该规则建立的基础是预设信息主体为理性人,而现实是信息处理者无法做到有效告知,无法保障信息主体的充分知情,更谈不上理性同意。原因一,信息处理者未做到有效告知,信息处理者的告知清单冗长繁杂,晦涩难懂,采取信息爆炸的方式进行告知无法做到有效告知。原因二,技术本身存在告知障碍,人脸识别技术在收集完人脸识别信息后,对收集到的信息是进行全样本的处理,最终会出现何种结果是无法进行预知的,这也导致了信息处理者在告知时无法做到有效告知。原因三,信息主体数字素养较低,无法真正理解信息处理背后的含义以及将对其产生的影响。原因四,信息主体力量弱小,即使意识到信息处理者的行为将侵害其隐私权,但是基于双方的主体力量悬殊、地位差距,不得不选择同意。无论是告知的内容还是信息主体个人的原因使得告知(知情)-同意规则均无法得到落实,无法切实保障信息主体的隐私权利。

其次,《人脸识别司法解释》第五条明确列举了处理人脸识别信息的免责事由,信息处理者的处理行为符合法律、行政法规规定的情形可以不承担民事责任,该兜底性条款拓宽了处理人脸识别信息免责事由的情形,也即加大了对人脸识别信息的利用。而处理私密信息的免责事由之一是法律明确规定的情形,从上述二者免责事由的对比可知对私密信息的保护更强,对人脸识别信息的保护显然低于私密信息。

最后,侵害隐私的突出行为之一为人脸识别技术的分析行为,但目前法律并未对上述行为进行直接规定,仅能依《个保法》第二十六条、第二十八条与《人脸识别司法解释》第二条规定即应在具有特定目的、充分必要性以及在预设的目的、方式范围内处理人脸识别信息来阻止信息处理者对人脸识别信息的分析行为。由于法律并未对侵权行为模式进行清晰、明确的列举也没有进行明确定义,导致在实践中存在大量人脸识别技术的分析行为,而信息主体却无从维权。

4.人脸识别信息的救济规则不足

人脸识别信息的收集、分析过程具有较高的隐蔽性,信息主体无从了解其信息被处理的状态,难以举证侵害其人格利益。《人脸识别司法解释》规定如果侵害个人权益的尤其是侵害隐私权的,可以采用人格权侵权救济途径维权。但是传统的人格权侵权行为模式是直观的,可见的,易举证的,而人脸识别技术的操作过程是黑箱的、隐蔽的,在信息主体与人脸识别信息处理者之间存在数字素养鸿沟的情形下,信息主体无从得知其人格权益是否被侵害以及如何被侵害,维权更是无从谈起。更何况,我们通过本文前述列举可知人脸识别技术的发展与应用,对个人人格权益尤其是隐私权的侵害是全面、直接且严重的。

综上,人脸识别技术的不规范应用已经严重侵害信息主体的隐私权,并仅通过《个保法》及其配套规定,无法充分保护人脸识别信息所承载的个人尊严价值。如果不明确将人脸识别信息列入私密信息予以保护,会导致信息主体进行在维权时需要对其被侵害的人脸识别信息是否属于私密信息进行理论上论证,在没有明确的法律规定下,在实践中无法贸然认定对人脸识别信息的侵害属于侵害信息主体的隐私权,同时对于私密信息的不同判断标准也会导致在实践中同案不同判的现象,没有统一的保护尺度。致使信息主体人脸识别信息受到侵害时无法从侵害个人隐私的角度主张权利,仅能从对人脸识别信息的处理行为是否符合相关法律规定来主张权利,这无形中加大了信息主体主张权利的难度。

三、人脸识别信息的法律规制

应将人脸识别信息纳入私密信息,加强人脸识别信息的隐私保护,即首先适用隐私权的保护规则予以保护,其次适用个人信息的保护规则予以保护。其中对隐私的保护核心是维护个人尊严,防御外界对个人隐私的侵害,具有消极防御功能。对个人信息的保护主要是规制个人信息处理行为,平衡个人信息的自主控制与数据流动之间的关系,维护个人信息处理秩序。简言之,对隐私的保护倾向其所承载的个人尊严价值,而对个人信息的保护是平衡其所承载的个人对信息的自决权与经济价值。显然,人脸识别信息作为个人信息的一种,受到《个保法》的保护,本文探讨的是人脸识别信息能否作为私密信息受到隐私权的保护,完成人脸识别信息保护的另一轨道建设,形成人脸识别信息的双轨保护。人脸识别信息同时兼具个人尊严价值、财产价值、公共管理价值[21],在探讨人脸识别信息保护时不能仅依据《个保法》对保护与处理行为进行平衡,而将其纳入私密信息来强调和保护其承载的人格尊严价值是更加科学和必要的。

(一)科学性分析:人脸识别信息具备私密信息的属性

1.人脸识别信息具备可识别性

人脸识别信息属于已识别信息,具备可识别性。已识别信息是指能从多数人中识别出一个特别的自然人,即通过这一信息能将这个人从其他人中区别开来的信息,比如姓名、身份证号、生物识别信息等[22]。人脸识别信息作为生物识别信息的一种也属于可识别信息,可以直接识别至个人,同时人脸识别信息相较于姓名具有唯一识别性,可以识别唯一个体。相较于身份证号码具有快捷识别性,可以直接快速识别至个人,相较于指纹等生物识别信息具有非接触性,可在信息主体不知情的情形下精准直接至个人。因此,人脸识别信息具有私密信息的第一层属性即可识别性。

2.人脸识别信息具备非公开性

第一,人脸识别信息不同于人脸信息,其不当然具备公开性。由于传统认知中人脸具有天然的公开性,故在探讨人脸识别信息是否具备公开性时,首先应当明确区分人脸信息与人脸识别信息。人脸信息是指是个人物理、客观形象,其本身并不携带个人的其他确切信息,人脸信息包含人脸识别信息与人脸图像[23]。在传统观念下认为人脸信息具有公开性是基于在物理空间中人脸随时随地都可以被其他第三方观看所得出的结论。而人脸识别信息是一个具有独特含义的词,其所代表的是个人信息集合,人脸识别信息与人脸数据最大的差别在于“识别”之表述,单纯以数字或字符形式存在的人脸数据仅仅只是对特定自然人面部轮廓的客观表述,亦可理解为自然人肖像的数字化形式,而人脸识别信息则更强调通过人脸生物识别特征的不可更改性与对应自然人身份信息的关联比对,通过设备端的图像采集与数字化处理,验证自然人的特定身份[24]。美国伊利诺伊州的生物识别信息隐私法案(以下简称BIPA)是最早关于人脸识别信息的立法,其对“Biometric information”与“Biometric identifier”做了具体定义[25],对生物信息与生物识别信息进行了区分。因此,人脸信息被人脸识别技术识别之后会在网络空间处理,虽然物理空间与网络空间的相互影响越来越大,但我们仍不能完全祛除物理空间与网络空间的阻隔,故在物理空间内的人脸具有公开性,并不能得出在网络空间中的人脸识别信息也具有公开性。

第二,人脸识别信息在一定范围内公开或者被信息主处理者收集后,信息主体仍然对其人脸识别信息享有合理的隐私期待。根据隐私绝对公开理论、第三人理论认为当隐私公开或者被第三人知晓时,权利主体因此而丧失隐私权。但在信息时代隐私绝对公开理论已经无法解决信息主体对隐私的需求,应采用场景隐私理论以及公开动机理论重构隐私内涵。人脸识别信息作为个人信息的一部分,其产生就具有天然的共享、流动属性,同时信息时代中最大的特征之一就是个人信息无法完全置于信息主体个人的控制之下,必须借助于其他科技公司掌握其个人信息,但这仅是个人信息的存在方式出现了变化,并不能推定出信息主体愿意将其个人信息进行公开,从而丧失对该部分信息的隐私需求。保障隐私权的重要作用是维护个人尊严,而尊严价值的实现或损伤,并非全有或全无,而应被视为一个连续变量[26]。因此,当人脸识别信息被信息处理者掌握,信息处理者仍然负有保障信息主体的人脸识别信息及其连带信息不被其他第三方知晓的义务,更负有不滥用技术手段对信息主体进行分析的义务。同时,索洛夫 ( Solove) 认为,信息社会若坚持隐私具有完全私密性的立场,即意味着隐私在当今世界的实际消失,在信息关系条件下,被信息主体披露的信息也应受到法律保护[27]。该观点彻底冲击了隐私信息绝对公开理论,也解决了人脸识别信息纳入隐私利益予以保护的若干困境。另外,根据分享信息的动机理论,场景化隐私理论,信息主体将其人脸识别信息授权他人进行处理是有范围的授权并非无限的授权,其对人脸识别信息仍然具有隐私的合理期待。Carpenter v. United States 案件认为即使个人信息已经被采集但是由于是敏感个人信息,个人仍然享有对其不被他人知晓的合理期待,还可作为隐私利益予以保护。同时,根据戴昕教授的观点,信息时代中隐私信息不可避免的被第三人知晓,在隐私已经被其他第三人知晓的客观情况下,第三人应当采集积极的采取保障该信息不被继续泄漏扩散,是当今时代隐私保护的应有之意[28]。因此,将人脸识别信息纳入私密信息未造成对隐私权理论的冲击,符合信息时代对隐私的重新定义。

3.人脸识别信息链接诸多其他私密信息

在传统的物理空间中,对于人脸的识别使通过个人直接的观看,这个过程不涉及被观看的人的其他信息,隐私尚未受到威胁。但是在网络空间中,人脸通过人脸识别技术进行处理后形成人脸识别信息,其与个人其他信息相关联并且可以预测个人的其他信息,例如性取向、情绪等信息。这些信息均与隐私息息相关。

人脸识别技术结合人工智能、算法等其他技术可以分析、推测出信息主体其他私密信息。由于“脸”具有直接识别性、方便性、不可更改性、易采集性、不可匿名性等独特的属性,是“生物性的通用表示符”[29]。同时,人脸识别技术具有非接触性、隐秘性等特性,人脸识别技术的法律风险主要集中于“1 对 N”模式,该模式需要通过大量的人脸数据录入形成深度学习训练集合来完成特定自然人的精准定位,其识别过程既包括特定自然人的面部特征识别,也包括特定自然人身份信息的关联比对,以此来实现如何“排他性”地解释“A 究竟是谁”[30]。申言之,人脸识别技术的应用不仅涉及到人脸识别信息,同时涉及姓名、行踪信息、购物信息、信用信息、财产信息、医疗信息、基因信息、教育信息、就业信息、未公布的犯罪信息、性取向信息等多种连带信息,根据前述信息可以对信息主体进行分析、预测形成个人数字画像。根据“马赛克理论”(mosaic thoery)所揭示的,个人的碎片化信息很难侵害个人尊严以及个人自由,但是这些信息聚合起来会呈现出一个宽广视角。哥伦比亚特区巡回上诉法院在援引该理论时指出:即使个人对于个别零碎的信息欠缺合理隐私期待,但大量资讯的累积仍旧会对个人的隐私造成相当危害[31]。同时,陌生人可基于个人的数字画像对信息主体进行全方位的再识别,使信息主体在社会中处于“全透明”状态。这就造就了人脸识别信息在个人信息尤其是与个人人格尊严息息相关的个人信息中的代表和统领作用,这也就形成了人脸识别信息的牵一发而动全身的地位。

(二)必要性分析:弥补个人信息保护规则的不足

1.弥补人脸识别信息前端保护的不足

对人脸识别信息的前端保护主要是通过对收集行为的规制来完成。《民法典》规定对私密信息的处理必须有法律规定或者当事人明确同意,且原则上禁止个人隐私的商业利用。而《个保法》《人脸识别司法解释》明确可以基于个人单独同意、书面同意或者公共安全、突发公共卫生事件的需要可以收集人脸识别信息。与此同时,规定了人脸识别信息收集的免责事由,《民法典》第一千零三十六条与《个保法》第十三条规定处理个人信息的合法性基础还包括“合理处理该自然人自行公开的或者其他已经合法公开的信息,但是该自然人明确拒绝或者处理该信息侵害其重大利益的除外;依照本法规定在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息;法律、行政法规规定的其他情形。由此我们可知处理个人信息信息合法性基础要宽于隐私,若将人脸识别信息纳入私密信息,可以从源头降低对人脸识别信息的侵害。

另外,人脸信息收集行为模式之一是通过搜集公开的人脸图像等间接获取人脸信息的行为[32],对于该行为是否属于上述免责事由,目前最高院给出的回答以及解释是该行为不属于上述合法事由[33],原因是该处理行为已经超出了合理范围。显然该解释无法充分揭示为什么不能搜集公开的人脸图像来获取人脸信息。但如果明确将人脸识别信息纳入私密信息予以保护,就可以揭示上述收集行为实质为刺探信息主体隐私。

2. 弥补人脸识别信息末端保护的不足

对人脸识别信息的末端保护主要是通过规定救济规则完成。首先从侵权行为模式的角度分析,救济分为人格权的救济规则与侵权救济规则,不论上述何种救济规则均需信息主体明确信息处理者存在侵权行为。《个保法》所规定侵权行为模式主要是违法、违规、违约处理个人信息的行为。而隐私的侵害行为模式不仅包括非法处理行为,还包括信息主体以外其他主体的查看、刺探、知晓。可以补充《个保法》侵权行为模式规定的不足。其次,从人格权禁令角度分析,根据《人脸识别司法解释》第九条规定,信息主体需要证明信息处理者行为可能即将危害其隐私权,在未将人脸识别信息纳入私密信息的情形下,我们需要掌握信息处理者在处理哪种以及如何处理我们的私密信息,是否分析出我们的性取向信息,是否链接我们的银行账户等私密信息,如前所述,人脸识别信息链接诸多私密信息且往往在收集时即完成上述分析过程,只是作为技术与专业知识均受限的信息主体无从掌握证明信息处理者实施上述侵权行为的证据。也就无从举证,无法真正申请人格权禁令。若将人脸识别信息纳入私密信息,信息处理者的违法、违约、收集或者意欲将合法收集的人脸识别信息用作他用时即侵害信息主体隐私权,信息主体可以证明这种表象行为。如此一来,方便信息主体行权,也解决了文章开始提出的问题,即郭兵案件中,野生动物世界意欲将其照片用于人脸识别系统系侵害郭兵隐私权的行为,且郭兵可以依据隐私权主张其权利。

四、结语

人脸识别技术广泛应用,使侵害隐私权案件频发,目前法律并未明确人脸识别信息属于私密信息有碍对人脸识别信息的精准保护。将人脸识别信息明确纳入私密信息并消除对其保护的模糊性充分体现了对人脸识别技术应当秉持非特定目的不使用,能不用就不用的原则。在对人脸识别信息进行保护与利用的平衡中更加倾向于对人脸识别信息的保护,这有利于维护个人尊严。也符合人格权独立成编所体现出的摆脱我国传统民法“重物轻人”的趋势。同时,人脸识别信息纳入私密信息的障碍是隐私绝对公开理论认为隐私一旦公开就不能作为隐私利益继续予以保护,同时第三人原则认为当隐私被第三人知晓也不具有作为隐私继续予以保护的必要,但是在信息时代,对隐私的根本冲击就是信息就是要共享、流通,上述理论导致隐私保护的僵化继而无法保护个人尊严,也造就了隐私绝对公开理论、第三人原则的没落以及场景隐私理论的开始。目前对隐私权保护应当要求第三方知情人采取积极措施予以保护并防止其泄露。该种含义的规范保护正符合对人脸识别信息的保护需求,即在信息主体授权他人处理其人脸识别信息或者其人脸识别信息已经被信息处理者秘密收集的情况下,要采取积极的措施予以保障,更重要的是不要对人脸识别信息进行分析或者用作他用。因此,在人脸识别信息保护上,从权益内容、适用场景、免责事由等方面隐私权的保护规则无法被敏感个人信息保护规则所替代。在顺应信息时代的发展的基础上重构隐私内涵,将人脸识别信息纳入私密信息予以保护,对人脸识别信息予以双重轨道保护是保护个人尊严的应有之意。

猜你喜欢
信息处理隐私权人脸识别
东营市智能信息处理实验室
人脸识别 等
作文中学版(2022年1期)2022-04-14 08:00:34
基于Revit和Dynamo的施工BIM信息处理
纳税人隐私权的确立、限制与保护
揭开人脸识别的神秘面纱
学生天地(2020年31期)2020-06-01 02:32:06
妈妈,请把隐私权还给我
学生天地(2019年29期)2019-08-25 08:52:12
地震烈度信息处理平台研究
谷歌尊重雕像“隐私权”的启示
华人时刊(2018年17期)2018-11-19 00:41:21
CTCS-3级列控系统RBC与ATP结合部异常信息处理
基于类独立核稀疏表示的鲁棒人脸识别
计算机工程(2015年8期)2015-07-03 12:19:07