摘要:人工智能时代个人隐私权保护问题重重,备受社会关注。一方面,人工智能技术依托数据收集和算法,广泛而深入地掌握着海量数据,存在着泄露和不当利用的极大风险;另一方面,人工智能数据管控、开发、应用、监管面临诸多法律困境。目前,应当重新定义隐私权范围、加强隐私权保护执法、加强技术监管、构建行业自律机制、提高公民隐私权保护意识,来应对人工智能时代隐私权保护面临的问题。
关键词:人工智能;隐私权;个人信息保护
中图分类号:D913
DOI:10.13784/j.cnki.22-1299/d.2021.04.007
一、人工智能时代隐私权的界定
隐私权已被国际社会普遍接受并确立为人的基本权利之一。随着互联网技术和人工智能应用于社会生活的方方面面,隐私权的内涵和外延也极大地得到了完善与发展。王利明教授将隐私权定义为“自然人享有的对其个人的、与公共利益无关的个人信息、私人活动和私有领域进行支配的一种人格权”。[1]《民法典》第1032条将隐私定义为“自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息。”随着互联网时代的到来,隐私权的保护面临极大的挑战,隐私权不可避免地从原有的私人空间独处及私人领域的自决范畴,向个人信息权利的范畴拓展。在当前人工智能时代背景下,海量的数据产生并被广泛地搜集、分析、利用,原有的隐私权的内涵已无法涵盖个人隐私保护的需求。人工智能时代隐私权不再仅仅是原有的“私人空间自治的权利”,以及“自决不受他人干预的权利”。人工智能时代隐私的内涵突破了原有“隐私性”“自决性”范畴,具有了一定的“社会性”和“公共性”,特别是人作为具有社会属性的高级生命,在社会生活中必然存在与外界的广泛接触,而由此产生的过程信息具有个人特殊性质,成为个人隐私的一部分是有正当性。当前,人工智能技术广泛地应用于社会生活之中,对个人隐私造成侵害的形式多种多样,侵权后果也较之传统的侵权形式更加严重,如浙江宁波慈溪“女主睡在我家床”案。正如马克思所言:“权利永远不能超出社会的经济结构以及由经济结构所制约的社会文化发展”,[2]隐私权的保护与人工智能的发展亦是如此。
二、人工智能时代隐私权保护的法律困境
虽然《民法典》中有专门关于隐私的定义,但人工智能时代下隐私权保护问题的法律困境仍然存在。我国人工智能技术的发展起步较晚于欧美国家,由于政府重视程度高,因此发展速度较快,在很多方面实现了弯道超车,但受制于资金不足、技术创新不够、人才短缺等因素,我国人工智能的发展仍然处于弱人工智能时代。[3]由于我国隐私权确立也处于初步阶段,缺少可操作性强的司法解释,加之复杂的人工智能侵权形式,因此目前只有部分显而易见的隐私侵权得以规制。一方面,为了使智能设备更加贴近用户的需求,人工智能需要依托数据与算法对用户数据进行处理,以提升用户的使用体验。另一方面,大量的个人信息被智能设备存储与分析,存在被非法利用和泄露的可能。法哲学家博登海默认为: “法律的主要作用之一就是调整及调和各种相互冲突的利益,无论是个人的利益还是社会的利益。这在某种程度上必须通过颁布一些评价各种利益的重要性和提供调整这种利益冲突标准的一般性规则方能实现。”[4]面对这种困境,必须探寻有效的策略,在人工智能发展与隐私权保护之间实现利益均衡。
首先,隐私权内涵的局限制约了对隐私的保护。《民法典》虽明确列举了“私人生活安宁”“不愿为他人知晓的私密空间、私密活动、私密信息”等隐私权保护范围,但在人工智能时代,隐私的范围已不再局限于“私密性”,隐私的内涵会不断扩张。为促进人工智能的发展,数据信息会被大量存储、处理、分析、共享,使原本属于个人隐私的信息数据成为数据掌控者的生产要素。同时,我国目前尚处于弱人工智能发展阶段,人工智能的数据处理能力、学习能力还较弱,当人工智能发展到较强阶段时,人工智能具备了自我学习能力、对数据信息进行自动加工的能力,以及依据所掌握的数据信息对个人进行全面分析的能力,显然现行法律关于隐私界定的局限会导致个人隐私权保护的不足。
其次,隐私权侵权救济方式不完善导致追责困难。在现实世界中,对隐私侵权主体的认定、证据的收集、损害后果的确认都相对容易,而在人工智能环境下,隐私权侵权更加隐蔽不易被察觉,其侵权方式主要是通过收集用户在使用智能设备或参与智能服务过程中主动或被动提供的个人信息数据,并对这些数据进行存储、分析、整合的过程中发生的。个人信息数据在留存之后被共享、利用,被侵权人很难确定侵权主体、侵权行为的实施过程,予以追责会非常困难。一方面,隐私权受到侵害无法得到有效救济,另一方面一旦侵权事实发生,侵权后果更具有危害性,现行侵权责任的形式是针对传统隐私侵权进行设置的,无法适用于人工智能下的隐私侵权。
再次,行业自律不规范诱发隐私侵权事件发生。目前我国人工智能行业尚没有形成隐私权保护自律监督机制。在尚没有法定的职能部门及时有效地监管的情况下,相关行业为了自身的发展,利用人工智能技术对用户个人信息进行加工利用,导致个人隐私权被侵犯,而此时用户大多无法察觉且不清楚通过何种渠道进行权利救济。我国人工智能相关行业发展不规范,为隐私权侵权埋下了隐患。
三、人工智能时代隐私权保护法律困境的原因探析
一是传统隐私权保护观念的影響。传统理论上隐私权被定性为私权属性,而在人工智能时代,传统隐私权的概念无法涵盖所有可能涉及个人信息被侵犯的情形。《民法典》中虽已经将个人信息保护与隐私权进行了区分,但社会生活中个人的私密信息与法律所保护的私密信息还是有所不同,如何甄别这类私密信息是另一个新问题。另外,由于传统隐私权的私权属性,现行法律对隐私权的保护更多地采用事后救济方式,即在现实中出现了侵权行为后再进行法律责任的追究。传统隐私权的救济方式与人工智能环境下隐私权被侵犯的现实冲突已经显而易见。
二是人工智能技术本身的不可控。人工智能技术依赖于数据和算法的支持,而随着人工智能由弱到强的发展,其可能具备自我学习能力,存在一定程度的不可控制性。另外,针对人工智能的立法需求迫在眉睫,但相关的立法研究还比较薄弱,要建构行之有效的监管措施也存在较大困难。
三是政府监管事后救济缺乏预警机制。人工智能时代隐私权不再局限于传统隐私权的私权性质,而具有了公共性。一方面,面對强大的第三方智能应用供应商,个人的力量显得尤其弱小,无法依靠个人的自治来维护自身权利。另一方面,政府在提供公共服务过程中也大量收集了涉及个人隐私的相关数据,隐私权保护也自然与政府有关。传统的观点认为隐私权属于个人自治范畴,因而政府对隐私权的保护也倾向于消极干预的事后救济,但在人工智能时代个人的隐私权已完全超出了个人自力救济的范畴,政府对隐私权监管的理念也需要更新,有必要在原有事后救济的前提下,形成事前预警机制,做好事中的监督,建构起全过程隐私权法律保护模式。
四、人工智能时代隐私权保护应对策略
一是适当拓宽隐私权的内涵。《民法典》将隐私权和个人信息均纳入了保护范围,明确将隐私权与个人信息权利作出了区分,但这并不意味着所有的个人隐私信息都得到了法律的保护。“在大数据时代,除表征功能外,个人信息人格利益仍应归入隐私范畴”,[5]而在人工智能时代,个人信息隐私权与个人信息权的边界不仅局限于私密性,而是具备了一定的公共性。一方面,大量个人信息数据被动的被存储和收集,如个人消费数据、行动轨迹、购物偏好等,这类信息一旦形成和提交,个人无法对这类信息数据进行控制和支配。另一方面,政府为了实现社会管理的需要,也大量收集个人数据信息,虽然已经有了个人信息隐私部分的保护规定,但如何界定个人信息中哪些是隐私部分,如何使得条文的规定更具可操作性,这又是另一个问题,需要进行专门的司法解释。因此,适当进一步拓展隐私权的内涵,增加隐私权保护的范围,才可以实现隐私权保护的目的。
二是完善侵权救济方式。《民法典》现有的侵权救济方式在应对人工智能时代的隐私侵权时存在救济不足问题,因此,可引入惩罚性赔偿制度,加强对侵犯隐私权行为的惩罚力度,同时也可考虑对被侵权人予以精神损害赔偿,以及吸取国外的立法经验,在立法方面增加更多的保护内容,加强数据控制的强势者的责任。
三是加强隐私权保护的法律监督。提高针对侵权行为的技术监管,面对人工智能技术的迭代更新,在执法技术上应与之相匹配。一方面,加强执法技术水平,充分利用现有人工智能技术,实现动态的实时监控。另一方面,在法律授权的范围内,执法机构可以利用在监管过程中掌握的信息数据和可能的侵权案件类型,形成技术监管规范,在监管中运用技术措施建构事前监督预警机制,及时针对人工智能相关行业作出预警,定期发布侵权预警信息,形成动态的隐私权信息使用监管制度,降低侵权发生概率,促进相关行业良性发展。加强执法监督队伍建设。我国目前没有专门的隐私权保护执法队伍,在人工智能时代隐私权保护面临严重危机的情势下,应整合现有执法监督队伍,集中现有优势的执法力量,吸收人工智能行业的技术骨干,充分利用人工智能技术加强违法行为的甄别,形成针对特定行业的隐私信息动态的评估监管,建立技术合格、业务素质过硬、学习能力强的隐私权保护执法队伍。
四是引导构建行业自律机制。在人工智能时代,法律的滞后性决定了通过构建完善的法律实现隐私权的全面保护是不现实的。人工智能的广泛应用带来的诸如智能决策辅助、智能应用引发事故、智能隐私数据泄露等问题,对现有立法带来巨大挑战,在理论研究和司法实践均不充分的情况下,单纯依靠立法和执法来实现隐私权保护是不现实的,行业自律势在必行。如科大讯飞发布的《人工智能深圳宣言》引发关于人工智能治理的讨论,并形成了相应的行业规则。企业的发展不能单纯从企业的利益角度出发,还要承担社会责任,科大讯飞的号召值得政府鼓励支持,以引导企业形成行业自律,进而形成行业自律标准和规范。
五是制订人工智能技术发展标准。当前我们还处于弱人工智能时代,行业的发展还没有形成统一的标准。因此,以建构人工智能技术发展标准为引线来实现隐私权保护模式的完善,可达到事半功倍的效果。首先,针对人工智能企业的设立,确立人工智能企业资质评估审核机制,提高准入门槛,促进人工智能企业规范化、专业化发展,从源头上控制风险。其次,在企业运营过程中针对不同的产品形成不同的安全标准,如智能决策辅助、智能应用集中的无人驾驶汽车,应设立严格的预警机制,将该类预警定位最高级。而智能设备隐私权数据泄露,可设置为第二等级预警机制。对于一些公开的个人数据信息的收集利用造成的隐私权侵权,应设置为最顶级的预警机制。
六是提高公众的隐私权保护意识。受传统的隐私权保护观念影响,我国公众对隐私权的保护并不积极,而人工智能时代仅依靠构建完善的法律体系、加强法律监管、形成行业自律、制订技术发展标准等这些外部手段来保护公民的隐私权,是有明显局限的。因此,应采取措施引导公民转变隐私权保护意识,重新认识新时代背景下的隐私权定位,积极地参与到隐私维权的过程中来。首先,政府为履行行政管理职能可以通过合法的途径收集个人隐私信息,但也应明确加以限制。其次,充分利用公众舆论的影响,针对维权成功的典型案例进行宣传,营造出公民积极参与、公众舆论广泛宣传的氛围,形成政府的权力监督、公民积极参与、公众舆论监督的内外合力的隐私权保护范式。
参考文献
[1]王利明.人格权法新论[M].长春:吉林人民出版社,1994:487.
[2]马克思恩格斯全集(第19卷)[M].北京:人民出版社,2004:20.
[3]柴天佑.我国还处于“弱人工智能”时代[EB/OL].http://wb.qdqss.cn/html/qdrb/20190304/qdrb368854.html,2021-3-15.
[4]博登海默.法理学:法律哲学与法律方法[M]. 北京:中国政法大学出版社,1999:20.
[5]房绍坤,曹相见.论个人信息人格利益的隐私本质[J].法制与社会发展,2019,(4).
作者简介
王庭琪,江西农业大学南昌商学院讲师,研究方向:法理学、民商法学。
责任编辑 李冬梅