◆王利平
(湖北警官学院 湖北 430034)
人工智能对社会的发展如同历史上科学技术的发展对社会的影响,一方面改善方便了人们的生活,提高了人们的生活质量,同时,掌握更高更快更先进的技术技能也为以后的发展创新提供有力的支持;另一方面也带来一些负面的影响,例如:让一些没有掌握新技术的人被社会淘汰,或者通过人工智能中所掌握的一些个人信息资料在某些时候不当利用,甚至为一些人利用进行违法犯罪活动等等。作为法律不仅要利用人工智能等高科技技术带来的高效便捷,还要对这些侵犯隐私等不利方面,进行法律层面的细致分析研究,使人工智能得到法律层面的规制,减少对人类的不利因素,便于其更好地为人类服务。但是,由于法律的滞后性,很多相关法律对涉人工智能运用的应对还比较慢,这就造成人工智能在应用中出现的侵犯隐私的现象没有完善的法律规制,导致这些隐私侵犯案件最后不了了之。面对这些问题,有必要对人工智能应用中的隐私权加以研究。
通说认为隐私权是美国的缪尔·沃伦和路易斯·布兰迪斯在1890年发表于哈佛法律评论中的一篇名为《论隐私权》最早提出的概念。该文将隐私权定义为一种个人享受独处的权利,从此后就开始不断被完善与丰富,20世纪60年代信息隐私也成了隐私权保护的重头戏[1]。随着社会的发展,源于熟人社会被陌生人社会所取代后,人与人之间有了陌生与距离,使得人们开始有了私人空间的想法。我国学者王利明在其著作《人格权法研究》中提出:隐私权是私生活的安宁及私生活秘密不受他人侵害和干预的权利[2]。隐私权作为一个时代发展的产物,会随着时代的发展、人类的认识改变而不断发展改善和衍变,现阶段,随着人工智能的不断发展,我国对其的研究也开始逐步重视,人工智能背景下的隐私权是当代隐私权的延伸和发展。人工智能的本质是解决问题,而这需要以数据和算法作为支撑,因而对隐私权具有天然的侵袭性[3]。
人工智能顾名思义并非是人的智能,而是通过数字计算机或由数字计算机控制的机器的运算,来模拟和拓展人的智能,它可以感知周围环境获取数据参数、学习知识并利用知识得到最优的方法、结果及应用[4]。其特点就是以计算机或由计算机控制的机器的运算所得到的数据为基础通过所获数据按照一定算法规则进行计算,再根据相关信息的组合为人类提供相关服务。其中积累的数据越多、越全面,收集的个人相关资料越齐全,人工智能最后得出的信息越精确,得出的结论就更加符合使用者的需求,使得人工智能在信息选择权方面就对人们进行了限制,最后,个人隐私不仅被利用,还被无形中限制了信息选择权。由此可知,个人隐私信息不仅具有人格意义上的属性,还具有一定经济性质的权利。因此,在人工智能背景下的隐私权较以往时代的隐私权虽然并未发生实质改变,但是在范围上有了较大的扩张,主要体现在:主体客观和属性的扩大,应当包括信息隐私、个人生活和空间等方面。
从古至今,人们的隐私多是由自己及国家有关行政机关掌握,其表现客体也多为个人信息,外界很难获取。但是信息社会中,利用人工智能获取的数据范围非常广泛,在很多智能设备中都保存着使用者的日常生活包括消费、出行,甚至心理、生理的信息数据。比如,人们在办理会员积分卡时,会被要求提供姓名、身份证号码、工作单位、受教育程度,甚至有些办卡还要求提供婚姻状况、子女基本状况、其他联系人资料等信息。这些看似十分便捷的人工智能工具在使用的同时,也在获取相关个人信息数据,而且很多情况下当事人处于一种并不知情的情况。在当今这个几乎透明的社会环境中人们的隐私权的保护就显得尤为重要。
首先,我国涉隐私权保护的法律规范不论数量还是规范的范围都在不断改变,目前为止《宪法》、《刑法》、《民法典》、《居民身份证法》、《未成年人保护法》、《传染病防治法》、《消费者权益保护法》等均有关于公民个人隐私的相关规定,尤其是2021年11月《个人信息保护法》的出台更是对个人隐私权的保护有质的提升,也是首次对公民个人信息进行了专门的规定。但是,受我国传统观念和立法水平的影响,再加上人工智能科技的发展日新月异,与法律天然的滞后性特点,这都在一定程度上加大了我国隐私权保障的难度。例如隐私权范围不明确,相关规定对隐私权范围的界定过于笼统,同时在人工智能时代隐私权侵权现象又无所不在,遍布人们日常生活工作的各个区域,这也增加了对其界定的困难性。很多时候,当人们感知个人隐私被侵犯时可能一过去一段时间,具体的被侵犯时间也无从确定,这些都增加了隐私权的保护难度。其次,当前立法保护也过于分散和抽象,各规定之间缺乏系统的操作性。虽然有《个人信息保护法》的出台,但在具体司法实践中仍然存在个人收集相关证据时的侵权范围、侵权主体、侵权时间无具体参照规定,导致个人无法进行实质上的维权。
除了相关法律规定外,在人工智能的行业中也有一些用于保护个人隐私的规定,例如《中国互联网行业自律公约》和《中国电子商务诚信公约》等行业公约,但是实践中,这些公约或规定实际上发挥的作用主要是指导作用,约束力明显不大,导致在具体操作时很难切实保障用户的隐私。至于还有一些在网上发布的倡议书,更是毫无法律约束护监管力度。此外,虽然有一些消费者协会制定的相关保护协议,但是其处理也仅限于消费者信息的处理,而且据查全国消费者协会也是从2019年才开始接受消费者对用户信息违规使用和过度应用的投诉,而且这些投诉一般是在消费者使用过程中出现的问题,并不是在事前进行规制。除此之外,在人工智能行业也没有专门监管机构对此类问题进行直接监管,更没有行之有效的法律规定的实际监管,难以临时或者事前进行预防;同时,人工智能行业由于其专业性高,一般人对其实际工作获取信息的处理等并不了解,如果出现隐私权被侵犯时,并不能及时知晓,只能在事后进行救济。但是由于缺乏有效行业规定,再加上行业自律建设不全等原因,无法在源头对其实际遏制,所以必须进行行业自律改革,进行有效行业监管。
关于个人隐私的法律保护在我国引起关注也是近50年以来,随着电子信息技术的发展而日益凸显的一个问题。但是由于社会传统观念、电子信息技术发展、立法规划以及人们的认识等方面的原因,我国缺乏隐私保护方面的法律。而且,我国自古以来就推崇与人交往要坦诚相对,即所谓“君子坦荡荡”的一种人际交往方式,这种传统的观念影响了一代又一代人;尤其是在我们一些常见的人际关系中,例如:我们日常生活中最常见父母子女、师生、领导与下属等关系中就很少考虑隐私权。其次,大多数人对隐私权的印象还留在侵犯他人领域这个范围,至于隐私权的范围、隐私权侵权认定等认识还比较模糊,很多情况下,人们都是在自己的相关权利遭受侵犯时,才意识到自己的隐私权被侵犯;有时候甚至根本不知道自己的隐私权被侵犯。除此之外,随着人工智能的发展,一些特殊职业的人群例如公务人员、网红、明星等因其工作职业的特殊性,使用或掌握一定信息,也没有具体法律明确规范其使用或者被使用的情形。这些都是个人隐私保护意识比较薄弱的表现,不利于隐私权的规制和发展,同时对人工智能的长远发展也不利。
只有完善的法治,才能从根本上保护人工智能时代人们的隐私权。结合当前立法现状在关于隐私权的立法规制中应从以下几个方面进行:
第一,完善相关隐私权的法律规定,使隐私权保护规范化。在将人工智能隐私权法典化时,首先要在法律规定中明确隐私权的范围,以便人们发现自己的隐私权被侵害时有法可依,并且通过法律规定能够及时知道并向有关部门投诉,及时维护自己的合法权益。同时注意对范围的规定既要包括现实生活中已经出现的侵权范围,还要预见性的考虑人工智能的飞速发展情况下未来可能发生的侵权情形,减少因法律滞后所带来的保护空缺。对隐私权的主体范围和权利进行明确规定,一方面,可以规范相关人工智能对个人相关信息使用的法定范围,为后续隐私权的维权提供依据,方便用户认定被侵权的情形,同时也能让用户更加放心使用相关人工智能,体验到更多人工智能给生活带来的高效、便捷,也能更加配合提供相关信息,减少纠纷发生;另一方面,也能促使人工智能设计者在设计相关程序时更加严谨、科学,最终促进人工智能科学的发展更加快速、科学,使人类和人工智能二者之间形成良好循环。
第二,明确隐私权的主体权利,这有利于人们使用人工智能时的信息自决权得以保障,也能在一定程度上使人工智能的应用者在处理信息过程中明确界限,以减少对用户隐私权的侵犯。首先,主体权利中最重要的权利是用户的知情权,对于人工智能在运行过程中可能出现对隐私权产生影响的内容必须进行明确告知,并且用户也有明确表示已知晓相关内容。其次,赋予用户数据所有权,一些重要的身份信息的决定权归于用户而非应用者,如果收集信息应用者要使用这些信息,必须经用户明确的同意才能使用这些信息。再次,赋予用户信息选择权。这要求人工智能对曾经使用过的信息必须设置为自动删除或者覆盖,再次使用时必须重新收集,这样可以避免侵犯用户的信息选择权。同时,在人工智能的设置中将明确告知并得到用户肯定性回复时,才能使用这些信息,否则也构成侵权。
第三,规定例外情形。针对人工智能所提取的信息是用于对国家安全、公共秩序、社会公共利益的情形下,就要设置例外规定,包括经用户同意并明示自己的信息可供相关人工智能适用和研究。以此次疫情为例,通过大数据对人们日常出行大数据的追踪分析,可以很快对需要隔离检查的人群进行分流,既考虑到社会公众的安全,也能让相关部门迅速作出相关部署,防止疫情的扩散和蔓延。
随着计算机科学的迅猛发展,人工智能的发展正以日新月异的速度发生变化,这使得本就具有滞后性的法律难以跟上其发展速度,也不利于法律对人工智能进行实际管控,对此必须有针对性地设置相关行业自律对这些问题进行专业性的规制,以此弥补法律规制的不足。首先,制定相应用户信息隐私权保护的相关行业准则。相关人工智能企业必须以国家相关隐私权法律规定为前提条件,结合本行业特点以及行业现实发展情况,制定有利于产业发展并高于法律规定的更有专业性隐性保护自律准则,达到在促进行业发展的同时,也能保障用户的个人隐私。在欧美国家,应政府和用户的要求,企业的服务条款中要明确说明来源于用户的信息仍属于用户自己,如果在使用过程中侵害了用户的隐私信息,应承担相应的责任。此处的责任既包括违约责任,还包括侵权责任[5]。其次,行业要设定一定的标准和要求,使产品设计之初就将隐私权保护的理念纳入设计中,从源头上解决或减少隐私权侵权的可能性,并且在此技术设计中将此作为一个必选项,同时要求在使用的过程中必须以明示的方式,让用户清楚了解其使用的人工智能可能存在的侵犯隐私权的情形,并设置相应告知步骤让用户明确回复已知晓。这在很大程度上让用户明白自己的每一次被获取相关资料时可能出现的后果。最后,行业还要设立专门的监管机构和监管机制。尽管企业为了发展和生存会有一定的自律性,但是这种自律的有效性和长久性值得商榷,所以,设立一个专门的监管机构定期对监管范围内的企业按有关行业机制进行检查,或对人工智能收集的大数据中有涉隐私权侵权情形的,制定相关责任追究措施;同时,还可以在网上企业标志做相关标记或制定企业诚信档案,以供使用者查询。此外,由于隔行如隔山的道理,还要设置一些专门机构,处理一些简单的用户投诉和他人举报问题,可以第一时间快速处理相关隐私权侵权纠纷。
随着信息技术的飞速发展,人工智能技术也正以飞快速度快速发展,人们越来越意识到隐私权保护的重要性。虽然法律有相关法律规定、行业也设有相关监管机构和机制,但是加强公民自身隐私权保护也是也尤其重要。但实际上,大部分人在享受人工智能带来的方便快捷时,几乎没有隐私权的保护意识。因此,在加强立法规定和行业自律时,还应当提高人们隐私权的自我保护意识。对此,可利用社区宣传,专门制作一些针对人工智能时代隐私权的保护的公益标语;还可以手机群发一些公益宣传,提醒大家定期或者随时清除上网浏览痕迹,在签署一些软件使用的注意信息时,也要认真阅读相关条款,尤其是涉及个人隐私和信息的条文;最后还可以在社区设置一些个人隐私保护咨询处等方式,全方位增强公民个人隐私保护意识。
除此之外,针对一些特殊人群,例如未成年人、公众人员、公务人员等要进行区别对待,使所有人的隐私权在人工智能时代得到法律的保护。