●陈 冉
“深度伪造一词源于2017 年,一名Reddit 用户@deepfakes 利用名人的图像、视频与色情内容中的原始演员合成色情视频,在网络上引起了疯狂传播,也引发了全球民众对人工智能技术发展的担忧。〔1〕See Regina Rini, Leah Cohen, Deepfakes, Deep Harms, Journal of Ethics and Social Philosophy, 2022(2): 143-161.为此,美国参议院2018 年提出了《恶意深度伪造禁止法案》,而后众议院在2019 年又提出了《深度伪造责任法案》。〔2〕这两部法案至今在美国联邦层面还未通过,但已有州立法对深度伪造进行了专门规定。根据美国学术界的研究成果来看,面对深度伪造色情信息的猖獗,美国联邦统一立法的呼声在学术界较为强烈。欧盟则将其以“深度合成”纳入《通用数据保护条例(GDPR)》,采取了数据治理和算法规制的模式,出台了《欧盟反虚假信息行为准则》,而德国、新加坡、英国、韩国等则试图将深度伪造纳入刑法规定范围。相较之下,我国2023 年施行的《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)、《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)作为专门的统一性立法,在全球深度伪造治理上具有立法的领先性。
从立法定位来看,我国法律规范采取的是“深度合成”“生成式人工智能”的提法,这一“技术性”表述,在一定程度上削弱了对“深度伪造”作为犯罪现象的社会危害性评价,以技术的中立性淡化了深度伪造的负面效应。这一定位对法学研究者的研究视野也产生了影响,尤其是在刑法学研究中,绝大多数刑法学者都是着眼于宏观的深度伪造技术应用探讨,虽然研究对象涉及了深度伪造对国家、社会和个人危害行为的诈骗、诽谤等,但多是基于宏观的技术滥用分析入罪可能,少有对深度伪造某一领域危害的司法实际问题进行专门研究。与这一突出的违法现象相比,作为深受深度伪造之害的“女性”在全球范围内都面临着法律救济不足的问题。〔3〕See Madhura Thombre, Deconstructing Deepfake: Tracking Legal Implications and Challenges, International Journal of Law Management & Humanities, 2021(4): 2267-2274.具体到我国当前高校爆发出的几起深度伪造女同学色情视频“造黄谣”事件的处理来看,“造谣者”一般仅被处以“传播淫秽物品”“贩卖淫秽物品”的治安处罚。〔4〕参见刘亚:《被P 图造黄谣,谁能“保你平安”》,载《方圆》2023 年第8 期,第52-53 页。行为人所受到的惩罚与其行为造成的严重危害性相比,有失相当。2018 年4 月,一段深度伪造印度调查记者拉纳·阿尤布(Rana Ayyub)的性爱视频在互联网上流传,在谈及受到的伤害时,Ayyub 表示,虽然“忍受了多年的网络骚扰”,但她发现深度伪造具有独特的发自内心的、侵入性的残忍,当她看到视频时,呕吐了,哭了好几天,最终被紧急送往医院。作为受害人,在反思视频对她的身体、精神和情感伤害时,她表示这段视频比现实的身体威胁要可怕得多。〔5〕See Shannon Reid, The Deepfake Dilemma: Reconciling Privacy and First Amendment Protections, University of Pennsylvania Journal of Constitutional Law, 2021(1): 209.虽然深度伪造产生的涉性视频信息不会像制作现场色情作品那样,让被描绘的女性遭受身体上的剥削,但最终产品仍然描绘了女性的肖像,这种错误陈述同样侵害了女性控制其性身份的能力,使得受害女性面临着现实的骚扰、辱骂以及对其尊严的践踏。
在深度伪造涉性信息的规制上,受害女性非但不能获得有效的法律救济,反而成为了“淫秽物品”的被评价对象,原本应当被作为受害者予以保护的女性却成了“淫秽物品”这一被打击对象的被迫参与者,从“优衣库不雅视频”中真实女性性隐私被侵犯的“传播淫秽物品”定性到深度伪造色情视频“传播淫秽物品”定性,司法实践在此类犯罪打击上,所关注的均是“性”作为被传播物品对社会秩序的破坏,而这些事件中的受害女性只是不幸成为了被违法犯罪分子利用的“工具”,“工具”本身的保护需求被溶解在了社会秩序保护之中,这无疑忽视了对女性的应有保护和尊重。
本文试图从受害女性的主体地位出发,尝试以受害人“性隐私”被侵犯为视角,探讨刑法在深度伪造涉性信息规制上的不足与面临的挑战,建构以受害人权利保护为出发点的深度伪造涉性信息规制路径。
在深度伪造涉性信息的规制上,本文所研究的深度伪造涉性信息是基于深度伪造技术应用带来的与“性”直接相关的人格尊严保护问题。〔6〕需要说明的是,深度伪造涉性信息的制作涉及文本、图片、视频和声音等,本文的探讨重点在于视频和图片。相对于图片和视频,文本和声音的识别性相对较差,适用传统刑法规制的可能性也更大,因此不作为本文探讨重点。此外,对于深度伪造色情领域应用的研究,学界也有针对AI 换脸等进行相关探索。本文之所以选定“涉性信息”研究,主要考虑“性”法益在刑法保护上具有相对独立的地位,单纯从身份替换等角度不足以彰显“性”保护的重要性。单纯就深度伪造的技术规制而言,我国《民法典》采用的是“利用信息技术手段伪造”的表述,2023 年《深度合成管理规定》采用的是“深度合成”的概念。学界存在“深度伪造”和“深度合成”并用的提法,从技术应用的角度来看,两者的内涵差异不大,考虑到技术的欺骗性及其伪造生成物的危害性,多数刑法学者采用的是 “深度伪造”的提法。〔7〕从学术界对“深度伪造”的探讨来看,以“深度伪造”为题目的学术论文最早发表于2019 年,而以“深度合成”为题的论文发表于2020 年;从使用范围来看,较多学者采取了“深度伪造”的提法,尤其是刑法学界在该问题的探讨上大都采用了“深度伪造”的表述。
“深度伪造”是利用了机器的自我学习,通过智能算法实现伪造的逼真化,在色情领域大量涉性伪造信息的传播,亟需刑法规制。对深度伪造涉性信息的规制可以从两个维度展开:其一,针对技术本身,从技术在“伪造视频”上的风险创制出发,针对 “深度伪造”技术及其产物的虚假性,以刑法对“虚假”的否定确立“伪造”本身的非法性。支持这一观点的学者认为“深度伪造”技术依托深度学习使得伪造的行为脱离了人工的直接参与,伪造行为不再是单纯的复制和冒用,而是全新的生产,应当将“深度伪造”直接视为一种犯罪行为。〔8〕参见李怀胜:《滥用个人生物识别信息的刑事制裁思路——以人工智能“深度伪造”为例》,载《政法论坛》2020 年第4 期,第146 页。其二,切入“涉性信息”的法益保护基础,从深度伪造色情视频的传播来看,对受害人造成了巨大的精神伤害,体现在性、隐私、名誉、信息的侵害,同时也对社会良好的性风俗秩序造成了破坏。因此可以通过对基础法益的保护实现对深度伪造的间接打击。
对于第一种规制立场,笔者认为,虽然从字义上理解,深度伪造的“伪”是“有意做作、掩盖本来面貌”,是一种“虚假”,与“真”相对,同时也有“不合法”的意思。〔9〕参见中国社会科学院语言研究所词典编辑室编:《现代汉语词典》(第7 版),商务印书馆2005 年版,第1363 页。但从“深度伪造”到“深度合成”已经实现了“技术祛魅”,作为技术本身并无对错之分,深度伪造可以应用于电影、摄影等诸多领域,伪造本身并不一定构成犯罪。我国刑法中大量“伪造犯罪”均有具体的对象,如伪造货币罪、生产、销售伪劣产品罪等。从这一角度来说,“伪造”行为是否构成犯罪,还需要考虑何种类型的伪造以及造成何种后果。之所以有观点支持将“深度伪造”直接规定为犯罪,实质上是考虑“深度伪造”的特殊性:高度的“以假充真”的可能。诚然,相较于传统伪造中简单的图片剪接粘贴,深度伪造这一仿造技术已经突破了传统仿造视频对图像等处理的技术瓶颈,具有高度的仿真性,甚至无法辨别真假。而也正是基于其达到“以假乱真”的程度,才出现了法律规制的需要。但这并不等同于对一切深度伪造技术的打击,着眼点仍然应当是现实的危害。对此,美国《深度伪造责任法案》在界定立法规制的“先进技术伪造记录”时,明确指出该法案所规制的行为“……利用深度伪造技术制作的视听记录虚构……有可能给他人利益或社会利益造成实质损害……。”〔10〕邾立军、李苏珂:《论对深度伪造侵犯自然人声音利益的规制》,载《行政与法》2022 年第11 期,第87 页。而从我国深度伪造虚假信息的规制来看,也是着眼于具体领域的危害,强调“非法性”,如《暂行办法》第4 条所明确的不得生成煽动颠覆国家政权、推翻社会主义制度,宣扬恐怖主义、极端主义以及暴力、淫秽色情等法律、行政法规禁止的内容。
为此,我国刑法在打击深度伪造犯罪问题时,仍然需要结合其具体应用领域,以深度伪造涉性信息的制作传播来看,着眼于其在法益侵害上的具体问题,对“涉性”信息侵害的法益进行具体分析,唯有如此,才能建立起对技术应用风险的实质性判断,合理划定刑法规制的边界。
从深度伪造涉性信息所侵害的法益来看,其将行为人的头像进行粘贴,首先侵害的法益即“肖像权”。事实上,在我国司法实践中,涉及“人脸”信息被侵犯的案例,在民法上多数也是从“肖像权”的民事侵权角度展开。〔11〕如杭州互联网法院审结的一例AI 换脸侵犯肖像权案件,法院认定“AI 换脸”应用程序开发者涉嫌使用深度合成技术侵犯原告肖像权。吕纯顺:《AI 换脸侵权问题研究》,载上海市法学会主编:《上海法学研究》2023 年第6 卷,第196 页。但从刑法的规制来看,肖像权却并非刑法规制的直接对象,只是在侮辱、诽谤罪中存在对侮辱公民形象的“肖像权”的间接保护。
根据最高人民法院《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,人脸信息属于生物识别信息。因此从个人信息保护角度,可以将深度伪造纳入侵犯公民个人信息罪的范畴。然而司法实践几乎所有涉及“人脸信息”的判例,都是对人脸信息与身份证号码、电话号码、姓名等多种个人信息一并评价,单独获取“人脸信息”即构成犯罪的情况在司法实践几乎不存在。为此,有学者提出,人脸信息在内的各种个人信息只是信息时代个人人格的信息载体,只有当这种信息足以危及现实性的人身或财产权利,才有必要进行刑法规制。〔12〕参见罗翔:《论人脸识别刑法规制的限度与适用——以侵犯公民个人信息罪指导案例为切入》,载《比较法研究》2023 年第2 期,第17-30 页。且不论人脸信息是否应当得到刑法保护,单纯从信息是否适合作为法益保护内容,学术界尚且争议巨大。根据我国《民法典》和《个人信息保护法》的规定,不同于生命权和财产权的赋权性保护,对于个人信息的保护,立法采取的表述为“依法取得确保安全”“不得非法收集、使用、加工、运输、买卖、提供、公开”,反映出其并不具有独立的权利取得属性,而是通过对外在不利行为的限制而实现保护,并不存在所谓“个人信息权”的设定现实。〔13〕参见龙卫球:《论个人信息主体基础法益的设定与实现——基于“个人信息处理规则”反射利益的视角》,载《比较法研究》2023 年第2 期,第152-171 页。这也就决定了对“个人信息”的保护不得不寻找其客观的法益基础,比如无论是欧盟还是美国的立法,在“个人信息”保护上始终与“隐私权”的保护密切相关。
而事实上,无论是从肖像权还是从个人信息保护的角度来看,都无法忽视深度伪造涉性信息对受害人本质法益的侵害——性隐私的侵犯。1999 年世界性学会通过了《性权宣言》,明确了性隐私权的保护地位和独立性。而在深度伪造涉性信息的规制上,2023 年我国台湾地区立法增设了“妨害性隐私及不实性影像罪”,其在修订草案明确提到“立法的缘由就是网络信息技术的发达以及人工智能技术运用的蓬勃发展,导致以电脑合成方法制作他人不实影像激增”,立法的修订是为了实现对被害人人格的保护,而这一人格法益的具体内容并非真实的性隐私,而是与性隐私有关的人格权。〔14〕参见许恒达:《深度伪造影音及其刑法管制》,载《法学丛刊》2021 年第265 期,第22-23 页。虽然我国台湾地区刑法在深度伪造侵犯法益是否为性隐私上出现分歧,但从其立法本身来说,仍然是肯定了深度伪造所侵犯法益与性隐私的相关性。
从域外其他国家刑事立法来看,虽然少有专门针对深度伪造涉性信息规制的罪名,但大都规定了与之相关的隐私保护以及人格权保护的相关罪名。比如法国刑法典明确将真实的隐私生活与个人形象剪接伪造行为进行了区别规定,分别规定在“侵犯私生活罪”和“侵害他人形象罪”。〔15〕参见《最新法国刑法典》,朱琳译,法律出版社2016 年版,第134-141 页。德国刑法第15 章规定了“侵犯个人生活与秘密领域罪”,其中第201 条规定了“言论秘密的侵害”,第201a 规定了“以拍照方式侵害私人生活领域罪”。〔16〕参见《德国刑法典》,徐久生译,北京大学出版社2021 年版,第 149-150 页。西班牙刑法典在第10 编规定了侵犯隐私、公开隐私和侵入住宅罪,将刑法规定的“隐私”明确为私人或家庭属性,也包括了数据信息,对非法占有、使用、更改以及披露均规定为犯罪,而对于涉及“性”的隐私侵犯更是规定了专门的从重处罚。〔17〕参见《西班牙刑法典》,潘灯译,中国检察出版社2015 年版,第105-106 页。俄罗斯刑法典明确规定了侵害私生活权利的犯罪。〔18〕参见《俄罗斯刑法典》,黄道秀译,中国民主法制出版社2020 年版,第74 页。值得一提的是,俄罗斯刑法曾经在2011 年修订时废除了第129 条诽谤罪,而后考虑对虚假信息的打击,在2012 年又再次恢复了诽谤罪的设置,但在刑罚设置上仅配置了财产刑,取消了“监禁”,将其与侵犯隐私权的处罚予以区分,凸显对侵犯隐私行为更为严厉的评价。
结合以上分析,笔者认为,大多数国家刑法都在规定了一般性人格保护的侮辱罪、诽谤罪之外,专门针对公民的个人隐私保护进行了具体的规定,而且隐私保护的力度也在一定程度上强于一般性名誉保护的侮辱罪、诽谤罪,部分国家还对侵犯“性隐私”的行为设置了更为严厉的刑罚。在深度伪造涉性信息已经成为全球化犯罪的背景下,我国刑法有必要加强“隐私权”保护的立法,但在法益的保护上,是否需要设置专门的隐私保护罪名或者性隐私保护罪名,笔者认为有待进一步论证,当下刑法需回应的是其所侵害的法益是否为现行刑法所涵盖。
从我国刑事立法来看,并无针对隐私保护的专门罪名,也不存在对性隐私的专门保护。这种对隐私权单纯依赖民法或者行政法等前置法规定的间接保护,已经逐渐无法适应网络背景下“性隐私”保护的需要。
从深度伪造涉性信息的打击来看,在信息获取、制作、传播的过程,如果能将第一个阶段的获取行为规定为犯罪行为,那么自然可以有效实现对犯罪行为的打击。有刑法学者便提出因应积极刑法观的立场,对网络犯罪治理从事中事后管控走向事前预防。〔19〕参见夏伟:《网络时代刑法理念转型:从积极预防走向消极预防》,载《比较法研究》2022 年第2 期,第59-71 页。那么对深度伪造涉性信息是否可以通过提前预防性打击实现治理效果呢?
前文已经论及我国当前司法实践鲜见单独对“人脸”信息的保护。而从理论上来看,“人脸信息”的保护也并不是单纯依靠前端获取行为的打击来实现,因为此时刑法规制的行为性质尚且不明确。越来越多学者提出,为了促进个人信息的有序流转,对于个人信息收集行为,应当采取相对宽松的规制策略。〔20〕参见丁晓东:《个人信息的双重属性与行为主义规制》,载《法学家》2020 年第1 期,第73 页。
在这一背景下,依赖前端对信息获取行为的打击实现对涉性信息传播的堵截,不具有现实可操作性。从我国刑法“侵犯公民个人信息罪”的规制立场来看,并未限定其为“隐私保护”,即便是已经公开的信息也可能构成犯罪。〔21〕参见喻海松:《实务刑法评注》,北京大学出版社2022 年版,第1060 页。结合我国《民法典》1034 条的规定,个人信息的范围大于隐私,其明确规定了“个人信息中的私密信息,适用有关隐私权的规定”。而这一规定映射在刑法中,单纯从侵犯公民个人信息罪来看,也无法看出隐私保护的优先性。基于《民法典》对个人信息范围认定的宽泛,刑法“侵犯公民个人信息罪”在信息认定上看似扩大了保护范围,却使得“隐私”被一般信息消解,而如果单纯的将“人脸”作为信息进行前端保护,也将消弭深度伪造涉性信息中真正受害人性隐私保护的特殊需求。
我国刑法在“个人信息”保护上不限于隐私保护的实践,与侵犯公民个人信息罪设立的基础并非某一个体独立隐私权的保护密切相关。在侵犯公民个人信息罪的法益确认上,司法表现为一种超个人法益,正如有学者所说“侵犯公民个人信息罪并不以单一侵害的严重性为特征,而是以巨大数量的侵害对象为表现”, “群体性是侵犯公民个人信息罪的核心特征”, “被害人是因为群体被侵害而非个人被侵害而具有刑法保护的必要性”。〔22〕王肃之:《被害人教义学核心原则的发展》,载《政治与法律》2017 年第10 期,第33 页。“在多数情况下构成本罪需要根据侵犯个人信息的条数来决定,这也就意味着多数情况下要符合‘情节严重’构成本罪,必须侵犯多人个人信息,也即是侵犯多人的个人信息自决权。”〔23〕江海洋:《侵犯公民个人信息罪超个人法益之提倡》,载《交大法学》2018 年第3 期,第151 页。2017 年最高人民法院、最高人民检察院出台的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》(以下简称《个人信息解释》)也明确了对于“非法获取型”侵犯公民个人信息罪,需要满足“50 条”“500 条”“5000 条”的要求,因此单纯侵犯某一个体的人脸信息很难被认定为侵犯公民个人信息罪。
综上,单纯依靠前端对“个人信息”的广泛打击实现对深度伪造涉性信息规制是不现实的,对比欧盟这样注重前端立法的国家,《通用数据保护条例》强调事前控制与事后防御且以事前控制为主导的模式,其理念“自设计开始的个人数据保护”贯彻的是一种过程性保护,其所强调的是防范而非惩罚,因此这种事前保护的模式是默认的全面性保护,强调合作而非对抗。〔24〕参见刘泽刚:《欧盟个人数据保护的“后隐私权”变革》,载《华东政法大学学报》2018 年第4 期,第59-60 页。而同样重视隐私保护的美国,2019 年、2022 年均有参众议员提出《算法问责法案》,要求科技公司评估并消除自动决策系统的歧视性偏见及对消费者隐私、安全的影响,2022 年美国两院公布了《美国数据隐私和保护法案》草案文本,对大型数据持有者设立了严苛的合规义务,要求不得以基于种族、肤色、宗教、国籍、性别、性取向或残疾歧视方式收集、处理或传输涵盖的数据。〔25〕参见尹雪萍、王义方:《以风险和责任为核心的算法法律规制》,载《法律适用》2022 年第10 期,第170-176 页。从欧盟和美国的保护模式来看,欧盟的前端预防更加明显,但无论是欧盟还是美国,在隐私保护上都坚持了全过程性保护,其前端预防是以整体保护的设立为前提,这与我国前端预防的“侵犯公民个人信息罪”中对“非法获取”“出售”“提供”行为的惩罚,单纯从阶段上进行分化打击的治理理念,具有明显差异。正是意识到了这一单纯从前端分离评价的不足,《个人信息解释》将“发布”拟制解释为“提供”,并将个人合法收集的他人信息向第三人提供做出了必须取得“被收集人同意”的限制。这也说明司法实践已经注意到了信息保护上需要考虑“受害人”全过程法益保护的现实需要。
综上,为了有效评价深度伪造涉性信息的危害,笔者认为应当从深度伪造涉性信息传播行为的整体危害进行评价,基于前端获取行为与后端处理对行为危害性的评价难以割裂,在刑法保护上不宜采取阶段性分化打击,而应当根据深度伪造涉性信息呈现出对“性隐私”侵犯的整体性危害进行评价和行为性质判断。
在信息产业化的背景下,“私人空间”已经不再是传统社会“关门即隐私”的时代,隐私作为依托数据保护的人格权保护逐渐从一种原始权利走向了“规范认可的权利”。“人脸”的编辑处理因其可能的高风险如被深度伪造侵害隐私权,已经被法律明确了“单独同意”的需要,因此刑法所保护的事实上是对“行政法授权”的人脸的保护,而不再是传统意义的人脸保护。
传统社会背景下,只要个人不积极主动地披露自身的相关信息,只要有可能实施外部干预的第三人被禁止性的法律规定成功予以阻击,个人便可通过物理隔离实现对自我空间自主的支配。与此相应,法律对私域的保护往往依赖于个体本身的防范。但以网络、数字与生物技术引发的第四次工业革命的挑战,提出了如何确保这场革命中“人类主导并以人为本”的重要问题。〔26〕参见[德]克劳斯·施瓦布、[澳]尼古拉斯·戴维斯:《第四次工业革命》,世界经济论坛北京代表处译,中信出版集团2018年版,第10-11 页。网络与数据技术的推广与普及,使得人类隐私伴随附着于人身的数据产业化,逐渐走向“公开化”。正如有学者指出,网络时代突破了传统法对私人领域的合理保护,并对侵犯公民个人信息罪的法益保护提出了超越个体法益和超个体法益的第三条道路。〔27〕劳东燕:《个人信息法律保护体系的基本目标与归责机制》,载《政法论坛》2021 年第6 期,第16 页。人工智能的便利性是以收集和使用用户的个人信息为基础的,因此人工智能技术不可避免影响了个人隐私等敏感信息自决行为的“自治性”。在美国,自20 世纪以后,个人信息便被要求与传统隐私中自主性隐私部分,比如怀孕、生育、堕胎等隐私利益区别开来,被划入所谓“决策隐私”之中加以重新审视和保护调整,信息隐私越来越多地包含了决策隐私的要素。〔28〕See Daniel J.Solove & Paul M.Schwartz, Information Privacy Law, 6th ed.Wolters Kluwer 2018, p.43.隐私权的内容成为了“规范”与“程序”架构起来的推定,立足于传统隐私保护“同意”即无保护的认识也开始面临挑战,在日益复杂的技术背景下,受害人的“同意”反而会成为侵害行为免责的借口。
在私法保护被瓦解的同时,通过对国内外深度伪造法律规制路径的审视,笔者发现,公法领域对人工智能生成技术的监管要求却在不断强化,这可以视为对隐私的一种补给保护,如我国《深度合成管理规定》提出,通过显式标识和隐式标识两种管理手段,实现对内容和行为的双重规范。在信息形成阶段,从技术角度对服务技术支持者和服务提供者提出义务要求,要求深度合成服务提供者应当在可能导致公众混淆或者误认的深度合成信息内容中加入显式标识,以提示公众该内容的生成合成特性,保障公众知情权,降低虚假信息传播的风险,实现内容治理。这一规范试图从公法角度建构起对公民的“隐私”保护,但从与刑法规范的衔接来看,还存在理念上进一步沟通的必要。
具体来说,从我国《深度合成管理规定》的内容来看,对深度合成色情信息的规制,并非着眼于对受害者利益保护,而是从“产业规范”确立的角度出发,《深度合成管理规定》是在《互联网信息服务算法推荐管理规定》基础上加强对深度合成服务全过程管理,对数据处理环节、算法运行阶段、使用者行为全过程,提出更明确细化和更具有操作性的管理要求和合规指引。而即便在美国,其深度伪造立法的起源也并非在于对深度伪造的规制,其同样考虑产业发展的需要,这也是为何美国《通信规范法》第230 条在深度伪造色情信息规制上广受学界批评,被认为旨在保护服务提供者不必为第三人的责任买单。〔29〕See Bosman, Erin M., et al.Deepfake Litigation Risks: The Collision of AI’s Machine Learning and Manipulation.The Journal of Robotics, Artificial Intelligence & Law, 2021(4):261-266.为此美国越来越多的学者提出在深度伪造色情信息领域不应当对服务提供商以第230条豁免,认为这是为非法行为提供免责通行证。
依赖于行政法律规范的隐私保护,必然涉及多方利益以及价值的平衡,如美国深度伪造涉性信息规制立法中一直存在的障碍就是如何保障“言论自由”。此外,在深度伪造涉性信息规制上,行政法的保护往往表现为大量原则性的表述,这使得行为指向不够明确。而根据刑法罪刑法定的要求,立法不仅必须向潜在的犯罪者发出公平的警告,被告也必须清楚地知道被禁止的确切活动,而且范围也不能太广,这就使得刑法在衔接行政法上的“安全保障”义务时往往面临“明确性”的质疑。
深度伪造涉性信息对受害人人格的侵害是肯定的,但民法上的人格侵害行为并非必然需要刑法干预。民法的功能强调事后的损害填补,而刑法功能侧重于规范效力的确认,这一确认需要罪刑法定的担保。一般人格权衍生出多种多样的下位概念:肖像权、姓名权、信息自决权、性的决定权等,是否均为刑法保护的对象,需要具体研究。
对于涉性信来说,虽然其伪造涉及到“性”,但作为伪造的“性”是否符合罪刑法定视野下性法益的界定,则值得探究。深度伪造的涉性信息,并非受害人真实的性行为和性信息,我国台湾地区立法便认为深度合成的虚假性信息,已经超出了传统性隐私保护的范畴,根据罪刑法定,不能适用原有刑法规范,为此还进行了专门的立法修订,将传统针对性隐私保护的罪名修订为“妨害性隐私及不实性影像罪”,而不是将不实性影像直接认定为性隐私。而美国2017 年《非自愿在线用户图形骚扰法》也明确,该法所保护的不包括所表述的图像为虚拟的性行为或者性特征。而弗吉尼亚州是美国第一个对深度伪造色情内容的传播实施刑事处罚的州,明确将传播非感官“虚假制作”的露骨图像和视频定为一级轻罪,最高可判处一年监禁和2500 美元罚款。〔30〕See Rebecca A.Delfino.Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act,Fordham Law Review, 2019(3): 906-907.意大利刑法典专门区别于第二节“侵犯名誉的犯罪”,在第三节“侵犯个人自由犯罪”中规定了“侵犯个人人格的犯罪”,第600 条-4-1 规定了“虚构色情罪”,虽然对象仅包括“未成年人”,但也是从立法肯定了对他人图像进行虚构制作行为,构成犯罪。〔31〕参见《最新意大利刑法典》,黄风译,法律出版社2007 年版,第205 页。而法国刑法典体现在“侵害他人形象罪”,第226-8 条认为深度伪造图像是对他人形象的侵害。〔32〕参见《最新法国刑法典》,朱琳译,法律出版社2016 年版,第135-140 页。德国刑法第15 章规定了“侵犯个人生活与秘密领域罪”。〔33〕有观点认为德国刑法典第201a 规定了“以拍照方式侵害私人生活领域罪”,对行为人散步伪造的性图片或者视频如果符合“足以严重损害被拍摄者的声誉”,则可能构成侵害最私密的生活秘密犯罪。但也有学者认为该条立法创设于2004 年,尚不存在深度伪造技术,对该条的适用应当排除。许恒达:《深度伪造影音及其刑法管制》,载《法学丛刊》2021 年第265 期,第22-23 页。
从以上规定来看,各国立法在深度伪造问题的应对上,将其侵害法益作为何种法益进行保护尚且存在分歧,名誉、人格、隐私等保护在各国立法中呈现出不同程度的交叉,尤其是在法条适用上的可行性,争议较大,核心问题仍然在于对深度伪造涉性信息对隐私侵犯的质疑。
此外,在侮辱、诽谤罪的认定上,深度伪造色情信息中的受害人往往仅有脸部特征暴露,真实的性器官和隐私部位都没有真实出现,这是否构成侮辱、诽谤?谁才是受害人?存在一定的争议。有学者便认为无论是身体拥有者还是人脸拥有者,均为受害者。〔34〕See Rebecca A.Delfino, Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act,Fordham Law Review, 2019(3): 934.但笔者认为受害人应当具有可识别性,对于单纯的身体拥有者,虽然其客观上也被伤害,但从刑法保护的谦抑性出发,不宜将不能识别对象纳入刑法保护。根据我国《关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》,诽谤罪的成立需要将人物要素予以特别明确,捏造事实包括“将信息网络上涉及他人的原始信息内容篡改为损害他人名誉的事实”,即张冠李戴型诽谤通过司法解释也已明确被列入诽谤罪的规制范围。但根据我国有关深度伪造的行政法律规范,明确规定了对虚假信息的标识义务,那么如果行为人进行了实际的标识,明确表示视频或者图片是虚构的,那么就不存在捏造事实的情况,自然也就不能构成诽谤。而对于受害人来说,并非行为人标注了图像系伪造就可以摆脱被在网络上伤害的境地,深度伪造涉性信息所产生的问题已经超出了传统刑法对隐私保护以侮辱、诽谤救济的可能。
在人工智能技术迭代升级以及信息产业飞速发展的背景下,面对新的事物,公众往往会陷入困惑,当公众对特定行为的情绪不明确时,需要法律提供明确的表达方式,引导信仰、态度和行为的转变。在深度伪造带来的性隐私保护的冲击下,刑法的评价应当回归到“人”本体的价值需求。
目前我国司法实践对于现实中强迫女性裸露的行为,有的认定为强制侮辱罪,有的认定为侮辱罪。〔35〕参见杨彩霞、苏青:《强制侮辱罪的司法适用困境与出路》,载《广西警察学院学报》2019 年第4 期,第23-29 页。而这一立场是基于对真实的女性性利益的保护,那么对于深度伪造中,受害女性并非真实的被裸露于网络社会,对于被侵犯的女性是否仍然可以以此两个罪名保护?在数字化交往中,用户之间并非形式上虚体交往关系,而是实质上的公民社会活动在网络空间的延伸,有学者甚至基于数字社会的特质提出“数字公民”的概念。〔36〕参见王静:《数字公民伦理:网络暴力治理的新路径》,载《华东政法大学学报》2022 年第4 期,第28-40 页。笔者认为在深度伪造涉“性”信息的规制上,也应当认可公民在网络社会的性隐私权,当然,无论是隐私、名誉还是信息自决,应当立足于能与现实呼应的对人格的基本尊重需要。具体来说,在深度伪造涉“性”利益受侵犯案件中,性利益并非真实的性被侵犯,在保护上应有其特殊性,需要考虑两点:其一,“性”本身作为隐私,在信息化影响下,其保护范围和程度如何划定?其二,网络社会数字化的“性”是否与真实社会的“性”一样需要刑法的同等保护?
相比美国,我国隐私保护起步较晚,〔37〕虽然起步晚,但根据笔者在中国知网以“篇关摘”搜索到的“隐私”论文,单民商法领域就超过1 万篇,刑法有837 篇,宪法533 篇。然而以“性隐私”为篇名研究的刑法论文欠缺,而以报复色情研究的论文仅有5 篇,。我国学界关于隐私权的研究开始于民法学者,从“隐私权”内容的“私密”性到“私密+自由”“秘密+安宁”的界定,〔38〕参见王泽鉴:《人格权的具体化及其保护范围·隐私权篇(中)》,载《比较法研究》2009 年第1 期,第1-20 页;王秀哲等:《我国隐私权的宪法保护研究》,法律出版社2011 年版,第24 页。出现了“私法先行、公法跟进”的现象。伴随隐私在公法领域逐渐被扩展升华为一种自由,〔39〕参见王利明:《隐私权概念的再界定》,载《法学家》2012 年第1 期,第108-120 页。隐私的内容愈发不明确,且“处于不断扩张的趋势”。〔40〕王秀哲:《美国隐私权的宪法保护述评》,载《西南政法大学学报》2005 年第5 期,第112-117 页;王洪、刘革:《论宪法隐私权的法理基础及其终极价值——以人格尊严为中心》,载《西南民族大学学报(人文社科版)》2005 年第5 期,第95-100 页;屠振宇:《从Griswold 案看宪法隐私权的确立》,载公丕祥主编:《法制现代化研究》(第11 卷),南京师范大学出版社2007 年版,第397 页。时至今日,《民法典》第1032 条被广泛认为是在规定公法上的隐私权。〔41〕参见黄文艺:《民法典与社会治理现代化》,载《法制与社会发展》2020 年第5 期,第21-37 页;王锡锌、彭錞:《个人信息保护法律体系的宪法基础》,载《清华法学》2021 年第3 期,第6-24 页。事实上,无论是在实定法还是学理上,我国尚未出现显著区别于私法隐私权概念的公法隐私权概念。公法学者大都普遍援引第1032 条来讨论宪法、行政法、刑事诉讼法上的隐私权保护,有学者将其称为“《民法典》为宪法基本权利的扩充输送给养”。〔42〕彭诚信:《宪法规范与理念在民法典中的体现》,载《中国法律评论》2020 年第3 期,第21-31 页。这便产生了若民法上的隐私权概念和保护制度不能满足公法领域的现实需求,则公法的保护便容易出现空缺。
而从域外国家隐私保护的刑法立法内容来看,多数国家刑法在隐私的保护上采取的仍然是“自由”的立场,从这个角度来看,即便是虚假的涉性信息,也同样影响了行为人以何种涉性的形象出现的自由,也仍然是对行为人性隐私的侵犯。性隐私是人们对性生活和裸露身体的物理空间(如卧室、更衣室和洗手间)的封闭性期望,包含了人们对隐藏生殖器、臀部和女性乳房的合理期待,同时还涉及人们隐藏自身性相关内容的信息保密需要,如关于性、性取向、性别、性幻想或性经历的通信保密性。对性隐私的侵犯将是瓦解“社会信用”的开始,性隐私建立起爱情,建立起人们之间基础的爱与信任,有助于稳定的社会关系。在数字时代,深度伪造对性隐私的侵犯将可能引发社会信任危机,影响社会稳定,为此,刑法有必要予以规制。
具体来说,深度伪造的虚假性爱视频虽然并没有描绘出受害者的真实生殖器,乳房、臀部等敏感部位,但却劫持了受害者的性和亲密身份。在信息化高速发展的背景下,“性隐私”的保护需要同时考虑如何与信息化发展相协调,个人信息保护所涉利益主体更多元,因此,虽然传统上隐私权主要以私法保护为主,但在信息化背景下,隐私保护的公法需求已经不容回避,而刑法的保护也亟需明确。尤其是对于深度伪造涉性信息,“性隐私”在我国文化背景下具有强烈的保护需求。在性隐私的保护上,需要重新审视关于个人信息处理规则及其隐含个人信息利益的相关政策价值基础。1960 年美国现代侵权法之父William Lloyd Prosser 定义了四种不同的隐私侵权行为:侵犯隐居场所、对私人生活的公开、虚假宣传和盗用姓名或肖像。〔43〕See Shannon Reid, The Deepfake Dilemma: Reconciling Privacy and First Amendment Protections, University of Pennsylvania Journal of Constitutional Law, 2021(1):209.结合深度伪造的情形来看,前两种情形并不适用,传统隐私保护依赖于场所,但深度伪造中,公开制作和传播视频由于没有私人空间或活动被侵犯,因此可用图像不会构成对隔离的侵犯。深度伪造性爱视频也不会构成公开披露私人事实,因为没有真实的私人事实被披露。而虚假宣传和盗用姓名、肖像的情形,从表面来看,似乎适用于深度伪造,但虚假宣传和盗用姓名、肖像往往是为了牟利,而深度伪造涉性信息却并没有商业上的需求。因此希冀将深度伪造中对性隐私的侵犯与侵权法对照,寻找刑法权利保护上的衔接,十分困难。
在笔者看来,“性隐私保护”应当作为一种理念,“涉性信息”规制应当作为一种形式,通过理念与形式的结合实现对深度伪造涉性信息的打击。伴随隐私被信息化的现实,应当立足于将隐私权解剖,而不再是宏观的认定,隐私不能单纯被作为刑法保护的内容,而应当是刑法保护的目的。在经济合作组织《关于隐私保护与个人数据跨境流动的指导方针》解释备忘录中,明确指出其列明的指导方针并非是对隐私权保护的一般性原则,单纯的拍裸照、身体侵害等隐私侵害,只要与个人数据处理无关,都不受该指导方针的限制。笔者认为这一规定并非否定隐私保护的可能,只是在法律规范适用上进行了选择,换句话说,我们不可能通过对个人数据的保护或者个人信息的保护完全实现对个人隐私的保护,也不可能通过对个人隐私的保护实现对个人数据的保护,应当将隐私保护融入信息化发展,比如有学者将隐私分为身体隐私、关系隐私与信息隐私三个类型。〔44〕参见[荷]简·梵·迪克:《网络社会》(第3 版),蔡静译,清华大学出版社2020 年第3 版,第141-143 页。在深度伪造中,身体隐私和信息隐私呈现了交叉侵犯的情形,从单纯某个侧面实现隐私保护都是无力的。在“涉性信息”的规制上,可以考虑仍然依托现有信息犯罪的规制策略,毕竟深度伪造涉性信息客观上表现出的仍然是一种“信息”传播,在规制上选取信息治理的方案,有利于与我国当前信息犯罪立法相衔接;同时要考虑通过司法解释明确性隐私保护的应有地位,而之所以不选择立法上对性隐私直接予以刑法立法保护,是考虑我国在隐私保护上尚且缺乏专门立法,客观上深度伪造所侵害的性隐私又的确不是真的性隐私,贸然以隐私保护罪名规制,似乎立法步伐过大,也不利于民众接受,可以在立法条件更为成熟时,再考虑将性隐私以及与其相关的人格利益予以专门立法。
对于自然人在网络社会投影的“数字人”,我国刑法以及司法实践均尚未从法律上予以肯定〔45〕杭州互联网法院判决首例涉“虚拟数字人”侵权案。法院认定,被告涉嫌侵权的作品,虚拟数字人所作的“表演”实际上是对真人表演的数字投射、数字技术再现,其并非《著作权法》意义上的表演者,不享有表演者权。参见钱祎、陈昊:《杭州判决首例涉虚拟数字人侵权案》,载《浙江日报》2023 年5 月6 日,第3 版。,但对于“性”在网络上的特殊受侵犯可能,司法确有了一定的突破。从“网络猥亵”在实务中的处理来看,2018 年11 月,最高人民检察院发布的第十一批指导性案例便肯定了“隔空猥亵”。据有关学者的统计,2017-2019 年间每年审结的“网络猥亵”一审案例进行检索,大量判决肯定了脱离物理空间的猥亵行为,认为猥亵儿童罪保护的法益是儿童的性自主权、性羞耻感以及心理健康权等。〔46〕参见邵守刚:《猥亵儿童犯罪的网络化演变与刑法应对——以2017-2019 年间的网络猥亵儿童案例为分析样本》,载《预防青少年犯罪研究》2020 年第3 期,第48-57 页。
因此,无论是否处于同一物理空间,只要儿童“性”的利益使其“人格尊严”受到侵犯,就可以认定涉及“性”的“猥亵”。正如有观点指出“猥亵”不必以身体直接接触为要件,而是只要这种接触满足性欲或性刺激等即构成。〔47〕参见陈家林:《〈刑法修正案(九)〉修正后的强制猥亵、侮辱罪解析》,载《苏州大学学报(哲学社会科学版)》2016 年第3 期,第71 页。对比德国刑法第176 条“对儿童的性侵害”,规定了“通过色情图片或描绘、录音、通讯科技播放色情内容影响儿童”即构成对儿童性利益的侵犯。〔48〕参见《德国刑法典》,徐久生译,北京大学出版社2021 年版,第238 页。对儿童性利益的保护,国内外共识是不必要求行为人必须与儿童同一空间,但这并非对虚拟空间性利益的保护,仍然是对儿童现实性利益的保护,是基于儿童“弱势”的自我保护能力,立法保护范围的扩大。
笔者认为,对儿童“性”利益的保护突破物理空间,并不代表对所有群体的性利益保护均可突破空间。从性利益或者隐私受侵犯的角度来说,从真实的物体空间的性利益——网络空间传递的真实的性——网络空间传递的虚拟的性,保护程度应当是逐步减弱的。但从网络对犯罪危害的放大效果来看,网络的传播效应又使得受害人受到的危害是远远大于真实物理空间。因此从受害人性利益保护角度出发,如何评价网络传递出的虚假性信息对受害人的损害,在司法评价上出现了空缺。从我国司法实践中网络猥亵儿童案件来看,大量案件存在对裸聊过程的视频录制,但司法人员仅仅对猥亵行为进行了评价,而对“录制视频”的行为并未单独评价。这也说明我国刑法在潜在的网络传播风险上并未对性利益进行独立保护。
从深度伪造涉性信息的危害来看,对女性而言,“性”的色彩较之一般的侮辱行为来说是更为浓烈的,且不论行为人主观何种目的,客观上的确对女性性的羞耻心造成了侵犯,抛开行为手段的评价,强制侮辱中对“性”的评价适用于此种行为是较为合适的。在深度伪造涉性信息的传播中,虽然行为人客观上对受害人的人身并未进行强制,但如果肯定网络暴力的客观存在,未尝不可将其认定为一种强制行为。伴随网络暴力的全球化,美国《联邦网络跟踪法》第2261 节规定,使用任何“交互式计算机服务或电子通信系统”,以“合理预期会造成实质性情感痛苦”的方式来“恐吓一个人”构成重罪。〔49〕See Rebecca A.Delfino, Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act,Fordham Law Review, 2019(3): 910-911.根据此规定,网络跟踪的施害者,即使没有对受害者实施物理上的人身伤害行为,但是,如果采用“最阴险、最吓人”的方式来使得被害人的“生活完全被打乱”,被告也会因此受到最高至五年刑期和25万美元罚金的刑事惩罚,同时,法院还会对侵犯禁令的重犯者施加额外的刑罚。〔50〕参见李学尧:《美国就“深度伪造”展开的法律争论》,载《检察风云》2019 年第2 期,第13-15 页。从其处罚力度来看,对于网络跟踪造成的危害,实现了与物理人身伤害同等的评价,将深度伪造涉性信息传播认定为网络暴力行为也具有一定合理性。退一步讲,虚假色情视频的内容,虽然并非行为人真实的色情信息,但其产生的危害不亚于行为人真实的性隐私暴露,而且客观上也是从性的羞辱感对女性进行了伤害,从这个角度来说,即便不采取专门针对性隐私保护的立法罪名设置,也仍然可以通过对网络暴力的立法和司法打击实现对“性利益”的间接保护。
在个人信息产业化的背景下,个人信息的权益结构已经发生了变化,“人”必须面对逐步从主体走向“客体”的 现实,但这一“客体”转换并不意味着人的主体地位的消失。《民法典》第四编“人格权”以第六章专章对隐私权和个人信息保护作了系统的规定,在强调二者之间存在密切的内在联系的同时,也不否认两项制度之间所存在的本质差异,而刑法作为补充和保障法,如何在二者之间寻找平衡成为关键。
有学者提出了场景化保护的观点,在侵犯公民个人信息罪的认定上,应当以实质的使用场景变更与否为标准,凡导致信息使用场景变更者,即超出用户对信息使用的合理预期,构成对用户信息自决权的损害,认定其为对用户信息的“非法获取”。〔51〕参见付玉明:《数字足迹的规范属性与刑事治理》,载《中国刑事法杂志》2023 年第1 期,第125-141 页。这一观点通过将用户“合理预期”融入隐私权保护,在实现隐私保护和个人信息保护的刑法介入上提供了较好的切入视角。笔者认为,对涉性信息的保护,应当回归个人信息保护的逻辑起点,从刑法保护的角度来说,刑法是处理“个人与社会”关系的法律,如果单纯将个人信息或者隐私作为绝对保护对象,将违背刑法保护社会的任务。对深度伪造涉性信息的规制,应当首先考虑涉性产业产生的背景与人性本身的“恶”的存在,保持刑法的谦抑性。在深度伪造中,当使用者是基于娱乐的目的,制作自己、同学、亲友及他人的合成影音图像时,由于该类行为并不具有社会危害性,刑法不宜进行评价。但如果将其应用于色情、恐怖主义等违法犯罪,则形成了对个人的重大影响,具有刑法介入的必要,深度伪造信息之所以构成犯罪,正是在于应用场景的错误。
此外,在隐私与个人信息的关系上,我国立法在考虑“隐私”设定时,所提出的各种领域、空间,借鉴了美国立法的规定,考虑更多的是主观标准,个体对于隐私的期待,并未采取学界所通行的将隐私的“与公共利益无关”作为私密性标准。〔52〕参见王利明:《隐私权概念的再界定》,载《法学家》2012 年第1 期,第108-120 页。笔者认为,在考虑深度伪造色情视频的规制,“隐私”的界定无法回避“公共利益”,因为深度伪造是在信息产业背景下产生,这时则要考虑基础法益与社会法益的平衡。对隐私的保护可以借鉴隐私价值层面的需求,考虑私密的效果,也即“自由和安宁”的边界。美国宪法上区分空间隐私和信息隐私,但美国学者也承认“合理隐私期待从根本上讲不关心特定空间本身的性质,而是关心这些空间中发生的活动的信息之可得性”。〔53〕See Julie E.Cohen, Privacy, Visibility, Transparency, and Exposure, The University of Chicago Law Review, 2008(75):190.只有当该空间、活动所承载的信息遭到侵扰或有被侵扰的风险,才牵涉隐私权。西方隐私学界多年来提出的文明规则理论、场景一致性理论、信任理论,都揭示同一个道理:隐私权不指向信息本身有什么特性,而指向信息处理的行为规范。〔54〕See Robert C.Post, The Social Foundations of Privacy: Community and Self in the Common Law Tort, California Law Review,1989(2):957-1010.就隐私权而言,空间、活动的确并无独立于相关信息的增量价值。笔者认为,对于空间、活动的自由界定为对“隐私”存在范围的反射法益更为合适。
当下,针对立法中存在“信息”“数据”保护架空隐私的状况,应当纠正立法和司法中偏好工具理性的个人信息权益话语,以道德价值以及宪法自由的的隐私权引导信息保护的方向,避免数字化发展中人的商品化。为此,有学者提出在具体的保护上,应当立足实现虚拟世界与现实生活中多重秩序的连接与稳固,进行“利益识别”,对于人格要素的符号化和财产化,应当依据其还原为真实世界对象的可能进行判断,并提出了真实身份利益、虚拟身份利益、混合身份利益的区分。〔55〕参见焦艳鹏:《元宇宙生活场景中的利益识别与法律发展》,载《东方法学》2022 年第5 期,第30-44 页。这一观点极具启发性,个人数据保护与流通其实是一个高度场景化或语境化的问题,人类从现实社会走向虚拟社会,身份的跨越带来生活规则的变化,必然形成对法益的冲击,固守传统个人法益的生命、财产、性的保护逻辑,无法因应信息社会的保护需要,但过于提倡风险规制,又可能造成对数据产业发展的冲击。因此应当结合数据产业发展的需要,根据不同场景的规则,对个人法益进行场景化的还原,对于有些能够延伸到自然人真实法益的内容,需要予以保护,从网络与现实社会的交互方式、现实人类走入网络的利益需求和风险规制可能,寻求法益保护的边界,不能是为了简单的区分隐私权或者个人信息的边界,而应是着力在更高层面人的权益保护需求进行利益识别或者还原。
基于隐私保护走向了公法和私法的交融,以及法律与市场的双向合作,有必要对“性隐私”保护的风险进行重新分配。在传统隐私保护上,对立的双方为加害人和受害人,而风险也主要在这两者之间转换。但在网络背景下,尤其是伴随深度伪造信息的传播,网络平台服务者的责任一再被提起。因此有必要从个人与社会利益的平衡中,谨慎且积极地分配隐私被侵犯的风险并确立责任人。
在深度伪造涉性信息规制上,首要的责任人即虚假视频的制作者,各国立法也大都体现了对制作者责任的处罚,但客观上,识别和定位互联网上的个人内容创建者可能非常困难,因为这些个人可以使用复杂的技术来保持匿名来逃避责任。对于普通的受害人来说,根本无力通过诉讼完成对危害行为的起诉,而即便是将其作为犯罪行为,公权力部门也将面临高昂的司法成本。
其次,网络平台基于识别涉性信息的可能,可以赋予其相应的义务,包括要求互联网公司与用户签订禁止虚假信息的服务协议,以此实现对深度伪造涉性信息的规制。比如脸书和推特都有自己的内部报告和删除非自愿色情制品的程序,自2014 年以来,脸书在其服务条款协议中就已经明确禁止非色情内容。为了实现对用户传播色情内容的有效管理,脸书率先采取了技术策略,采用哈希技术来防止转发循环。〔56〕计算机科学家Hany Farid 与微软合作开发了Photo DNA 哈希技术,该技术可以在禁止性内容出现之前对其进行屏蔽。2016 年 12 月,脸书、微软、推特和优酷等互联网企业承诺合作创建一个 “行业共享哈希数据库”,2017 年,这四家企业在行业共享哈希数据库基础上,发起成立“全球网络反恐论坛”。参见汪晓风、林美丽:《网络恐怖主义防控中人工智能伦理的适用性探析》,载《中国信息安全》2022 年第2 期,第21-22 页。诚然,平台具有风险防范可能,但这并不是将风险全部转嫁服务提供商或者平台,我国刑法规定的“拒不履行网络安全保障义务罪”,明确了“经监管部门责令改正而不改正”,这事实上就是对网络服务提供商责任边界的合理划定。
当然,实践中,互联网企业作为网络服务提供者未必愿意承担巨额的风险防控成本。这时政府或者司法部门适当的激励措施也是必要的,比如美国《2020 财年国防授权法案》提出了“设立深度伪造奖,鼓励深度伪造检测技术的研究或商业化。”〔57〕Matthew F.Ferraro, Jason C.Chipman & Stephen W.Prestonn.The Journal of Robotics, Artificial Intelligence, The Journal of Robotics, Artificial Intelligence & Law, 2020(4):229-234.此外还可以考虑鼓励企业与司法部门的合作与合规,发挥企业在深度伪造涉性信息打击上的主动性。美国法院在对企业隐私保护的审查中,提出了国家和企业在隐私保护上的义务,美国联邦贸易委员会要求企业把数据隐私保护义务纳入风险管理责任的内容当中。〔58〕参见许娟、黎浩田:《企业数据产权与个人信息权利的再平衡——结合“数据二十条”的解读》,载《上海大学学报(社会科学版)》2023 年第2 期,第1-19 页。而我国“数据二十条”也规定企业创新内部数据合规管理体系,在制度建设、技术路径、发展模式等方面保障使用个人信息数据时的信息安全和个人隐私。通过合规实现司法审查企业数据行为的程序合法性,有利于落实企业的隐私保护义务,也具有可行性。
而看似没有责任的受害人,其实也在承担风险,那么受害人是否应当承受此风险?在人工智能技术所涉及个人信息处理上,大都规定了“同意”,那么如果受害人同意是否就不构成犯罪?性隐私并不是一个要么全有要么全无的命题,其“私人性“的本质不应该改变,但在深度伪造领域,“个人的同意与否”事实上影响不大。虽然在大多数刑事案件中,“同意”可以成为阻却违法或者构成要件成立的因素,但在深度伪造涉性信息的传播中,对于获得同意的深度伪造信息的传播,有学者专门进行了调研,发现与传统的未经同意的真实色情制品案件相比,支持在深度伪造案件中进行刑事制裁的参与者和支持者更多。〔59〕See Matthew B.Kugler, Carly Pace, Deepfake Privacy: Attitudes and Regulation,Northwestern University Law Review, 2021(3):611-620.这是因为,尽管同意是隐私自我管理的核心,但由于决策的缺陷和结构性问题,如收集数据的大量实体和汇总数据的意外影响,个人往往不会有意义地同意收集、使用和披露其数据。2020 年纽约州通过了针对深度伪造的立法,规定深层虚假的色情制品中,只有通过严格的程序获得同意才是有效的,这一同意必须建立在向被伪造人发出实质性的通知基础上,并且,被伪造者有权撤销同意。〔60〕同上注,第633-634 页。同样的,即便各国法律在规制深度伪造时都提出了“标识”义务,这一义务也并非是为加害人免责,美国《深度伪造责任法案》,要求任何创建深度伪造视频媒体文件的人,必须用“不可删除的数字水印以及文本描述”来说明该媒体文件是篡改或生成的,否则将属于犯罪行为,但加州和纽约州的立法中均提出,行为人单纯标记虚假的免责声明不能作为责任免除的辩护理由。对于创作者来说,其创作深度伪造的涉性信息,客观上已经产生了危害,是否标记不影响其产生的危害性,自然对其法律责任也不应当产生影响。
从“性”作为“最私密的生活秘密”来看,深度伪造涉性信息对受害人的法益侵害,并非其真实的生活秘密,也并非单纯的个人形象。从当前美国、欧盟以及我国台湾地区立法来看,在涉性信息的规制上均讨论热烈,如果对其规制仅仅是为了保护个人形象,那么将头像切换到狗等其他动物,也同样应构成对肖像权和人格权的侵犯,为何未被规定为犯罪?因此,笔者认为,仍然应当肯定深度伪造涉“性”信息的特殊性。在考虑涉性信息的保护上,统一的权利型保护模式未必适合,应当注意犯罪行为的客观情况,着眼于个人信息在性别和内容上的多元性,就当前大量女性受害人的现实,对女性的性信息伪造予以专门的刑法思考。
深度伪造色情视频以其高度的“以假乱真”和便捷对女性造成了巨大伤害,而这个伤害的来源却是技术中立的“信息化”“数字化”背景,在大数据时代,刑法需要设立一个不一样的隐私保护模式,对性隐私的保护不在于是否在刑法中提出“隐私”或者“秘密”这样的概念,而更在于将隐私作为保护目的如何在信息犯罪治理上予以体现,立足这一立场,笔者提出,以信息规制为形式,嵌入“性隐私”保护理念,实现对深度伪造色情视频以及其他涉性信息的有效打击,保护信息主体的人格尊严。