人工智能时代 “深度伪造” 滥用行为的法律规制

2022-10-31 04:29张远婷
理论月刊 2022年9期
关键词:规制深度法律

□张远婷

(江西师范大学 政法学院,江西 南昌 330013)

引言

“Deepfake(深度伪造)” 一词是 “Deep learning(深度学习)” 和 “fake(造假)” 的组合体,它是一种利用深度学习算法对图像、视频和音频进行超现实数字组合型伪造的一项技术。2018年8月,美国市场上发布了一款名为 “FakeApp” 的应用程序,该程序可以帮助用户快捷地创建 “Deepfake(深度伪造)” 产品。该应用程序降低了创建此类 “深度伪造” 产品所需的技术门槛,这增加了公众人物或私人陷入 “深度伪造” 视频或音频风波的风险。2019年8月,中国境内一款名为 “ZAO” 的应用程序于发布后的24小时内迅速流行开来,用户只需上传一张照片就可以自动实现逼真度极高的 “换脸”。越来越多的互联网用户开始学习如何使用 “Deepfake” 技术,这使得利用上述技术制作虚假视频的情况将变得更加普及和难以控制,并且这类 “深度伪造” 内容的渗入将影响公众意识,从而引发社会信用危机。对此,即使是一些大型的互联网公司也难以较为轻松地从技术上辨别出这类假视频。数字 “深度伪造” 技术在中国虽尚未呈现出滥用趋势,但国外数字 “深度伪造” 技术滥用行为的出现仍然值得我国警惕。然而截至2020年10月,滥用 “深度伪造” 技术制作假视频侵害法益或他人合法权益的行为尚未得到法律的有效监管。

一、 “深度伪造” 技术滥用现状及对法律制度带来的多重挑战

(一)数字 “深度伪造” 技术滥用现状

自从2017年第一个运用人工智能数字 “深度伪造” 技术合成的假视频问世以来,在大约一年的时间里这类假视频已经发展到了与真实视频几乎无法区别的地步。虽然存在不少良性利用 “深度伪造” 技术创造经济效益的例子,但 “深度伪造” 技术最早流行应用于色情视频作品的历史却引发了人们持久的担忧。譬如2017年12月,美国一位叫Deepfakes的用户运用人工智能 “深度伪造” 技术把电影《神奇女侠》女主角盖尔·加朵的脸换到了情色电影里的女主角的脸上。

随着人工智能与机器深度学习技术的不断组合使用,这类制作 “深度伪造” 视频的技术仍处在不断进步之中,并且这种技术的应用逐步由单一的色情影视制作向政治选举舆论操纵、社交媒体假新闻、军事假情报和知名人士个人信息侵犯等领域转变。譬如2018年3月,美国网络上出现了一段枪支控制活动家艾玛·冈萨雷斯(Emma Gonzalez)撕毁宪法副本的假视频。实际上在原始视频中,冈萨雷斯撕毁了一个文件(但不是宪法副本)以倡导枪支管制,但有人出于煽动性目的篡改了该图像。 “深度伪造” 视频的流行将使社会普通公众区分真实和伪造视频的能力受到进一步的削弱,从而对我们日常生活的各个微观领域造成潜在的伤害,甚至也会对社会、法律和政治等宏观层面造成现实的危害。

“深度伪造” 技术的算法已经能够做到这种程度:网络用户只需将一个公众人物的演讲录音输入生成式对抗网络模型,就能创造出与公众人物真实音频极度相似的假音频,并且这个假音频的内容完全可以按照用户的需要自由设计。一些网络上流行的 “深度伪造” 视频正是使用机器学习算法创建的,任何对 “深度学习” 算法有着一定专业知识的用户仅仅使用容易获得的公开音频、视频材料和开源代码就可以创建出类似的假视频。这也是数字 “深度伪造” 技术存在潜在重大安全威胁的原因之一:网络上随处可见海量公开的图片、音频、视频材料以及开源代码,这为任何拥有 “深度学习” 算法专业知识的用户以极其低廉的成本创建出符合其需要的 “深度伪造” 品提供了极为便利的条件。不法分子滥用 “深度伪造” 技术造成的危害可能不仅仅是情色视频效应带来的名誉权损害,更为重要的还可能引发身份盗取、侵犯知识产权、操纵政治选举、削弱对政府机构的信任、威胁国家安全以及破坏国际关系等一系列后果。

(二) “深度伪造” 滥用行为对现行法律制度带来的多重挑战

1.动摇音频和视频等视听资料作为法定证据的信任基础

在现代各国的司法诉讼实践和诉讼法律文本中,音频和视频等视听资料早已被视为法定证据种类之一。录音和录像以其能够直观地被人们听见或看见的特性代表着记录并还原真相的力量。数字 “深度伪造” 技术的出现使人们分辨真假音频或视频变得极其困难,即使专业人士利用相关检测技术也难以辨别其真实性,这使得人们眼睛看到的和耳朵听到的信息不再具备强有力的真实性,实际上动摇了音频和视频等法定证据种类存在的信任基础。这也给司法实践中案件的审理带来双重困境:违法或犯罪分子可能会利用 “深度伪造” 技术制作他们需要的假音频或视频,用以诬陷他人,极大可能会导致冤假错案发生;在 “谁主张、谁举证” 的诉讼证据规则之下,违法或犯罪分子为逃避法律制裁可能否认用以指证其违法或犯罪行为的音频或视频的真实性。其理由是这些音频或视频都是运用 “深度伪造” 技术制作出来的,当法庭无法证伪时,这些违法或犯罪分子可能逃脱相应的法律责任。这实际上对诉讼法和证据法的相关规则带来严峻挑战。

2.现行民事法律制度可能无法提供 “及时、充分、有效” 的救济

数字 “深度伪造” 技术滥用行为会对现有民事法律制度造成严峻挑战。以 “深度伪造” 换脸视频为例, “深度伪造” 技术滥用行为常对应于侵犯 “被换脸对象” 的肖像权、名誉权和著作权,但是,现有的民事侵权制度却无法对 “被换脸对象” 提供 “及时、充分而有效” 的救济。这是因为:

首先, “深度伪造” 换脸视频的制作者有时难以落入肖像权的救济渠道。尽管未经肖像权人同意而使用其肖像是构成侵犯肖像权的核心要件,但在现实生活中,部分网络用户对某些数字平台协议中嵌入的授权使用肖像的条款常常不够重视而直接选择 “同意” 二字。如ZAO换脸APP的用户协议第6条第1款规定: “在您上传及/或发布用户内容以前,您同意或者确保实际权利人同意授予ZAO及其关联公司以及ZAO用户全球范围内完全免费、不可撤销、永久、可转授和可再许可的权利,包括但不限于可以对用户内容进行全部或部分的修改与编辑。”

其次,名誉是社会对他人的一种评价, “深度伪造” 换脸视频要构成侵犯名誉权,就必须符合一定的要件。其中一个要件就是需要有 “受害人” 的社会评价被降低的现实后果。在实践中,单纯的 “深度伪造” “换脸” 视频游戏可能并不会导致 “受害人” 的社会评价降低,因而对所谓 “受害人” 名誉的贬损可能难以得到证明,损害后果也难以得到量化。退一步而言,即使对某人的名誉有所贬损,但只要没有达到足够严重的程度,其诉讼请求在司法实践中也往往难以得到支持。

再次,即使 “深度伪造” 视频侵犯了公民或法人的知识产权,但既可能出现很难证明被侵权人实际损失的局面,又可能出现很难评估侵权人的实际营利所得的情况,因而导致司法实践中知识产权人的诉讼请求难以得到支持。

最后,在现有民事侵权制度规则之下,被侵权人的维权难度较大,维权成本过高。有些侵权人往往身处境外实施 “深度伪造” 侵权行为,当追诉侵权人时,国内民事法律的适用会遭遇空间效力的阻隔。一国民事法律只能约束其领土范围内的人、行为和事件,但对跨境散布 “深度伪造” 虚假信息的行为却难有约束力。此外,从实践情况来看, “深度伪造” 信息的制作者在互联网上发布相关信息时往往会采用最先进的加密技术以实现个人域名的匿名化,在现有技术条件下很难通过追踪溯源的方式找到制作者加以追诉,因而导致 “受害者” 在维权过程中需要花费的时间、精力和费用将远远超出其可能获得的补偿。此外,这些民事救济渠道的不足还在于其是一种事后救济渠道,难以及时救济互联网侵权损害后果的迅速扩大。

3.现行刑法规制思路难以满足直接抑制 “深度伪造” 的特殊需求

数字 “深度伪造” 技术滥用行为实际上可能侵犯刑法所保护的多种法益。这些被侵害的法益涵盖个人法益、社会法益和国家法益。刑法要做到规制一种行为而达到保护多重法益的目的并不容易。从法益保护的视角出发,传统刑法抑制 “深度伪造” 技术滥用行为仍是遵循类型化的规制思路,并将其转化为针对具体危险的归罪制裁路径。依据这种思路和滥用 “深度伪造” 技术可能被应用的场景来考虑,现有刑法规制可以考虑适用的罪名主要有侮辱罪、诽谤罪、诈骗罪、侵犯著作权罪、寻衅滋事罪或传播淫秽物品罪等。从 “深度伪造” 内容和危害后果看,利用 “深度伪造” 技术实施的单一行为可能会同时符合多个罪的犯罪构成要件,此时可以按照想象竞合归罪原则进行处理。现有刑法对其规制是基于一种目的性行为的结果归责思路,且需 “深度伪造” 品达到刑法评价意义上的 “重大损害结果” 或 “加重情节” 时才能适用,反映出传统刑法所规制的侧重点是 “深度伪造” 品的传播,而不是制作行为本身。这种结果导向的规制思路虽然在一定程度上能够起到抑制 “深度伪造” 品传播的作用,但因没有就制作行为本身进行针对性规制而可能导致效果不佳。制作 “深度伪造” 品的行为本质上是一种刑法评价意义上的数字 “身份盗窃” 行为,其法益侵害的对象是个人生物识别信息。这种滥用公民个人生物识别信息的行为本身就具备独立的危害性,具备行为犯的犯罪构成要件。由此可见,上述刑法规制思路显然难以满足直接抑制 “深度伪造” 技术滥用行为的特殊需求。

4.部分国际法制度面临系统性重塑或修改的风险

数字 “深度伪造” 技术创造了新的环境,以前没有问题的法律突然被发现涵盖范围不那么恰当,导致现有国际法律制度暴露出包容性不足的问题。 “法律与技术变革” 理论认为新技术既可以通过创造新的实体或促成新的行为而直接改变法律制度,又可以通过改变激励机制或价值观而间接改变法律制度。因而从该理论的视角出发,人工智能数字 “深度伪造” 技术可以直接或间接地改变国际法律制度。正如美国学者科林·皮克(Colin Picker)所指出的那样,技术创新推动了整个历史上 “国际法的创造,修改或破坏”。越来越具有颠覆性影响的数字 “深度伪造” 技术被滥用可能会对国际法的关键性前提产生系统性、破坏性影响。它所造成的法律漏洞将很难弥补,其所提供的破坏力将削平强国全面参与或遵守国际法制度的前提性理由,部分国际法制度面临被淘汰的风险。譬如恐怖分子或敌对势力在境外利用 “深度伪造” 技术实施抹黑他国政要、发布并传播带有种族歧视或民族压迫色彩内容的虚假视频等威胁国际安全的犯罪活动时,有可能使该种国际犯罪的对象、时间、地点混淆不清,这都给主权国家相关法律适用的空间效力及管辖权带来新的挑战。数字技术不遵守传统的领土边界等主权规范,世界需要新的协调机制来检测和应对数字 “深度伪造” 技术对国家安全乃至国际安全带来的新挑战。此时,仅仅依靠一国国内法律体系将难以应对这些挑战。为此,国际法律制度将需要变革以适应或解决新的情况,这将可能导致国际监管模式发生系统性变更。

二、法律 “深度伪造” 滥用行为:安全与自由利益之争

(一)规制 “深度伪造” 滥用行为的利益指向之一:安全

“深度伪造” 等可能带来颠覆性安全威胁的人工智能应用风险的出现,标志着人类智能已经分化出其自身的 “对立面” ,一个现实的表现就在于人类智能已经越来越难以控制人工智能所带来的 “系统性” 风险。 “和所有技术一样,人工智能也可能会落入不法之徒手里。”如何更好地使处于人类智能 “对立面” 的人工智能新技术始终遵循合理开发和利用的轨道,考验着人类在科技变革时代下社会治理的智慧和能力。我们认为,技术赋予了生命一种力量,这种力量要么让生命实现空前的兴盛,要么让生命走向自我毁灭,而我们更青睐前一种。法律作为人类社会规范人的行为的有效手段,自然也成为规范 “人工智能主体” 行为的重要选择手段。人类智慧与人工智能能否实现和谐相处,关键就在于能否创设出一套能够调和人类智慧与人工智能之间潜在矛盾运动所带来的利益冲突的社会制度,这样一套制度代表着人类在未来不确定的生活中追求安全秩序的强烈期许。人工智能技术所带来的潜在系统性安全威胁,使人们意识到设定超高的安全性与可解释性标准已经迫在眉睫。

“深度伪造” 技术与其他新兴技术的融合,为操纵或欺骗民众的认知以实现颠覆性攻击创造了可能。在人工智能时代与 “数字化” 迭代背景之下,重要的不是谁赢得新的领地,而是谁控制了数据。因为谁控制了数据,谁就可以低成本地赢得任何特定国家或政体内公民的信任、人心乃至思想。可以说,人工智能时代的网络空间不仅成为信息、商业和战略技术运作激烈竞争的新领域,而且已经成为新的战场,其方式模糊了战争与和平的界限,使我们每个人都成为后现代冲突的潜在目标。不法分子滥用 “深度伪造” 技术可以轻而易举地掌握生成高质量数字伪造品的诀窍,以影响和操纵舆论。政府监管机构必须意识到在网络空间组合运用 “深度伪造” 等新兴技术操纵民意或者诱导性攻击他人的行为,会威胁到个人、集体、国家乃至世界的安全利益。法律并不对 “深度伪造” 技术本身做出否定性评价,而只对滥用该技术实施一系列侵犯各种法益的行为做出否定性评价,其评价实质在于维护安全利益的需要。 “滥用” 一词本身就带有法律否定性的规范价值判断的成分,执法者要综合自身经验和价值取向才能对 “何为滥用” 做出较为准确的判断。数字 “深度伪造” 技术被滥用的可能性已经呈现,法律规制这一技术滥用行为面临着多重的安全利益需要:既是保障个人人身和财产权利安全的需要,也是维护政治体制安全的需要,还是维护国家安全乃至国际安全的需要。

(二)规制 “深度伪造” 滥用行为的利益指向之二:自由

自由作为建构人类社会的重要基准价值尺度之一,对人类社会的演进和 “人的解放” 而言意义重大。从科技哲学的视野来看,人工智能及其衍生技术发展所引发的自由利益保障需求,是追求 “人的解放” 这一终极价值需求的体现。当代意蕴之下 “人的解放” 是指 “人” 在自然、社会、思维等层面获得更大、更多的自由,是 “人” 所面临的大量旧矛盾的解决和新矛盾的涌现。在当代经济社会产生急速变革的情形之下,人的力量随着人工智能等新技术的发展得到进一步的扩张, “人的解放” 所代表的时间尺度、空间尺度和价值尺度在智能时代得到了前所未有的升华。一方面,在人工智能时代,人的自由而全面的发展需要通过合理开发和利用人工智能得以表现出来;另一方面,人的自由而全面的发展也会正向促进人工智能的健康发展,离开了人的自由而全面的发展的人工智能往往会失去前进的 “灵魂”。因此,人的自由而全面的发展与人工智能的健康发展之间存在密切的联系。可以说,人类创造和使用人工智能以满足自身多样化的需求,本身就是追求和实现自由利益的一种表达方式。

“深度伪造” 技术作为人工智能技术发展追求开放和多元场景化的一个衍生品,其发展也代表着人类在自由利益追求机会之下多样化选择的可能性。毕竟,善用 “深度伪造” 技术也能产生一定的 “正向” 效应。正如 “自由的价值主要在于它为并非出自设计的发展提供了机会”。 “表达自由和意见的多样性是真理浮现和彰显的必要环境。”因此,法律在规制人工智能带来的潜在安全威胁时,必须审慎地评判其可能对人工智能自由发展所带来的利益损害程度,也应当对自由利益的实现保持足够的尊重和耐心,从而避免对可能的发展机会带来过大的抑制。

(三)规制 “深度伪造” 滥用行为:安全利益抑或自由利益,何者为先?

鉴于人工智能 “深度伪造” 滥用行为牵涉法理上的安全与自由利益之争,有必要在规制 “深度伪造” 滥用行为的过程中首先明确保障何种利益为先。人工智能技术的高速发展固然推动了人类加快进入智能型社会的步伐,但同时也引导着人类走向更加不确定性的未来,因而亟须对其所带来的社会和法律风险展开现代性反思。在高科技时代,科学对社会产生的 “正向” 影响与 “负向” 影响均呈现出几何级数增长。尽管在 “技术中性” 的观念之下, “深度伪造” 技术本身并无善恶之分,善用该技术也可以产生相对积极的经济和社会价值。但以 “深度伪造” 为代表的人工智能技术所引发的 “负向效应” 表明技术越发展,越需要人类的素质和能力跟上技术发展的脚步,否则将会产生人类越来越难以掌控技术应用风险的情形。在智能时代的时空范围之内,规制风险的一种可行途径是确立一项基本的原则:在犹豫不决时,应遵循预防原则,小心谨慎以保障安全利益的基本需求。为保障安全,就必须对预防的尺度做必要的成本与收益分析,其中也包括对自由损害程度的成本与收益分析。在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取预防性行为和因应性的制度。法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。

法律所履行的安全功能对保障实现自由、正义价值而言至关重要。霍布斯曾言: “人民的安全是至高无上的法律。”这句话彰显出安全价值利益在法律上的重要地位。法律上安全目的的重要性就在于其创造了一种确定性的秩序,能够用以坚决保护人民重大的利益和需要,因为人们所追求的幸福生活目标和自由利益只有在一定程度的安全和有序的基础上才能真正得以实现,其重大价值就此可见一斑。诚如德国法学家魏德士教授所指出的: “法创造着秩序,虽然首先是在形式上。在人类的共同生活中,人们宁可容忍有问题的、不符合目的的或者根本就是‘不公正的’法律规则的存在,也不愿意看到完全失去法律控制的状态。”目前,人工智能的发展存在替代人类与增强人类两条路线,法律需要在这两条路线之间审慎地作出选择。因为在技术的发展过程中,法律要较为明确地界定二者之间的界限并不容易。一条较为公认的标准是法律应当肯定人工智能局部性替代人类的积极意义,并预防和避免人类整体性利益被损害。

不受控制的 “深度伪造” 虚假信息可能对人们享有言论自由权的能力产生严重的负面影响,并可能对政治制度产生破坏性影响。旨在确保透明度的立法既有助于打击虚假信息,同时又可以维护言论自由的权利。在对自由限度的解读中,法国思想家孟德斯鸠认为 “自由绝不意味着可以随心所欲,自由是做法律所许可的一切事情的权利”。由此可见,法律对某些看似需要 “自由” 的行为作出规制,恰恰是为了更好地维护自由本身蕴含的长远利益需求。过去,我们一直信奉 “思想和言论表达自由” 的价值观念,鼓励更多言论自由表达,其目的在于防止真相被蒙蔽并激发新思想的创造。但在 “深度伪造” 技术滥用之下,公众发现辨别信息的真假变得极端困难时,这种尊奉 “思想和言论自由” 为金科玉律的观念,在后真相时代恐怕需要经历一番限缩解释了。规制 “深度造假” 滥用行为的目的在于抑制消极因素,发挥积极效应。无论如何,人们创造技术是为了更好地满足人类追求美好生活的需要,实现这个目标的关键是人们运用技术的手段和目的要合乎一般法律原则与道德伦理的要求。

三、全球监管 “深度伪造” 滥用行为的模式

鉴于不法分子滥用数字 “深度伪造” 技术将会带来一系列的消极影响,法律人必须思考如何规制滥用该技术的行为。为此,各国开始在运用法律手段规制 “深度伪造” 技术滥用行为上进行了初步的立法尝试,形成了数字平台 “自我监管” 、政府 “直接监管” 以及 “平台+政府” 联合共同监管三种治理模式。

(一) “自我监管” 模式:数字平台的自我调节行动

数字平台 “自我监管” 模式旨在推动互联网平台公司主动承担起对网络环境中用户发布内容的真实性和行为的合法性加以审查的责任,强调依靠数字平台 “自愿” 实施系列措施打击包括 “深度伪造” 在内的各种数字虚假信息,其性质属于一种数字平台自我调节机制。如全球著名的数字平台公司脸书、推特以及谷歌宣布将采取一项以 “阻止错误信息或虚假新闻传播” 为目标的行动计划。脸书创建了一个旨在提高 “广告透明度” 的 “广告库” ,同时与第三方的网络事实核查员保持合作,并每月定期发布因 “内容不真实行为” 而被冻结的账户数量报告。同样,美国推特公司宣布禁止发布包括提及政治候选人或立法等政治性内容的广告,并开发出一个工具用以专门对此类 “数字虚假内容” 进行标注。然而自我调节机制在治理 “深度伪造” 信息时也存在一些显而易见的弊端:①数字平台自我审查的透明度不足,难以提供可供政府等第三方核查的相关数据;②过度依赖数字平台自身设定的算法实施自动化过滤,容易导致数字平台与政府机构之间出现信息不对称;③数字平台自主过滤虚假信息的措施可能与自身的利益出现冲突,导致自我审查动力不足。因为数字平台尤其是免费社交网站的收入更多地依赖于尽可能多的广告销售收入,需要吸引和维持受众尽可能长时间地参与网络话题的讨论。

实践证明,由于缺乏针对性、足够的激励机制以及较强的外部监管压力, “自我监管” 模式在治理 “深度伪造” 技术滥用现象中呈现的效果不佳。德国青少年保护网于2017年开展的一项调研数据显示,依靠网络数字平台 “自我监管” 模式清理数字虚假信息的效果不佳。如脸书上只有39%的数字虚假信息被及时清理,推特上只有1%的数字虚假信息被及时清理。尽管数字平台 “自我监督” 模式存在种种不足,但这种自律方式是增强数字平台责任意识重要而不可或缺的一步。单纯由政府机构采取打击行动实际上难以应对网络用户每天上传的海量信息,也远远不足以解决网络虚假信息的传播问题,因而鼓励数字平台参与打击包括 “深度伪造” 在内的网络虚假信息仍然是必要的。

(二) “直接监管” 模式:来自政府的单边行动

政府 “直接监管” 模式强调从国家层面制定相应法律来禁止实施包括发布 “深度伪造” 在内的各种数字虚假信息的行为。这一模式在许多国家已经得到了立法上的实践,其中以美国对数字 “深度伪造” 技术滥用行为采取 “直接监管” 的行动最为典型。早在数字 “深度伪造” 技术诞生不久后,美国国家安全部门便察觉到了滥用数字 “深度伪造” 技术对国家安全造成重大危害的现实可能性,因而积极支持有关部门从法律和政策层面加强对数字 “深度伪造” 技术滥用行为的监管。在联邦立法层面,美国陆续提出了一系列有针对性的法案。譬如2018年12月,美国参议员Ben Sasse提出的《2018年恶意伪造禁令法案》将制作 “深度伪造” 内容的行为人和明知是 “深度伪造” 内容却仍放任其继续传播的数字平台纳入了规制的范围。2019年6月12日,美国众议员Yvette Clarke又提出了《深度伪造责任法案》,旨在限制利用 “深度伪造” 技术合成虚假信息以威胁选举活动的行为。该法案的基本内容包括:①强调 “深度伪造” 内容制作者负有披露义务;政府负有开发识别 “深度伪造” 内容相关技术的义务;规定被侵权人享有诉权;将利用 “深度伪造” 技术实施的数字冒名行为视作假冒行为进行规制。实际上,该法案的出台在美国招致了一些批评,主要是因为其部分重要定义较为模糊、条文可操作性不强、与美国宪法第一修正案保护言论自由的精神存在潜在冲突。同年6月28日,美国又出台了《2019年深度伪造报告法案》,该法案主要规定了三项重要内容:①明确将数字 “内容伪造” 定义为使用包括人工智能 “深度伪造” 在内的各种新兴技术来制作意图产生诱导性结果的音频或视频内容;②规定国土安全部需评估外国实体对数字内容伪造的使用,并负有定期发布关于 “深度伪造” 技术前瞻性研究报告的义务;③规定了美国对 “深度伪造” 技术实施以 “国土安全部为主导,其他部门相协调” 的监管架构。

其他一些国家也采取了直接立法形式禁止实施包括 “深度伪造” 在内的网络数字虚假信息行为,规定对发布和传播数字虚假信息的行为施以罚款乃至监禁的处罚。有些国家的法律还授权政府相关机构封禁网站、冻结社交媒体账户或删除网上数字虚假信息。如2019年3月,俄罗斯推出了《假新闻法》,该法规定对在数字平台以及博客、媒体、网络出版物上传播 “明知是不真实的社会重大信息” 的用户处以高达150万卢布(约合人民币15.5万元)的罚款,并授权国家机关立即通知数字平台和 “网络出版物” 编辑在24小时内删除内容,否则将冻结该网站的访问权限。2019年5月8日,新加坡出台了《防止网络假信息和网络操纵法案》,该法案规定对未依照政府指令及时删除或更正网络假信息的数字平台,处以高达100万新元(约合人民币500万元)的罚款;对恶意散播虚假信息、企图损害公共利益的行为人,处以有期徒刑最高为10年、罚金最高为10万新元(约50万人民币)的处罚。匈牙利于2020年3月出台了一项法案规定对实施传播数字虚假信息的行为人处以最高5年监禁的处罚。我国于2019年11月29日颁布了部门规章性质的《网络音视频信息服务管理规定》,其第11条禁止网络音视频信息服务提供者和网络音视频信息服务使用者利用深度学习、虚拟现实等新技术及新应用制作、发布、传播虚假新闻信息。

在对待包括 “深度伪造” 在内的各种网络数字虚假信息的监管上,尽管多国普遍采取了一种自上而下的直接监管模式,但这种模式在治理 “深度伪造” 技术滥用行为中也往往效果欠佳。这是因为在治理数字 “深度伪造” 问题时,网络数字平台与传统政府监管机构之间存在较大技术差异,巨大的信息不对称使监管机构实际上难以及时地对网上出现的 “深度伪造” 虚假信息加以处理,同时也难以准确把握监管的现实尺度。此外,民众也担忧这种 “直接监管” 模式可能存在过度压缩网络空间言论自由的嫌疑。由于难以界定 “深度伪造” 信息的含义,这种由国家驱动的硬性规定可能为政府滥用权力决定什么是 “深度伪造” 信息开辟新的途径,进而产生过度压制言论自由的风险。

(三) “平台+政府” 联合共同监管模式:欧盟层面的多边努力

“平台+政府” 联合监管模式强调数字平台与政府部门共同负有责任来治理包括 “深度伪造” 在内的数字虚假信息,要求数字平台在政府主管机构的监督下实施一系列切实有效的治理措施。欧盟采用了此种模式,旨在欧盟层面和国家层面的主管部门、互联网平台公司、媒体组织、研究人员和其他利益相关者之间建立一个治理数字虚假信息的合作框架。欧盟意在找出一种 “折中方案” ,从而发挥出数字平台和政府监管在打击数字虚假信息方面的双重积极性。2018年5月25日,欧盟出台了通行于欧盟成员内部的《通用数据保护条例》,该条例界定了 “同意” 和 “个人敏感数据” 等重要概念,加强了对在线平台用户的个人数据的保护,提出了严厉打击数字虚假信息的主张。同时,该法案第71条 “算法可解释性” 要求所有公司必须解释算法的自动决策,这意味着 “深度伪造” 算法的黑箱操作已涉嫌违法。这是第一个就个人数据信息加以严格保护的强制性规定。2018年,欧盟委员会宣布成立了一个由新闻媒体、学术界和互联网平台公司代表组成的高级别专家工作组,其职责是:研究制定打击包括 “深度伪造” 在内的数字虚假信息的行动方案,定期发布现状分析报告,建议所需采取的法律行动。在此基础上,欧盟委员会发布了重要报告《处置网络虚假信息:欧洲进路》,该报告提出了应对数字虚假信息的4种方法,并将 “数字虚假信息” 定义为 “出于故意或经济利益而制作,并在网络平台上传播可能给公众造成现实伤害的虚假或者诱导性信息” 。此外,该报告还指出数字虚假信息得以制造、上传和传播是受到现有数字平台生态系统缺乏透明度和可追溯性,算法欺诈和网络平台广告收入来源模式的影响。同时,欧盟层面也支持依靠网络数字平台签署自愿共同遵守的行为准则来进行 “自律监管” 。如欧盟委员会推动出台了《欧盟反虚假信息行为守则》作为 “全球第一套平台自律标准” ,该守则由数字平台、广告主和广告行业自愿签署,其主要目的是提高网络政治广告的透明度,解决虚假账户的问题,赋予消费者举报虚假信息的权力。

客观而言,欧盟采用的这种 “平台+政府” 联合共同监管模式是结合了欧盟组织及其成员国层面硬性规定和平台自律性质软性规定的两种优势,但须知这两种不同性质的规定之间不可避免地会出现利益和衔接上的冲突。此外,由于欧盟是将 “深度伪造” 纳入数字虚假信息的治理路径,因而可能缺乏针对性。但上述冲突并非不可调和,其不足之处也可以通过在泛欧层面上更果断地采取共同监管行动框架来部分地加以克服。

四、规制 “深度伪造” 滥用行为的法律对策

(一)推动建立和完善治理 “深度伪造” 滥用行为的国际合作机制

打击跨国数字 “深度伪造” 虚假信息意味着首先要在超国家层面建立相应的监管机制,这就需要有条件地制定新条约以明确禁止或控制该技术在国际政治和国家安全领域的发展或使用。鉴于滥用该技术制作虚假数字信息并结合互联网全球迅捷传播的力量将给国际安全带来重大威胁,滥用这一技术的行为已被大多数或几乎所有国家认为是危险和不可取的。这就为在国际法领域构建相应的协调监管机制提供了形成广泛共识的信任基础。虽然建立新的针对数字 “深度伪造” 技术的规制制度在国际法律领域并不那么容易,但理论上,国际法律体系显然能够提出和形成新的法律制度,以解决该技术所带来的制度空白。因此,如何建立新的针对性国际机制才是问题的关键所在,具体而言,推动建立治理该技术滥用行为的国际合作机制有两条:

其一,可以尝试将 “深度伪造” 虚假信息的治理纳入即将构建的人工智能全球治理框架之中。人工智能技术的发展使得没有一个国家能够单独应对其带来的安全威胁与挑战。对此,诚如谷歌CEO桑达尔·皮查伊在2020年1月召开的达沃斯论坛上提出的观点一样: “人工智能的管理需要一个全球性的框架。”由于各国已经认识到人工智能技术发展可能给全球安全带来普遍性挑战,因而在全球层面构建人工智能治理框架势在必行且已开始转化为实际行动。如在国际层面,2019年5月,OECD成员国已批准了名为 “负责任地管理可信AI原则” 作为全球首个政府间合作签署的AI组合型管理原则,其内容包括包容性增长、可持续发展和福祉原则,以人为本的价值观和公平原则,透明性和可解释性原则,稳健性和安全可靠原则以及责任原则。上述原则有望成为未来治理AI的国际通行准则。中国是人工智能发展大国,业已于2019年6月颁布了《新一代人工智能治理原则》作为框架性治理文件。数字 “深度伪造” 技术是人工智能技术的一个重要分支,我国倡导将其纳入即将构建的人工智能全球治理框架之中加以规制也在情理之中。

其二,可以考虑将滥用数字 “深度伪造” 技术制作虚假信息的行为纳入国际刑事协作和国际反恐合作机制的规制之中。鉴于跨国 “深度伪造” 虚假信息可能侵害国际社会的共同法益,因而利用现有的国际刑事协作机制来加以打击是较为可行的。此外,数字 “深度伪造” 虚假信息常被视作新型信息战常用的重要手段,其对国家安全乃至国际安全的危害性不亚于发动一场恐怖热战的袭击。因此,从维护国家安全的角度出发,将滥用 “深度伪造” 技术制作危害国家安全的虚假信息行为嵌入国际反恐合作机制加以规制也是恰当的。同时,各国还应在现有国际机制之下强化跨国数字平台对于管控 “深度伪造” 虚假信息传播的法律和社会责任。

(二)效仿欧盟推行 “平台+政府” 联合监管模式

数字 “深度伪造” 技术滥用行为牵涉多种利益,除积极开展国际合作监管之外,仍需要在国内联合多部门、多行业进行监管。为有效应对 “深度伪造” 虚假信息监管的复杂性和应用场景的多变性,建议我国采用 “一主多辅” 的监管架构,明确各政府监管机构的监管责任并合理划分监管范围。所谓 “一主多辅” 是指以 “国家安全部” 为主导,以 “中央宣传部、中央网信办、公安部、国家新闻出版广电总局” 等部门为辅助。监管机构应明确划定网络用户利用 “深度伪造” 技术的违法 “红线” 。综合分析比较全球监管模式的利弊来看,我国借鉴欧盟所采取的 “平台+政府” 联合监管模式加以规制更为妥当。当然,欧盟模式仍需克服其现存的两大弊端:其一,欧盟及其成员国的强制性立法对规制数字 “深度伪造” 虚假信息缺乏针对性和足够的协调性。其二,欧盟推行的权威机构监管下的数字平台 “自律” 机制在利益调节上仍然存在不顺畅之处。针对欧盟模式的弊端,我国可在即将出台的《数据安全法》中果断地加入 “深度伪造” 虚假信息规制条款来加强针对性和协调性。此外,我国还可在推行政府监管与数字平台自律机制联合行动的前提下,积极推动数字平台就商业广告创收模式开展变革,明确数字平台的定期报告义务以增强透明性,从而实现数字平台自我利益与公共利益有效平衡的调节目标。这种方法可以纠正数字平台自律与政府机构监管之间存在的一些信息和权力的不对称,同时确保必要的灵活性。

(三)加强网络数字平台的责任:引入 “准行政责任” 机制

网络数字平台相较其他市场主体在识别和处理数字虚假信息上天然地存在资金和技术两个层面的优势。目前我国关于网络平台数字虚假信息治理和法律责任的规定主要集中于《侵权责任法》《网络安全法》《信息网络传播权保护条例》之中,但这三部法律法规就数字平台治理虚假信息所施加的责任要求普遍较轻,因而难以实现促使其 “自律” 治理的目标。此外,数字平台对个人数据的保护基本遵循着传统的 “通知—同意” 的隐私保护策略,难以应对 “深度伪造” 虚假信息带来的挑战,而单纯的 “平台自律” 方式也无法起到实质性作用。基于 “深度伪造” 虚假信息带来的严重现实威胁,有必要加重网络数字平台在打击 “深度伪造” 虚假信息时的责任。一条规制 “深度伪造” 虚假信息制造和传播行为的可行的路径是将 “准行政责任” 机制引入网络数字平台责任承担制度之中。所谓 “准行政责任” 是指对网络数字平台施以类似行政机构的监管义务,以专门针对性地监控和报告数字 “深度伪造” 虚假信息制造和传播行为,否则施以巨额罚款。

“深度伪造” 虚假信息的主要表现载体是视频或音频,因而网络数字平台抑制 “深度伪造” 虚假信息的 “准行政责任” 机制也应当主要针对视频或音频来进行设计。数字平台未来的举措固然是应该以开发人工智能工具为导向,结合人工智能反 “深度伪造” 技术来审查全球数十亿用户发布的内容。但由于现有的检测技术实际上无法做到识别全部的 “深度伪造” 虚假信息,因而从现实情况来考虑,通过重点监控用户非法行为的方式以寻找 “深度伪造” 内容的迹象是必要且可行的,有利于集中技术力量重点打击影响重大的此类非法行为。基于互联网庞大的用户群、即时传播的速度和域名虚拟化的特征,网络数字平台有必要针对上述特征制定如下规则:①主动对50万点击量以上的网络热点视频或音频开展 “深度伪造” 合成审查。②对网络用户发布的涉及国家安全、公共安全、政治安全等敏感信息、敏感词汇的视频或音频加以标记,主动开展 “深度伪造” 合成审查,并录入定期报告事件之中。③网络平台应遵循 “发现/通知—删除/禁止传播—溯源” 规则处理 “深度伪造” 虚假信息。也即网络平台一经自己发现或者经由用户举报发现线上存在 “深度伪造” 虚假信息,就必须立即动用检测技术手段加以确认,然后采取删除、断开链接、禁止再次上传等措施遏制其传播,最后还应主动追踪溯源到 “深度伪造” 虚假信息的域名和域名背后的真实用户。

(四)引入惩罚性赔偿威慑 “深度伪造” 技术滥用行为人

国家运用法律手段追究 “深度伪造” 虚假信息制作者和发布者的责任是必要的,同时也需注意给予 “受害人” “充分、及时、有效” 的救济。有学者提出要赋予 “深度伪造” 虚假信息制作者声明义务或者标记义务,但这种做法实际上不太现实。这是因为善用 “深度伪造” 技术仍可以产生相对积极的效果,制作者声明或不声明的意义不大,这种善意行为不需要法律过多加以规制;而滥用该技术制作危害性的虚假信息时,制作者必定存在逃避处罚的心态,因而其不会主动地加以声明或者即使声明了也要加以处罚。目前我国治理数字虚假信息的责任承担制度无法有效抑制 “深度伪造” 技术滥用行为的实施,其原因主要在于制作 “深度伪造” 虚假信息的侵权违法成本过低,不足以对此类行为形成足够的经济威慑力,也不足以对 “受害人” 提供充分的救济。因此有必要引入一种极具惩罚性质的民事责任来改善此种情况,惩罚性赔偿制度可以满足这一要求。在制定《民法典》之前,我国惩罚性赔偿机制主要存在于消费者权益保护、食品安全、商品房买卖、产品缺陷领域;《民法典》制定之后,我国果断在知识产权领域引入了惩罚性赔偿机制作为兜底条款,用以遏制频繁发生的、恶意侵害他人知识产权的行为。 “深度伪造” 虚假信息也在一定意义上涉及知识产权侵权问题。因此,我国也可考虑在规制 “深度伪造” 技术滥用行为上引入惩罚性赔偿机制。

结语

大数据与人工智能技术互动所产生的 “叠加效应” 给现行法律制度体系带来了前所未有的挑战,传统法律制度必须勇于回应这些挑战并作出适当变革。数字 “深度伪造” 技术是人工智能的衍生技术,滥用该技术所带来的一系列潜在安全威胁问题凸显出法律应对此类前沿科技发展的滞后性。对此,单纯依靠某一部法律来规制新技术的滥用行为往往难以达成预期的效果,往往需要多部相关法律协同创新才能取得较为理想的效果。当然,要解决好 “深度伪造” 技术发展带来的应用风险,仍需组合使用除法律之外的其他手段共同施为。

猜你喜欢
规制深度法律
四增四减 深度推进
深度思考之不等式
论外空活动跨界损害责任的法律规制
职业道德与法律 教案
涉及网络募捐的现有法律规定
简约教学 深度学习
中国社会组织自我规制的原因浅析
新常态经济规制及其制约机制完善
浅析我国行政规制的法制完善
政治法律