陈 鹏 程
(安徽财经大学 法学院, 安徽 蚌埠 233000)
《牛津词典》2016年年度词汇“post truth”,译为“后真相”,意思是“(信息)诉诸情感及个人信念,较客观事实更能影响民意”[1]。通俗地说,后真相是指人们易受片面和非客观的“真相”影响。2019年2月,一条由“杨某”主演的《射雕英雄传》视频片段在网络上走红。许多网友对此仅当作娱乐,但有一部分网友意识到视频内在的技术原理,指责制作者打开了“潘多拉魔盒”。而此项被网友称为“潘多拉魔盒”的技术就是新型人工智能伪造技术——深度伪造(Deep Fakes)①。称深度伪造为“潘多拉魔盒”并不夸张。早在2017年,美国红迪网就已经出现通过深度伪造技术合成的名人色情视频,随后深度伪造更是被用在伪造政治人物发言视频中,达到政治抹黑、干预选举的目的[2]。除此以外,深度伪造仍有可能被用于诽谤、诈骗等犯罪活动[3]。如果说互联网时代的后真相是“片面真实+舆论引导”的形式,那么,权威媒体及时客观地作出全面的报道,便能大范围避免或降低这种不明真相的舆论影响。但是,随着人工智能深度作伪技术的出现,“真相”可以被制造,眼睛和耳朵不再可靠,人类可谓步入了“伪造真实+舆论引导”式的深层后真相时代。此时,转变思路,制定专门的人工智能法案、统一协调地治理人工智能伪造将是帮助人类突破后真相迷雾的有益进路。
康德有言:“说真话是一种义务,人们应该无条件履行这种义务,不管由此导致什么后果。”[4]433这个论断包含着深刻的法学和哲学思辨,无争议地揭示了真诚对于社会存在的重要性,深度伪造却在很多方面诱导人们“说谎”。
由于“虚假新闻”(fake news)概念难以覆盖信息传播的复杂现状,欧盟内部报告曾建议以“虚假信息”(disinformation)作为替换概念,意为“有意设计、提供和推广以造成公共伤害或谋取利益的虚假、不准确或误导性信息”[5]。《新闻记者》杂志发布的《2019年度虚假新闻研究报告》认为,中国虚假新闻现象有所改善,由社交自媒体散布的虚假信息却在进一步侵害传播秩序[5]。虚假信息的泛滥在2020年初爆发的新冠疫情中可见一斑,各种假消息铺天盖地,甚至出现了“信息疫情”的概念。从信息发布和传播层面看,这些虚假信息的发布主体多为规模激增的网络自媒体。同时,因为新型算法资讯平台如网易新闻、今日头条等相继出现,甚至包括微博、抖音等娱乐社交平台也逐渐成为集新闻热点和休闲娱乐一体化的综合性平台,也为这些虚假信息提供了传播和发酵的温床。有研究报告指出,虚假信息正走向“新闻生态系统”内的传播,其表现形式是专业媒体和自媒体互为信息源。例如,2019年2月的“部分汉字拼音被改”刷屏网络,不乏被“中央人民广播电台”等官方媒体微博转载,事后证实为片面假消息,源头系某微信自媒体根据未生效的《审音表(意见稿)》编写发布[5]。以自媒体为发布主体的信息真实性可能被质疑,但当带有“官方”标签的新闻媒体为虚假信息背书时,其危险后果不言自明。同时,当人工智能伪造技术被用于制作虚假信息,信息发布者不再需要通过有意剪辑、隐藏部分真相等手段来提高信息可信度,转而可以直接按照其意图制作一个“真相”时,人工智能深度伪造可以更便捷地在很多场合达到以假乱真的目的,此时,虚假信息将造成更加严重的社会负面影响。国内目前还没有运用人工智能技术伪造传播假消息的典型案例,但深度伪造在国外被多次用于伪造政治新闻。例如,YouTube上有关于特朗普和奥巴马等诸多政治人物的伪造视频。随着深度伪造应用场景的不断丰富,未来可能会出现涉及政治、经济、文化等领域的假信息,监管部门必须及早提高警惕。
深度伪造可能被用于伪造个人信息,冒充身份。央视新闻频道曾在2019年对深度伪造现象作过专题报道。在报道中,深度伪造(打击)专家沃德尔博士通过深度伪造将视频中的自己变成另一个人来向观众介绍这项技术;“针幕动画”联合创始人李浩则和美国公共广播公司记者现场展示了用软件一键变脸成特朗普总统和日本首相安倍。然而,深度伪造的利用远不止如此,声音也可以被伪造。2018年,“琴鸟”(Lyrebird)公司开发了一款语音合成软件,只需要获取任意人的一段源音频数据,人工智能就能轻易模仿他的声音,并且该软件还可以为声音添加感情因素,使其更加真实。彭博社记者万斯体验了这项技术,并用合成声音和自己的母亲进行了实时通话,母亲对此却没有丝毫察觉。苏黎世大学研究员乌德里什就声音伪造接受采访时表明,完美的声音伪造难度很大,但是,视频和伪造音频结合将是一个巨大的威胁[3]。冒充他人身份因为人工智能伪造技术而变得简单。在传统的电信诈骗犯罪中使用人工智能伪造技术,不法者将更容易获取目标信任,甚至受害人在事后也意识不到受骗。《华尔街日报》在2019年3月报道过一起案件:通过伪造公司CEO的声音,不法者成功诈骗了22万欧元。冒充他人身份无疑会扰乱社会秩序。随着移动支付、智能家居、智慧出行的不断发展普及,面部、声音和指纹等常用生物信息逐步财产化、钥匙化,而通过深度伪造可以轻易地模拟这些信息。设想一个陌生人能够很容易地在网络上冒用你的身份、行为,必然会使得人人自危,严重扰乱并阻碍现实社会秩序。
英国有古谚:法庭之上没有事实,只有证据。现代司法制度设计了较为完善的证明规则,但包括取证、举证责任和证明标准在内的一系列规则旨在还原案件事实的证明目的,还要回归到证据真实的基础上。目前,由于缺乏有效的鉴别手段,深度伪造最容易出现在视听资料和电子数据形式的证据中。由于我国刑事诉讼入罪时奉行排除合理怀疑原则,如果不法者利用深度伪造制作一项与查证事实矛盾的“证据”并主张该证据真实,那么,他极有可能因为法院无法形成完整的证据链、不能排除合理怀疑而获得无罪的评价,最不济也能拖延诉讼进程,使自己暂时免受刑事制裁。如果深度伪造证据被用于栽赃陷害,就会使无罪者面临被错误入罪的风险,危害结果将会更大。相比较于刑事诉讼对证据的严格审查和严格证明,民事诉讼和行政诉讼的证明标准和证据审查则要宽缓,这也为深度伪造证据提供了更大的施展空间。民事诉讼和行政诉讼为追求定纷止争,对于当事人无争议的证据事实基本予以认定,即使对证据真实性有争议,由于缺乏有效的鉴别技术,法官在综合审查后仍然有一半的可能性予以认定。而无论最终认定与否,额外耗费的诉讼成本都是不符合提高效率和降低诉累要求的。总之,人工智能伪造如果用于伪造证据,将会极大地破坏司法公信力。
深度伪造本质是一项人工智能伪造技术,具有广泛的应用场景。国内目前为人所熟知的直接涉及深度伪造的案例,无论是2019年“ZAO”换脸软件因不当收集用户信息而遭工信部约谈并下架整改,还是“杨某换脸”事件,其影响范围还仅仅限于私人及娱乐领域。因此,对深度伪造的治理,学界的关注点较多集中在隐私保护、版权规则维护和虚假信息清理上。国内现行的关于深度伪造的相关管理规定主要有《网络音视频信息服务管理规定》和《网络信息内容生态治理规定》。前者为国家互联网信息办公室、文化和旅游部、国家广播电视总局三部门在2019年11月联合制定的以应对人工智能深度学习在网络音视频信息领域的应用管理办法,主要规定不得利用网络音视频信息服务和相关技术从事违法活动,对于利用深度学习合成的非真实信息应当添加区分标识,信息服务提供者上线或新增以深度学习、虚拟现实为技术内核的具有媒体属性或社会动员性质的服务功能需要开展安全评估;后者为国家互联网信息办公室在同年12月制定发布,在信息服务提供者基础上进一步将信息生产者纳入调整范围,并规定了网络行业组织监督管理等内容,仍侧重于对网络信息生态的治理。不难看出,这是一种以问题为导向的治理思路,其逻辑是回应人工智能技术在互联网领域应用产生的不良结果。此种治理思路适合应对突发情况,却不能涵盖深度伪造在其他领域的应用。如果将此种治理模式作为中国深度伪造治理之道,似有以偏概全之嫌,甚至可能人为地模糊人工智能技术和互联网的差异性,反而使人工智能技术和互联网的治理措施相互掣肘,阻碍技术进步。
深度伪造等人工智能技术对于既存的法律秩序不断地发起挑战,理论界和实务界也不断予以回应,但规制效果有限。一个原因是立法位阶低且处罚措施轻。以平台不当收集和使用个人信息为例,我国“个人信息保护法”“数据安全法”等尚处在立法规划阶段,而目前对个人信息保护规定较全面的是2017年修订的GB/T 35273-2017《信息安全技术个人信息安全规范》,其中,个人信息安全国家标准规定了个人信息收集的“明示同意”规则和存储规则;2020年GB/T 35273-2020又新增了对用户画像的使用限制。而根据我国工业和信息化部网络安全管理局2019年4月披露的信息,其同年3月开通对违规收集个人信息的举报渠道,仅1个月收到的举报就超过3 000条,国家标准缺乏威慑力由此也可见一斑[6]。另一个原因是缺乏统一规范。散落在各部门法中的相关规定,能够在人工智能伪造侵犯具体法益时发挥事后救济的作用,但分散的管理规定一旦涉及模糊地带,就容易出现难规制的法外之地。一般认为,人工智能伪造信息如果涉及侮辱诽谤他人情形时,可以通过《中华人民共和国刑法》(以下简称《刑法》)第二百四十六条“侮辱诽谤罪”予以追究;而如果是冒充身份实施诈骗则依《刑法》第二百六十六条“诈骗罪”入罪处罚;对于利用人工智能伪造证据,则有可能触犯《刑法》第三百零五条“伪证罪”的相关规定。另外,《中华人民共和国民法典》第一千零十九条规定,任何组织或者个人不得以丑化、污损或者利用信息技术手段伪造等方式侵害他人的肖像权,这可以被视为对于“智能换脸”的深度伪造运用侵犯他人肖像权的回应。但是,相关的规定列举有限,人工智能伪造技术的应用场景却难以尽数,且民法、刑法和其他部门法由于功能不同,法益保护的方式和倾向也存在差异,难以面面俱到,缺乏统一的规范;同时,如此复杂的规范体系甚至还会造成规范内部的冲突。
目前,国内没有一个正式的人工智能技术开发和安全评估监管部门。前文已经论述人工智能伪造技术带来的风险被很大程度上当作互联网虚假信息在监管。根据经验,深度伪造的内容和互联网的结合较为紧密,伪造内容往往以互联网作为传播媒介使自身影响最大化,甚至于某些互联网信息科技企业本身也是人工智能技术的研发者,因此,通过网络信息监管部门和网络行业组织自律监管对现阶段人工智能伪造进行规制,确实有立竿见影的效果,但这并非长远之计。一个原因是互联网信息监管部门对于其他领域的人工智能伪造缺乏监管权限;另一个原因是当下互联网信息生态治理本身就是一个沉重的任务,现有监管机制自身尚不完善。例如,根据国家互联网信息办公室和公安部联合发布的《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》要求具有舆论属性或社会动员能力的互联网信息服务和相关新技术新应用要依规定开展安全评估,但此规定只能规制在互联网领域开展的深度伪造,且该规定仅是政策性文件,既不设行政许可也不规定行政处罚,这就使得安全评估的威慑力大幅度弱化。
为了统筹部署我国人工智能创新发展,2017年7月20日,国务院以国发〔2017〕35号文件发布了《新一代人工智能发展规划》。规划要求完善人工智能发展的法律规范和伦理规范,建立起人工智能安全监管和评估体系,引导和保障人工智能技术健康安全发展。我国现有规制体系仅能初步应对“网络娱乐换脸”类较典型场景的深度伪造运用,但从域外深度伪造应用情况来看,未来人工智能伪造在我国多场景、突发式的运用不可避免,现有制度对其是难以有效规范的。对于人工智能技术的治理仍需要统一的规范和专门的监管制度。
治理人工智能伪造有两种思路,一种是从具体问题出发的针对性规制,一种是宏观层面对人工智能伪造现存和潜在问题作出统一规范。美国和中国目前遵循的是前一种思路,欧盟则倾向于后者。
美国对于深度伪造的规制是联邦和州两级规制模式。2019年6月13日,美众议院情报委员会专门就“深度伪造”举行听证会,提出了许多有益措施,如限制政府官员实施深度伪造、发展信息检测技术、强化网络运营者责任和加强对网络内容的审核等[7]。而就在举行听证会的前一天,美国众议院议员Clarke在国会上提交了《深度伪造责任法案》(DeepFakesAccountability,Act),该法案规定了伪造者的披露义务,将利用深度伪造实施数字冒名顶替行为认定为假冒身份的犯罪行为;同时,要求政府牵头开发信息真实检测技术[8]。2019年6月28日,美参议院也提交了一份《2019年深度伪造报告法案》(TheDeepfakeReportof2019)。该法案将深度伪造的监管授权给美国国土安全部(United States Department of Homeland Security, DHS)②,要求国土安全部定期发布深度伪造调查报告,为日后立法修法提供依据[9]。州层面对于深度伪造规制各有侧重,总体较联邦层面呈现更加具体和严厉的趋势。例如,弗吉尼亚州将传播未经授权的深度伪造图像视频认定为犯罪,德克萨斯州则直接禁止制作或传播深度伪造内容[9],加利福尼亚州州长分别签署《AB 730》《AB 602》两部法案以禁止干扰选举和传播色情[10]。
从美国现行规范体系可以看出,美国同样没有统一的人工智能伪造规制法案,甚至联邦层面的法案,如规定制作者披露义务和限制伪造技术应用场景在一定程度上被认为侵犯美国《宪法第一修正案》的言论自由而不被接受。州与州之间对于深度伪造的规制差异较大,在实践中也难以操作,在数据共享的互联网世界,这种矛盾很大地削弱了治理效果。美国现行的规范体系有诸多不完善之处,当权者显然也意识到,从参议院提案授权国土安全部对深度伪造作定期监管报告就可以看出,美国已经将新型人工智能伪造技术规制提到了国家安全的高度。除专门针对人工智能伪造具体问题进行规制外,美国也一直在探索宏观人工智能统一法案。其实,早在2017年年底,美国国会就曾提出《人工智能未来法案》(FutureofArtificialIntelligenceActof2017),希望通过该法案帮助美国确保其在人工智能领域的领先优势,如其被两院审议通过,这将会是美国第一部联邦层面的人工智能法律。《人工智能未来法案》的主要内容是建立一个专门的机构负责人工智能发展事业,即在商务部设立促进人工智能发展的联邦咨询委员会。咨询委员会享有立法行政建议权和对人工智能的产业研究及其评估权,并在规定期限内向商务部长和国会出具报告和建议[11]。2019年2月,美国国家标准与技术研究院发布《美国如何领导人工智能:联邦参与制定技术标准及相关工具的计划》,公布人工智能的美国标准,建议美国政府优先参与制定包容非歧视、可访问和透明、基于共识的人工智能标准等相关工作,并提议辅之以包括但不限于标准化格式的数据集、评估测试、问责和审计等工具,以提高人工智能的可信赖性[12]。
欧盟目前没有出现大规模的人工智能伪造危害性案例,所以并未出台专门针对深度伪造的法案,而是通过个人数据保护和反对不道德的人工智能运用来规范人工智能作伪。
2018年5月25日,《通用数据保护条例》(GeneralDataProtectionRegulation,GDPR)在整个欧盟范围内生效,在欧盟境内的任何涉及收集、传输、保留或处理成员国内个人信息的机构组织均适用该条例。GDPR将同意规则作为任何第三方使用他人信息数据的唯一正当理由;同时,将涉及种族及民族、政治观点、宗教哲学信仰、工会成员身份、健康状况和性取向及性生活的数据、基因数据、 经处理可识别特定个人的生物识别数据等7种类别的数据信息视为个人敏感信息,以禁止他人使用为原则,获权使用也不得私自披露。GDPR奉行私权至上原则,对于违反条例的行为采取严厉的处罚措施。瑞典数据保护机构(The Swedish Data Protection Authority,DPA)就曾认定当地某高中使用人脸识别对学生进行考勤违反了GDPR关于一般禁止识别自然人的生物数据的规定而开出罚单[13]。严厉且有执行力的个人数据保护使得人工智能伪造在使用个人信息时因可能违反GDPR而遭受严格的处罚更加谨慎。2019年4月,由欧盟人工智能高级专家组拟定的《人工智能道德准则》(AIEthicsGuidelines)正式生效。该准则要求人工智能不得使用公民的个人资料并歧视和伤害他们,并且提出实现“可信赖人工智能”的7条准则,分别是:人的能动性和监督、稳健性和安全性、隐私和数据管理、多样性和非歧视、透明度、社会和环境福祉、问责。而在这7项准则中,“透明度”被认为是一切的关键。任何公司在使用人工智能技术时,其受众都应当具有知情权,人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法作出的决定,都必须由公司出面解释[14]。这意味着人工智能伪造可能因为其难以追溯和区分(不受监督)、暗箱操作(不透明)被认定为违反准则,不可信赖。同时,欧盟仍在探索更为严格的人工智能立法。
欧盟规范整体呈现出在人工智能技术应用中对个人信息的一种严格保护。但是,过度限制人工智能技术应用场景,确实也使欧盟的人工智能技术发展相对迟缓。对于如何规制人工智能伪造,美国和欧盟采取宽严不同的治理思路。美国虽然在具体问题上发布诸多针对性法案,但整体给予平台和运营商较宽缓的环境,只要不涉及犯罪行为,平台和运营商少有其他责任。甚至于美国《通信规范法》(CommunicationsDecencyActof1996)所规定的“网络服务商豁免责任”使Facebook、Google等网络运营商审核用户发布的内容成为一种免责式自律,这也使得行业内难以达成共识,在缺乏有效技术对抗的情况下,导致深度伪造泛滥。欧盟以严厉的规范限制人工智能技术应用场景,有因噎废食之嫌,也不利于技术进步。美欧在规制人工智能伪造中的不足各有表现,但是,美欧的规制也有共性,即回归技术的本质,以统一的人工智能法案来协调治理人工智能伪造,希望通过完善的人工智能法案进一步指导具体领域的人工智能应用。
后真相时代之所以要规制人工智能伪造,目的是人类迫切地需要了解真相。因此,从法治理角度看,规制人工智能伪造就是要禁止技术说谎,或者说禁止欺诈。人工智能算法具有自主性和隐蔽性,实际上包括伪造信息制作者本人可能对于人工智能学习和运行原理都没有全面的认识。伴随着人工智能伪造技术的不断学习进步,未来人类面临的更大风险不是受智能技术使用者欺骗,而是受智能技术欺骗。结合我国现行法制缺陷和域外法实践经验,统一协调、宽严相济、权责分明的规范体系建立是禁止人工智能欺诈的有益进路。从域外实践看,美国和欧盟都在积极探索专门的人工智能法案,并尝试构建完善的人工智能道德标准,以谋求人工智能技术快速发展,同时保障人工智能安全可控。国务院《新一代人工智能发展规划》提出,要在2025年之前初步建立人工智能法律法规、伦理规范和政策体系。虽然我国人工智能核心算法和设备水平距离发达国家还有差距,我国对于人工智能技术的应用规模却遥遥领先。无论从技术安全角度还是从国际竞争角度看,我国都必须尽快出台中国式的“人工智能未来法案”,制定具有中国特色同时又符合整体人类发展需要的“人工智能道德准则”。
笔者以人工智能伪造规制为具体场景,为未来中国人工智能立法提出几点建议。
人工智能越是精于伪造就越应要求其“真诚”。由于检测技术难以匹配,中国和美国在应对伪造信息时都尝试为制作者设定披露义务,但此设定对恶意伪造者无效。从有效监管的角度出发,与其耗费精力对人工智能伪造的危害后果进行治理,不如追根溯源让人工智能伪造技术从一开始就受监督、可识别。因此,对于人工智能伪造技术规制的要点不在于技术使用,而在于技术开发。人工智能要做到真诚,在技术开发阶段就必须写入“真诚”命令,其目的是保证所有通过人工智能伪造技术输出的伪造内容必然以某种特征表明其伪造的本质。“真诚”命令起到了标签作用,以“可识别”表明技术受监督;同时,可以围绕“真诚”原则构建人工智能安全标准,发展安全认证。只上线符合安全标准的技术应用,而不受监督的人工智能技术禁止开发和使用。
通过健全隐私保护和数据管理并建立评估制度,以保证提供稳健和安全的人工智能服务。人工智能伪造是依靠算法深度学习实现的,算法学习又以大数据为基础,也就是说,在智能时代,数据化的个人信息被人工智能收集和处理是人类可以享受智能服务的前提。《个人信息安全规范》中将“明示同意”作为服务商收集使用个人信息的原则,但在实践中该原则的执行却趋于僵化,往往是一次授权永久使用。同时,也缺乏相应的评估监管机制,使得个人信息极易被滥用和泄露。对此,应当建立动态授权和信息使用披露机制。而未来的人工智能法为智能服务提供者因服务需要收集如面部、指纹等个人敏感信息的应当设定风险预警机制和信息保护专员,定期对服务商经营状况、信用状况和信息使用和保护状况进行考察评估,避免服务提供者因不当经营而疏于管理造成信息泄露。对于在评估中不合格的,予以公告,责令出具保证并派遣信息保护专员介入帮助和监督整改;如果连续两次评估均不合格或拒不整改的,责令其停止发展业务。
建立健全公开透明的人工智能技术监管体系是治理新技术的重要举措。人工智能具有极强的专业性,作为未来智能社会构建的基础,人工智能又具有显著的溢出效应,其应用涉及社会各领域,因此,对人工智能的监管应当从技术开发和技术应用两方面展开。技术开发层面的监管需要制定统一的人工智能技术标准规范作为监管依据,明确国家科技部为监管主体。国家科技部凭借其专业性和权威性,无疑是人工智能技术研发监管的最适格主体。国务院《新一代人工智能发展规划》关于实施组织的部署,也体现了围绕科技部构建中国人工智能科技发展行政配套体系的理念。技术应用层面的监管需要科技部联合在具体技术应用领域的负责部门综合治理。基于人工智能在应用中往往处于辅助地位,因此,应当明确以责任部门为监管主体,科技部协助监管,避免因权限划分不明导致低效监管。
人工智能伪造技术的应用,网络平台以提供智能服务需要为由大规模收集个人信息,作为信息实际控制者即同时负有妥善保护和使用信息的义务。滥用信息造成损害的,由网络平台承担过错推定责任;对于信息泄露造成损害的,要区分导致信息泄露的原因是人为还是技术缺陷。人为的信息泄露由平台承担责任;技术缺陷导致的信息泄露,可以比照产品缺陷责任由技术开发者(生产者)和网络运营者(销售者)承担责任,并且由技术开发者最终负解释责任。而如果是人工智能伪造技术使用者利用该技术侵犯他人合法权益,可以类比网络服务提供者责任,技术提供者要和使用者一起承担连带责任,但技术提供者可以举证人工智能技术开发符合法定安全标准并及时采取必要措施从而免责。
人工智能是未来国际竞争合作的战略性核心技术,同时也可能是一项颠覆性技术。高度智慧和自主学习使人工智能具有不确定性而被警惕,人工智能伪造使算法“学会说谎”更进一步增加了其技术风险。应对科技进步带来的危害,无论是先发展后治理还是禁止发展都是错误的态度。我国在大力推进人工智能技术发展的同时,必须着力同步治理技术应用带来的风险。近年来,包括人工智能作品属性、无人驾驶汽车责任、算法透明和深度伪造规制在内的研究都反映了我国在立法上对人工智能规范仍缺乏统一有效的回应,客观上要求契合技术发展给予有效治理。“人工智能法”必须就安全标准、监管、责任等技术治理前提予以明确,这也是未来学界研究关注的重点。
注 释:
① 深度伪造(Deep Fakes),一种新型人工智能伪造技术,最开始是指人工智能合成照片,随后发展为视频、音频、文本和微表情等各种形式的信息载体.以视频为例,视频是由一帧帧图片组成,伪造视频就是将原视频中的部分图片替换成伪造图片,基于源数据分析并运用“生成性对抗网络(Generative Adversarial Network,GAN)”和“卷积神经网络(Converlutional Neural Network,CNN)”的算法生成器生成伪造图片,再经与真实图片比较,并设定相似度达一定比率为“真”,反之为“假”.将通过鉴别的伪造图片映射到原有视频中替换真实图片以保证视频帧数连续和伪造视频真实度,生成伪造视频.
② 美国国土安全部(DHS),是美国政府于9·11恐怖事件后成立的联邦行政部门,负责国内安全及防止恐怖活动.