【内容提要】技术是把双刃剑。由美国人工智能研究公司(OpenAI)发布的Sora模型,能够深度学习理解并复现复杂物理场景,具有强大的视频即时生成能力,虽然为媒体的视频制作带来了诸多方便,但如果将人工智能生成的视频应用到新闻报道之中,那么就会对视频新闻的真实性构成严重冲击。本文认为,利用Sora进行视频新闻报道,既会降低新闻造假门槛、加大新闻伦理风险,还会增强新闻治理难度。为此,应该从加强日常监管、完善配套制度建设、推动产业升级等层面入手,予以应对,消除其可能给新闻传播业带来的负面影响。
【关键词】Sora视频生成模型 新闻造假 伦理风险 治理难度 对策措施
Sora作为可以将文本直接转化为视频的人工智能新技术,提升了制作视频的效率,由其生成的画面层次丰富、色彩绚丽,并具备多机位和远景、全景、中景、近景、特写及运动镜头的切换功能,在视觉效果上与实景拍摄不分上下。正是由于其与实拍的画面难辨真假,因此会对视频新闻的真实性带来严重冲击。笔者认为,真实是任何新闻报道的生命,视频新闻更不能例外。如果Sora被别有用心的人用来制作虚假的视频新闻,那么既会误导受众的认知,还会损害媒体的公信力与权威性。
一、降低新闻造假门槛
Sora的问世,随之会出现视频领域技术创新与视频新闻真实性困境并存的局面。一系列人工智能新技术在新闻传播领域的应用,为各类虚假信息的滋生与扩散提供可能,导致媒体验证视频新闻是否真实更加困难。人工智能技术使篡改或伪造视频内容变得轻而易举,可以由以前的简单拼接发展到更高级的深度学习合成,让虚假新闻能够以逼真的形态进入受众视野。
Sora生成的视频并非取自哪个具体的视频库或数据库,而是由Sora这个AI模型根据输入的提示词直接生成的。其通过扩散模型(Diffusion Model)的技术思路,对视频数据进行转换处理,再根据用户输入的要求生成相应的视频内容。与此同时,Sora还具备调整和编辑视频的能力,当用户直接输入视频素材后,Sora能够对其作进一步的加工处理。当然,Sora只是人类视频内容创作中的辅助工具,怎样创意还得需要人类提供。现在,Sora模型已经能够生成各种逼真的视频内容,如果把这个人工智能新技术应用到新闻报道活动中,就降低新闻造假的门槛。
近年来,有人利用人工智能技术生成虚假新闻的事例屡见不鲜,如有的利用AI软件生成虚假的地震灾情视频;有的利用AI软件生成关于运钞车被踢爆、九旬老人遭儿女遗弃等虚假内容。在人工智能技术可以生成视频的条件下,视频用来佐证事实已经不大可能,尽管视频通常被认为是形象、生动的信息载体,可以直观展示事件、人物或者场景,能够比文字和图片提供更多关于事件的细节,但现在是“有视频也并不一定有真相”,视频也可以通过深度伪造虚假信息来误导公众。
传统媒体时代的视频新闻生产,由于对内容真实性审查的要求很高,主动造假的新闻视频非常容易被识别。但Sora等生成式人工智能的出现,人们通过简单的文本提示就能生成高度逼真的视频内容,极大地方便了视频新闻的内容造假,“眼见为实”与“有图有真相”的传统观念被突破。生成式人工智能技术运用到新闻传播领域后,虚假报道正在经常性地出现,如“杭州3月1日起取消限行”[1]和“甘肃一火车撞上修路工人致9人死亡”[2]就都是有人用ChatGPT直接生成炮制出来的假新闻。当然这些都是自媒体人所为,假如记者在人工智能技术的赋能下,不是通过增强脚力、眼力、脑力和笔力去现场采集鲜活的新闻,而是坐在办公室里通过Sora生成危言耸听、吸引眼球的所谓“新闻”,那后果会怎么样?
用人工智能技术生成视频新闻报道,给新闻传播领域带来的信任危机主要体现在几个方面:一是深度伪造技术的滥用,使视频内容制作既方便简单又成本低廉,会导致虚假信息的发散性传播;二是人们在接收人工智能生成的新闻视频内容时,难以甄别其真假,时间一长会产生“狼来了”效应,媒体的公信力就会每况愈下;三是虚假视频新闻对舆论的干预将成为最大的潜在风险,有的商业平台会根据用户的兴趣进行视频新闻的个性化推送,如果算法推荐的是误导性很强的有害信息,那么既会使公众对某些突发事件和热点问题产生认知偏差,还会严重影响社会的稳定。
二、加大新闻伦理风险
由于Sora生成的视频可能会包含虚假的误导性信息,一旦进入传播环节,就会给媒体的公信力带来严重伤害。如果将Sora生成的画面运用到视频新闻的报道当中去,那么就会加大新闻行业的伦理风险,使新闻报道的真实性难以保证。实际上,Sora生成的大量视频内容会导致信息过载,进而造成受众对新闻报道的信任危机,使受众对信息真实性的信任度不断下降。
新闻伦理既是大众媒体及编辑记者在新闻传播活动中的价值取向、道德约束与行为规范的总和,也是新闻工作者的自律要求。遵守新闻伦理规范,旨在保证新闻传播活动的真实性、准确性、客观性、公正性和导向性。进入“人人都可以成为记者”的全员媒体时代后,新闻生产主体多元化、报道内容多样化、舆论环境复杂化,也会导致新闻伦理的风险加大。
当然,影响新闻真实性的因素是多元的,既有采访不深入、信息来源不可靠、编辑失误等,但故意造假的行为也不能忽视。尤其是各种人工智能技术为新闻造假提供了方便,这是当前最大的新闻伦理风险。进入数字化时代后,信息传播的速度、广度和深度得到了进一步拓展,视频新闻由于具有直观、形象、生动等诸多优势,已占据了信息传播高地,改变着公众获取信息的方式,影响着媒介生态和新闻传播格局。像由Sora生成的视频如果运用到新闻传播活动中去,不但会使新闻真实性面临前所未有的挑战,还会损害媒体的公信力,动摇整个社会信任体系的根基。
虽然Sora目前仍处于发展初期,主要运用于生成演示视频和实验性内容,其技术成熟度与稳定性尚待进一步验证,并且还没有普遍性地直接应用于新闻视频的生产领域,但前文所述的一些个案,已经让大家看到了人工智能技术给新闻传播业带来的伦理风险。Sora的问世,使得专业新闻工作者和自媒体人都看到了人工智能技术生成视频的便捷性,随时有可能会忽视新闻伦理和职业道德的约束。在Sora大规模地应用于视频新闻生成之前,我们有充分理由去前瞻性地防范和规避其可能会带来的一系列问题。人工智能技术的快速发展使得新闻伦理规范难以跟上技术发展的步伐,现有的新闻伦理规范往往原则性太强,缺乏可操作性,难以有效应对视频新闻造假等新情况。在人工智能快速发展的当下,媒体应该及时制订AI在新闻报道中的伦理规范,确保人工智能技术在应用到新闻报道活动中时必须符合社会伦理和新闻工作者的职业道德标准。
三、增强新闻治理难度
虽然人工智能技术能够帮助记者从海量数据中提取关键信息,快速整合新闻素材,提高报道的时效性,但也可能由于原始数据错误和算法偏见导致信息失真。如果有人利用生成式人工智能技术炮制虚假新闻,那么验证与治理的难度都会非常之大。视频新闻的真实性,就是指视频内容中所呈现的时间、地点、事件、人物、原因和结果等新闻要素应该是真实、准确的。一是信息来源的可靠性,就是视频新闻的内容必须来源于可靠的渠道并经过严格的核实;二是拍摄现场的真实性,就是视频新闻的主体必须是现场拍摄的,而不是人工智能技术生成、拼接或者是经过故意篡改的;三是报道内容的准确性,就是视频新闻中的画面、解说、图表、字幕等内容必须准确无误地反映新闻事件和新闻人物的真实情况。
当“媒介”这个形式被诸如“用户临场”等技术演进所逐渐消解或者式微时,我们会更清醒地认识“新闻生产”的本质究竟何为。辛格尔(Singer)认为,“验证和解释(verification and exploration)是新闻业的本质。”[3]针对Sora生成的高度逼真画面,媒体对视频新闻真实性的传统审查手段已显得力不从心,在识别和验证其是否真实时难度明显增强,内容的真实性与准确性难以验证。以前,媒体编辑和受众可以通过比对现场视频、目击者采访等途径来验证视频新闻的真实性,但面对由Sora等人工智能技术生成的视频,许多传统的验证方法已不再有效。
世界经济论坛《2024年全球风险报告》将人工智能技术列为首要全球风险。AI可以成为认知战工具,用于意识形态渗透,操控信息传播,不仅能够赋予竞争国家新的手段以干预和引导社交媒体舆论,推动其官方叙事的接受度,还可能被非国家行为者掌握以影响民众判断,对国家安全构成潜在威胁。[4]现如今,传统的治理框架已经难以有效规制人工智能技术引发的各类风险。由于机器生成的海量内容增强了内容监管的难度,因此加强新闻治理已成为全球共识。
治理视频新闻造假的难点涉及方方面面,目前关于视频新闻造假的法律规定还比较分散和笼统,对于何种行为构成视频新闻造假、如何界定其法律责任等方面的规定还不够明确,并且缺乏常态化的监管机制。当然,人工智能技术在视频生产领域的规范使用,能够丰富视频形态、增强视频表现力、营造虚拟场景、方便特效制作,为视频制作者提供较大的技术帮助,但如果把人工智能生成的视频用到新闻报道中去,就必须有明显的标识注明,以区别于实景拍摄的画面。
四、应对挑战的策略
Sora在视频生成领域应用时的功能和优势主要体现在数据驱动物理引擎、视觉块编码等方面。要有效规避其对视频新闻真实性带来的冲击,确保视频新闻的真实性、客观性,维护媒体的公信力,就必须加强审核、监管、制度建设和技术升级等措施。矛有多锋利,盾就应该有多坚固。为了动态应对Sora对视频新闻真实性的冲击,各级主流媒体必须加快开发更加先进的视频识别技术步伐,以有效区分视频新闻报道是纪实视频还是人工智能生成视频,以增强视频新闻报道内容审核的针对性。
媒体监管的对象除了记者提供的视频报道外,重点应该是社会上公民记者和自媒体人的视频报料。随着视频拍摄设备的普及,现在主流媒体的视频新闻报道除了由本单位记者提供外,也会吸收社会上一些公民记者和自媒体人提供的报道内容。公民记者是新闻媒体以外的非专业新闻工作者,又被称为民间记者,他们分布在各行各业,遇到身边有突发新闻事件发生,往往会第一时间向当地媒体报料。这对各级主流媒体拓展新闻的来源,让报道更加及时、全面是有益的。但由于公民记者的媒介素养和伦理道德素养参差不齐,不能保证他们提供的视频报道中不会有Sora生成的内容。而自媒体人更是形形色色,有的为了自己的报道能被媒体采用,可能会通过摆拍、拼接等手段编造一些根本不存在的所谓新闻事件。视频生成软件Sora的问世,使他们更有可能会通过人工智能技术生成的视频以新闻形式进行报料。这些虚假的视频新闻有的涉及社会热点,有的是敏感话题或者存在着争议性的内容,如果借助主流媒体的平台进行传播,那么对社会的危害极大。
媒体需要摒弃已经过时的业务模式,结合人工智能技术的特点,重新审视自身定位与发展目标,对人工智能技术可能带来的风险进行预测和评估,及时制定相应的防范措施。[5]面对海量的视频新闻内容,媒体编辑如果还是用传统的人工审核,那么已很难防范虚假新闻的渗入。各级媒体要对Sora等人工智能技术生成的视频进行严格审查,通过不断提高辨别能力,确保视频新闻的真实性与可信度。当务之急是要积极开发能够识别Sora等人工智能生成视频的工具,如利用先进的机器学习和视频处理技术,通过分析视频中的微小瑕疵、前后不一致之处或特定于人工智能生成的痕迹,帮助媒体和广大受众与用户区分视频内容的真假。
维护视频新闻的真实性是一项艰巨和长期的工作,既需要时刻关注人工智能技术发展的最新动态,及时跟进新的审核与监管措施,也需要不断加强新闻工作者的伦理道德建设和公众的媒介素养。各级媒体要在加快技术研发,提高自动化审核准确性与适应性的同时,继续完善并加强人工审核,通过人机协作,守护新闻报道的真实性。只有齐心协力,才能共同来规范全员媒体时代的新闻报道行为,切实维护新闻报道的真实性。
五、结语
随着人工智能技术的快速发展,Sora对视频新闻真实性的冲击将会日渐复杂化。对任何新技术,我们都要用辩证的眼光看待。Sora的问世,促进了视频内容生成的便捷性与创新性,但如果被滥用到新闻视频的生产领域,那么也会严重威胁到新闻的真实性和媒体的公信力。面对Sora对视频新闻生产的冲击,我们更要注重行业自律、健全制度和法规、加强监管与审核,同时以开放的理念、创新的思维、严谨的态度,在人工智能技术应用与视频新闻真实性坚守之间找到平衡点,通过构建一个既快捷高效又真实可信的视频新闻传播体系,为受众提供更加规范有序的新闻信息服务,有效推动新闻传播事业的持续健康发展。
参考文献:
[1]澎湃新闻.杭州3月1日取消限行?媒体称系ChatGPT所写,警方将发布调查结果[EB/OL].(2023-02-17).http://news.cyol.com/gb/articles/2023-02/17/content_BbEGJjSlYQ.html.
[2]澎湃网.火车撞上工人,9人死亡?又是用“它”造谣![EB/OL].(2023-05-31).https://www.thepaper.cn/newsDetail_forward_23294443.
[3]史安斌,郑恩.迈入“融合性真实”:文生视频技术对新闻传媒业态的重塑[J].传媒观察,2024(04):27-36.
[4]赵京文.视听新质生产力革新:生成式AI引领的机遇、挑战与未来展望[J].视听界,2024(04):11-16+24.
[5]赵秀梅.文生视频模型:发展态势、影响预判与应对方略[J].新闻战线,2024(15):74-76.
作者简介:张铭,浙江省嵊州市融媒体中心副主任、主任记者
编辑:王洪越