文/吴文汐 荣 雪 李成博
随着媒介技术的不断演进,事实核查的门槛在逐渐提高,谣言识别的难度日益加大,从“有图有真相”发展为“有视频有真相”,到如今,随着AI技术的介入,“视频换脸”的技术门槛降低,视频造假也变得轻而易举,传播形式已经无法成为辨识信息真伪的关键性证据。AI技术对谣言传播的影响具有两面性,一方面,AI技术通过智能算法更加精准地识别谣言,控制谣言传播;另一方面,其可以用来创建更为逼真的谣言内容,从而加剧谣言治理的难度。当运用AI创建和传播虚假内容的能力超过甄别真伪信息的能力时,谣言与社交媒体、智能媒体技术相结合,对网络舆论场的负面效应将更加突出,社交媒体空间中不同社群间的对话因难以快速核实的谣言而受到干扰,主流媒体的舆论引导力也将面临更为严峻的挑战。因此,智能媒体时代如何对谣言进行有效的识别和控制,这是网络舆论治理中必须高度重视的关键性问题。
近几年来上述问题正在得到国内外学者的关注,尤其是国外学者在这一领域有了较为丰富的成果。基于此,笔者结合相关研究成果,从算法模型和用户心理两个角度,提出智能媒体时代谣言识别、控制与更正的路径。
基于算法,利用大数据与AI技术是智能媒体环境下谣言识别的主要途径。目前早期自动检测是主要的识别方式,主要通过传统分类方法、基于深度神经网络的方法以及基于传播模式这三种方法实现。前两种主要聚焦于虚假信息的文本与用户特征,第三种方法则聚焦于真假信息传播过程的差异。传统分类方法主要是通过对文本内容特征(如主题、体裁、句子长度、情感词汇、修辞、基于时间的演化规律)以及用户信息(如用户年龄、粉丝特征、位置、转发或评论行为)等进行分类,发掘疑似谣言的类别特征,运用已识别的谣言和非谣言数据作为训练数据分类器,但这类方法用手动设计分类特征,繁琐而又费时,在场景运用上存在局限性。近年来深度神经网络的方法开始得到运用,即通过深度神经网络自动学习有效的语义特征,来代替传统的手动分类方法。也有两种方法相结合识别谣言,比如,用神经网络提取文本信息与用户反馈信息,用传统方法提取信息源用户的特征,两相结合对谣言分类做出判断。基于传播模式的方法则是通过分析虚假信息和真实信息在传播过程中的差异(如传播时间、传播中的主导用户、传播的网络结构的差异),来辨识虚假信息。
然而谣言识别需要重复的信号才能达到足够的精度,因此,只有在谣言开始传播并造成危害时才能识别谣言。Qin等(2018)提出谣言预测的方法,这种方法是在每条信息刚发布时立即评估该信息是否可能成为谣言,从而在虚假信息传播并造成伤害之前做出处理,这种方法需要在单次数据传递中做出即时决策,难度更高也更为复杂。Qin等(2018)将基于内容的特征与基于新颖性的特征和伪反馈相结合,实验表明,这种方法能够准确地预测一条信息在未来是否会成为谣言。但是相关研究还比较少,实验结果的精确度还需要更多的研究辅证。
鉴于谣言预测相较于谣言识别,可以更早阻断谣言传播,随着人工智能技术的发展,谣言预测将超越谣言识别,成为智能媒体时代谣言治理的首要任务。此外,从技术应用的角度来说,通过人机协作提高智能化事实核查的精准度,加强对假新闻或新闻失实内容的核查,也是智能媒体环境下抑制谣言传播的重要方向。
从删除节点向阻断有限链接的转变。早期的网络谣言控制手段是删除节点,这种方法的有效性在很多实验中得到了证实。删除节点的根本目的其实是删除谣言链接,然而单独删除链接对于系统来说工作量巨大,因此Kimura等(2009)考虑到网络的分层结构,信息被逐层转发,提出删除节点的同时阻断链接传播的方法,出于经济效益的考虑,应当阻断有限链接达到较好的谣言控制效果,而不是阻断全部链接,Kimura等根据自然贪婪算法(Naturally greedy algorithm)和债券渗滤法(Bond percolation method)提出了删除链接的启发式算法(The link-removal heuristics),并且利用大型博客和维基百科网络,实验证明了该方法的有效性:可以仅阻断0.2%的链接,就减少近50%的谣言传播,这为更加经济有效地删除谣言提供了参考。
基于病毒传播模型的谣言传播及辟谣分析。由于谣言传播与病毒传播具有很强的相似性,计算机科学领域的学者利用数学模型和算法,在病毒传播模型(如SIR传染病模型)基础上研究谣言传播模型,并运用仿真实验的方法对提出的模型进行检验,其中SIR模型是最常使用的模型。此类研究主要发现网络的平均程度、受众的个人状态以及信息效价等因素会对谣言传播产生影响,通过控制这些变量找到一个有效阈值,从而兼顾辟谣效果和经济效益。比如,Yong和Ma(2018)探讨了正面新闻对谣言传播的影响,与热点事件或突发事件有关的谣言大多可以在社交网络的温床上迅速传播,因此对其最好是转移而不是封锁,该研究提出了积极新闻可以抑制谣言传播的ISSPR传播模型。He等(2016)根据持续对策下的谣言传播模型推导出谣言持续扩散或者消亡的阈值,并提出了在预期时间内以有效成本抑制谣言传播的实时策略,即RTO和PSCB策略,经证实这两种策略可以通过周期性地传播真实信息来抑制谣言的传播。这两种策略可以连续或周期性地抑制谣言,保证成本效益。Zhao等(2015)则是通过对谣言传播过程建模,改变谣言传播的终止机制,使模型更加逼真,通过稳态分析,得出谣言传播必须超过的传播阈值。除此之外,模拟结果显示,同时对大量受众进行辟谣效果不一定好,因为会产生资源浪费,所以理想的辟谣受众数量存在一个阈值。这个阈值就是应选择的最佳辟谣个体数量。Zhang等(2014)建立了动态8态ICSAR(无知、信息载体、信息传播者、信息倡导者、移除)谣言传播模型,分析了与谣言传播相关的信息吸引力、谣言的客观识别、人的主观识别、信息媒体的信任度、传播概率、强化系数和专家效应等8个影响因素,ICSAR模型可以将人分为8种状态,准确分析谣言和反谣言传播,对于提高辟谣效率和制定应急预案具有重要意义。目前来看,这些算法和模型仍然需要更多的检验。
麻省理工学院的Vosoughi等人(2018)通过对2006年到2017年twitter上约300万用户发布的约126000个新闻进行分析,发现虚假信息的传播速度远高于真实信息,一个虚假故事比一个真实故事的传播速度快6倍,算法是以相同的速率在促进真假信息的传播,因此是用户而非算法,使得虚假信息传播快于真相,这与人性本身有关,人们更倾向于分享新奇的信息,而虚假信息比真实信息更加新奇。这也说明要控制社交媒体的谣言,推动辟谣信息的传播,不仅需要靠算法,基于用户心理的考量也相当重要。
用户心理因素阻碍谣言更正效果。采用阻断方式控制谣言往往是在谣言初期效果较好,随着谣言不断扩散,形成错误认知的用户越来越多,简单的删除很难改变人们的认知,谣言的更正,也就是辟谣即成为重点。然而有一部分研究结果表明谣言更正的效果并不显著。从用户心理的角度出发,有以下几方面原因:一是更正已存在的错误认知需要用户付出更多的认知努力,对谣言主体的认同程度、知识水平、认知负载程度、种族偏见程度、阴谋论程度等都会影响用户对辟谣信息的接受程度;二是谣言的持续效果会影响更正信息发挥作用,这种效果也称为“信念回声(Belief Echoes)”,也就是说,即使谣言得到了更正,但是对谣言的认知仍然会影响人们的判断;三是当更正信息不足以说服用户时,用户也会拒绝更正信息;四是更正信息还可能产生“反效果”,也称为逆火效应(Back Fire Effect)或者回旋镖效应(Boomerang Effect),即辟谣信息会产生事与愿违的效果,强化错误认识。
谣言更正的有效路径。总结此前国内外相关研究成果,从用户心理角度分析,谣言更正可以采取以下策略。
第一,不断重复辟谣信息,提高用户对辟谣信息的注意力,加深认知,用与谣言等量的辟谣信息与谣言抗衡,建立谣言与反谣言的匹配机制,将信息的正反两面同时显示,抑制谣言的影响。
第二,提供具有可靠信息源的辟谣信息。目前来看,这种方法普遍使用,但是一些具体情境下的效果还有待测量,例如,当涉及某领域的信任危机时,该领域的权威信源是否还会产生良好的辟谣效果还有待检验。
第三,在辟谣信息的呈现结构上,运用与谣言信息同样的话语体系,采用用户熟悉和喜欢的话语方式,用故事等用户易于理解的表达,都有助于提高用户对辟谣信息的接受度。
第四,促进用户参与,鼓励社交媒体用户积极、自主驳斥不实信息,并且社交媒体应当为他们提供辟谣依据以配合用户的自主辟谣。这里存在的一个关键问题是如何激发用户对辟谣信息的传播意愿?有研究(Pal等,2019)表明包含三种“显著信念”的辟谣信息能够激发用户的辟谣信息传播意愿,这三种“显著信念”分别为:分享辟谣信息有利于促进真相的传播,朋友与网络社群鼓励分享辟谣信息的行为,信源可信度高的辟谣信息能够促进辟谣信息的分享。
最后,需要说明的是,算法和用户心理都是从微观角度来探讨智能媒体环境下谣言的应对,实际上,谣言是一个“上至国家政策、中至信息生命周期,下至个人心理和行为”的系统性问题,未来如何综合不同层面的因素来解决这一问题,仍有待更多的研究与探讨。