姜博文
摘要:伴随内容生产主体的多元化、传播环境的重构与信息技术的变革,社交媒体在国内外广泛普及。人工智能的发展让智能算法推荐开始替代专业人士的决策,也为治理社交媒体假新闻乱象提供着可行路径。这需要有效提升受众的媒介传播素养,合理利用信息技术的发展成果,不断创新人类与人工智能的合作方式,并持续强化人工智能治理和信息传播伦理建设。
关键词:社交媒体 假新闻治理 人工智能 算法推荐
随着数字技术和移动互联网的普及,社交媒体开始快速发展,这对传统新闻行业既是机遇更是挑战。当大量低门槛的自媒体介入新闻生产与传播,以往的信息传播伦理框架遭受冲击。新媒体时代,社交媒体假新闻愈演愈烈,人工智能如何参与互联网治理值得关注与研究。
一、社交媒体假新闻的产生原因
从传统媒体时代进入到新媒体时代后,假新闻现象在社交媒体呈爆发态势。社交媒体假新闻的产生受各类互联网平台的算法技术、运营逻辑等影响。“假新闻泛滥貌似到达了一个新的高度,这跟社交媒体和人工智能的发展密切相关。”
1.生产主体的多元。进入新媒体时代,公众借助互联网平台尤其是社交媒体获得了有效的发声渠道,个人信息有机会获得广泛传播并产生更大影响。多元化、去中心化的传播模式让个体获得话语权,也淡化了传统媒体工作者“守门人”的职责,弱化过去传统媒体对于谣言的纠错、追责能力,使得假新闻获得易产生、低风险的生存土壤。
在传统媒体时代假新闻的治理方案中,大量研究认为应加强职业共同体内部的素质培养。由于生产主体的快速变化,以往的治理措施在当下已显过时。信息生产主体的改变,以及行业准入门槛低,造成大量假新闻由非职业生产者制造出。对这样多元的广泛群体,依靠职业层面的素质规范培训是不现实的。
2.传播环境的重构。随着用户使用和依赖习惯的形成,社交媒体成为很多用户重要甚至是唯一的信息来源渠道。与传统媒体不同,社交媒体并不重视对内容质量的追求,其不是新闻内容的生产者与把关者,往往只是定位于做传播渠道,这为虚假新闻的滋生与传播提供了广阔空间。
新旧媒介环境的不同,也造成如今假新闻与以往假新闻有所区别。对于大量自媒体来说,“优质内容”不再是过去语境下所指的内容客观、数据严谨的新闻报道,而是足够共情、能抓住读者眼球的精彩故事。在流量与利益的高转化率下,获得关注就是获得资源——这使得社交媒体对充满诱惑力的信息更为关注,它们通过精心设计的内容吸引受众,为假新闻开拓了足以生存并持续扩大的环境。
3.信息技术的变革。随着数字技术与人工智能的发展,社交媒体的信息传播技术不断实现快速的迭代升级。社交媒体的新闻传播,目前主要依托算法推荐和个性化推送。算法推荐是通过内容类别、兴趣标签、浏览行为、社交关系等大数据的收集归纳,将用户的点击偏好整理分析后,为其精准推送大量相关内容,获得用户更高的点击量和浏览时间。
这类工作数量巨大,决定了其不可能完全由人来操作完成,引入算法正是为了弥补人力的不足与缺陷。人力的有限性也决定了无论怎样加强法制法规建设并提高人工审核的专业性,都不足以有效地检查、核对、验证如此海量庞杂的信息。因此,对于社交媒体假新闻传播现象的治理,最终仍然需要技术实现的路径,即通过人工智能实现对假新闻的识别与处理。
二、社交媒体假新闻的传播失控
既然社交媒体对于新闻内容的抓取和推送主要依赖于算法推荐,那么算法推荐和人工智能技术在信息传播过程中的具体应用将对新闻资讯的生产和传播产生越来越大的影响,如果处理不当将加剧社交媒体假新闻的传播失控。
1.智能算法推荐影响新闻的价值基础。传统媒体时代,专业主义作为新闻行业的传统价值基础,强调新闻的客观性、严谨性、公共性与有益性,新闻的生产与传播更多依托于专业人士的社会责任与把关能力。而社交媒体等互联网平台往往强调自己只提供新闻资讯等信息,并不参与内容生产,而它们对新闻的获取与分发更多地依赖于智能算法。
智能算法的价值更倾向去选取那些能抓住用户眼球、引发共情的热点事件,并不在乎它们是否耸人听闻,也不检查和追究信息来源的真实性。社交媒体平臺对新闻的推送基本依赖算法推荐,根据用户的读取倾向进行多点分发,“在新媒体环境下,算法分发的更多是碎片化、个性化的信息,而不是新闻,算法推荐机制实际上是一种对新闻专业主义和公共性的解构。”
2.新闻伦理约束失效助推假新闻泛滥。社交媒体推荐算法的设计,往往并不征求或参考新闻专业人士的意见建议,多由产品和研发人员完成,这很可能造成算法的天然缺陷,即算法漠视或违背传统新闻伦理的约束。加上社交媒体的相关算法往往因技术保密、知识产权、商业竞争等原因不够透明,后期对算法的监管也不够有力,容易放大假消息、假新闻,导致传播失控。
部分社交媒体平台和自媒体出于利益诉求和现实需要,甚至利用算法操纵或催化假新闻,推动并助长假新闻在社交媒体的泛滥。社会责任感不足、自律他律缺失的算法推荐,如果成为内容抓取和分发的制度手段,必然会导致新闻偏向。“通过社交媒体算法散播的假新闻正祸乱全球,如果假新闻是中伤对手、攻击敌国的子弹,那么,社交媒体存在漏洞的算法就是被利用来发射子弹的枪械。”
3.情绪化传播强化信息茧房效应。智能算法推荐的主要依据,不是平台或程序设计者认为公众应该接触的有公共价值的信息,而是用户的点击偏好。算法会根据用户的点击率和关注倾向,连续抓取并反复推送相关信息,这种对受众口味的迎合和纵容,极易使互联网平台用户加速分化。不同用户分别被特定类型的信息过度粘合或屏蔽,最终导致“信息茧房”的形成。
与此同时,规训用户认同、接受观点窄化甚至极化,极易造成用户情绪化的传播,更易使虚假信息和假新闻被不断放大,并利用圈层化的社交媒体迅速扩散和传播,加剧并固化社群间的误解与分裂。如果有社交媒体平台出于政治或商业目的,借助大数据分析和智能分发,精准描摹并放大、引导特定用户的某类心理特征进而精准推送虚假信息,甚至会对社会安定团结产生不良影响。
4.媒体融合扩大假新闻的传播范围。随着多媒体技术和人工智能技术的应用、发展与普及,无论是传统的专业新闻媒体还是网络自媒体,都开始致力于探索媒体融合,不断打造和追求融媒体、全媒体的新闻传播形式。融媒体通过文字、图片、音频、动画、短视频、VR、网络直播等多种形式的结合,能够承载的信息内容更丰富生动、形式更灵活直观,更易吸引关注并获得信任,也更容易使相关信息的传播范围和扩散程度倍增。
数字智能技术的创新变革,方便了对于图片和视频的改造甚至是伪造,传统的“眼见为实”“有图有真相”“有视频有真相”等已无法完全证实信息的真伪,加之即时、实时、瞬时传播等特点造成寻求真相更为困难。智能技术的进步,“已极大地改变了人类传播和接收信息的模式,并在形塑人类行为模式的基础上产生了巨大的社会影响。”
三、人工智能应对社交媒体假新闻的尝试
人工智能是把双刃剑,“面对互联网信息环境中泛滥的假新闻和捉襟见肘的人工核查,智能化技术被广泛应用到假新闻的识别和传播阻断中。”媒体融合时代的互联网治理如果不能发挥出人工智能技术的正能量,就无法根治社交媒体的假新闻乱象,因此国内外的媒体机构和互联网平台都纷纷进行尝试。
1.国外的典型案例。2017年8月,脸书开始采取“相关文章”功能对抗假新闻,在信息来源可信度低且热门的文章旁,用户可看到主题相关的其他文章。2019年4月,脸书基于大数据处理对信息添加了上下文按钮,并且不局限于文字内容,对图片等内容也使用了这一技术,同时使用新的信任指示器,提供有关特定新闻机构的更多信息。2019年9月,脸书推出名为“Rosetta”的AI系统,用于帮助计算机理解并分析每天发布在平台上海量的图像与视频。
《华盛顿邮报》于2012年开发了专门检测假新闻内容的应用软件“Truth Teller”,但限于技术原因,该软件无法有效识别各种变换形式的假新闻,语音识别功能还会时常报错。英国的事实检查机构Full Fact于2016年初推出了自己的监控系统,用于掌握每个谣言的生命周期进而消除这些假新闻。
英国科技公司Fabula AI则利用几何深度学习(Geometric Deep Learning)的方法检测假新闻。该方法着眼于信息如何在社交网络上傳播以及谁在传播,而非从新闻内容入手,并根据真假新闻的可信程度对内容进行分类,给出评定分数。Fabula AI的优势在于它与新闻的内容和语言无关,并且因为依赖于社交平台用户的集体行为,它更难被技术的方法所对抗。Fabula AI系统能够用更快的速度,在内容发布后的短时间内,以非常准确的方式检测出假新闻。
成立于2017年的旧金山人工智能基金会AI Foundation开发的Reality Defender系统,借助对图像、视频和其他媒体内容的扫描,利用人工智能驱动的分析技术发现已知的假象,帮助人们识别由人工智能算法生成的内容以检测潜在的假新闻。
2.国内的探索实践。2018年3月15日,今日头条披露资讯打假技术路线图,将自然语言处理NLP技术引入自动化谣言识别工程以阻断假新闻传播。
2019年,阿里巴巴集团推出AI谣言粉碎机。其工作原理分三步骤:第一步,当AI识别假新闻时,先在能够收集到的信息里寻找最初信源,分析用户画像,判断发布者的信誉度,如果是带链接的新闻,AI谣言粉碎机会再查询链接的域名是否来自可信网站如新华社、人民日报等;第二步,机器会提取文内关键性的论证,和现有的权威知识库进行对比验证,依据内容、逻辑关系和行文风格进行判别,利用假新闻常会采用夸大、空洞说辞的特点加以识别;第三步,对传播路径深入分析,一条谣言的发酵背后会有众多群体的助推,在留言、转发等行为里,不同的人会有多种不同态度——通过训练的机器统计不仅能获取所有用户的态度,同时会根据用户得分区别对待每条发言。人工智能将对一切用户的多种特征展开数据分析,利用大数据来获取用户的信誉度认证,综合计算新闻的可信度。
四、人工智能治理社交媒体假新闻的反思
通过国内外社交媒体的尝试,能看到其面对媒体融合时代假新闻挑战做出的努力。但也能看到,由于技术、资源等局限,这些尝试都有或多或少的不足。面对社交媒体发展带来的新挑战与新机遇,如何突破固有框架模式应对新现象、解决新问题仍值得探索,治理假新闻也不能只寄希望于人工智能的进步。
1.有效提升受众的媒介传播素养。受众需认识到,技术虽然是中性的,但技术的使用者不是中性的。这意味着技术使用者生产出的信息并不一定就是客观可信的。用户在社交媒体接收信息、二次传播的过程中,应当对内容进行自己的理性思考。社交媒体虽有“信息茧房”等问题,但用户仍可依据社交媒体平台的设置来构建自己的服务。面对虚假信息,用户可以多关注高质量的新闻媒体如人民日报、新华社等官方账号,不传播、不轻信小道新闻,对感兴趣的新闻多搜索相关内容,这能在很大程度上消除假新闻的不良影响。
2.创新人类与人工智能的合作方式。治理社交媒体的假新闻,应考虑更合理地从技术层面遏制其发生与传播,如加大对算法的投入和研发,深入优化智能推荐算法。发现和判别谣言不是一个单纯的技术指标,如果只靠大数据分析和算法的完善与精深,依然无法彻底解决该问题。人工智能虽头顶“智能”二字,但其技术局限性注定了目前其对假新闻的识别还得依靠人类设计的算法,人工智能对假新闻的处理最终还是人对假新闻的处理。因此,需进一步加强对假新闻复杂背景的深刻理解,强化算法设计者的社会责任感和新闻伦理意识,优化智能选择与人工把关的精准结合,寻求人类与人工智能合作的全新方式。
3.强化人工智能治理和信息传播伦理。目前,全社会对应当进一步深化人工智能的法律规范和伦理研究已经达成共识。2017年8月,《新一代人工智能发展规划》已由国务院印发,其中明确说明,我国人工智能发展的第一保障措施是“制定促进人工智能发展的法律法规和伦理规范”,为加速和深化人工智能的伦理研究奠定了坚实的政策基础。随着媒体融合的深入发展,社交媒体假新闻的规模及破坏力将更大,传统的新闻伦理框架已不足以解释并解决相关问题。因此,未来社交媒体假新闻的治理应考虑更为广泛的社会领域,而非局限于新闻行业和技术应用等层面的思考与实践。
作者单位 华东师范大学传播学院
参考文献
[1]邵国松.媒体智能化发展的伦理与法律问题初窥[J].现代传播(中国传媒大学学报),2018(11).
[2]姜红,鲁曼.重塑“媒介”:行动者网络中的新闻“算法”[J].新闻记者,2017(04).
[3]赵瑜.人工智能时代新闻伦理研究重点及其趋向[J].浙江大学学报(人文社会科学版),2019(02).
[4]师文,陈昌凤.新闻专业性、算法与权力、信息价值观:2018全球智能媒体研究综述[J].全球传媒学刊,2019(01).
【编辑:马宁】