■ 孙 萍 刘瑞生
尽管治理在不断加强,但社交媒体所传播的内容仍然不断引发新问题,社交媒体内容治理成为一个世界性难题。这主要因为高度普及化、社交化、日常化、场景化、视图化的移动网络已经彻底改变了传播生态。“恶”性信息或呈现病毒性显传播,或呈潜伏式隐传播,不断引发问题、难以有效治理,这实际上是一种新的信息传播生态所带来的常态性“危机”。
进入21世纪,信息技术的快速发展使互联网和新媒体迅速融入社会生活,“网络生态”开始成为媒介生态之后的学界关注点。①
“生态”并非新概念。生态学的思想源于古希腊时期的哲学和政治学,该词最早由德国科学家恩斯特·海克尔(Ernst Haeckel)于1866年提出,特指生物有机体和周遭环境之间的相互关系,后被广泛应用于自然史、环境科学、生物地理等领域。20世纪40年代,生态学出现人文转向,代表人物是格迪斯(Patrick Geddes)、芒福德(Lewis Mumford)等。前者将生态学引入城市规划,后者则提出的技术生态学,强调人们如何在寻求技术满足时减少对技术生态的破坏。②
国外学者对于传播生态的探讨早在20世纪50年代即开始出现。西方传播学界开始尝试使用生态学的理论与方法研究传播现象,出现了“媒介生态学”的概念。③综合来看,媒介生态论关注个体感知、社会文化和科技发展,注重研究科技、文化、媒介之间的互动关系。随着20世纪70年代主要传播学译著在我国的广泛传播,国内学者开始关注媒介生态。
21世纪以来,随着新媒介和新技术的不断加入,网络生态的研究视角不断向纵深发展,呈现多元化、多层次的特点,研究领域则囊括了信息哲学、生态理论和系统、控制与自组织理论、信息与情报科学等。④
既往的网络生态学研究涉及系统、伦理、社会文化、生态平衡等诸多重要概念⑤,但正如上文所言,鲜有传播学者关注新的社交网络化背景下,网络生态的变革和重构。值得注意的是,网络化与生态学的连接为传播学研究网络生态提出了新的议题。首先,网络信息技术的应用使大规模、高密度的无边界网络系统成为可能,这使得媒介信息的传递呈现多节点、多连接、无限度的特点;其次,组成整个无边网络的各部分网络节点只对本范围的媒介信息享有观察和控制权,节点之间并无交叉控制;最后,无边界网络因其连接性和无边界性,呈现出“处处是中心,无处是边缘”的独特生态系统,令新媒体传播内容出现多中心、爆炸式发展。⑥在社交化网络传播不断重构社会的趋势下,网络生态危机呈现出哪些特点?传统的媒介管理和信息控制存在哪些问题,应该如何“推陈出新”?
社交媒体迅速发展在方便了信息的及时沟通和交流之外,也加剧了全球的网络生态危机。为了应对日趋严重的社交网络化危机,各大媒体平台也加强了对媒介内容的监督管理。从网络生态的构成结构来看,危机出现的原因与信息、主体和环境密切相关。在这里,我们所说的社交网络化生态危机指的是:随着社交网络无边界和高密度的传播,社交媒体的信息传播出现的不良信息导致传播主体、传播环境和传播运营的失调,从而污染了网络环境,危及网络安全和网络运行。其主要的表现有:网络信息污染、网络安全危机、文化多样性危机和垃圾信息泛滥等。⑦
信息污染指的是暴恐信息和色情信息渗透进入社交网络,并利用无边界网络系统形成规模传播,进行组织勾连,进行暴力、色情的宣传。日前,社交媒体已成为恐怖势力和色情文化的重要藏身之地,因此,海外主要社交媒体纷纷加强对暴恐和色情信息的过滤。例如,2018年12月,轻博客Tumblr 在其社交平台全面禁止网络色情内容;2017年12月Twitter发布新规,禁止“颂扬暴力或暴力行为者”的任何内容以及“仇恨图像”,包括针对特定群体的相关“敌视和恶意”标志或符号,“针对个人或一群人的具体暴力威胁或企图造成严重身体伤害、死亡或生病都违反我们的政策”。社交网络同时也是淫秽信息的重灾区。早在我国发现国外流入的“儿童邪典片”大肆传播之前的半年,2017年夏天美国即曝出“艾莎门”(Elsagate)事件,某些社会组织在YouTube和YouTube Kids上传不适合儿童观看的血腥暴力和软色情动画视频。该事件令美国社会震惊,《福布斯》杂志将“艾莎门”事件称为“数字时代的黑暗烙印”。
信息安全问题指的是因病毒、社交媒体诈骗等威胁到用户信息的保密性、完整性、可用性、可控性及可靠性等议题。根据《中国移动互联网发展状况及其安全报告》的内容分析⑧,社交媒体依旧是我国电信诈骗类恶意程序的重灾区,并日益呈现专业化、规模化、智能化等特点。既往研究发现,50%以上的社交网络用户会在网上向陌生人公开个人信息,包括个人邮箱、生日、电话等。同时,很多社交网络平台并没有采取有效安全技术对传输信息进行保密。社交媒体的安全漏洞会因为非法入侵和非法盗卖将个人信息安全置于危险境地。尤其随着社交媒体接入网络金融和新兴第三方支付平台,信息安全隐患不可小觑。
随着全球化的深入推进,社交媒体的内容呈现也面临文化多样性危机。随着Facebook、Twitter、Instagram 等社交媒体在全球范围内的普及和推广,各种文化的碰撞与冲突日益凸显。首先是文化霸权或“强势文化”所激起的反对浪潮;其次,世界范围内的宗教冲突越发明显,以ISIS为代表的宗教恐怖主义利用社交媒体的传播力宣传不当言论,引发世界范围内恐慌;最后,与此相关的种族、民族冲突也不断发生,使得社交媒体成为助推的主战场。例如Twitter和Facebook中便存在许多宣扬暴力、反社会的煽动性用户,利用社交媒体平台妄图扩大自己的影响力。各种伦理、道德、价值观、风俗文化在社交媒体相互碰撞,出现不断增加的不同意见、不同声音和冲突情绪。
垃圾信息的泛滥也严重威胁社交媒体的网络生态。一方面,社交媒体营销变成企业“用户转换”的方法之一,许多SNS网络中做营销推广的品牌商将社交媒体作为拓展市场的重要渠道,从而大大增加垃圾信息的出现频率;另一方面,一些无信息、无观点、重复度高的社交媒体推送不断出现。尤其是在微信、微博上,直播和视频成为新兴传播手段,虚假信息的转发频率高、范围广、影响大、监管困难,增加了网络上营销信息、垃圾信息的出现频率。
从全球来看,传统的社交网络的内容管理模式成为备受争议的世界性问题。社交媒体内容审查的尺度过大会威胁网民的表达自由,过小则会造成“恶性”信息对网络生态的大肆污染。如何“把握”网络监管尺度成为亟需解决的问题。
我国高度重视互联网内容监管,在观念上,内容监管主要是为了保障网络高速发展的大局,在维护社会稳定和网络安全基础上,满足广大网民的基本需求。但是,随着网络社交化的蔓延和渗透,用户作为言论主体和表达主体的权益与维护安全、维护稳定网络生态的要求产生的冲突日益明显。如果说我国互联网快速发展的前20年,其基本矛盾是人民日益增长的网络文化、生活文化需要同滞后的网络发展之间的矛盾,那么在新阶段,我国互联网发展的基本矛盾,则已经转变为广大网民日益增长的对美好网络生活的需要和不平衡、不充分的网络发展与治理之间的矛盾。⑨也就是说,网民之前主要需要的是互联网服务,而在新时代,他们需要的是“优质”的互联网服务,体现在内容监管上则要求在提供更丰富多样的信息的基础上提高内容治理尤其是过滤水平,从而为网民提供良性循环的网络传播生态。
在全球日益严重的网络生态“危机”背景下,无论是中国还是西方,传统的网络内容管理方式不断暴露出问题。从网络生态学的视角出发(参见图1),社交媒体管理要坚持信息基础建设、主体有效参与和环境背景监测三个层面,体现在网络生态系统中,即信息因子、主体因子、环境因子三者的有效结合。信息因子指的是网络生态系统中基础物质要素,包括影像、文字、
图1网络生态系统结构图
图片的排布和展现。主体因子指的是网络生态系统中“人的参与”,可以单指个人,也可以指代社会机构。其中,信息主体指的是信息的生产、消费与传播者;运营主体包括网络经营机构如媒介平台机构、网络服务商和经营商;生产主体指代网络传播外围的制造商和系统集成商。环境因子包括两大方面,其中,社会环境指的是以政治、文化和经济为主形成的社会干预因素;技术环境指的是促成网络空间传播闭环的所有技术渠道和技术支持。
在社会政治环境和技术迭代发展的复杂情况下,信息传播的无边界、高密度、网格式等特点对互联网的内容治理提出了诸多挑战。而随着国际范围内多种地缘政治和资本力量的对抗与冲突,全球范围内的社交媒体内容治理变得更具挑战性。多主体、多方面的管理规制和人文冲突亦展现出内容管理的诸多问题和“短板”,亟需尽快“补平”。
首先,是如何提高网络内容治理的“精细化”问题。该问题的形成是信息生产主体、运营主体与政治社会环境冲突协商的整体展现。由于社交媒介内容的过滤和管理并无可参照的标准和现成的规范、规则可寻,社交媒体的内容管理在具体执行中必然出现一定的主观性和随意性。而过于粗放的内容过滤治理机制既难以有效治理真正违法、有害、侵权的信息,容易造成“恶”性信息的大肆传播,也会极大增加治理执行的难度。
美国作为世界上互联网管理经验最丰富的国家之一,早在10年前就开始建立媒体公司独立运作的内容审查机制。作为网络生态的运营主体,社交媒体公司会根据用户和企业的价值取向建立各自的内容审查标准。虽然舆论长期呼吁互联网平台内容过滤的透明公开化,但社交媒体审核和过滤的细节作为商业机密并未公开,负责内容审查工作的员工被公司要求签订长期保密协议,无论在职还是离职都不能公开具体工作细节,因此几乎无人知晓他们如何制定内容审查标准。据报道,Facebook、Pinterest、YouTube、Linkedin等拥有领先其他社交媒体10年的内容审核建设经验,在过滤机制的建立和发展方面形成自己的规则与条例。而新近加入社交媒体平台的Instagram、Line等,也在尝试建立自己的内容管理准则。“后真相”时代,相对“粗放”的内容过滤机制既不利于网络信息传播生态的安全与健康,也容易招致用户的不满,通过政府与媒体公司的协同合作制定“行业规则”,不失为一个可取的办法。
其次,内容过滤不够充分与平衡,并缺乏有效的沟通与协作。在互联网内容管理上,我国历来重视监测舆情信息的政治敏感度,而对其他危害更大的暴恐、色情、侵权、垃圾信息等隐性信息过滤不足。随着社交网络化发展,营销商、广告商、诈骗团体等引流至社交媒体空间,利用人际传播和群体关系建立输入渠道,诸多垃圾信息、诈骗信息、色情暴恐等内容很容易规避传统的媒介管理模式而获得“生存”空间。这种内容治理模式的不平衡、不充分极易导致网络色情、网络垃圾、网络诈骗信息的过度传播,严重威胁网民的上网环境。而这种不平衡的内容管理,在地缘范围上表现为世界主要社交网络平台的内容审查与过滤系统相互独立、缺乏沟通。对于全球联通的社交网络空间,“恶性”信息数量日益庞大,传播方式多样,各国和地区在内容管理标准上缺乏共识,“恶性”信息识别和过滤的成本太高,而反过滤的成本则极低。
因此,在过滤和反过滤的较量中,往往道高一尺魔高一丈,只要推出新的过滤规则,很快就会出现新的逃避过滤手段。尤其是随着社交网络的出现,“无边界”网络传播成为主流,单一社交媒体的信息过滤机制往往是事倍功半,难以产生明显的效果。近年来,部分社交媒体平台开始尝试展开合作,构建平台合作的审查系统。2016年底,Facebook、YouTube、Twitter和微软四家公司宣布成立“反恐怖主义全球互联网论坛(GIFCT)”,目的在于遏制社交平台上快速传播的恐怖主义视频和图片。四家公司通过分享数字指纹和基本信息来识别恐怖分子和暴恐信息,从而形成“疫苗反应”,即一家在屏蔽相关恐怖信息后,其他媒体平台也将对此信息进行“免疫”,以保证能有效过滤不良信息。
再次,从技术环境的角度出发,内容过滤手段也需要新技术的持续更新与支持。社交媒体历来重视新技术手段在内容管理层面的研发和运用。人工识别和程序自动识别“关键词”是网络内容过滤的两种常用手段,人工识别成本高、主观性强,而“关键词”自动识别则比较“机械”,容易过滤掉“良性”信息,也容易让“恶性”信息“漏网”。内容过滤和反过滤实质上也是网络信息技术的反复较量。近些年,伴随人工智能、语音识别、图片视频识别等新技术手段的出现,海外社交媒体开始重视新技术在媒介内容管理方面的使用。尤其是人工智能在该领域的应用逐渐增加,基于以往大数据的累积和深度学习,人工智能可有效帮助人们识别暴力、色情、恐怖及诸多带有危害性的社交媒体信息。例如,从2018年8月份起,Facebook在缅甸地区启用人工智能清理网络仇恨、色情和垃圾信息。而早在2017年,反恐怖主义全球互联网论坛(GIFCT)和Instagram就开始采用人工智能识别和共享数据库技术、过滤恐怖主义视频和图片。同时,Instagram 还从2017年3月开始使用照片模糊的方法处理含有侵犯性内容的照片。实际上,不断丰富发展的人工智能和大数据,为更加人性化和精准化的内容过滤和治理提供了可能,世界各大社交媒体公司也正在加紧研发内容治理新技术。
最后是要回归信息主体的主体能动性,鼓励民众自主甄别有害信息。作为内容生产者,民众在帮助净化社交网络环境的过程中扮演重要角色。因此,社交媒体平台可以通过细化内容过滤规则和过滤内容分类,来提高民众对不良信息的鉴别力和筛查力。如YouTube在其“政策中心”的网站上明确指出了禁止发布的相关视频内容,包括:骚扰与网络欺诈、仇恨性言论、违规扮演、威胁、危害儿童、性与裸露、暴力、危险性内容、欺诈等。其中每一条都附带了相关解释性信息以及可能涉及的内容。内容明确,有据可循。同时,一些社交媒体界面的设计着重体现了信息主体的举报权,鼓励社交民众参与反馈,增强内容管理的有效性和可操作性。如YouTube在其网站上告知使用者如何举报不良信息:其网站专门设有“憎恨和侵犯性内容”的按键标识,如果用户发现相关内容,可以按照弹出的下拉菜单,分类进行举报。Instagram的做法则是鼓励用户在其平台创建维护网络安全和谐的自营小团体(例如 InstaMeet),用户通过加入该团体,获得如何保护个人安全、消除不良照片信息、帮助净化网络信息的知识,并借助用户的社交平台进行传播。同时,Instagram也创建了单独的网站来帮助用户。
经过20余年的高速发展,我国已成为网络大国,下一阶段将进入稳步发展阶段,并力求成为网络强国。在此阶段,我国互联网发展的基本矛盾、根本动力、战略目标将发生重大转变。在新的传播生态和信息生态中,我国应适应新时代的发展要求,高度重视提高社交媒体的内容管理水平,结合本土传播生态调整升级机制。
尽管我国与其他国家在社交网络管理层面存在诸多政策和管理上的差异,但加强社交媒体的内容管理已成为各国共识。中国互联网的网络传播生态正在发生巨大的变化,而以往传统的互联网内容治理模式在无边界、高密度的社交网络化传播下需要升级。随着直播、短视频等新型网络传播形态的崛起,“短、频、快”的内容正在成为网络消费时代的主流,这也进一步增加了社交网络生态内容管理的难度。因此,转变互联网监管思路显得尤为重要。
从网络生态系统的视角看,我们不可低估暴恐、色情、侵权、诈骗、垃圾信息等隐性信息的危害,要将其看作是下个阶段内容过滤的重点,特别是要重视对非法账号的规制。而对于社会争议性话题,从舆论引导的角度看,一定程度上可以通过更为充分的辩论增进社会共识,对其可以保持适度开放的态度。
社交网络的言论表达,造成了信息传播的门槛降低,我们要特别重视侵权类、谩骂威胁信息的大肆传播。随着全球反恐主义浪潮日益高涨,各大媒体都加紧对于仇视性和威胁性言论的监管和控制。脸书在2018年前所未有地加强了对平台的内容管理,扎克伯格在同年11月表示,截至目前Facebook已经删除虚假账号15亿个,并删除1200万条恐怖主义宣传、22亿条垃圾信息和660万条淫秽色情内容。同年12月,Facebook宣布将于2019年上半年与法国政府展开内容监管合作,允许法国政府对其网络仇恨言论管控的数字技术进行监管,同时双方将合作出台监管报告。
与此同时,增加内容审核的透明度,充分发挥民众监管的力量也显得尤为必要。在内容审核透明度方面,美国知名的图片分享网站Pinterest很有特色,它重视平台和用户之间、私人企业和公众之间的沟通,审核人员得到了充足的资金和支持,其审核内容过程对用户相对透明化。例如,Pinterest为了说明这个网站的“可接受的使用范围”而公开了具体的图片案例,以帮助用户更好地了解该平台的内容指南和帮助维护这些内容的版主做出决策。政府作为我国主要社交媒体监督方,应该细化内容审核规范,并及时与用户充分沟通,紧跟信息分化、文化多元传播的趋势,努力营造良好的网络生态环境。
我国也在不断提升社会化新媒体的内容管理水平。2019年1月,中国网络视听节目服务协会发布《网络短视频平台管理规范》及《网络短视频内容审核标准细则》,提出了“网络短视频平台应当合理设计智能推送程序”,并对21类内容提供了操作性审核标准100条,体现了手段“新技术”、标准“精细化”的特点,这可以说是我国在新的传播生态中对于互联网内容过滤审核方面的“出新”和尝试。
注释:
①② 崔保国:《媒介是条鱼》,人民网,http://media.people.com.cn/GB/22100/48805/48806/3433631.html,2005年6月1日。
③ 姚利权:《网络生态的研究源起、研究脉络及结构特点》,《青年记者》,2017年第3期。
④⑥ 周庆山:《网络信息生态理论的建构框架与研究方法初探》,《北京大学情报学与信息管理论坛》,2010年。
⑤ 何道宽:《媒介环境学辨析》,《国际新闻界》,2007年第1期。
⑦ 唐一之、李伦:《“网络生态危机”与网络生态伦理初探》,《湖南师范大学社会科学学报》,2000年第6期。
⑧ 罗力:《社交网络中用户个人信息安全保护研究》,《图书馆学研究》,2012年第14期。
⑨ 刘瑞生、孙萍:《海外社交媒体的内容过滤机制对我国互联网管理的启示》,《世界社会主义研究》,2018年第4期。