超越看门人:社交媒体平台网络暴力治理比较研究

2024-07-16 00:00:00胡岑岑黄雅兰
关键词:网络暴力看门人社交媒体

摘 要:面对愈演愈烈的网络暴力,我国社交媒体平台采取了一系列治理措施。本文以国内15个主要社交媒体平台作为研究对象,对其涉及网络暴力的209份文件做内容分析,并对实际效果进行审计。研究发现,绝大多数平台未能清晰界定网络暴力;尽管所有平台都在事前、事中和事后三个环节采取了举措,但实际治理尺度各不相同,治理效力仍有较大提升空间,具体表现为:对违规内容的甄别和警示力度不足,一键防护设置路径复杂,处理举报的精度和速度需提升,以及关怀救助环节较薄弱。最后,提出平台完善治理举措的具体方式,并指出,治理网络暴力需要超越平台,建立多元主体参与的责任共同体和治理共同体。

关键词:网络暴力;社交媒体;互联网治理;平台政策;看门人

作者简介:胡岑岑,北京体育大学新闻与传播学院讲师,主要从事新媒体与青年文化、视听传播研究;黄雅兰,暨南大学新闻与传播学院副教授,主要从事女性主义媒介、数字新闻学研究。

基金项目:国家社会科学基金项目“粉丝文化视域下青少年的社会参与及其引导研究”(项目编号:20CXW030)、教育部人文社会科学研究青年基金“自媒体中性别暴力的传播机制与协同治理研究”(项目编号:20YJC86013)的阶段性成果。

中图分类号:G206 ""文献标识码:A ""文章编号:1001-4403(2024)04-0172-09

DOI:10.19563/j.cnki.sdzs.2024.04.017

近年来,网络暴力在我国愈演愈烈。《中国青年报》的调查显示,65.3%的受访青年表示自己或周围人遭遇过网络暴力,71.9%的受访青年觉得网络暴力越来越频繁。①" ①吴欣宇、王品芝、杨万淑等:《65.3%受访青年表示自己或周围人遭遇过网络暴力》,2023-06-20,http://zqb.cyol.com/html/2023-06/20/nw.D110000zgqnb_20230620_2-07.htm.河北寻亲男孩遭网暴后留书自杀,上海姑娘因打赏外卖员200元被网暴后跳楼,杭州女孩因粉色头发被网暴后自杀……网络暴力导致的悲剧不断上演,治理迫在眉睫。社交媒体平台是网络暴力的主要发生场所,中央网信办、国信办等印发的《关于切实加强网络暴力治理的通知》《网络信息内容生态治理规定》和《网络暴力信息治理规定(征求意见稿)》等文件,都强调平台在网络暴力治理中的主体责任,求平台“履行信息内容管理主体责任,建立完善网络暴力信息治理机制,健全账号管理、信息发布审核、监测预警、举报救助、网络暴力信息处置等制度”。②" ②中国网信网:《国家互联网信息办公室关于〈网络暴力信息治理规定(征求意见稿)〉公开征求意见的通知》,2023-07-07,http://www.cac.gov.cn/2023-07/07/c_1690295996362667.htm.

目前,我国社交媒体平台已采取一系列举措治理网络暴力。然而,一方面,相关政策法规对网络暴力的认定较模糊,如《关于切实加强网络暴力治理的通知》中提到的“不友善信息”范围较广,网络暴力形式的不断演变也给其界定带来困难①" ①半月谈记者:《更新“武器库”,运作假舆情!新型网络暴力有组织、有策划,形成一门黑产生意》,2020-07-21,https://mp.weixin.qq.com/s/PKFO1HWTzWg4hpb3MppmoA.;另一方面,政策法规在赋予平台较大权责的同时,对治理效果缺乏权威有效的评估,主要依靠平台发布的治理公告,平台在治理网络暴力过程中实际拥有较大的自由度和裁量权。由此,平台如何认定网络暴力,如何预防、干预和惩治网络暴力,在很大程度上关系到我国网络暴力治理的成效。目前学界对平台如何定义和治理网络暴力及其治理效果的研究较为不足,基于此,本文提出以下问题:我国主要的社交媒体平台如何界定网络暴力?采取了什么措施应对网络暴力?治理措施的有效性如何?

一、平台的看门人角色与网络暴力治理

近年来,平台逐渐成为数字社会的信息中心与组织枢纽,成为天然的“看门人”(gatekeeper)。然而,在面对是否干预内容和用户行为的问题时,平台常常自称“中介”,保持“中立”态度。这种为免责而摆出的中立姿态只是一种“神话”或“话语策略”。②" ②Schoenebeck S,Blackwell L.Reimagining social media governance:Harm,accountability,and repair.Yale JL amp; Tech.,2020,23,pp.113-152.事实上,平台的政策和架构已经融入了特定规范和价值观③" ③Maddox J,Malson J.Guidelines without lines,communities without borders:The marketplace of ideas and digital manifest destiny in social media platform policies.Social Media+Society,2020,6(2),pp.1-10.,平台尤其在内容和账户的推广、约束、允许和审查方面发挥着决定性作用。不过,对于凭借技术权力和以海量用户为基础的经济权力成为看门人的平台而言,存在着一个悖论:一方面,平台属于私人物品,具有资产专有性与经济性;另一方面,大型平台已逐步演变为“准公共产品”,具有公共性和共享性。④" ④范如国:《平台技术赋能、公共博弈与复杂适应性治理》,《中国社会科学》2021年第12期,第131-152页。因此,平台需要在运行和治理过程中小心平衡商业利益和社会公共利益。

基于社会历史、媒介制度等原因,不同国家的平台治理模式有所区别。⑤" ⑤王震宇、张晓磊:《平台治理的制度之维:基于中美英三国模式的比较》,《国际关系研究》2021年第6期,第97-124页。美国以宪法第一修正案中的“言论自由”为大原则,明确平台不承担主动审查义务,仅要求严格执行“通知-删除”程序,欧盟与美国相似。⑥" ⑥刘文杰:《网络暴力中个体维权困境与平台安全保障义务》,《国家检察官学院学报》2023年第5期,第39-57页。我国的网络暴力治理模式则为“政企发包制”,即政府部门将网络事务治理权发包给非公有制企业并附加相应激励机制,同时保留监督权与最终奖惩权。⑦" ⑦于洋、马婷婷:《政企发包:双重约束下的互联网治理模式——基于互联网信息内容治理的研究》,《公共管理学报》2018年第3期,第117-128页。根据我国法律法规,互联网服务提供者须履行安全管理义务;网信办、国信办等部门的相关规章还进一步明确了平台在网络暴力治理中的主体责任及其在监测预警、处置及保护机制等方面的相应义务。⑧" ⑧石佳友:《网络暴力治理中的平台责任》,《法律科学》2023年第6期,第14-23页。尽管不同国家关于平台治理网络暴力责任的法律和政策存在差异,但在实践层面,其治理举措表现出同构性,常见的机制包括但不限于提供举报工具、屏蔽和过滤、推送反网暴教育材料以及人工审核等。⑨" ⑨Milosevic T.Protecting children online?Cyberbullying policies of social media companies.The MIT Press,2018,p.8,p.107;赵韫淏、刘晶:《“规则+技术”:互联网平台针对“网络暴力”现象的数字化治理》,《北京文化创意》2023年第2期,第75-84页。国外学者分析平台的核心文件(如服务条款和社区指南)后发现,当前各平台对网络暴力的定义都较模糊,具体的治理标准缺乏透明度。⑩" ⑩Pater J A.et al.Characterizations of online harassment:Comparing policies across social media platforms.In Proceedings of the 2016 ACM International Conference on Supporting Group Work,2016,pp.369-374.

除了治理举措外,治理效果也值得关注。在美国,由政府发起的对治理效力的独立评估很少,并被认为已经过时①" ①Milosevic T.Social media companies’ cyberbullying policies.International Journal of Communication,2016(10),p.22.;学者还质疑,平台似乎并不关注治理有效性,它们仅通过关注网络暴力并采取措施来维持良好声誉。②" ②Milosevic T.Protecting children online?Cyberbullying policies of social media companies.The MIT Press,2018,pp.4-5.关于用户对国内某平台网络暴力治理反馈的研究表明,用户从最初的振奋变为对治理乏力的失望,质疑“举报无效”、被“误伤”等。③" ③辛艳艳、方师师:《网络暴力治理中的平台主体责任困境》,《青年记者》2023年第13期,第88-90页。整体来说,我国针对平台网络暴力治理的研究主要围绕“应然”展开,对“实然”的讨论不足。

二、研究方法

在内容治理方面,平台除了行使裁决纠纷的“准司法权”与实施惩罚的“准行政权”,还拥有制定规则的“准立法权”④" ④张志安、冉桢:《中国互联网平台治理:路径、效果与特征》,《新闻与写作》2022年第5期,第57-69页。,主要通过与用户签订用户协议来实现。本研究将分析包括用户协议在内的平台政策文件,并测试其相应反网暴功能的效果,以此检视平台在网暴治理中的看门人角色。综合考虑了社交媒体平台的用户规模和功能定位等因素,本文确定了国内用户规模大、活跃度高、功能定位有差异的15家社交媒体平台作为研究对象。⑤" ⑤由于版面限制,关于研究对象的具体信息,读者可于https://github.com/sophielan24/Platform-governance-policies-analysis-in-China查阅。

(一)内容分析

本研究对两类平台文件进行分析:一是各平台最新的用户协议、隐私政策、社区公约等核心文件,这类文件扮演着“准宪法”角色⑥" ⑥Fan J,Zhang A X.Digital juries:A civics-oriented approach to platform governance.In Proceedings of the 2020 CHI conference on human factors in computing systems,2020,April,pp.1-14.,是平台治理的主要依据;二是各平台官方账号(如微博管理员、抖音黑板报、知乎小管家)就网络暴力发布的宣传、倡导等非正式文件,如《微博防网暴功能实用指南》等。最终共收集有效文件209份,其中YY和哔哩哔哩的文件数量最多,均超过20份,虎扑、Lofter和陌陌的文件数量为个位数。在这些文件中,具有一定法律效力的文件(如隐私协议、用户协议)和社区公约等平台规范性文件占52.63%,不具备约束力的非正式文件(如社区公告、倡议书以及对社区规则的解读说明等)占47.37%。

研究主要围绕网络暴力的定义及类型、治理网暴的举措等维度设计了编码表⑦" ⑦由于版面限制,研究具体的编码类目,读者可于https://github.com/sophielan24/Platform-governance-policies-analysis-in-China查阅。;3名编码员均为新闻传播学在读研究生,为降低编码员类目判定时的主观性,研究者对编码员进行了培训。正式编码前,研究者从15家平台的样本文件中各随机抽取了2个样本,共计30个样本,让3名编码员独立编码;随后以Cohen’s kappa值评估编码员间信度,结果显示“网络暴力的定义”及“网络暴力的类型”的Kappa值均超过了0.93,“网络暴力的治理措施”的Kappa值也达到了0.88。

(二)平台审计

审计研究指通过准实验方法来识别社会中的系统性偏向。近年来,算法和平台成为新的审计对象,研究者在平台这一新型社会行动空间中搭建实验场景,探究平台规则。⑧" ⑧仇筠茜等:《审计研究拓展新闻传播学空间》,《中国社会科学报》2024年1月10日,第6版。据此,本研究测试了各平台的网暴治理效果,具体包括以下两方面研究设计。第一,研究者在软件漫游(walkthrough)过程中对在每个平台上偶遇的5条明显包含暴力信息的帖子或评论(共75条)进行举报⑨" ⑨作为探索性研究,本文主要考虑网暴言论的典型性而进行立意抽样,包括明显的侮辱、诅咒类信息,也包括当前社交媒体上常见的以谐音出现的暴力信息。,记录和统计举报的便捷度(点击次数、举报所需的材料数量等)以及平台对举报的反馈(反馈时间、方式、内容和处理结果)。第二,研究者在每个平台上对其他用户发送5条包含暴力信息的评论(共75条)①" ①为避免伤害,发送对象是发送者熟知的朋友,在测试前已被告知此项研究;为贴近真实情境,研究中所发送的网暴言论多为以往网暴事件中受害者曾遭受的攻击。,记录各平台对暴力信息的识别和拦截效力,以及平台对发送者和接收者的警示和提示情况。

三、如何定义:面貌模糊的网络暴力

在本研究关注的平台中,仅抖音明确定义了网络暴力:“一种危害严重、影响恶劣的暴力形式。它是指一类由网民发表在网络上的并具有‘诽谤性、污蔑性、侵犯名誉、损害权益和煽动性’的动作”②" ②《“抖音”用户服务协议》,https://www.douyin.com/draft/douyin_agreement/douyin_agreement_user.html,2024-03-25。,有言论、文字、图片、视频等形式,会对他人的名誉等合法权益与精神造成损害。大部分平台将网络暴力作为一个不言而喻的词语,主要通过列举一系列具体行为并偶尔结合案例来呈现。这些行为包括谣言诽谤/恶意揣测、谩骂侮辱/贬低歧视、道德绑架、骚扰拱火、公开隐私、煽动滋事、威胁恐吓、宣扬暴力等几种类型;而“网络暴力”一词与上述行为之间的关系也不稳定:网络暴力有时被描述为与之并列的侵权行为,有时又被作为包含这些侵权行为的概括性条目,甚至在同一份文件中还会同时出现上面两种关系。

平台文件提及率最高的网暴类型包括:谩骂侮辱/贬低歧视(62.2%)、谣言诽谤/恶意揣测(54.07%)、公开隐私(51.2%)和煽动滋事(46.89%),正对应着当前我国法律法规明确了内涵定义与入罪条件的、与网络暴力相关的传统罪名,即侮辱罪、诽谤罪、寻衅滋事罪、侵犯公民个人信息罪。这虽然反映出法律对平台网络暴力治理的指导价值,却也表明我国现有法律法规在面对不断更新的网络暴力形态时,其有效性已不足,如恶意揣测、道德绑架等容易给用户造成精神创伤的行为难以入罪③" ③张凌寒:《“不良信息”型网络暴力何以治理——基于场域理论的分析》,《探索与争鸣》2023年第7期,第96-107页。,未能给平台治理提供依据。

尽管各平台的文件涵盖了绝大部分网络暴力类型,但每家平台对不同类型网络暴力的提及率有所区别。④" ④由于版面限制,“各平台文件提及率最高和最低的网络暴力行为类型”的统计结果,读者可于https://github.com/sophielan24/Platform-governance-policies-analysis-in-China查阅。这既反映出由于缺乏统一标准,平台对网络暴力理解上的差异,也在一定程度上展现出不同平台中差异化的网络暴力表现及其导致的治理重心区别。例如,同为以兴趣为中心的社区,百度贴吧和Lofter更强调对谩骂侮辱的治理,豆瓣则偏重对隐私侵害的治理。此外,当前我国的网络暴力有相当比重是在公平、正义等“正当性”支撑下展开的道德审判。已有研究通过理论探讨或数据验证,分析了传统社会道德准则的律令化⑤" ⑤罗譞:《网络暴力的微观权力结构与个体的“数字性死亡”》,《现代传播》2020年第6期,第151-157页。,以及个体的消极道德评价与网络暴力之间的相关关系⑥" ⑥刘绩宏、柯惠新:《道德心理的舆论张力:网络谣言向网络暴力的演化模式及其影响因素研究》,《国际新闻界》2018年第7期,第37-61页。,但根据本研究的统计结果,仅微博、哔哩哔哩、抖音等六家平台提及道德绑架。这可能与道德绑架概念的模糊性以及与其他侵权行为之间存在交叉有关。另外,道德绑架与出于道德正义的舆论监督之间也缺乏有效的区分标准,边界不够清晰。⑦" ⑦蒋丽红、李志祥:《论网络道德评论的正当依据与合理边界》,《科学技术哲学研究》2022年第3期,第76-81页。尽管网信办2023年7月发布的《网络暴力信息治理规定(征求意见稿)》将“严重影响身心健康的道德绑架”列入网络暴力信息范畴,然而该规定并未言明其内涵,未能给平台治理提供有效参考。考虑到近几年网络暴力的发展趋势,将道德绑架纳入治理范畴并制定清晰的标准,对监管部门和平台来说十分必要。

四、如何应对:各行其是的治理措施

平台应开展对网络暴力的全链条式治理,包括潜伏期的事前监测预防、爆发期和持续期的事中干预处置以及消退期的事后惩治与救济,并形成常态化治理机制。当前,各个平台均或多或少地在各个阶段设置了网络暴力治理措施。①" ①由于版面限制,“各平台文件提及的网络暴力治理措施”的统计结果,读者可于https://github.com/sophielan24/Platform-governance-policies-analysis-in-China查阅。

(一)事前监测预防:对违规内容的甄别和警示力度不足

各平台均注重通过内容过滤、违规警告以及宣传倡导等进行事前监测预防。前两项措施主要基于智能识别模型,辅以人工审核,过滤违规信息。从拦截效果看②" ②由于版面限制,“各平台事前预防监测功能”的测试结果,读者可于https://github.com/sophielan24/Platform-governance-policies-analysis-in-China查阅。,在测试的75条违规评论中,49条(65.3%)被成功拦截,未出现在接收者的评论区,其中3条是在发出一段时间后被系统删除,还有1条对个别字词打码处理。YY、斗鱼、知乎拦截了所有违规内容,抖音仅拦截1条违规内容,豆瓣则未拦截任何信息。近三分之一的违规内容未被拦截,这一方面与智能识别模型不够完善有关,对一些阴阳怪气、内涵式辱骂以及图像类网暴信息的识别度较低③" ③赵韫淏、刘晶:《“规则+技术”:互联网平台针对“网络暴力”现象的数字化治理》,《北京文化创意》2023年第2期,第75-84页。;另一方面也与平台的评判尺度不一相关,例如,包含“死”字的信息在大部分平台上会被拦截,在豆瓣却畅通无阻。不过,以往研究也指出,部分平台出于成本考虑采取简单粗暴的关键词屏蔽,造成“误伤”,或为降低风险而过度屏蔽和删除。④" ④刘文杰:《网络暴力中个体维权困境与平台安全保障义务》,《国家检察官学院学报》2023年第5期,第39-57页。因此,提高对暴力信息的识别精度,对于网暴的事前预防非常关键,从当前的平台文件来看,没有平台详细说明内容识别和过滤的尺度。

对于网暴信息,部分平台在信息发出端和接收端分别发送了违规警告和风险提示。从发出端来看,与超过半数的违规评论被拦截形成对比的是,系统仅对19条(25.3%)信息发出了违规警告,其中,快手(5/5)、百度贴吧(5/5)和YY(4/5)的警告比率最高,哔哩哔哩、斗鱼等八个平台则完全没有警告;而向施暴者发出的信息发送失败提示数量更少(8/75,10.7%),仅斗鱼对其拦截的所有信息都发出了发送失败提示。这意味着,网暴实施者未被有效提醒或警示。尽管较少的系统提示能提升用户使用体验,但从网暴防治的角度看,对违规内容“悄无声息”的拦截不利于用户对自身施暴行为的认知,不利于减少未来潜在的违规言论。从接收端看,虽然绝大多数平台未提示用户收到违规评论(仅抖音提示),但有14条违规评论会出现在用户的消息提醒中(收到评论提醒,但不展示内容),这仍可能向用户传达出其被发送了违规评论的模糊信息。从保护用户的角度看,被发送了违规评论的用户或许无须被提醒,提示风险反而可能对其造成困扰。

向用户倡导正向内容和参与,以及告知用户应对网暴的功能,也是重要的事前预防举措。大部分平台都在文件中描绘了理想社区氛围,健康、友善、和谐、清朗、绿色等指向“生态主题”的词语出现频率较高(图1);作为网络暴力的对照组,这类描述提示用户应该如何行动,也增强了平台惩戒暴力行为的合法性。此外,不少平台在完善反网暴功能的同时,也发布了防网暴指南手册、维权指引等,以图文、短视频等方式向用户科普应对网暴的措施。但本研究发现,这些包含倡导鼓励和宣教信息的文件大多未出现在网站或客户端的显著位置,未得到平台的广泛推送,这导致防暴信息不能有效到达用户,反网暴功能无法真正发挥作用。

(二)事中干预处置:一键防护设置路径复杂,处理举报的精度和速度需提升

网信办《关于切实加强网络暴力治理的通知》要求平台设置一键防护功能、优化私信规则、建立快速举报通道,以强化对当事人的保护。在众多阻断功能中,一键防护最为便捷有力。在本研究关注的15个平台中,有12个平台设置了此项功能。①" ①该功能的具体名称包括“一键防护”“一键防网暴”“应急防护”等,但百度贴吧的该功能按键并不包含“一键”或“应急”等字眼,而仅仅是在隐私设置中关闭“接收陌生人消息”。在设置方式上,用户至少要按照“我的→设置→隐私设置→一键防护”的路径点击4次才能启动该功能,哔哩哔哩、豆瓣和快手都需要在点击“一键防护”后再次确认才能真正启动功能,最多需点击6次;在抖音,用户则需在搜索框中输入“网暴”二字,再点击两次按钮才能开启,设置难度更大。此外,各平台一键防护功能的具体内涵也不一致,但基本包含陌生人不可以评论/发弹幕/私信等,并不同程度地包含转发/分享、搜索用户名和加好友方面的限制②" ②由于版面限制,“各平台‘一键防护’功能的便捷度和内容”测试结果,读者可于https://github.com/sophielan24/Platform-governance-policies-analysis-in-China查阅。,其中,微博、小红书和豆瓣的防护功能更齐全,保护力度更强。从保护时间来看,微博、小红书等六个平台设置了一键防护的默认时限(大多为7天);过了时限,防护功能就自动解除。

在未提供一键防护功能的平台中,陌陌和Lofter的用户需要在“隐私设置”或者“屏蔽设置”中逐一开启陌生人不能评论、私信、转发等功能,YY则需要用户达到一定等级才能在直播中开启防打扰特权。其他提供了一键防护功能的平台也大多设置有单独的评论转发管理、私信设置、黑名单和关键词屏蔽等阻断功能,但其政策文件并未充分提及,这也反映出平台在指引用户加强自我保护方面的不足。

用户标记是当前在线内容治理的重要辅助手段,普通用户可作为公共利益的代理人规范他人的行为,在我国常被称作“投诉举报”。③" ③易前良、唐芳云:《平台化背景下我国网络在线内容治理的新模式》,《现代传播(中国传媒大学学报)》2021年第1期,第13-20页。面对已发生的网络暴力,各平台基本都设置了一键取证/快速举报功能,特别是微博、快手、豆瓣和今日头条等平台制定了指引投诉流程和解释投诉规则的专项文件。举报违规信息通常较便捷,用户仅需对某条评论或私信等点击“举报”按钮并选择投诉理由即可,毋需额外证明材料。Soul、YY、斗鱼、虎扑、今日头条等平台点击2次就可完成举报,抖音和知乎需点击5次。各平台根据自身内容和功能偏向设置了差异化的投诉理由④" ④如哔哩哔哩与影视作品密切相关,其弹幕投诉理由包含了“剧透”“视频无关”等选项;小红书强调其笔记文图内容的原创性,其笔记投诉理由包含“搬运抄袭洗稿”等选项。;在同一平台上,举报评论、弹幕等公开信息与举报私信的理由分类也有差别,整体来说,私信举报的理由分类更精简,这或许跟私信的非公开属性、影响面较小有关。⑤" ⑤例如,在微博上,相比于私信的投诉理由仅包括“网络暴力”“人身攻击”“违法信息”“违规营销”和“骚扰我”,对公开微博的投诉理由还包括“涉黄信息”“不良价值导向”“饭圈违规”等。绝大部分平台文件未具体说明投诉理由的分类,仅微博在《投诉操作细则》中有相对详细的解释。

如果投诉内容涉及侵害个人权益,投诉流程就会比较复杂,一般需要在线填写投诉单,并提供投诉主体的身份证明材料(如身份证)以及经过公证或加盖公章的侵权证明材料。然而,对网暴受害者而言,繁琐的举证流程会增加其举报维权的难度,加重其心理负担。网暴受害者郑灵华就曾表示,在遭网暴后的维权进程中,“要和某些平台繁琐甚至‘故意为难’用户的投诉规则斗智斗勇”,“有平台的网络投诉入口十分难找,她通过搜索才发现那个几近透明的按钮,平台还需要她提交身份证正反面照片以及加盖公章的相关函件”。⑥" ⑥耿学清:《她只是染了粉红色头发》,《中国青年报》2022年7月27日,第6版。

在处理投诉的时限方面,仅快手明确表示会在24小时内受理。本研究测试数据显示,除YY、Lofter和豆瓣,其他12个平台均对举报做出了反馈,反馈时长从1分钟到25小时不等,其中小红书、知乎和斗鱼的反馈时间均为1分钟,哔哩哔哩和微博的反馈速度也较快,通常在10分钟左右回复。那些较直接的暴力言论通常会被快速回复,对较隐晦的暴力信息举报的回复速度更慢。以今日头条为例,其回复时间快则5分钟,慢则24小时。就反馈方式而言,绝大多数平台通过私信反馈处理结果,今日头条由于没有私信功能,用户需要在专门的举报页面查看处理结果。

从处理结果来看,平台大多能将明显包含辱骂、歧视的内容判定为违规,而那些阴阳怪气或者使用了特殊字符或表情的内容更难被判为违规。不同平台的评判尺度也存在差异,例如,微博和贴吧对一些明显具有暴力性质的举报内容也并不判为违规,哔哩哔哩、Soul、抖音的评判尺度则更加严格。除了判定结果外,平台的反馈还会不同程度地提及违规用户名、举报时间、判定缘由/违规理由等内容,相较于其他信息,判定缘由/违规理由较少被提及。

(三)事后惩治救助:惩治告知不明确,救助措施不足

各平台的网暴惩治措施比较统一和明确,主要是删除相关内容,对相关账号实施警告、禁言、关闭、扣除收益、注销,全网禁止注册新账号,以及在官方账号定期发布网络暴力治理公告等;如果相关信息及行为涉及违反法律、侵害公民人身权益等,平台会向相关部门报告。在本研究的测试中,对于被判违规的信息,平台大多会在反馈中明确提及已删除违规信息,Soul和虎扑仅模糊地提及“处理”,“限制该贴的后续发放”或者“吧主会根据版规处理”等,陌陌还会在反馈中提到对发出违规言论者进行警告。

尽管所有平台的文件都提及上述惩治措施,但大多未提供有关网暴评判标准和相应处罚方式的细则。少量平台有模糊的说明,如斗鱼将违规行为及相关处罚措施划分为严重违规和一般违规,并对直播间实行量化计分/扣分,但未说明具体的扣分规则;陌陌指出对屡犯或情节严重者,将禁用账号的部分功能直至永久封禁账号,但对“屡犯或情节严重”同样未做解释。YY和Soul较明确地表述了其惩治规则:YY针对社区频道、主播及社区用户分别制定了违规管理规则,并明确说明了不同违规行为对应的处罚等级,其中用户的违规包括严重违规和一般违规,根据情节严重程度被处以冻结账号7天(1级)到永久冻结账号(5级)的处罚;Soul则将违规行为分为三个级别,分别对应三级处罚。还有部分平台制定了具体惩治细则,但仅作为内部管理文件使用,如《2023微博网暴治理报告》显示,微博2023年6月修订了《微博平台网络暴力处置细则》,然而该细则在网络上无法搜索到。不过,也有学者质疑这种将网络暴力分级或量化的处理方式,认为其简化了网络暴力复杂的表现形式。①" ①DeCook J R,et al.Safe from “harm”:The governance of violence by platforms.Policy amp; Internet,2020,14(1),pp.63-78.

与惩治措施相比,平台的救助措施较疲软。仅小红书、哔哩哔哩和抖音的文件提及对网暴受害者的关怀措施。这可能与管理部门对平台治理提出的主体责任不包括救助受害者有关,而在平衡商业利益和公共利益的过程中,平台优先考虑的是在规避法律风险、回应管理部门和舆论要求的前提下控制治理成本。诚然,救助受害者并非平台义务,但如果平台能与社会力量加强协作,在受害者和心理救助组织之间搭建桥梁,无疑有利于及时识别受害人抑郁、轻生等心理困境,也有助于平台避免因网暴受害者的遭遇而被推上舆论中心。

(四)常态化治理机制:用户角色有待强化,对未成年人的保护措施有待改善

除了上述由平台主导的事前—事中—事后措施,建立多元主体参与的常态化配套治理机制也很必要。作为数字社区,平台应积极邀请社区成员参与治理,这有助于减少用户对平台治理中“黑箱”操作的质疑,也有利于平台减轻人工审核及技术过滤的负担,提升治理有效性。当前,各平台尚未充分实施“用户协管员”制度,但部分平台的探索仍有借鉴意义。如微博2017年9月起开始实行微博社区志愿者(微博监督员)制度,通过开展线上线下交流培训、微博会员、发放现金奖励等方式鼓励满足一定条件的志愿者对平台中的违法有害信息进行投诉;在此基础上,微博还实行社区委员会制度,招募微博信用历史分为满分、通过资格测试的用户,组成社区委员会,对部分用户投诉是否成立进行“众裁”投票,为平台处置提供裁决依据。

在平台中,账号不仅是用户活动的前提,也决定了背后的主体通过平台赢取社会资本、文化资本以及经济资本的可能性,因此,平台应该借助对账号的动态管理来鼓励用户参与网络暴力治理。从平台文件来看,已有部分平台采取了相关措施,如知乎对用户行为进行智能识别和加权计算,形成了由基础信用、内容创作、友善互动、遵守规范、社区建设五个维度构成的“盐值”体系,盐值不仅对应着不同的账号权益和权限,还直接作用于内容的推荐和赋权系统;根据知乎的说明,尽管占比有限,但“盐值”的每个维度都与鼓励正向行为、反对网络暴力相关。

此外,对未成年人的保护一直是网暴治理的重要环节。本研究发现,几乎所有平台都有针对未成年人的政策文件,但大多为儿童个人隐私保护政策,今日头条、抖音和小红书有专门的未成年人社区内容管理规范,部分平台发布了维护未成年人网络安全的专项治理公告。具体而言,针对未成年人的政策大多聚焦色情低俗、侮辱欺凌、侵害隐私等网络暴力,涉性内容大多作为第一条出现。不过,这些文件均没有具体说明如何加强对涉及未成年的网络暴力治理。

五、超越看门人:从责任共同体到治理共同体

近年来,我国社交媒体平台普遍重视对网络暴力的治理,但各平台对网络暴力的界定内涵模糊且边界不清。一方面,法律法规未能对此提供明确的参考标准;另一方面,平台也回避对网络暴力进行过于明确的定义,这有利于平台灵活应对围绕网络暴力的舆论,在周旋于各种利益之间时做出更有利于自身的选择。①" ①DeCook J R,et al.Safe from “harm”:The governance of violence by platforms.Policy amp; Internet,2020,14(1),pp.63-78.在具体的治理措施上,平台也未形成清晰的共识,未能向公众有效传播其反网暴举措,使得包括公众在内的其他主体难以参与其中。这种各行其是的特征固然与各平台的内容形态、目标用户群体及随之而来的差异化利益导向关系密切,但从结果看,这不仅影响公众对网络暴力的认知,更限制了平台间协同治理的可能性。

网络暴力正成为全球性治理难题,结合我国的治理困境和域外治理经验,平台目前可从以下方面完善治理举措。首先,对网络暴力形成更清晰的定义和更具操作性的分类。当前人工智能技术越来越深地嵌入暴力信息的甄别,明确的定义和分类关涉暴力信息能否在一开始被拦截。其次,加强事前警告,平台虽能拦截大部分暴力信息,但对发送者的警示力度不足,无法有效遏制潜在暴力信息的发送。研究表明,若用户在发布冒犯性评论前受到警告,约50%的用户会重新编辑或者删除评论。②" ②Ghaffary S.Instagram’s surprising strategy for bullies:Tell them to be nice,Vox,2022-10-20.https://www.vox.com/recode/2022/10/20/23413581/instagram-nudging-meta-creators-wellbeing-bullying-harassment.第三,提升反网暴信息的可见性,将反网暴工具或指南置于平台中更容易找到的位置,例如,Instagram官网有两处专题页面告知用户如何应对网络暴力:分别是“社区”标签下的“反霸凌”页面和“帮助中心”里的“保持安全”(staying safe)专题。③" ③参见Instagram官网页面:https://about.instagram.com/community/anti-bullying,https://help.instagram.com/.

具体功能的改进固然能提升治理效果,但网络暴力产生于复杂的媒介生态,涉及多元利益攸关方,因此,还需从全局视角出发,建立多元行动者参与的网络暴力治理机制。毋庸置疑,平台在该治理机制中扮演着关键角色。我国的互联网治理是一种授权的自我规制或政府监管下的行业自我规制:治理权力被下放至平台,后者被定性为“自媒体运营的服务提供者、自媒体行业秩序的维护者”,需要“积极履行平台法律责任和社会责任”④" ④网络传播杂志:《“组合拳”治理自媒体乱象》,2019年3月20日,检索于:https://www.cac.gov.cn/2019-03/20/c_1124259403.htm.;而平台出于自身运营和管理的需求,亦要开展治理工作。即网络暴力治理既是国家意志下纵向到底的义务性治理责任,又是以平台自身为中心、以自我服务和自我管理为目标的横向到边的自治性治理责任。⑤" ⑤张大维、赵益晨:《责任联结:社区治理共同体运转的机制塑造与实践进路——基于老旧小区改造的案例比较》,《求实》2023年第6期,第65-78页。在这一责任共识基础上,平台有必要建立“责任联结机制”,形成网络暴力治理的责任共同体。这不仅有助于明确平台作为治理主体的责任定位,更有利于塑造平台间的共同价值理念与行动实践,缓解其利益冲突和规制差异。具体来说,平台首先应明确网络暴力治理的共同体目标,就治理的权责边界达成共识;继而在目标框架下,以相关法律法规和政策为指导,明确网络暴力的内涵和边界,建立基本的行业治理标尺;在此基础上,各平台可灵活根据自身特征提出针对性治理措施,并基于实践经验反哺共同体的治理标准。

随着社交媒体平台的“基础设施化”,网络暴力所触及的范围及产生的影响都在不断扩大,因此,除了平台,政府、普通用户、学校、心理和法律援助机构等多元主体也应该树立对网暴治理的责任意识。覆盖全社会的责任共识有助于建立主体有责、行动尽责、善治履责的“责任共同体”①" ①姬贇璐、王东:《责任共同体:社区治理共同体的内生逻辑及构建路径》,《重庆工商大学学报(社会科学版)》2022年第1期,136-145页。,这也正是党的二十大报告指出的“建设人人有责、人人尽责、人人享有的社会治理共同体”②" ②习近平:《高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告》,人民出版社2022年版,第54页。的重要前提和根本内核。从治理主体上看,要形成政府主导、平台负责、多元主体共同参与的协同治理格局,除平台这一看门人之外,向上需要作为治理真正主导者的政府完善法律法规,特别是当前“问题导向下的网络社会治理顶层制度设计和基础性法律规范制定存在‘头疼医头、脚疼医脚’被动跟进、应急出台现象”③" ③徐汉明、张新平:《网络社会治理的法治模式》,《中国社会科学》2018年第2期,第48-71页。,厘定网络暴力各攸关方的权责边界,在政府和平台企业之间建立柔性回应机制,解决行政指令与企业成本之间的冲突,以及过分依赖政府高强度的“负激励”等问题;向下则要激活和调动用户以及其他社会机构在协同治理中的能动性,形成用户反哺社区的良性生态。

概言之,对平台网络暴力的治理作为互联网治理的重要构成,应当从宣教走向协作,从封闭走向开放,从单一主体走向多元主体,不断凝聚各方社会力量,在责任共识的基础上,形成共建、共治、共享的治理共同体。

[责任编辑:其 时]

“Beyond Gatekeepers”:A Comparative Analysis on Cyber Violence Governance on China’s Social Media Platforms

HU Cen-cen1 HUANG Ya-lan2

(1.School of Jounalism and Communication,Beijing Sport University,Beijing 100084,China;

(2.School of Jounalism and Communication,Jinan University,Guangzhou Guangdong 510647,China)

Abstract:This article examines the regulatory policies of 15 major social media platforms through a content analysis of 209 platform documents on cyber violence and a review of their actual effectiveness.The paper finds that most of the platforms do not clearly define cyberviolence,but rather take it for granted.All platforms have policies in place before,during and after an incident.However,the actual scope of governance varies,and the effectiveness of governance is limited due to the following problems:screening and warning of illegal content is insufficient,one-click protection setting is too complicated,accuracy and speed of response to user reports need to be improved,and care and rescue measures are insufficient.Finally,we propose several specific ways to improve platform governance and establish a community of shared responsibility and governance with multiple stakeholders to address the problem of cyber violence.

Key words:cyber violence;social media;internet governance;platform policy;gatekeepers

猜你喜欢
网络暴力看门人社交媒体
单霁翔:故宫“看门人”的“匠者仁心”
河北画报(2019年3期)2019-05-24 06:59:52
目标
读者(2017年22期)2017-10-28 20:28:43
单霁翔:故宫“看门人”
商周刊(2017年9期)2017-08-22 02:57:54
关于改进我国证券市场信用评级制度的思考——以看门人机制为视角
法大研究生(2017年1期)2017-04-10 08:55:20
网络暴力的危害及产生根源
新闻前哨(2016年11期)2016-12-07 11:08:57
“网络暴力”
大学生网络暴力语言分析
戏剧之家(2016年22期)2016-11-30 18:44:06
知识零售变现模式的问题与思考
基于社交媒体的广告学专业教学改革与实践
艺术科技(2016年9期)2016-11-18 15:04:21
大学生社交媒体的使用特征、传播趋向及其对高校传播生态的挑战