周伟华
本文所称的自媒体平台内容治理,主要是指互联网平台对用户发布的文字、图片、视频等内容采取的限制流量、修改删除等直接管制措施。一些平台因为用户量巨大,其热搜甚至逐渐成为舆论的代名词,例如微博热搜、哔哩哔哩的首页推荐、抖音热点等。有学者认为平台甚至可以通过舆论引导意识形态[1]。平台对有关内容具有天然的管控权,可以通过制定管理规则,对“热搜”“热点”进行更换,左右用户对热点信息的判断,也可以对内容进行删除、对用户实施禁言甚至封号。尤其在重大热点事件发生之时,平台对危机的处理往往是删除文章、封号,这对互联网的生态健康存在一定的消极影响。自媒体平台信息治理的现存问题以及相应的优化路径,是本文着重关注的问题。
自媒体平台内容治理经常采取“删除内容”与“调整内容权重”的手段。“删除内容”是平台根据有关法律法规、制度规范,将用户发布的有问题的图文、视频内容进行删除。“调整内容权重”手段较为多元,包括“限制搜索”“限制内容展示范围”和“折叠”等,平台会根据实际情况采取相应的措施。如哔哩哔哩认为“AI换脸”技术具有一定的风险与争议,该类内容将不予推荐,同时禁止排行榜和热门位置的展示[2]。同时,采取“视频页风险提示”“减少推荐”的治理措施。有学者认为账号权重具有双重面向,用户想要获得较高的账号权重,就必须在网站上发布更多优质内容,减少发布不适宜的内容。平台根据账号权重机制,通过多种方式影响用户发布的内容,实现其信息治理的目的[3]。
平台内容治理的另一个“杀手锏”是“调整收益”。现在大部分自媒体平台都有内容收益功能,如哔哩哔哩的“创作激励计划”,不过很少有人将内容收益与内容治理相关联。对于大多数职业自媒体创作者来说,内容收益的多少将直接影响其内容产出。即使平台不对某个视频直接进行限制或者封禁,只要减少该类视频收益,就会导致今后此类内容的减少。
同时,平台可以对用户的账号直接采取措施从而影响其内容。根据《互联网用户公众账号信息服务管理规定》,平台可以对用户的账号采取警示提醒、限制功能、暂停信息更新、停止广告发布、关闭注销账号、列入黑名单、禁止重新注册等措施[4]。
一是对部分关键字词“一刀切”。有的平台对于部分内容存在过度管控的问题。为了避免发生不良事件被有关部门追责,平台往往选择“一刀切”的方式禁止相关内容出现。如为了避免出现赌博等违法信息,一些平台限制用户使用“钱”“万”等字词,导致许多电商账号在直播和文章中用“米”字代替“钱”,用“W”代替“万”。为了避免出现暴力信息,有的平台限制用户使用“死”字“杀”等字词,甚至利用代码批量将“杀”字替换成其他符号。本来是正常的句子也可能因为中间某些字词触发关键词屏蔽,人们不得不采用错别字、异体字、英文字母甚至图片、表情来表达原先的意思。互联网上甚至出现了完全用图片表情交流的现象,被用户称之为“抽象文化”。这不利于营造良好的信息传播环境,增大了用户之间的理解成本。
二是对情绪发泄的内容治理过于严格。互联网上的情绪发泄是不可避免的,许多用来表达负面含义的字词被限制使用,这导致一些本来正常的词汇引申出了负面的含义。例如“睿智”本来是褒义词,却被一些人用来骂人,这种褒义贬用的现象被网民称之为“阴阳怪气”,此类现象会导致语言污染,让原本正面的、褒义的词汇污名化。平台机械地对过多的关键词进行屏蔽和限制是造成这种现象的重要原因。
如今不仅是青年人和中老年人之间存在数字鸿沟,平台上的网民群体之间也出现了“语言鸿沟”。这与平台对内容的过度管控密不可分,禁止了一个词汇的使用,网民就会寻找其他词汇,靠单纯的限制和禁止无法解决实际问题。已经有部分平台意识到了这个问题,例如百度贴吧在2021年解禁了部分屏蔽词,但对部分语言过度管控的现象仍然广泛存在于平台上。
三是对部分创作内容过度敏感。对于创作者来说,字词无法使用容易找到替代方案,但对内容的过度管控会导致本来优质的作品无法正常发布。一些平台将裸露上身的经典雕塑作品判定为不适宜内容,将进行严肃性教育科普的视频认定为不良内容,甚至有进行法律科普的老师被平台封禁直播间。平台对于部分内容过于敏感,打击了创作者的信心和热情,加重了创作者的负担,导致很多有利社会的优质内容难以在互联网上出现。
一方面,平台对部分内容过于敏感,治理过度;另一方面,平台对部分本应该严厉管控的内容存在治理程度不足的问题,主要体现在对某些严重影响互联网生态健康的内容并未采取严厉的治理手段。
一是拿他人痛苦取乐的“地狱笑话”类内容。互联网上拿他人不幸、痛苦经历甚至死亡来取乐的现象,被网民称之为“地狱笑话”。例如部分网民拿东航坠机事件、著名球星科比·布莱恩特坠机遇难等事件取乐,将严肃话题转化为所谓的“笑话”,甚至获得了极高的流量和平台推荐。
在哔哩哔哩上,有一些以观看他人车祸录像取乐的视频,并冠以“不要笑挑战”的名字,将他人的车祸录像配上滑稽的音乐。在一些平台的笑话段子群里,以“家暴”和“杀妻取乐”为主题的“笑话”流传甚广。某些博主发表内容诉说自己患抑郁症的经历,评论区内除了安慰与同情,还夹杂着许多讽刺甚至取乐的留言。当然有很多人反对这种“地狱笑话”,但往往被喜欢“地狱笑话”的网民讽刺为多管闲事。
平台对这类内容的治理不足,导致许多本来反对“地狱笑话”的网民渐渐妥协,习以为常,甚至由于该内容热度较高,原先的反对者也在平台上上传相关的内容。已经有部分自媒体平台注意到了这种现象,如哔哩哔哩在2022年5月发布了社区“尊重”专项治理公告,认为“地狱笑话”在社区广泛传播,这种解构严肃话题,从别人的悲伤、痛苦中找乐子,实际上是对他人的不尊重,从不尊重中获得违背传统道德约束的快乐[5]。但在大多数自媒体平台上,“地狱笑话”仍然有着很高的关注度和推荐频率,可见平台对此方面的内容治理仍然不足。
二是对创作者侵权的内容。笔者在自媒体平台接触到不少抄袭洗稿、传播错误思想、引起对立的内容,但平台对这方面的管控往往“从轻处理”甚至忽视。虽然短视频能否视为具有独创性从而拥有著作权还存在争议,但不可否认,短视频凝聚了创作者的智力成果,会带来一定经济效益。在知识科普类自媒体中,抄袭洗稿的现象最为普遍,一些自媒体账号抄袭其他博主的文案,自己录制成新的视频。平台为了增大流量,对抄袭洗稿的判定标准往往较为宽松。笔者本人制作的短视频曾遭遇过洗稿侵权,即使找到平台,也往往不了了之。
三是传播错误思想、引起对立的内容。一些传播错误思想、引起对立的内容公然在平台上传播,甚至多次进入平台的热门推荐名单。例如有的电影剪辑自媒体通过恶意剪辑的方式,美化纳粹思想;哔哩哔哩知名博主“回形针paperclip”曾多次发布传播错误思想的内容,许多用户对其进行多次举报,但在很长一段时间内,该博主没有受到限制,仍然拥有数百万的粉丝;某些自媒体丑化警察形象,恶意激化警民关系;某些历史博主公开宣扬历史虚无主义,有意进行错误科普,歪曲历史,等等。
四是泄露个人信息的内容。俗称“开盒”“人肉搜素”的网络暴力行为在平台上并不罕见。所谓“开盒”和“人肉搜索”,是指在网络上公开曝光他人隐私的行为,往往是根据博主发布的内容,通过相片比对和地图等方式搜索博主的现实地址。某些平台上有“开盒”的教学视频,有些播放量甚至达到了百万。对这种内容的纵容导致平台创作者的隐私甚至人身安全受到了威胁,例如哔哩哔哩知名博主“东尼ookii”曾经发布名为《我居然被人肉到了,有人上来敲门,吓得我连夜搬家……》的视频,讲述其隐私暴露被人跟踪的经历。
“开盒”的另一个重灾区是虚拟偶像圈,虚拟偶像一般并不希望被人得知其内部“扮演者”的身份,但知名虚拟主播往往逃不过被“开盒”的命运。“A-SOUL”作为近年国内最热门的虚拟主播组合,在2022年的4月底,其成员陆续被人泄露了内部扮演者的身份,部分粉丝认为“开盒”就是“塌房”,选择离去,“开盒”事件对该组合造成了较大的恶劣影响。
五是软色情和极端博眼球的内容。在数量上来看,俗称“擦边球”的软色情内容和极端博眼球的内容是最为常见的,对这类内容平台的态度往往十分暧昧,有的甚至是暗中鼓励。在流量至上的时代,无论是自媒体账号还是平台最为重视的是用户的流量,因此产生了许多为博眼球无所不用其极的自媒体账号,如曾经发生过某穿着暴露的主播在公共场合对着儿童热舞的不良事件,影响互联网生态环境的健康。
一是算法依赖。部分平台“一刀切”的内容治理模式加重了网民正常沟通的成本,难以实质性杜绝违法犯罪内容,不法分子研究网站的规则、算法,规避网站的内容治理。例如一些不法分子在抖音上用“喝茶”作为暗号进行招嫖活动,也有不法分子在评论区用特定的表情和图片作为联系方式,达到贩卖淫秽视频的目的。这样的方式很容易通过平台的机器审查,其带来的结果就是,正常的内容被算法屏蔽、限流,而违法犯罪的信息则变得更加隐蔽、难以杜绝。
二是治理标准不统一。在内容治理的标准上,不同平台的标准往往不一致,甚至同一平台的标准也不尽相同。抖音和西瓜视频同属于字节跳动公司,一些博主在抖音上的作品被判为违规,但在西瓜视频上却被推荐,甚至入选热门榜单。有博主曾进行了测试,同样一部作品在同一个平台上进行多次上传,居然出现了部分稿件通过审核,部分稿件被封禁的奇观,可见平台在内容治理的标准上并不完全一致。
三是救济渠道狭窄。平台的救济规则不完善。用户申诉抗辩渠道狭窄,申诉的流程通常十分繁琐:一般情况下自助申诉往往石沉大海或者收到无关紧要的自动回复,只能通过拨打客服电话召唤人工服务甚至通过12345信访转接途径才能得到回查解决。救济的结果也经常不尽人意:平台有时仅会答复一句“涉嫌违反相关规定”或“因相关投诉该设备存在异常”。
所谓平台规则,是平台所设定的社区协议、用户服务协议、隐私政策等在内的一系列协议的总称。实践中,平台进行信息治理的规则存在不足,需要治理和管控的内容包括哪些,管控的尺度如何等,各平台的标准不一致,且往往带有一定维护自身私利的意图。有学者进行统计研究发现:用户流量越大的平台管制内容类型往往越多,规模较小的平台则管制类型较少,平台用户流量规模与管制内容类型数量呈正比[6]。
目前主流平台在信息管控的内容类型上一般包括以下几类:第一类是法律法规所规定平台必须进行管制的内容信息,其法律依据来自于《网络信息内容生态治理规定》(以下简称《规定》),明确了平台需要进行治理和管控的内容[7],如“扰乱社会秩序的不良信息”“违法信息”等。第二类是与平台本身有关的信息,例如在哔哩哔哩平台上表达对平台的不满,则大概率会被限流乃至删除。第三类是竞争信息,这类信息与商业广告有关,平台为了保证自己利益会限制其他平台的宣传,对于其他平台签约的主播会进行一定限制。第四类是平台自定义的管控内容,对于不符合其发展定位的内容会进行限制。由此可见,平台进行内容管控的范围超出了法律法规和政策的规定。平台公布的社区治理规范由自己制定,具有“准立法性质”,自治规则制定过程欠缺公开性与公正性[8],其执行管控的尺度有的并不明确,有很大的“自由裁量权”。当发生治理纠纷后,往往由平台进行裁决,平台集“准立法、准执法、准司法”为一身,其身份类似公权力主体[9]。
因此,平台需要主动公布其信息治理的规则,明确治理的内容范围、尺度和相应的处罚措施。平台制定的社区管理规定应合法、合理,不能侵犯用户的合法权益。一方面,平台对于法律法规和政策之外的管制内容要做到事前公开、充分论证,以确保其管制的合法性、合理性。另一方面,对于法律法规尤其是《规定》中要求的治理内容,需要严格执行。《规定》中存在模糊的部分,如要求平台严格治理传播谣言的行为,但何为谣言,需要进行复杂的价值判断,平台在治理时需要谨慎,不能不加论证便以涉嫌传播谣言为由限制和封禁信息。
自媒体的出现是公民表达自由的一种重大进步,依托于互联网,公民可以直接成为网络内容的制造者、传播者和消费者,并将三者直接融为一体,提供、分享、交流自己的意见并使之为一定公众所知[10]。如今的自媒体平台成为公众发表意见、进行舆论监督和求助的重要渠道,平台往往担心舆论发酵从而限制相应的内容。自媒体平台承载着重要的社会责任,需要发挥社会预警、化解矛盾等作用。民众需要借助平台来发表意见、宣泄情绪,以实现为自己、为他人不幸发声的愿望[11]。对于正常的意见和情绪表达,即使言语稍有过激,也不应当成为限制的内容。尤其是关乎人民群众切身利益的事件,平台应当适当降低内容治理的标准,充分发挥舆论监督的作用,提升舆论监督的成效。自媒体平台可以开通专门的求助专区和监督频道。舆论监督范围的扩大有利于真实地反映社会发展中存在的问题,进而推动社会和谐稳定[12]。
平台应当加强对特殊内容的监督,相应增加工作人员的数量,通过大数据对热点事件、存疑事件、突发事件进行及时回复,并对接相应的公权力机关,促进有关问题的解决。如今大多数平台对于“自杀”“抑郁症”等相关内容都有实时监督,称之为“自杀干预”。2022年6月,一男子在抖音发布视频并配文“我走了兄弟姐妹们”,视频中的车内有两个煤气罐,副驾驶座位上有酒和打火机等物,疑似有轻生意图。该内容立刻被抖音自杀干预的专项工作人员发现,并通过大数据核实发布者的信息并联系了当地警方,2小时后警方成功找到已经意识模糊的网友。对于疑似轻生、疑似犯罪的内容,平台应当加强治理,同时在社区内进行正面价值观的引导宣传。
平台应当强化内容方面的个人信息保护,如今研究的侧重点一般是平台企业收集到的用户信息,如身份证号码、住址、手机号、指纹、面部信息等基本个人信息和浏览记录、行程等行动信息。事实上平台大规模侵犯用户隐私的情况并不多见。有学者对用户进行了采访,许多用户认为大部分平台还是值得信任的[13]。真正对个人隐私造成较大威胁的反而是平台上的其他用户,但平台对于用户侵犯其他用户个人信息的行为治理并不严格,导致恶性“开盒”事件时有发生。平台应当严厉打击侵犯他人隐私的内容,对“人肉搜索”进行严格的限制,对于宣扬“开盒”的内容从严治理。有学者认为对个人身份的保护分为静态保护和动态保护,平台的保护不应该停留在形式意义上的静态保护,而应更多地关注这种身份背后区别于他人身份的实质性内容[14]。
如今的平台都有较为完善的审核机制,审核人员如果发现用户上传的内容存在信息暴露的风险,可以对用户进行提示。平台应开通创作者隐私保护的试点项目,依托大数据技术,对图片、视频中的重点隐私内容进行识别并先行模糊处理,并反馈给用户,由其决定是否解除模糊,进行公开。
自媒体平台担负着信息管理的重要责任,应明确、强化、细化平台删除或屏蔽自媒体上违法或不良内容的义务[15],明确自媒体平台进行内容治理时应遵循的基本原则。
一是合法性原则。合法性原则是平台进行治理的基本前提,该原则应该贯穿于内容治理的全过程。首先,平台设定的社区治理规则要合法,不得为一己私利而侵犯用户权益,平台管制的内容类型需要以法律规定为限,不应任意扩张。其次,在治理过程中应秉持合法原则,不得侵犯用户合法权益。在互联网时代,用户的权益呈现扩张的趋势,出现了许多法律暂时未明文规定的权利,平台在进行内容治理时应当尊重用户的新兴权利。例如有学者论证了平台用户具有被遗忘权,该权利赋予数据主体删除个人信息的权利,保护了数据主体的信息自主权,扩大了数据主体信息自主的范围和强度[16]。
二是正当程序原则。为网络平台的内容治理设定符合正义要求的程序标准,可以防止平台滥用私权力,也可以增加平台内容治理的信服力。正当程序原则应当贯穿于平台制定规则和实施具体措施的全过程中。当用户发布违法违规内容时,平台需要基于规则对用户进行惩罚,保护用户的知情权和陈述申辩的权利。平台需要公开处罚决定,并需要对处罚理由进行详细充分的论证,不可简单表述为“违反相关规定”。自媒体平台需要以公开换取用户的信任,充分提高内容治理的透明度,承担其应有的社会责任。
完善平台内容治理规则的备案审查和相应的司法审查机制。为了规避风险,平台往往会在自治规则中规定有利于自身的条款,因此有必要建立相应的备案审查机制,平台的各类自治规则需要向监管部门报备。当因内容治理而引发诉讼纠纷时,法院不应当对明显不合理的平台规则或者平台行为消极不审查行为视而不见。平台在内容治理中处于优势地位,用户往往面临救济困难的问题,为了扭转这种权利的不平衡,需要司法机关进行积极的评判。
除此之外,行业协会要引导平台依法对内容进行治理,对平台的内容治理制度以及实施情况进行考察与评估,视情向社会公众通报不合理的治理行为,并及时反馈给有关监管部门。
平台在内容治理上存在的难题是难以判断该内容的受众群。某些优秀内容可能对未成年人造成一定的误导,但对于成年人而言误导的可能性很低。平台难以判断该内容的受众群,便只能以最严格的态度进行审查。解决这个问题的路径之一是推动分级制度的有效实施。
实现有效的信息治理需要完善身份认证与隐私保护制度,对于良性网络言论信息表达予以鼓励,抑制恶性言论的发布与传播。在具体的实施过程中需要对表达信息的性质进行判别。因此,网络信息内容的分级是寻找保护网民表达权和网络信息内容安全之间平衡点的必然选择[17]。要对调控信息的范围进行清晰界定,可以从四个维度(色情、暴力、歧视侮辱、欺骗)将网络空间中信息的违规性区分为五个等级范围(无、轻微、中度、严重、极端)。在不同网络功能分区中,采用不同的网络内容违规性的分级与限定,并进行动态调整[18]。对不适合青少年或者特定人群的内容进行屏蔽处理。在信息多元的现代社会,比起寄希望于不良信息彻底消失,利用信息分级制度进行分流引导的策略更有实际意义。