[摘 要] 立足于网络内容治理的认知共识、智能审查的技术把关和网络平台的权力崛起,网络平台内容审查成为网络内容生态治理的关键环节。但在实践中,平台内容审查面临具体判断的标准分歧,智能技术误判所致的高责任风险,以及借助协议和技术对用户实施隐性规训的异化倾向,偏离网络平台内容审查制度的设立初衷。为此,应当回归内容审查的逻辑起点,从共识弥合、技术容错和平台权力监督三方面优化网络平台内容审查制度,统筹网络内容生態执法格局,弥合内容审查标准分歧;合理界定网络平台处罚的发现标准,保留技术容错空间;明晰平台内容自治的边界,完善平台权力监督,寻求平台经济与内容治理共生发展。
[关键词] 信息治理;平台权力;行政执法;平台责任;算法
[DOI编号] 10.14180/j.cnki.1004-0544.2024.01.014
[中图分类号] D922.16 [文献标识码] A [文章编号] 1004-0544(2024)01-0131-11
党的二十大以来,中国式现代化成为国家发展的重要目标,由平台介入网络内容审查不仅是营造清朗网络空间的普遍共识,也成为数字经济时代推进中国式现代化的重要抓手。然而,网络内容审查始终无法绕开与用户表达自由的外在冲突,网络平台不仅承担过载的内容审查义务,也面临技术规训下的权力异化风险。智能技术经济时代如何把握网络平台内容审查的尺度,平衡平台经济发展与内容生态治理需求,这不仅需要在平台内部做好机制完善,也需要从宏观执法体制上作出探索。对此,有必要回溯网络平台内容审查制度设置的逻辑前提,跳脱出平台内部系统视角,从宏观视角破除网络平台内容审查的实践障碍。
一、网络平台内容审查的逻辑生成
互联网具有去中心化、匿名化和无序性等特征,容易诱发极端民主和群体之恶,网络舆论治理和网络文化引导势在必行。近年来,我国虽自上而下实行网络实名制和IP地址显示等措施,践行“互联网并非法外之地”的治理承诺,但网络领域的不良和违法信息治理问题仍十分顽固。随着互联网智能技术的高度发展,网络平台的信息管理和推送效率得到大幅提高,平台技术中立观念开始转变,要求网络平台承担内容审查义务逐渐成为国际共识。
(一)认知共识:网络内容治理成为全球趋势
网络的虚拟性、匿名性和传播广泛性在鼓励公众勇敢表达的同时也为极端主义者提供了新的传播工具。网络匿名的特性放纵极端主义者毫无顾忌地宣扬极端言论[1](p900)。网络领域恐怖、仇恨、反动、色情等言论的肆虐,不仅影响未成年人身心健康,也对国家安全和社会稳定造成严重破坏。伴随着网络机器人水军的泛滥和算法技术的广泛应用,网络舆论走向更是成为技术奴役下的群体狂欢,甚至发生干预国家选举的失控情况[2](p87)。塑造文明理性的网络空间价值观离不开对网络内容生态的治理,这已经成为网络治理的国际共识。
网络内容治理是伦理和法律的双重要求,符合人类普遍的价值共识,无关意识形态和经济发展水平。尽管内容治理可能涉及对公众表达自由的干涉,但即使是标榜人权至上的欧美国家,也同样在践行网络内容生态治理。作为互联网发源地的美国,早在20世纪就已经萌发网络内容治理的意识。1996年美国通过《通信规范法案》禁止网络有害信息的传播,之后又颁布了《儿童在线保护法》。尽管这两部法案最终都因违反宪法第一修正案而被判决无效,但美国国会仍未放弃这一立法策略,2000年又颁布了《儿童互联网保护法》。“9·11”事件之后,美国再次意识到互联网内容审查的重要性,先后通过了《爱国者法案》《国土安全法》等,允许对特定行为进行通信监听,将内容审查的严格程度上升到前所未有的高度。2021年,欧盟《应对恐怖主义内容在线传播条例》授权欧盟成员国可以要求平台在一小时内删除被视为恐怖性质的在线内容①,此后澳大利亚通过了《2021年在线安全法案》,2023年英国通过了《在线安全法案》。同样,我国也对网络内容治理清单作出规定,主要涉及反动、恐怖、仇恨、色情、暴力、侮辱诽谤等行为,涵盖国家、社会和个人三个层面,对应社会主义核心价值观的三个层次,既体现了网络内容生态治理的价值导向,也有助于重塑网络空间社会公众的价值共识,营造清朗的网络空间。
由于不同国家宗教信仰和道德文化差异的客观存在,网络信息治理的具体内容不可能完全相同,但禁止诸如恐怖、仇恨、色情、暴力等严重危害公共利益的网络信息传播符合普遍的价值共识,也已经得到大多数国家的立法承认,为网络平台内容审查和删除上述违法及不良信息提供了共识背书。
(二)技术把关:智能识别技术嵌入内容审查
算法推荐技术的应用颠覆以往人找信息的传统,开启信息找人的新时代。在大量违法和不良信息充斥网络的背景下,脸书、谷歌和油管的审查员都曾因参与内容审查工作而面临心理健康问题[3][4]。如果不对信息进行干预把关,不仅将加剧网络内容的低质化,还可能在用户毫无准备的情况下向其推送更多恐怖血腥的信息,严重破坏网络内容生态环境。而智能技术的嵌入极大地缓解了这一难题,成为网络平台内容审查的重要支撑。
从人工审查到自动化技术审查,从粗糙的关键词屏蔽到智能机器的深度学习,网络平台的技术审查能力得到逐步提升。尽管机器审查技术无法完全摆脱技术局限性,但技术与人工相结合的审查方式已经取得较为可观的治理效果。2008年,为保障未成年人绿色上网,我国曾引进绿坝软件,但因技术不成熟最终并未得到普及。而随着智能识别技术的迭代更新,当前对图文甚至是视频的智能审查技术已经逐渐成熟。字节跳动推出灵犬反低俗模型处理低俗内容,在AI训练中实现模型的自我进化[5]。百度公司不仅利用机器学习等方式训练模型以实现对违禁图片和创作者账号的审查管理,还开发了蓝天算法、清风算法、冰桶算法等系列算法,优化生态内容环境。国外平台也主动把关内容质量,油管开发Content ID 技术,主动建立视频比对库,打击版权侵权和违法信息。推特和脸书利用用户标记技术,对可疑信息进行提示。脸书2020年发布的报告披露,平台超过88%的有害内容是通过算法驱动的AI手段自动化审查并删除的[6]。平台审查技术不仅能够为信息质量把关,还能基本实现版权侵权内容的基础比对。主流的过滤技术包括内容元数据索引、哈希算法识别、音频视频指纹识别。哔哩哔哩动画公开声明对于所有的视频投稿都遵照机器审核加人工审核机制。扫黑风暴的行为保全案中,抖音甚至主动承诺可以利用技术实现对部分内容的版权过滤①。腾讯企鹅号引入区块链、CA认证、电子签章、时间戳等技术,建设企鹅号“一键维权”系统,并不断完善识别监测技术,打击内容盗版、侵权的技术功能[7](p53)。这些智能识别监测技术水平的提高,加强了平台对网络信息内容的把关能力,为网络平台内容审查提供了客观基础。
网络内容治理不仅是对内容本身的治理,也是对技术媒介的治理[8](p320)。随着智能技术与生产服务的深度融合,智能识别、过滤等技术的开发运用成为智能时代技术伦理的新要求,也是网络平台内容审查得以实现的重要前提。
(三)权力迁移:互联网平台治理权力的崛起
庞大的用户市场、资本并购扩张和技术创新已经成为拉动网络平台崛起的“三驾马车”[9](p114)。互联网治理的权力结构开始变迁,从“国家—公民”的二元结构转变为“国家—平台”“平台—用户”二阶三元关系,并不断地加入新的治理主体,形成以平台为中心的多元治理模式,平台权力的崛起为网络不良信息治理注入新活力,为网络平台内容审查的角色承担奠定基础。
互联网的虚拟化和匿名化消解了公权力的监管优势,而掌握大数据技术资源的网络平台却在网络治理层面获得了更大优势,导致互联网治理从二元治理走向三元博弈,互联网信息治理由公权力机关逐渐迁移至网络平台私权利主体[10](p104)。传统监管结构只有二元主体,由公权力直接对接私权利主体,但网络平台的出现打破了这一结构。一方面,平台通过用户协议和算法技术能够直接约束私权利主体——用户,具有监管优势和事实性权力。另一方面,互联网的超国界性和虚拟化特征也加大了公权力机关的执法难度,带来了监管的难题。在此背景下,“公权力—私权力—私权利”的新型监管结构诞生,在政策和法律层面获得双重支持。政策层面,党的十八大以来,我国确立“依法治网、依法办网和依法上网”的治理原则,遵循“政府管平台”“平台管用户”的层级式监管模式。同时,立法层面以义务负担的方式单方面授权平台行使监管权力[11](p90),《网络安全法》《电子商务法》等网络领域的专门立法均要求平台履行违法信息的治理义务,赋予平台法定审查义务的同时也默认平台在内容治理方面的私权力。网络平台借助平台协议和算法技术两大工具,以接受被动投诉和主动发现处理两种方式,行使准立法权、准执法权和准司法权,以更具经济效率的方式治理网络内容生态。基于资源优势的积累和技术的自我赋权,网络平台对平台内容的管理和控制能力逐渐增强,平台中立的工具人角色逐渐消解,强化网络平台内容审查成为现实需要。
平台的资源优势和技术优势愈发明显,以其技术创制性权力而获得天然的技术管理优势,有能力承担信息守门把关的责任[12](p53),甚至一度成为新的公用基础设施[13](p1621)。基于用户协议和社区公约等政策工具以及算法模型等技术工具,平台在事实上约束用户行为,并不断地巩固扩张其级别体量。网络平台实施内容審查的行为不仅是履行法定义务,也是平台在其自治范围内行使私权利的表现。
二、网络平台内容审查的实践检视
网络平台内容审查具备扎实的技术基础和平台权力行使的实践经验,但内容审查标准在落实过程中不可避免地面临从规范到实践的困境,存在审查标准的认定分歧、审查能力与责任的不相称以及审查权力异化等问题。
(一)共识偏差:网络内容多头执法互不兼容
尽管网络信息内容审查存在普遍的认知共识,但这种共识往往较为抽象,在审查标准的细化落地过程中逐渐暴露出问题。网络内容审查标准呈现碎片化、多样化和矛盾化的特征[14](p112),多头执法格局下还面临尺度不一的问题,执法标准和处罚尺度也缺乏共识,行政执法裁量权过大,导致平台面临极不确定的责任风险。
网络内容生态治理领域长期处于“九龙治水”的局面,各领域、各层级的治理机关对网络内容治理共识的标准细化存在认知偏差,导致网络内容审查规范呈现数量多、位阶差距大、尺度不一等特点,直接影响平台内容审查工作的实施落地。据笔者统计,仅中央一级有关网络内容治理的机关,在数量上就已经超过20个。多元治理主体的职责交叉不清,存在扎堆执法和监管真空的极端现象[15](p142)。由此也引发内容审核相关的法律法规及规范性文件频繁出台,仅现行有效的就远超30部。其中,国务院出台的行政法规《互联网信息服务管理办法》将内容审查负面清单范围限定在法律、行政法规两个层级,而由国家网信办、文化和旅游部、国家广播电视总局联合发布的部门规范性文件《网络音视频信息服务管理规定》则将审查范围扩大至违反法律法规的范围。文化和旅游部出台的《互联网文化管理暂行规定》又将内容审查的负面清单范围划定为法律、行政法规和国家规定三个范围。至于“国家规定”的边界为何,却并不清楚。多头监管下审查标准和尺度并不统一,“九不准”①、“十不准”②、“十三条”③和“红二十条”④是对内容审查的负面清单,“七条底线”⑤则是对网络信息内容发布与传输的正面规定。具体到游戏、直播、短视频、文学网站等不同业务类型平台,其审查标准则更为细致。多头监管下审查标准浩如烟海,不可避免存在冲突矛盾的情况,平台在内容审查过程中究竟应当遵循何种或者哪些标准并不明确。
网络内容生态的多头治理不仅面临执法依据的相互抵牾,在处罚尺度的把握上也大相径庭。同样是存在违法信息,不同执法机关在处罚数额上却可能存在巨大差异,甚至在定性上呈现截然相反的处理结果。如杭州市文化广电旅游局就网易云音乐中《Holy War》涉嫌含有宣扬暴力内容的情况,作出罚款人民币一万五千元整的行政处罚[16];广东省网信办就微信公众号的内容问题对腾讯公司作出“最高罚款”(50万)的处罚决定;在“大棚房”事件中,北京市网信办、北京市规划国土委在约谈58同城、赶集网后,仅作出整改的决定,并未作出任何行政处罚决定[17]。尽管网络内容治理存在抽象层面的价值共识,但显然,各部门在个案尺度把握方面存在较为明显的认知偏差,这种执法的不确定性给网络平台履行内容审查义务带来很大困惑,长期来看也不利于平台经济的创新发展。
(二)技术失控:处罚标准与审查能力不匹配
智能识别技术已经在实践中嵌入内容审查环节,但技术审查仍无法脱离人工辅助,以实现完全独立的识别过滤效果,技术失误不可避免。即使辅以人工复核,依旧无法保证百分之百的准确率,审查标准和审查能力并不完全契合。
从内容审查的范围来看,法定审查清单多为原则性规定,且兼顾公法和私法领域,不仅范围广,而且不同类型的信息审查难度也差异甚大,训练后的智能模型并不足以独立应对这些复杂情形,平台存在发现困境。根据《互联网信息服务管理办法》相关规定,互联网信息服务提供者发现其网站传输的信息明显属于“九不准”范围的,应当立即停止传输,保存有关记录,并向国家有关机关报告。违反法定义务情节严重的,甚至面临吊销经营许可证或关闭网站的处罚⑥。从规范层面来看,对平台的行政处罚应当以平台已经发现却未采取行动的主观过错为前提,但事实上,其实施效果并不尽如人意,依旧没有脱离结果论的执法窠臼,忽视对行政相对人主观过错认定的问题仍然存在[18](p55)。从《互联网信息服务管理办法》所罗列的内容审查负面清单来看,“九不准”的事项兼有危害国家安全、损害国家荣誉、散布谣言、淫秽、色情等公法领域的违法信息以及侮辱或者诽谤他人等侵犯他人合法权益的违法信息。即便当前国内平台对于黄暴类信息的内容审查已经可以实现较为自主的技术识别,但对于诸如“科学”谣言类信息的判断,由于涉及专业知识,而难以由平台独立作出判断[19](p82)。至于涉及侮辱诽谤类信息更是因涉及个人隐私,既无法获取相关训练数据达到机器判断的效果,也难以由人工独立作出真实性判断,对侵害私人权益类信息主动治理的实现更是无从说起。
智能技术的高度发展在提高信息处理效率的同时,也存在“算法黑箱”问题,加剧了平台发现的认定难度,扩大了平台的责任风险。在弱技术审查时代,平台或可依据《中华人民共和国行政处罚法》(以下简称“《行政处罚法》”)第33条第2款的规定主张人工和技术审查的有限性以证明其缺乏主观过错,但这一策略在智能技术应用时代却难以适用。以算法推荐技术为例,《互联网信息服务算法推荐管理规定》不仅强调算法推荐技术应用平台应当优先推送符合主流价值导向的积极内容,还要求平台建立违法和不良信息特征库,定期审查算法模型①,引导科技向善,不断扩大智能技术应用平台的内容审查范围。《互联网信息服务算法推荐管理规定》实质上已经变相要求平台主动进行内容审查,并分类推送。客观上,所有的信息都经过平台的选择编排,很难抗辩其未“发现”违法和不良信息。不可否认,算法技术在编写设计之初就蕴含了设计者的价值导向,但实际上,智能模型的识别和过滤是利用数据进行机器学习的结果,平台无法精准控制智能技术的应用效果。决策结果依赖于机器学习的数据来源,不可靠的数据来源不仅可能导致决策失灵,还可能造成隐性偏见,脆弱的算法技术也极易受到机器人水军等外部因素干扰,诱发舆情事件,造成技术失控[20](p6)。而平台目前对此尚不具备事前的预见和控制能力,甚至有时基于“算法黑箱”而无法解释审查和推送结果是如何得到的。如果继续沿用以往的责任认定思路,发现标准可能就此被架空,再次落入平台行政处罚的结果论窠臼。
面对眼花缭乱的网络信息内容审查清单,平台既存在发现的事实困难,也存在判断的能力短板。在此背景下,忽视不同类型违法信息的特殊性,一刀切地将所有类型违法信息的审查负担交给平台显然并不合理。忽略平台的合理注意义务和客观审查能力而强行施加公法审查义务,并不会提升平台技术审查能力,反而会加重平台审查负担,加剧网络生态治理矛盾。
(三)权力异化:平台自治权力边界不当扩张
平台基于技术和资源形成的自治权力是网络平台承担内容审查的事实基础,但同时对审查尺度的把握不当也可能造成平台权力的不当扩张,缺乏权力约束机制的平台自治又会进一步衍生出新问题。
抽象共识在具体规则的细化过程中往往存在边界不清、相互交叉的问题,基于法定内容审查标准的规定原则化和平台内容动态更新的加速化,实践中,网络平台在履行内容审查义务的过程中必然会根据平台生态现状不断细化更新审查标准,在客观上形成对内容审查权力的扩张。以《网络信息内容生态治理规定》设置的违法和不良信息二分的审查清单为例,违法和不良信息所涉内容基本重叠,仅仅存在程度上的差异,在实践中难以准确区分。《网络信息内容生态治理规定》第7条中“带有性暗示、性挑逗等易使人产生性联想的”内容,与《网络信息内容生态治理规定》第6条第1款第9项规定的“淫秽色情”类违法信息在内容判断上基本重合,但在判断难度和违法程度上又存在差异。再比如《网络信息内容生态治理规定》第7条规定的“宣扬低俗、庸俗、媚俗内容”“血腥、惊悚”等不良信息,显然符合公众对于不良信息的认知共识,但对于何为“低俗”、何为“血腥、惊悚”却并未给出明确标准。对于违反社会风俗类信息,本就无法准确量化打分,按严重程度作出违法与不良分级更是增加了内容审查标准的复杂性,导致技术识别和人工判定面临更大挑战,也使得平台内容审查的法律责任处于不确定状态。无论是基于规避法律风险,还是平台内容生态维系的运营需要,网络平台必然会行使准立法权,对平台内容治理采取更为细致的自治型审查策略。
笔者通过调研通信社交、短视频、音频服务、新闻媒体、搜索引擎和贴吧社群、直播等各类主流网络平台(如表1所示)发现,除了QQ音乐、酷狗音乐、腾讯新闻和夸克浏览器四个样本外,其余样本网站的用户协议均在现有的“九不准”“七底线”“红二十”等法定内容审查清单的基础上进行扩充丰富,扩大审查范围。以《微信个人账号使用规范》为例,协议基于“九不准”的原则性规定,结合平台“执法”实践,对每一类信息进行列举并举例说明,强化规则的可适用性,设计出符合平台特性的负面清单。这种细化既有利于明确用户的行为边界,也有利于避免對用户权益的不当减损。不可否认,在现行规则模糊的现实下,以用户协议等方式细化内容审查范围,有利于落实网络内容生态治理要求,一定程度上促进了平台信息内容生态环境的改善,发挥了平台自治的正向作用。
但是,在平台细化过程中也存在一定的权力滥用空间,如果平台超越法定规制尺度进行内容审查,不仅将破坏用户的表达自由,还面临重回互联网“围墙花园”的局面,损害数据信息的互联互通,导致用户协议和智能技术沦为平台生态垄断的工具。《微信个人账号使用规范》中将分享类信息和特殊口令信息作为负面清单,尽管这一举措有利于防范诈骗和用户隐私泄露,但一定程度上也阻碍了信息的互联互通,不利于跨平台信息的交流。实践中也确实出现跨平台分享的口令被折叠、无法直接以链接形式分享等情况。今日头条的创作平台《头条号用户协议》同样有类似规定,不允许用户随意利用头条号加入第三方链接。添加第三方链接可能被系统审查认定为存在引流行为,从而面临曝光率减少的限流风险。无论是平台在生态系统内部享有的准立法权、准司法权和准执法权,还是平台对于用户投诉举报的被动处理和自发治理,都在一定程度上依赖于平台与用户的契约合意,但是基于便捷性而设定的电子合同并未与用户进行平等协商,存在诸多损害用户权益的不公平格式条款。基于技术赋权,平台还可能实施诸如人为修改搜索排名[21](p107)和主动干涉舆情讨论[22]等影响网络信息正常展示传播的行为,成为平台生态内信息推送的绝对权威。
在协议工具与技术逻辑的双重加持下,用户和平台之间已经形成一种“浮士德契约”[23](p25)。表面上平台为用户提供内容传输服务,但实际上平台借助用户协议和技术工具,可随时阻断第三方平台的内容传播,将用户流量锁定在“围墙花园”内以攫取更高利润。平台治理权力的崛起为网络信息内容治理提供了有效保障,但在公权力向平台这一私主体下放的过程中,却忽视了对平台权力的约束。平台内容审查的细化尺度,不仅直接影响网络用户的权益保障,也可能破坏平台间的公平竞争秩序。尽管平台的用户协议是部分平台备案的必备材料①,但相关部门仅作形式备案,并未进行实质审查,缺乏对平台自治权力异化的防范机制。
三、网络平台内容审查的路径优化
网络平台内容审查已经成为网络内容治理的重要环节,但网络内容生态的多变性和监管格局的复杂性决定了平台无法独自承担繁重模糊的内容审查工作。纵览网络平台内容审查所面临的层层困境,主要集中于网络内容生态的执法分歧、平台审查义务分配的技术考量和平台自治权力规范三大问题,仍未脱离网络平台内容审查制度设置的认知共识、技术把关和权力迁移三个逻辑起点。为做好网络平台内容审查的路径优化,应当回溯网络平台内容审查的逻辑前提,有的放矢地为网络平台内容治理补苴罅漏,做好配套措施和制度完善工作,优化网络平台内容审查路径。
(一)弥合共识:统筹网络内容生态的执法格局
网络信息内容庞杂多变,需要联合多部门执法资源协调治理,这既是中国特色,也是时代发展的需要。但不能忽视多头监管因职权交叉造成的重复执法和相互推诿等问题,应当顺应互联网的发展特性,科学地分配执法资源,统筹协调网络内容生态的执法格局。
一是构建地方网络内容生态治理的综合执法体系,营造资源共享、执法高效的互联网内容执法环境。党的二十大报告提出,“健全网络综合治理体系,推动形成良好网络生态”[24]。《中共中央关于深化党和国家机构改革的决定》也强调,“改革和理顺市场监管体制,整合监管职能,加强监管协同,形成市场监管合力。深化行政执法体制改革,统筹配置行政处罚职能和执法资源,相对集中行政处罚权,整合精简执法队伍,解决多头多层重复执法问题”[25]。中央层面,《网络安全法》确立了以国家网信办为统筹,电信主管部门、公安部门和其他有关机关归口管理的执法格局,但地方层面仍保留原有的多头共治格局。对此,为顺应互联网平台生态的复杂性和衍生性,可借鉴城市管理所构建的综合执法格局,建立地方网络内容治理的综合执法体系。网络平台生态具有自创生的系统特性[26](p192),现代城市及其管理作为一个开放的复杂巨系统[27](p66)也具有类似特点,且现代城市管理基于相对集中行政处罚权推进城管综合执法已经取得了良好的成效[28](p39),为网络平台内容生态治理提供了示范。在网络内容治理领域,通过设置相对集中行政执法权,将若干行政机构的职能集中于一个统一的体系化的行政机构之下[29](p150),既能减少执法层次,理顺多层级的政府事权,也能推进综合执法和跨部门执法,精简执法队伍[30](p16),有助于解决执法效率低下等问题,优化网络平台内容审查的外部法治环境。
二是建立各执法机关间的商谈沟通机制,协调执法标准和执法尺度,凝聚网络内容治理共识。尽管中央层面对网络内容治理已经构建了初步的行政治理格局,但当前,行政执法仍存在口径不一的现象。对此,只有达成行政执法内部的一致共识,才能为平台落实内容审查提供稳定的规则保障。一方面,各执法机关间应当做好网络内容治理的协商统筹,达成标准共识。尤其是中央层面,国家网信办应当发挥统筹管理职能,牵头组织各机关开展商谈沟通工作,破除执法标准碎片化的局面,整合现有规定,制定网络内容治理领域的高位阶规范,在行政机关间达成执法标准上的共识。另一方面,各执法机关间应当合理量化执法尺度,达成处罚层面的认知共识。应当明确行政处罚的法律依据和事实理由,保证行政处罚的合法合理,降低行政处罚的不确定性。为防范“以谈代罚”的现象出现,应当完善互联网内容治理领域行政约谈的程序规范,既要做好约谈对象的权益保障,也要强化约谈内容的透明度,保障约谈效果,避免约谈泛化成为空谈。
(二)技术容错:合理界定网络平台的发现标准
智能技术嵌入审查机制后的平台审查效率得到极大提升,但技术的有限性不可避免。《行政处罚法》第33条第2款的规定打破了行政处罚不考察违法者主观认识的既定模式,将主观过错纳入行政处罚的考量[31](p105)。《中华人民共和国网络安全法》(简称“《网络安全法》”)也正式确立了以“发现”为前提的过错责任原则。面对网络平台内容审查义务的繁重性和网络信息的多变性,应当合理界定《网络安全法》第47条的“发现”标准,遵循主客观相一致的归责原则,为技术审查保留一定的容错空间,避免陷入结果论的执法窠臼。
“发现”蕴含着两层含义,一是平台接触了相关信息,二是平台能够判断其属于禁止传播的网络信息。内容分发技术的广泛应用使得大部分平台都能符合“接触”的要件,但平台是否能够判断信息的性质,技术审查加人工复查的机制能否从海量的网络信息中筛选出禁止传播的网络信息,则是行政执法应当重点考虑的问题。随着平台治理实践的长期摸索和相关技术的不断改进,部分内容基本能够实现技术的高度自治,如今日头条的3.0灵犬模型,对于黄暴低俗信息的识别已经达到91%的准确率[32]。但从法定内容审查的几个原则性规定来看,要求平台筛选出全部的禁止传播内容显然是不切实际的。对网络平臺处罚标准的设定应当结合客观的网络内容环境与平台的审查能力,不能超越实际情况,盲目追究平台责任。
行政机关在对网络平台作出行政处罚决定前,应当充分考虑平台的主观过错,结合信息的违法判断难度、信息出现的位置、平台的技术能力、平台是否采取积极措施等多方因素,综合认定平台的主观过错。一方面,不同类型的信息判断难度差异显著[33](p39),平台责任的追究离不开对涉案信息违法判断难度的整体感知。如黄暴类信息判断难度相对低一些,尽管与其他违法信息存在交叉,但总体上判断其是否属于禁止传播类信息并不困难。而对于侮辱诽谤信息的判断则可能涉及个人隐私,平台无从考证,无论是技术还是人工都不可能作出判断。此时对于平台发现的内涵界定应当限定在用户投诉的被动发现层面,而不应要求平台负担事前的主动干预义务,以免损害信息发布者的表达自由。另一方面,网络平台的首页、榜单等重要环节往往是平台重点的审查区域[34](p28),信息出现的位置不仅影响信息的传播力,也反映了平台在内容传播中是否起到科技向善的引导作用,成为认定平台过错的重要参考。网络信息浩如烟海,尤其在不良信息和合法信息之间界限模糊的背景下,即便进行日常巡查,也难免存在遗漏,对于这种非典型性违法信息应当结合信息出现的位置,酌情认定平台过错。除非出现在首页、榜单等重点环节的明显位置,否则不宜过度追究平台责任。但如果禁止性信息出现在首页、榜单等明显位置,则平台明显具有审查不力的过错,应当依法处罚。
此外,平台处罚标准应当和审查能力相匹配,不能苛责平台超越客观能力履行审查义务,如果平台已经积极采取措施,只是囿于技术不成熟或确实难以判断的,也不应苛责其存在主观过错。如前所述,当前网络平台的审查技术主要在黄暴内容的过滤应用方面较为成熟,其他算法模型仍在不断地训练和调试中,如果平台能够证明确实属于审查技术的不成熟导致判断失误的,应当参考前述其他因素,酌情认定平台过错。实践中,有的平台还采取与第三方权威机构合作的方式共同治理“科学”谣言[35]。对于“科学”谣言,网络平台本身不具备辨别能力,如果由于部分内容本身存在科学争议而未及时处理,应当将平台事先求助第三方权威机构的情节纳入主动采取治理措施的考量因素,而不能以平台与第三方权威机构合作为由,提高对平台谣言治理水平的要求,以免抑制平台内容治理的积极性。
(三)权力监督:健全平台内容治理的探索与约束机制
资本是网络技术发展的重要推动力,这导致资本逻辑在很大程度上主导了网络信息舆论的生成秩序[36](p24)。网络平台具有资本逐利性,越是博眼球的内容越容易吸引流量,借助用户协议和智能技术崛起的平台权力如果缺乏底线的约束,可能成为资本敛财的工具,不仅面临破坏市场秩序的风险,最终也将损害消费者福利。但平台同时也具有趋利避害的特性,面对严苛的行政处罚和平台内容生态治理的正外部效应,平台具备自发的治理积极性。对此,应当健全平台内容治理的监管机制,既要约束平台权力,防范平台权力异化,也要充分探索平台自治的发展空间,以免抑制平台创新活力。
首先应当明确的是,约束平台权力并不意味着抑制平台经济,应当允许网络平台在法定审查规范的基础上,结合平台生态特色,细化内容审查清单,为网络平台探索内容治理留下自治空间。现行有效的网络内容审查标准往往是抽象的原则性规定,长期未细化完善,显然不能适应具体行政处罚的判断要求[13](p112)。但互联网的动态发展特征也决定了网络内容审查标准不可能是一成不变的静态清单,一旦细化反而会加速暴露法律的滞后性。不同类型、不同赛道的网络平台所具备的内容、特色和风格不同,其内容审查重点也多有差异。如网络直播的内容审查强调即时性,视听作品重视内容的版权合规性,新闻媒体注重内容的真实性、是否掺杂深度合成技术等。行政机关接收的投诉是有限的,远不如参与主动审查和对接用户投诉的网络平台了解平台自身的内容生态特性。规则的明确性与网络社会动态发展的快速性之间出现强烈的矛盾冲突,仅仅依赖立法无法得到根本的解决,单向的命令控制式监管在互联网领域无法发挥有效作用。在此背景下,应当允许网络平台结合平台生态特性和执法实践因时因势予以动态协调,不断优化设计出贴合平台自身特性的内容审查模型和审查标准,采取柔性监管策略,寻求平台与行政机关的合作治理。
与此同时,为防范平台权力滥用,应当在自治基础上完善平台权力的约束机制设计。有权力就有制约,平台合法自治的同时应当辅以权力约束机制,明晰权力边界,做好权力监督。其一,应当提高平台内容审查的透明度,如公示平台审查标准,提高算法可解释性。随着智能技术的深度整合应用,技术越来越不依赖国家,倒是国家越来越依赖技术,如果不对技术平台建立约束机制,可能会导致技术控制和反噬社会[37](p24)。网络平台作为一个自创生的生态系统,具有平台内容的风格偏好。不同平台的内容差异决定了其无法一刀切地适用统一的技术系统,交由各平台根据内部的信息库不断地改进和调整内容审查参数的做法更契合平台内容审查现实。为防范平台技术滥用,强化平台的技术透明度是必然要求。具体来说,一方面,应当加强对平台技术的科技伦理监督,引导平台科技向善,强化算法透明度,要求平台承担算法解释义务,并及时根据用户的投诉异议对算法模型进行优化调整,尽可能降低算法失控风险。另一方面,为方便行政机关的动态监管,同時保障用户的知情权,应当要求平台定期公示内容审查标准,明确平台内部的审查依据。
其二,制定平台用户协议的内容规范和红线,划定平台内容审查的权力边界。当前,现有的《网络交易平台合同格式条款规范指引》和《网络游戏服务格式化协议必备条款》等具体类型的协议规范并未涉及内容审查。一方面,应当制定网络平台用户协议的一般性内容审查尺度规范,防范平台超越法定范围过限审查,抑制滥用平台权力私建“围墙花园”的数据垄断倾向,将平台内容审查权力严格地限定在内容治理层面。另一方面,应当要求平台在用户协议的约定和内容审查的过程中做好用户权益保障和权利救济,在审查标准的制定和修改方面充分吸收用户的合理建议。值得注意的是,尽管当前学界对于平台用户协议[38](p69)和算法技术的规制[39](p86)都提出过备案审查的设想,但由于网络内容审查多变复杂的特性,平台随时可能基于治理实践而采取修改用户协议和优化技术模型的措施,事前备案设想难以有效地适应平台的动态变化。相比之下,由行政机关制定关于审查内容和审查程序保障的框架性范本,对平台权力的约束具有更直接的效果。
其三,畅通公权力机关与平台用户的交互沟通渠道,构建网络内容生态治理的多方互动共治机制。一方面,应当建立用户对平台内容审查规则的建议和投诉通道,并将情况实时共享至公权力机关。网络用户作为平台生态的组成部分和网络平台服务的对象更具评价平台的话语权,畅通用户的投诉通道不仅有利于行政机关和检察机关及时动态掌握平台内容审查的情况,也有利于为用户权益保障提供救济渠道,还能在沟通反馈中强化用户的参与感和获得感,加强平台用户的自律性,优化网络内容治理的法治环境。另一方面,可将用户投诉作为检察机关获得违法线索的重要渠道,建立网络平台治理领域的检察公益诉讼机制。互联网具有极强的传播力,无论是网络平台尺度超标的一对多的格式条款,还是网络禁止性内容的不力治理,都可能造成对不特定多数网络用户利益的严重损害,更不必说超级平台的影响力。基于对公共利益的维护,检察机关有权对平台协议、社区规范的审查尺度超标以及平台内容审查不力的行为提起民事公益诉讼,通过诉前检察建议甚至是诉讼等方式督促网络平台改进自治规则,形成由公权力机关和用户组成的内外监督机制,促进平台内容审查自治生态的良性演化。
四、結语
交由平台承担内容审查义务的路径选择符合当前我国网络内容治理的现实需要,但缺乏良好配套措施的平台自治只会单方面加大平台负担,并不能取得良好的治理效果,而过分赋予平台治理权限又可能造成平台权力的异化。内容审查不能一味地将内容审查负担推卸给平台,而应当优化配套制度,采取柔性的监管方式,为网络平台内容生态自治营造良好的法治环境,达到平台内容治理与平台经济繁荣的双赢目标。
参考文献:
[1]Karmen Erjavec, Melita Poler.You Dont Understand, This is a New War! Analysis of Hate Speech in News Web Sites Comments[J]. Mass Communication and Society, 2012(6).
[2]支振锋,范夏欣.社交媒体时代的信息操控及其规制[J].青年记者,2022(19).
[3]Alex Hern. Ex-Facebook Worker Claims Disturbing Content Led to PTSD[EB/OL].(2019-12-04)[2023-01-08].https://www.theguardian.com/technology/2019/dec/04/ex-facebook-worker-claims-disturbing-content-led-to-ptsd.
[4]Casey Newton. The Terror Queue [EB/OL]. (2019-12-16)[2023-01-08]. https://www.theverge.com/2019/12 /16 /21021005/google -youtube -moderators -ptsd-accenture-violent-disturbing-content-interviews-video.
[5]今日头条上线“灵犬”小程序 将开放反低俗技术模型[EB/OL]. (2018-11-20)[2022-12-08].http://media.people.com.cn/n1/2018/1120/c14677-30409776.html.
[6]Facebook. Community Standards Enforcement [EB/OL]. (2022-01-09)[2023-01-08].https://transparency.fb.com/zh-cn/policies/improving/community-standards-enforcement-report/.
[7]唐铭,刘晓.腾讯:数字化助手,赋能新型主流媒体建设[J].国际品牌观察,2021(24).
[8]Jinhe Liu, Le Yang. “Dual‐Track” Platform Governance on Content: A Comparative Study between China and United States[J].Policy & Internet, 2022(2).
[9]徐敬宏,袁宇航,巩见坤.中国语境下的网络平台治理:关键议题、现有模式与未来展望[J].郑州大学学报(哲学社会科学版),2022(1).
[10]韩新华,李丹林.从二元到三角:网络空间权力结构重构及其对规制路径的影响[J].广西社会科学,2020(5).
[11]周辉.技术、平台与信息:网络空间中私权力的崛起[J].网络信息法学研究,2017(2).
[12]Reinier H. Kraakman. Gatekeepers: The Anatomy of a Third-Party Enforcement Strategy[J]. The Journal of Law, Economics, and Organization, 1986(2).
[13]K. Sabeel Rahman. The New Utilities: Private Power, Social Infrastructure, and the Revival of the Public Utility Concept[J]. Cardozo Law Review, 2018(5).
[14]张华.网络内容治理行政处罚实践难题及其制度破解[J].理论月刊,2022(9).
[15]尹建国.我国网络信息的政府治理机制研究[J].中国法学,2015(1)
[16]央广网.涉宣扬暴力 网易云音乐运营方遭行政处罚[EB/OL]. (2021-06-02)[2023-01-01].http://finance.cnr.cn/2014jingji/djbd/20210602/t20210602_525502707.shtml.
[17]胡文华.《网络安全法》执法案例汇总第二期[EB/OL]. (2017-10-13)[2022-12-30].https://mp.weixin.qq.com/s/ouDszZXtibPqGWubgawjZQ.
[18]尹培培.网络安全行政处罚的归责原则[J].东方法学,2018(6).
[19]谢惠加,陈柳汐.突发公共卫生事件网络谣言的法律规制[J].当代传播,2021(1).
[20]Federal Trade Commission. Combatting Online Harms Through Innovation [EB/OL].(2022-06-16)[2023-01-07].https://www.ftc.gov/reports/combatting-online-harms-through-innovation.
[21]段宏磊.人工智能搜索服务的演化风险与法律规制[J].上海师范大学学报(哲学社会科学版),20221(2).
[22]国家网信办.国家网信办指导北京市网信办依法约谈处罚新浪微博[EB/OL]. (2020-06-10)[2023-01-04].https://mp.weixin.qq.com/s/p7ozwLCviSUolYl4mIbxOg.
[23]易前良.网络平台在内容治理中的“在线看门人”角色[J].青年记者,2020(7).
[24]习近平.高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告[EB/OL]. (2022-10-25)[2023-10-04].https://www.gov.cn/xinwen/2022-10/25/content_5721685.htm.
[25]中共中央关于深化党和国家机构改革的决定[EB/OL]. (2018-03-04)[2023-11-04].https://www.gov.cn/zhengce/2018-03/04/content_5270704.htm.
[26]冯果,刘汉广.互联网平台治理的生态学阐释与法治化进路[J].福建论坛(人文社会科学版),2022(4).
[27]宋刚,唐蔷.现代城市及其管理——一类开放的复杂巨系统[J].城市发展研究,2007(2).
[28]张步峰,熊文钊.城市管理综合行政执法的现状、问题及对策[J].中国行政管理,2014(7).
[29]关保英.大行政执法的概念及精神解读[J].江西社会科学,2020(9).
[30]王敬波.论我国城管执法体制改革及其法治保障[J].行政法学研究,2015(2).
[31]金成波.行政处罚中违法者主观认识论纲[J].当代法学,2022(4).
[32]安全内参.今日头条内容安全检测工具“灵犬”技术原理揭秘 [EB/OL]. (2019-07-31)[2023-01-04]. https://www.secrss.com/articles/12637.
[33]谢惠加,李谢标.短视频平台版权侵权注意义务实证研究[J].中国出版,2023(9).
[34]谢惠加,何林翀.算法推荐视角下短视频平台注意义务的完善[J].中国出版,2022(19).
[35]关于公众平台辟谣机构的相关说明[EB/OL].(2022-07-03)[2023-01-06]https://kf.qq.com/faq/17030722muuu170307MFBny2.html.
[36]舒建华.网络意识形态中的资本逻辑及其规范路径[J].湖北行政学院学报,2023(3).
[37]邓曦泽.主体技术政治学论纲:一种新型权力的诞生[J].江海学刊,2021(5).
[38]徐涤宇,王振宇.平台服务协议行政规制的检视与完善[J].中州学刊,2022(7).
[39]张吉豫.论算法備案制度[J].东方法学,2023(2).