论网络平台规则

2020-02-21 14:45邱遥堃
思想战线 2020年3期
关键词:规则法律内容

邱遥堃

一、问题的提出:内容违了什么规?

“此内容因违规无法查看”是我们在浏览互联网时越来越经常遇到的一句话,它常常被网友戏称为表示网页不存在的网络代码“404”,引发了一次又一次“速看”与“秒删”之间的时间赛跑,被删除的内容与遗留下来的标题相互呼应,引人遐想的同时炫耀着自己的最终胜利。这并不是一个人的胜利,因为这句话往往伴随着“由用户投诉并经平台审核,涉嫌违反相关法律法规和政策”的说明,提醒我们思考在内容禁止的背后是怎样的规则、力量在发挥作用:国家制定了政策法规,平台设立了审查制度,用户参与了举报管理——三方合力的结果才使得违规内容无法查看。

然而,当前的网络内容治理研究却是法律中心主义的:以政策法规为分析对象,从不同部门法的角度,讨论不同类型内容的治理方式,以刑法和行政法对谣言、诽谤与一般舆论(涉及公共秩序、民族问题等)的规制为主;即使是比较法,也是比较西方国家的法条和判例,对互联网空间的其他规范和力量关注较少。(1)刑法研究可参见孙万怀,卢恒飞《刑法应当理性应对网络谣言——对网络造谣司法解释的实证评估》,《法学》2013年第11期;于志刚《“双层社会”中传统刑法的适用空间——以“两高”〈网络诽谤解释〉的发布为背景》,《法学》2013年第10期;王 涛《网络公共言论的法治内涵与合理规制》,《法学》2014年第9期。行政法研究可参见张新宇《网络谣言的行政规制及其完善》,《法商研究》2016年第3期;李大勇《谣言、言论自由与法律规制》,《法学》2014年第10期;罗楚湘《网络空间的表达自由及其限制——兼论政府对互联网内容的管理》,《法学评论》2012年第4期。平台责任虽然始终是法律关注的重点问题,也是法律治理的重要手段,但它同样是基于法律、根据法律而确定的,体现了上令下达的代理人治理想象:真正描述、分析并评价平台制度及其运行的研究较少。(2)相关研究可参见许玉镇,肖成俊《网络言论失范及其多中心治理》,《当代法学》2016年第3期;张 燕《论网络表达自由的规制——以国家与社会治理为视角》,《法学论坛》2015年第6期;秦前红《网络公共空间治理的法治原理》,《现代法学》2014年第6期。删帖、封号的相关研究则更少,这可能是由于相对敏感的缘故。(3)少量研究参见靖 鸣《网络删帖行为及其边界》,《新闻界》2017年第7期;夏 燕《网络“删帖”的法社会学分析》,《山东社会科学》2016年第9期。但合作规制与私人治理正是互联网时代内容治理的新特点,标志着区别于旧式规制的新式规制的产生。(4)Jack Balkin,“Old School/New School Speech Regulation”,Harvard Law Review,vol.127,no.8,2014,pp.2296~2342.因此,存在着突破法律中心主义,进而在经验上继续积累、在理论上继续推进的空间。

此外,当前研究的另一特点是相对具体细致,没有以大而化之的言论自由作为网络内容治理研究的起点与范式。(5)这一点特别体现在:网络色情与网络诈骗都是作为单独的门类进行研究,并不属于网络内容治理研究,虽然它们在理论意义上当然属于内容。这是我们的法律制度与社会文化所决定的,而且经常是一件好事。但具体细致的另一面,意味着缺乏统一的理论范式为指导。如果不从言论自由的角度出发,还能运用什么理论来描述、分析、评价网络空间的内容秩序呢?这同样是一个有待解决的问题。

鉴于此,本文希望从以上两个方面对当前的网络内容治理研究做出贡献:既具体分析某个平台是如何制定并执行其内容治理规则、效果如何、背后存在着哪些力量的相互博弈;又尝试以统一的理论范式,从中得出更一般的秩序与规范意义,不陷于不同内容的具体(分裂)处理,为网络内容治理确立一个一贯的研究模型。

在案例方面,我们选择新浪微博,理由如下:首先,微博在本质上还是一个公开的网络社区,相对于私人通信,其内容治理问题更为典型,较少与信息隐私问题相重叠;其次,微博的产品形态十分丰富,使其治理问题也相应地丰富,从而可以与许多平台相互比较;最后,微博的制度建设完备,不仅包括用户协议,还包括以《微博社区公约》为代表的一系列操作规则,以及由此建立的微博社区委员会等具体机构,具有较强的可分析性与代表性。

在理论范式方面,我选择了法律和社会规范理论。这首先继承自劳伦斯·莱斯格著名的《代码2.0》一书:他将性质、执行机构、时效与主观性各有不同的架构、社会规范、市场作为与法律并列的网络空间的规制手段,从而确立了“代码就是法律”——而且是自我执行、即刻实现、不以被规制者意志为转移的法律——的架构研究范式。(6)参见[美]劳伦斯·莱斯格《代码2.0》,李 旭,沈伟伟译,北京:清华大学出版社,2009年,第135~152页。但莱斯格的这一范式其实从属于更广大也更悠久的法律与社会规范的研究,后者源于对法律中心主义的批判,将秩序与法律相分离,强调不同于法律的规则与无需法律的秩序,也就是社会规范在法律缺席或与法律平行的情况下对社会秩序的保障,进而研究社会规范的内容、起源、执行、效率、与法律的关系等主要问题。(7)相关综述可参见郭春镇,马 磊《对接法律的治理——美国社会规范理论述评及其中国意义》,《国外社会科学》2017年第3期;以及某些运用法律和社会规范理论来分析问题的论文中的理论介绍部分,参见戴 昕《守法作为借口:通过社会规范的法律干预》,《法制与社会发展》2017年第6期。

下文将首先以法律和社会规范理论为框架,分析微博平台内容治理制度的形成与运行情况,并在此过程中与形态相似的微信、推特、脸书进行比较,发现其制度环境与治理效果的不同,进而在该理论中定位平台规则的理论性质、与不同规范力量间的相互关系、是否更新了原有理论等等问题。

二、微博的内容治理制度

就内容治理的标准而言,微博针对不同类型的内容制定了不同的治理标准,其主要分类依据是“是否具有对应法律法规和主管部门”。(8)《微博社区公约》第12条,https://service.account.weibo.com/roles/gongyue,最后访问日期:2020年3月26日。已具有相应法律法规和主管部门的内容,包括时政社会内容(网信部门及其政策法规)、违法内容(公安部门及其政策法规)、广告内容(工商行政管理部门及其政策法规)、侵犯人身权益的内容(《中华人民共和国侵权责任法》及其相关司法解释)、侵犯知识产权的内容(《中华人民共和国著作权法》《中华人民共和国商标法》《中华人民共和国专利法》及其相关司法解释)等等。(9)《微博社区公约》第13条,https://service.account.weibo.com/roles/gongyue,最后访问日期:2019年10月30日。未具有相应法律法规和主管部门但“基于微博平台的运营需要”而进行治理的内容包括:不实内容(谣言)、自动化内容、垃圾内容等等。(10)《微博社区公约》第15条,https://service.account.weibo.com/roles/gongyue,最后访问日期:2019年10月30日。有必要说明的是:“扰乱社会秩序,破坏社会稳定”的谣言属于网信部门管理的时政信息的一部分,但不那么严重的谣言可能借助微博的传播能力而造成广泛的社会影响,因此属于并非(至少并非直接)因政策法规压力,而是出于平台自身需要而进行治理的内容。

对已具有相应法律法规和主管部门的内容,其标准主要来自法律与部门规定,但微博根据其实际运营情况,对相关规定进行了一定程度的细化,使之更细致、更有针对性、可操作性。比如违法内容中的涉黄内容,微博界定为:

(1)以现行法律法规为依据,有关规定中明确禁止的露点图片、视频,以及直接表现性行为文字、音频内容;(2)发布非色情类内容,但是通过暴露身体等引诱性的图片、音视频,将用户引导至其它第三方平台,进行线上线下的色情服务交易;(3)通过“发福利”“套图”等特定引申义的文字描述,将用户引导至其它第三方平台,进行线上线下的色情服务交易。(11)《微博举报投诉操作细则》第12条,https://service.account.weibo.com/roles/xize,最后访问日期:2020年3月26日。

对未具有相应法律法规和主管部门但“基于微博平台的运营需要”而进行治理的内容,微博治理的标准同样来自其实际运营。比如不实信息,包括整体失实、捏造细节、图文不符、夸大事实、过期信息、信息残缺、断章取义、冒充新闻当事人这八大类。(12)《微博举报投诉操作细则》第17条,https://service.account.weibo.com/roles/xize,最后访问日期:2020年3月26日。基本上涵盖了谣言的各种形式,使相应的阻却与惩罚都有据可循。

就审查处理的权力主体与手段而言,微博平台自身是整个制度首当其冲的执行者,它通过审查、监督及处理用户信息、发布内容、用户行为等范畴,(13)《微博服务使用协议》第4.12条,https://www.weibo.com/signup/v5/protocol,最后访问日期:2020年3月26日。主动发现并惩罚违规行为,显示出对微博用户与内容全面而深入的治理。特别是它公开表示审查理应属于私人通信范畴的私信这一点,极为突出地体现了微博平台的公共性质。而这一点能够实现,有赖于微博对自身技术架构的设计:它从来没有声称自己采用过端到端加密技术,因此用户发布、传送的所有内容,都将被置于平台的监管和控制之下。

微博平台内容治理的手段是:利用技术架构对违法违规的内容与账号进行阶梯式处理,内容处理包括标注、限制展示、禁止被评论、禁止被转发、屏蔽、删除等等;账号处理包括警告、禁止发布微博和评论、禁止被关注、禁止修改账号信息、限制访问直至关闭、注销账号等等,(14)《微博社区公约》第16条,https://service.account.weibo.com/roles/gongyue,最后访问日期:2020年3月26日。还对在规定期间内多次因违规被处罚的用户进行加重处罚。(15)《微博举报投诉操作细则》第34条,https://service.account.weibo.com/roles/xize,最后访问日期:2020年3月26日。以时政社会内容为例,相关规定根据言论影响范围(造成传播)、数量大小(累计发布5条及以上)与用户主观状态(恶意发布)的不同,从不同程度的禁言直到封号,逐渐加码惩罚后果。还考虑了不同用户的具体情况(处理记录),并采取相应的修复措施(删除内容、打码处理),惩罚措施十分具体细致。(16)《微博举报投诉操作细则》第11条,https://service.account.weibo.com/roles/xize,最后访问日期:2019年10月30日。

微博还通过信用制度进行内容治理:用户有违规行为,被其他用户举报,被站方判定为属实后进行信用扣分;信用积分低于一定水平(60分)时信用等级为低,在其微博首页等位置将会显示“低信用”图标,从而被限制某些行为。(17)《微博信用规则》,http://service.account.weibo.com/roles/guize,最后访问日期:2020年3月26日。这一制度将通常用于互联网商业治理的评分手段用于内容治理,并与用户举报投诉结合,将用户认可的社会规范与平台规则量化为可以通约、比较的分数,通过数字化的方式促进二者的相互融合。

而用户参与治理的另一重要手段是担任各种中间治理人,如媒体账号、时政类信息话题的主持人、社会类信息话题的主持人、发布新闻内容直播的发布者、大V等等。(18)《微博社区公约》第23条,https://service.account.weibo.com/roles/gongyue,最后访问日期:2020年3月26日。在用户生产了海量信息的Web2.0时代,监管治理阶段的用户参与越发重要,是网络平台履行治理义务、乃至减轻治理责任的重要方式,也是网络平台将收割用户劳动的逻辑,从经济生产领域拓展到政治治理的更深层次表现。

三、平台规则形成中的三方博弈

由上可见,微博建立内容治理制度首先是为了满足法律法规的要求。《中华人民共和国网络安全法》第47条规定:“网络运营者应当加强对其用户发布的信息的管理,发现法律、行政法规禁止发布或者传输的信息的,应当立即停止传输该信息,采取消除等处置措施,防止信息扩散,保存有关记录,并向有关主管部门报告。”《微博客信息服务管理规定》第6条将其具体落实为:微博客服务提供者应当“建立健全用户注册、信息发布审核、跟帖评论管理、应急处置、从业人员教育培训等制度及总编辑制度”,并且“应当制定平台服务规则,与微博客服务使用者签订服务协议。”就微博上特别容易产生,影响也特别大的谣言问题,该规定第11条强调“应当建立健全辟谣机制”。

但上述法律与规范性文件制定于2017年以后,新浪微博却是2009年成立的:微博内容治理制度的最初建立另有其渊源。一般而言,互联网平台的内容治理义务都可以追溯到2000年制定的行政法规《互联网信息服务管理办法》第15条的“九不准”规定。但微博这一互联网平台形态在2000年尚未出现,上述行政法规也就不可能对此后产生的微博做出更加细致具体的规定。《微博客信息服务管理规定》中的辟谣规定,以及与内容治理间接相关的用户账号认证与分类管理规定,反而是总结微博的制度经验而做出的法律规定。换言之,不是法律决定了广义上社会规范的内容,而是后者被上升为法律。

当然,微博内容治理制度的形成也有满足用户需求的考虑。用户不仅希望享受言论自由,也希望不受己所不欲内容的干扰与损害。上述的“九不准”规定划定了底线,但具体平台、具体群体的用户仍有其特殊的内容需求需要被满足。但用户需求同样不是微博建立内容治理制度的唯一目的,甚至不是主要目的,因为用户需求过于复杂(少数用户/多数用户、当前需求/长远需求、表面需求/根本需求)、容易流变而且常常相互对立。比如,加强对涉黄内容的治理是符合还是违背用户需求,或者说大多数用户的需求?喜欢黄色与厌恶黄色的用户各有多少?不同用户对黄色的忍耐/喜爱程度各有多少?因为微博的首要目的是盈利,是自身的利益与需求。微博经营对用户需求的重视与了解只是盈利的手段、是次要目的,就像合规也是为了盈利,是为了微博能够首先在国内法律环境下存活,而不仅仅是为了更清朗的互联网空间。

通过对备受争议的“大V拉黑全网禁评”功能的分析,我们可以更清楚也更深入地看到微博平台是如何与其他力量、机制进行博弈,最终重塑各自边界与范围的。根据《“博主拉黑停止评论”功能测试公告》,为了解决评论中长期存在的人身攻击与骚扰博主问题,该功能授予粉丝数量10万以上的博主,使其删除评论并拉黑某一账号后,该账号将在“全站范围”被停用评论功能3天。(19)《“博主拉黑停止评论”功能测试公告》,https://media.weibo.cn/article?id=2309404288479449226766 & sudaref=link.zhihu.com&display=0&retcode=6102,最后访问日期:2020年3月26日。由于少数用户被赋予过于巨大又不受限制的内容治理权力,且不存在任何反制或申诉程序,违反了广大用户对微博平台的自由言论期待,因此该功能引起了普遍而强烈的抵制。

为什么微博要试行这样一个有失公平的制度?因为微博已经为博主提供了关注人/粉丝可评论、评论屏蔽关键词、评论防护等评论管理工具,上线了被三个博主删除评论并拉黑则停止发布评论的策略,却还是无法遏制评论中的人身攻击与骚扰问题。(20)《“博主拉黑停止评论”功能测试公告》,https://media.weibo.cn/article?id=2309404288479449226766 & sudaref=link.zhihu.com&display=0&retcode=6102,最后访问日期:2020年3月26日。这是由于这些措施的后果较轻、容易被规避,给侵害人施加的违规成本不高。而日常的举报投诉制度和人身权益投诉处理制度较为笨重,需要较多的时间和精力进行维权,而且只能事后救济,给受害人增加了较多的维权成本——这是正式制度的通病。

法律亦然,而且由于政府对网络空间的支配力有限,了解相关侵权情况的信息成本相比于平台而言显著变高,加之政府的互联网治理知识有限、对安全与秩序的追求,以及执法手段的刚性导向,可能导致过分严厉的治理倾向,压抑网络空间的言论自由。更重要的是,政府的执法资源有限,无法覆盖相较而言海量的日常侵权内容,只能选择后果重大的部分,因此法律不适于普遍解决这一问题。

社会规范则由于用户群体的分化与变化,无法在最低共识以上继续形成秩序的合力:什么是合理的言论范围,什么是合适的治理手段,每个人都有不同的答案,而且在普通用户和大V、大V中追求言论自由者与希望受到保护者之间存在显著的差别。即使存在共识,如何执行共识仍是问题,单纯依赖用户执行的社会规范将导致监管的不足、滞后与混乱,最终仍需平台与国家出面。

虽然微博也可以采用类似知乎的AI自动识别处理功能,通过技术解决问题,也确实在很多涉黄内容的处理上采取了这种手段。但这一方案首先面临定义问题:人身攻击与骚扰的定义十分模糊,只能为了秩序与安全而倾向于过度审查。其次是自动处理固有的程序不正义问题,用户想申诉或反诉十分困难;即使可能,也会产生额外的人工行政费用,从而使得自动处理节约的人工成本又在下一个阶段返回了平台。归根结底,还是技术发展水平不足以支持普遍的人身攻击问题的技术解决方案。(21)Lisa A.Shay,et al,“Confronting Automated Law Enforcement”,in Ryan Calo,A.Michael Froomkin and Ian Kerr(eds.),Robot Law,Cheltenham,UK·Northampton,MA,USA:Edward Elgar Publishing Ltd.,2016,pp.235~273;Cary Coglianese,David Lehr,“Regulating by Robot:Administrative Decision Making in the Machine-Learning Era”,Geo.L.J.,vol.105,2017,p.1147.

于是,平台就只剩下自我人工审查与交由用户审查两个方案。相比于前者的巨额费用,进一步下放治理权力、分散治理成本显然是更加可行的选项,也符合国家要求用户承担更多治理责任的治理趋势,至少能在一定程度上免责。即使“拉黑全网禁评”可能使大多数用户感到不够公平,但因为保护了更具商业价值的大V用户的利益,平台仍能留住更多用户从而保证商业利益;而且用户群体的分化、变化,使得整个社会规范体系十分具有可塑性,所以微博敢于试行这样的制度,试探用户的底线,以期改变用户期待。

试想,如果是平台通过人工或AI识别评论中的人身攻击或骚扰行为,然后一旦定性就全网禁评,用户是否也会如此强烈反对?可能性似乎低了许多。但我们有什么理由认为,平台就比大V更讲公道或更少出错呢?我们真的能够凭借一纸用户协议来要求平台对我们负责吗?或许,只有我们心中朴素而天真的公平正义感可以解释这一态度上的差别:不允许平台差别对待,相信用户作为消费者有权受到平台保护,却看不到自己已经或主动或被动地成为平台生产与控制机器上的一环了。

实行这样的制度,又会相应地改变社会规范和法律:因为用户期待的可塑性,以及大V强大的话语权,强推“拉黑全网禁评”而使用户慢慢接受并非不可能,微博对内容展示方式的更改、对商业广告的大量植入已经证明了这一点;又因为保护人身权益、让用户承担更多中间人治理责任符合法律规定及其发展趋势,而且互联网一直具有“非法兴起”的历史经验,政府很可能并不会明确反对平台实验创新治理机制,并乐于将成功的平台经验转化为法律。因此,平台将在政府的默许下取得与用户斗争的胜利,最终达到法律、社会规范、平台规则重新均衡在以平台利益为焦点的格局上。

与国外社交平台的简单对比可以进一步证实上述判断:作为微博原型的推特是一个更为自由的平台,既没有对时政社会内容和成人内容的直接限制,也较少规范不实信息、假新闻,用户的言论自由相当广泛。(22)参见“Twitter Terms of Service”,https://twitter.com/en/tos,最后访问日期:2020年3月26日;“Twitter规则”, https://help.twitter.com/zh-cn/rules-and-policies/twitter-rules,最后访问日期:2020年3月26日。而这首先得益于美国《通信法案》第230条对在线服务的宽泛豁免,特别是其第一款:“交互式计算机服务的提供者或使用者不得被视为其他信息内容提供者提供的任何信息的发布者或发声者。”(23)47 U.S.C.§230.其中的提供者包括几乎所有互联网软件或服务提供者(使用者是提供者的顾客),除非属于例外情形,否则,发布者或发言者标准总会被满足,而且没有主观要件,甚至在事前或事后审查存在的情况下也会受到保护,有没有行使传统发布者的编辑控制权都不影响。(24)Eric Goldman,Internet Law:Cases & Materials(July 2018 Version),CreateSpace Independent Publishing Platform,2018,pp.297~298.

不过相对自由的制度环境并不直接等于广泛的言论自由,因为,特定平台的产品定位及其相契合的用户期待可能各有不同,而且互联网平台仍是私人主体,并不负有保障广泛言论自由的宪法义务。比如,推特“允许标记为敏感媒体的某些形式的血腥暴力和/或成人内容出现在推文中”,(25)《社群守则·争议内容》,https://www.facebook.com/communitystandards/objectionable_content,最后访问日期:2020年3月26日。但脸书“会移除美化暴力或者对他人遭受的苦难或屈辱表示庆贺的内容,因为这样的内容可能会营造消极的社群环境,影响人们相互交流”,同时“禁止展示裸体或性活动的内容,因为我们社群的部分用户可能不适合看到这种内容”。此外,“会默认移除色情图像,防止非自愿性或不符合年龄要求的内容得以传播”。(26)《社群守则·争议内容》,https://www.facebook.com/communitystandards/objectionable_content,最后访问日期:2020年3月26日。

因此,微博内容治理制度的形成是政府、平台与用户三方合力的结果。它们各自的力量不一定往一处使,甚至常常相反、相互抵消,但所有力量的几何相加才得到了当前的平台制度。从法律和社会规范的视角观之,平台规则是在与网络法和网络规范的互动中产生的,虽反映了网络法与网络规范的要求,但主要体现平台自身的利益与需求,因而会与网络法和网络规范相互斗争,甚至可能改变后者的内容。

四、平台规则执行的机制与效果

微博内容治理制度的运行,就像任何制度的运行一样,需要经历三个阶段。(27)Lisa A.Shay,et al,“Confronting Automated Law Enforcement”,in Ryan Calo,A.Michael Froomkin and Ian Kerr(eds.),Robot Law,Cheltenham,UK·Northampton,MA,USA:Edward Elgar Publishing Ltd.,2016,pp.235~273.首先是获取信息。对微博而言,其内容治理的信息来自主管部门通报、平台主动发现与用户举报,而平台主动发现是基于平台对微博技术架构的控制而具有的全面监控能力。谁、在何时、发表了什么内容、内容影响如何(点赞、评论、转发数)都会被平台知晓并完整记录下来,作为进一步分析的依据。即使用户选择分组或私信也不妨碍,因为微博没有承诺过端到端加密措施,而且言论的公私界限也在消失。更进一步,即使用户事后修改或删除了相关内容,平台仍会留有档案,作为个人信用的评价依据,始终伴随着用户的虚拟人生。

其次是分析处理。微博平台会对不同信息会采取不同处理方式。对有害内容,平台首先采取技术与人工审核相结合的办法,筛选出外部性较强、影响较大的违法违规内容,以政治敏感、不实谣言与淫秽色情内容为主。而外部性较弱的内容,也就是主要涉及当事人双方之间权利边界及其侵犯的内容,平台则通过设置纠纷解决机制,希望受害人能够与加害人进行对抗,帮助平台进行认定。但由于平台自身的技术与资源限制,以及用户的理性、意志与信息局限性,前述两种方法并非割裂的,而是交融在一起,共同构成了平台的有害内容识别机制,并不断向平台提高自身能力、独立进行识别的方向发展。

最后是采取行动。平台规则规定的适用于不同类型、不同程度的违法违规内容的处罚,由技术架构、代码结构进行保障,控制内容及其发布者,实现有效制裁,甚至使违法违规内容不可能产生或传播;同时,通过数据分析精准地适用于每一个案例、每一个个人,从而最大化特别威慑的效果,甚至能将一般规则改造为个案个办的“微指令”,(28)Anthony J.Casey & Anthony Niblett,“The Death of Rules and Standards”,University of Chicago,Public Law Working Paper No.550,2015.使一般威慑也特别化;还可能进一步把处罚权发包给用户,赋予其采取行动的技术能力。因此,平台的规则治理、数据治理与架构治理能力构成了三位一体的统一治理机制。

上述过程的实际运行效果如何,可以借助数据进行检视。“微博管理员”的微博会每月发布社区管理工作公告。以2019年9月为例:时政有害信息及其账号的封禁数量分别为14.1万条和8 124个,违法信息的处理数量为467万条,涉黄信息及其账号的封禁数量分别为40万余条和565 133个,不实信息的处理数量为6 154条,用户纠纷的处理数量为12 506件,垃圾信息账号的处理数量为关闭11.2万个、禁言7 600个,共11.96万个,自动化行为账号的冻结数量为4.8万个,诈骗信息账号的关闭数量为257个。(29)《微博2019年9月社区管理工作公告》,https://weibo.com/ttarticle/p/show?id=2309404428403712327781#_0,最后访问日期:2020年3月26日。纵向观之,从该月份前溯半年时间,时政有害信息、违法信息、涉黄信息(除专项行动期间)、不实信息和用户纠纷的处理数量相对平稳,垃圾信息与自动化行为的处理数量波动较大,诈骗信息的处理数量不断减少。(30)《微博2019年8月社区管理工作公告》,https://weibo.com/ttarticle/p/show?id=2309404418257082777678#_0,最后访问日期:2020年3月26日;《微博2019年7月社区管理工作公告》,https://weibo.com/ttarticle/p/show?id=2309404405587113803864#_0,最后访问日期:2020年3月26日;《微博2019年6月社区管理工作公告》,https://weibo.com/ttarticle/p/show?id=2309404394357305246065#_0,最后访问日期:2020年3月26日;《微博2019年5月社区管理工作公告》,https://weibo.com/ttarticle/p/show?id=2309404384131390768270#_0,最后访问日期:2020年3月26日;《微博2019年4月社区管理工作公告》,https://weibo.com/ttarticle/p/show?id=2309404370060826290062#_0,最后访问日期:2020年3月26日。

如何解读这些数据?绝对数量众多似乎并不等于制度运行状况良好,因为相对数量才是关键。但这里存在一个悖论:除了用户举报和平台主动巡查这两种方式以外,似乎没有其他办法得知平台上存在的违法违规言论规模,也就无法得知相对数量。如果单纯比较处理数量与微博总量,又显得没有意义,因为违法违规言论再多,相比于微博总量而言也是九牛一毛,能够就此认定平台查处的问题内容是多是少吗?

而纵向比较的信息含量也十分有限。处理数量保持相对平稳是好的制度表现吗?似乎也可以解读为屡禁不止、毫无进展。处理数量明显增长呢?似乎也可以解读为治理技术提升、发现更多问题而实际情况不变甚至恶化。如果处理数量下降了,那也不能说明问题正在得到缓解,因为治理技术下降、对局面失去掌控的可能性依然存在。因此,微博管理员每月发布的社区管理工作公告除了告诉用户“我们一直在努力”,以及给某些不明真相的用户留下治理效果良好的印象以外,并不能说明更多问题。(31)还可以批评平台没有展示审查处理的全貌,因为其阶梯式惩罚的较轻处罚都没有公告出来。即使考虑到用户注意力有限,也可以通过完整公告,结合重点强调的方式来分别满足专业人士和普通用户的不同需求,正如它对用户协议所做的那样。但因为处罚数量全貌仍然受限于数量标准的根本问题,因此这一点就不特别在正文中提出了。

这是数量标准本身固有的问题:它缺乏合适的参照与语境。如果我们面对的不是像微博这样不断扩张变化的开放平台,而是一个除了内容治理制度以外,其他条件保持稳定的封闭系统,那么,违法违规内容的处理数量是可以成为制度治理效果的合理评价标准的。但这样一个假设不仅不现实,而且存在固有矛盾,因为内容治理制度不是外生于任何被治理系统的,它是系统的一部分,与系统的其他条件相伴随而不断变化。

但即使处理数量不能成为评价内容治理制度效果好坏的依据,某些其他数量标准还是可以部分反映该制度的运行情况的,比如处理的速度与准度。其中,处理的速度有微博发布的年度辟谣数据报告中,对单条不实信息的平均处理用时为例:2018年的这一数字为16.97小时,相比上一年快了近1个小时,取得了巨大的进步。(32)《2018年度微博辟谣数据报告》,载微博https://weibo.com/1866405545/HdzYe55VS?filter=hot&root_comment_id=0&type=comment#_rnd1572343788118,最后访问日期:2020年3月26日。借此可以部分窥见平台治理的一般效果,而这也正是有参照、有语境的数据才具有的信息力量。

相比之下,脸书的透明度报告就出色许多:不仅记录了脸书处理的内容数量,还记录了相关活动的数量发展趋势、在用户举报之前被处理的内容比例、用户上诉的内容数量与内容恢复的数量。其中,相关活动的数量发展趋势可以体现出平台治理的总体效果,在用户举报之前被处理的内容比例,可以体现出平台主动发现并处理的治理能力及治理的速度,用户上诉的内容数量与内容恢复的数量则体现出平台治理的准度——这样的数据才有研究分析的意义,而不仅仅是平台在努力进行治理的一种宣传。(33)“Facebook Transparency:Community Standards Enforcement Report”,https://transparency.facebook.com/community-standards-enforcement,最后访问日期:2020年3月26日。

综上,微博内容治理制度的运行依靠政府、用户与平台自身提供信息,通过平台的技术能力或用户的相互对抗进行分析,最后凭借平台的数据分析与架构控制能力进行实施。在此过程中,平台的信息与技术能力是规则执行的关键,用户与政府更多起到补充作用。认识并评价平台内容治理制度的运行效果,需要的不仅仅是举报、处理的绝对数据,更是相关违法违规行为数量的总体数据、平台在举报以外进行处理的数据、处理速度与准度的数据。只有具有参照与语境的相对数据才能解读出治理意义。

五、平台规则的理论定性

至此,我已经较为详尽地阐明了微博平台为治理内容而建立的整套制度,及其取得的实际效果。统领全文的分析框架是法律和社会规范理论:平台的制度建设受到了网络法(制度环境)和网络规范(用户期待)的影响,其实际运行又不断影响着相应的法律和社会规范。三者的关系时而合作、时而冲突。

鉴于平台规则在网络空间秩序中的重要地位,如何对其进行定性是一个关键问题。法律和社会规范理论似乎没能继续给我们提供答案:我们的分析已将平台规则区别于网络法与网络规范,因为它的制定与执行归于不同的主体、基于不同的机制。莱斯格的代码理论也没有给它留下一席之地,因为平台规则也不同于平台架构,是规范性而非技术性的,尽管架构可以被用于实施规则。平台规则也不是市场机制,因为它是集中式立法而非分布式价格机制,虽然它会受到市场机制的筛选,合理的规则与制度才会受到用户遵从、从而有效存活。

平台规则可能更类似于企业规章,因为同是私人主体自上而下制定并执行的规范。可是企业规章只约束内部员工而不覆盖外部客户。传统上,企业与客户的关系是基于合同的,这符合科斯对市场与企业所做的两分。中国移动基于合同为你提供服务,虽然作为寡头垄断的运营商,它的市场支配力能够有力影响你的生活,但这仍不是公法意义上的管理权力,与它对自己下属的直接控制不同。然而,互联网公司的平台规则突破了这一两分,对所有与它签订了使用协议的用户实施管制,具有私法规则公法化的特点。

因此,行政法学者用软法理论来描述平台规则。所谓软法,是相对于硬法而言的,指那些不能运用国家强制力保证实施的法律规范。所以软法的来源十分丰富,只要是没有国家强制力保证但又能规范行为的,都可以称为软法。(34)“软法”,https://zh.wikipedia.org/wiki/%E8%BD%AF%E6%B3%95,最后访问日期:2020年3月26日。但内部构成丰富可能正是我们拒绝用软法理论来描述平台规则的首要理由。因为这样一来,我们就无法区分平台规则与网络规范了:二者都没有国家强制力保证而能够实施,都应归于软法,尽管制定、执行它们的主体与机制并不一样。平台规则与企业规章也没有差别,尽管它们的适用范围并不一样。平台规则甚至与部分网络法也混为一体。因为,当前规范网络空间的很多网络法层级与效力较低,都属于所谓规范性文件,其中的非强制性条款也很多。我们没有进一步的标准来区分以上不同规范。

或许可以在软法的大类下继续细分,开发次一级区分标准。但如果确实存在更具实益的分类标签,我们为什么又要固守软法这个没有多大用处的大标题呢?这便是我们拒绝软法理论的第二个理由:单纯区别是否具有国家强制力的实益不大,更重要的是看到不同规范是如何、被谁制定、实施的——这是软法内部构成丰富的深层问题所在。平台规则、网络规范、企业规章和规范性文件的效力来源并不相同,否定性的“缺乏国家强制力”标签信息量十分有限,就好比我们说AI“不是人”一样,并不构成一个定义所需要的充分内容。

说到底,软法理论依然是形式性的,只看到互联网平台规则结合了合同与规章的双重效力,没有国家强制力却能实施,却看不到为什么互联网公司能取得这样的权力,它与以往的企业有何不同。事实上,互联网兴起以后,对社会的一大改变就是所谓网络空间的诞生。(35)American Civil Liberties Union v.Reno,929 F.Supp.824(E.D.Pa.1996).在这个新的时空中,互联网公司与国家政府持续争夺着控制与治理权(如果不考虑互联网公司因为在很多领域的先占而更有优势的话)。这是平台规则产生的大背景。

以往的企业,甚至是与通信和媒体相关的企业,都没有面临过这样一个全新空间的治理机会。电报电话拉近了人与人之间的距离,广播电视使大规模的信息传播得以可能,但它们都限于一对一或一对多的信息交换,无法形成一个多对多交流的新共同体。而这正是互联网所创造的网络空间的本质特征:一个去(传统)中心化的全球通信媒介。(36)Yochai Benkler,The Wealth of Networks:How Social Production Transforms Markets and Freedom,New Haven and London:Yale University Press,2006,pp.212~272.只有在这样一个空间中,市场和企业、社会与国家的界限才逐渐开始消失。

戴昕正是从网络空间的产生、发展与变化角度来认识网络规范、代码理论和现在兴起的平台规则的。(37)参见戴 昕《重新发现社会规范:中国网络法的经济社会学视角》,《学术月刊》2019年第2期。莱斯格的代码理论代表了平台化时代以前的网络空间秩序,因此,平台规则并不在他考虑的法律、社会规范、市场与代码(架构)四分法之内。但互联网化的社会现实,已经促使他在法律和社会规范理论中添加了代码(架构)这一因素,并且促进了对线下秩序的进一步认识:我们在物理世界的生活中未尝不会遇到各种架构的规制,比如围栏、减速带等等。它们与网络空间代码的区别只在于,是否具有实体以及克服的难易程度而已。

互联网平台的新兴则使得基于过往现实的代码理论力不能逮,旧瓶无法再装新酒,因此需要对法律和社会规范理论进行进一步的创新。这也是我不能再继续同意戴昕之处:他认为平台规则“最接近于Barak Richman提出的一个三元治理形态分类中区别于法律治理(law)和私人秩序(private ordering)的企业/组织化治理(firm/organizational governance)”。(38)参见戴 昕《重新发现社会规范:中国网络法的经济社会学视角》,《学术月刊》2019年第2期。企业/组织化治理是指企业规章、社会团体规章、政党规章这样的规范内容,但它们都是前互联网时代的产物,适用于具有雇佣/劳动关系的上下级之间。我们现在面对的则是雇佣与合同之分、企业与市场之分的消失,是一个私人企业却能治理其客户的现实。

这体现了互联网用户作为“产消合一者”(prosumer)的本质特征。基于互联网对我们的赋权,我们不再是被动接受信息的消费者,而是主动创造信息的生产者,可以独立或联合生产信息产品。(39)Yochai Benkler,The Wealth of Networks:How Social Production Transforms Markets and Freedom,New Haven and London:Yale University Press,2006,pp.59~90.随着网络空间向线下延伸,我们甚至能以更低的成本生产许多非信息产品,也就是现在的共享经济。因此,我们不仅是平台的客户,与之具有合同关系,而且也像某种雇员,与之具有劳动关系。然而,我们又不是通常意义上的雇员,需要区别不同的劳动特点来认定具体关系的法律性质。(40)参见胡 凌《分享经济中的数字劳动——生产、分配和法律回应》,《中国劳动》2017年第8期。

但我能够认同的是:将平台规则作为区别于网络法和网络规范的独立规则,进行认定和研究,从而丰富代码理论、法律和社会规范理论的内容。它作为一种规范力量而区别于市场和架构,但因为来源于平台而非国家或用户,也主要通过平台的力量予以实施。所以不同于法律和社会规范,前者既包括“硬法”也包括规范性文件,后者则包括用户的合理期待、有效的行业准则等。如果不单纯考虑网络空间,平台规则也因适用对象和适用范围的不同而区别于企业规章。

这样的分类是否也会使得法律和社会规范理论过于庞杂?并不会。因为规范/非规范、效力来源、适用范围的区分标准是细致而有实益的,它们可以共同构成一个平台规则的有效定义:互联网平台制定并实施、适用于其用户的规范。而其他力量也可以继续保持其独特的作用机制、效力来源和适用范围,不会淹没于一个“非平台规则”的无效标签。

更进一步,随着网络空间的不断拓展,特别是向线下拓展,也就是我们物理世界的不断互联网化,平台规则的意义也将不再限于规范线上内容与行为。网约车对司机与乘客的管理、共享单车对用户的管理,都是平台规则向线下延伸的典型例子。这使得平台规则能够对标的范畴不再限于网络法、网络规范、代码等等,而可以成为一般性法律与社会规范理论的一个子集。正如架构的意义不限于线上一样,在社会生活不断互联网化的今天,平台也是一个可以实体化的概念,更不用提经济学家对平台的概念研究本来就是从线下获得启发。(41)Bertin Martens,“An Economic Policy Perspective on Online Platforms”,SSRN Electronic Journal,2016.

当然,对未来世界的秩序想象可以有不同的版本。互联网公司可以凭借社会生活的互联网化而加强平台规则的控制力量,国家政府也可以借助不断发展的互联网技术来提高法律对平台规则和社会规范的影响、改变甚至吸收。后者便是戴昕所预言的“法律中心主义”的未来,(42)参见戴 昕《重新发现社会规范:中国网络法的经济社会学视角》,《学术月刊》2019年第2期。前者则是相竞争的可称之为“平台中心主义”。当然,理论上还存在法律和社会规范所预言的“秩序无需法律,也无需平台”的未来,但用户面对国家与平台的相对弱势,已使得这一未来较为暗淡了。(43)Jonathan L.Zittrain,The Future of the Internet:And How to Stop It,New Haven and London:Yale University Press,2008,pp.153~174.

笔者在此无意预言哪一种未来将会实现,也没有能力预言,只能继续保持本文一贯的分析思路和理论视角,坚持无论哪种未来,都将是不同群体、不同力量相互斗争与合作的结果,根本上是由社会物质条件变化所决定的。事实上,这是一个十分政治经济学进路的分析,以经济基础与群体斗争为根本,区别于单纯的形式的教义分析。这同时显示出法律和社会规范理论的现实主义底色,毕竟是人民的生活创造了法律,法学理论只是对这一生活实践的提炼与总结。

六、结语:未来的网络空间秩序

通过本文分析,我们看到了一幅政府、平台和用户不断争夺网络空间的控制权与治理权,不仅相互博弈,而且相互渗透、合纵连横的图景。这个图景异于传统的国家与社会理论之处有二:其一是国家与社会并非两分对立、互不干涉,不仅社会对国家不断渗透,体现为传统上的利益群体影响,国家也在对社会进行渗透,也就是我们在本文网络内容治理研究案例中所观察到的、平台规则在制度环境与用户期待的双重影响下发展。其二是社会对国家的影响不仅体现在传统的政治活动中,社会主体本身也通过斗争或授权的方式获得了相应的治理权力。即互联网平台不断分享着属于国家的公共权力,在网络空间这个全新的环境中与国家合作、斗争,进而经由网络空间的不断扩张而向线下渗透;甚至用户自身都开始承担治理义务,享有相应的管理权力,作为不容忽视的参与者,影响着整个网络空间的秩序。

这也是平台规则(特别是中国的平台规则)对传统法律和社会规范理论有所推进的地方:传统上,法律和社会规范理论通过反对法律中心主义而假定的国家与社会关系也是两分的,法律来自国家,社会规范来自社会。然而,平台规则作为自上而下制定的私人规范,突破了公私的界限,使私人主体也具有公共权力,而这一公共权力既是自生自发的,也是政府与用户影响之下的,因而与他们的权力相互交织、纠缠,进一步模糊淡化了国家与社会之间的界限,重新定义了其关系。

未来的法律和社会规范理论、国家与社会关系理论如何发展,还得看真实的政府、平台与用户博弈走向何方。究竟是法律中心主义在互联网技术的加持下重新崛起,还是平台中心主义借助自己的技术优势不断侵蚀国家权力,抑或是更具理想主义的用户革命夺权,目前还没有答案。但可以肯定的是,互联网不是法外之地,只要我们更开放地看待所谓的“法律”,更真实地体察生活运行的逻辑,更同情地理解法律背后的社会关系与人际互动,就可以看到一个秩序更多而非单纯的法律更多的世界。

猜你喜欢
规则法律内容
内容回顾温故知新
撑竿跳规则的制定
数独的规则和演变
法律解释与自然法
让规则不规则
TPP反腐败规则对我国的启示
主要内容
让人死亡的法律
“互助献血”质疑声背后的法律困惑
让法律做主