□李安
网络内容的版权合规与高效传播一直以来都是互联网法治的核心问题。在互联网发展初期,为解决网络内容版权合规与高效传播之间的冲突,平衡版权人的作品许可利益和网络服务提供商的内容传播利益,以美国1998年《千禧年数字版权法案》(Digital Millennium Copyright Act,以下简称DMCA)第512条为首倡,多数国家(地区)将“避风港”(safe harbor)规则确立为网络服务提供商版权责任规则。“避风港”规则在从美国走向世界的同时,也从网络服务提供商“版权责任规则”逐渐发展成为网络服务提供商“民事责任规则”,在网络空间适用于版权之外的其他民事权益。不过,网络版权仍是“避风港”规则法律适用的主要领域,引领着“避风港”规则在人工智能时代的变革。
人工智能社会是一个“算法泛在”并由“算法主导”的社会[1],在此背景下,“避风港”规则的治理对象——网络内容的合规与传播——开始出现“计算转向”,主要表现为以下三个方面:(1)版权人利用算法抓取网络内容,与自己版权作品数据库进行计算比对,自动识别侵权内容并向侵权内容所在网站发出移除通知。例如,中国公司“冠勇科技”自称截至2019年11月利用网络爬虫、电子指纹特征比对等算法,帮助版权人累计发出侵权通知360多万份,移除侵权链接3160多万个①参见冠勇科技公司网站的简介,网址:http://www.firstbrave.com.最后一次访问:2021年3月1日。。(2)网络服务提供商运用算法,以用户数据为基础,挖掘、分析用户的信息偏好和需求,进而提供私人订制式的信息服务,实现网络内容的高效传播。例如,中国企业“今日头条”凭借精湛的个性化新闻推荐系统,对用户承诺“你关心的才是头条”,创造出简便高效的用户体验,在竞争激烈的移动互联网市场中快速崛起。(3)网络服务提供商尤其是用户创作内容(user-generated content,以下简称UGC)型网络平台,使用算法将用户上传的内容与版权人提供的作品数据库进行计算比对,自动识别出侵权内容。例如,美国著名视频分享网站YouTube采用以电子指纹比对算法为核心技术的Content ID系统,对用户上传的视频内容进行版权校验,过滤出侵权内容②See YouTube Help,How Content ID works,at:https://support.google.com/youtube/answer/2797370?hl=en.Last visited on April 20,2021.。本文将上述三种情形分别称为算法通知、算法推荐、算法过滤。
“避风港”规则自20世纪末诞生以来,极大地推动了互联网技术和产业的发展。不过,近年来,以欧盟2019年《单一数字市场版权指令》第17条为代表,“避风港”责任规则在全球范围内面临着变革,部分网络服务提供商被课以更为严格的版权过滤义务。现有观点多将“避风港”规则的时代变革归因于Web 2.0、UGC网络平台、小程序等新兴网络技术和产业的发展,以及由此引发的“利益失衡”问题①新兴互联网产业与版权产业之间的“利益差”(value gap)是版权人游说欧盟《单一数字市场版权指令》第17条立法的重要理由。See Annemarie Bridy.The price of closing the“value Gap”:how the music industry hacked EU copyright reform[J].Vanderbilt journal of entertainment&technology law,2020,22(2):326-328.欧洲学界批评“利益差”主张没有充足经验证据作为支撑,立足点仅是道德意义上不太稳定的公正情感,而不是基于社会经济福利的成本收益分析。See Giancarlo F.Frosio,The death of“no monitoring obligations”:a story of untameable monsters[J].Journal of intellectual property,information technology and electronic commerce law,2017,8:para.6.。不过,鲜有研究系统考察网络内容管理的算法化在“避风港”规则变革浪潮中所扮演的角色。网络内容管理的算法化无疑给“避风港”版权责任规则带来了系统性冲击:面对算法自动发出的海量移除通知,以人工处理为制度预设的“通知/移除”程序在人工智能时代能否继续发挥其应有作用?考虑网络服务提供商借用算法积极介入网络内容的分发传播和商业价值发掘,“技术中立”作为“避风港”规则的重要理论支撑在人工智能时代是否继续成立?鉴于网络服务提供商可以使用算法对网络内容进行版权过滤,“技术不能”作为“避风港”规则的重要理论辩护在人工智能时代是否继续有效?以上述问题为导向,本文拟从算法参与网络内容管理的角度,分析“避风港”规则体系在人工智能时代遭遇的系统性危机,并探讨“避风港”规则变革的国际动向与中国选择。
总体而言,互联网企业的版权侵权责任分为两类:一是互联网企业作为“网络内容提供商”因直接向社会公众提供未经授权的作品而承担直接侵权责任,二是互联网企业作为“网络服务提供商”因用户在网络上面向社会公众提供未经授权的作品而承担间接侵权责任。本文讨论的网络服务提供商版权责任指的是第二种间接侵权责任。
美国是互联网技术和产业的发源地,同时也是建构网络服务提供商版权责任规则的先行者。20世纪90年代,美国不同的联邦法院对“网络服务提供商是否就用户的侵权内容承担版权责任”这一问题未形成统一的裁判标准②譬如,在1993年的Frena案中,法院将被告视为出版者,判定其应对用户的侵权内容承担严格责任;相反,在1995年的Netcom案中,法院认为被告仅是技术服务提供者,不因用户的侵权内容承担严格责任。See Playboy Enterprises,Inc.v.Frena,839 F.Supp.1552(M.D.Fla.1993);Religious Technology Center v.Netcom On-Line Communication Services,Inc.,907 F.Supp.1361(N.D.Cal.1995).。1995年,美国政府发布白皮书——《知识产权与国家信息技术设施:知识产权工作组的报告》(以下简称1995年“知识产权白皮书”),主张网络服务提供商应对其网络用户的版权侵权行为承担责任[2]114-124,互联网企业对此表示强烈反对。为了给新兴的互联网产业提供一个相对稳定的法律预期,并调和版权人与互联网企业的利益冲突,美国DMCA第512条对网络服务提供商的版权责任规则作出了系统性规定。
具体而言,DMCA第512条为网络服务提供商设定了“避风港”责任规则:(1)网络服务提供商对内容不承担事前的版权审查义务;(2)在接到权利人的侵权移除通知之后,网络服务提供商只要及时采取移除等必要措施就可以免除责任;(3)网络服务提供商应将权利人的侵权移除通知转给网络用户,若网络用户认为被移除内容不构成侵权,可向网络服务提供商发出反通知,要求恢复被移除的网络内容;(4)网络服务提供商应将用户的反通知转给权利人,权利人和用户可就侵权问题请求司法裁决;(5)“虚假陈述”的移除通知对用户造成损害,权利人应承担赔偿责任。“避风港”规则的例外是“红旗”规则,即用户的侵权行为像红旗一样非常明显,网络服务提供商对其知情,应承担版权侵权责任。以上规则的核心是“通知/移除”的程序,它旨在“鼓励版权人和网络服务提供商去协作发现并处理数字网络空间中的版权侵权”③H.R.REP.NO.105-796(1998,Conf.Rep.),p.72.。
鉴于美国互联网技术和产业的国际影响力以及“避风港”规则自身的优点,DMCA第512条很快被其他国家(地区)的立法所借鉴,中国也不例外。在我国,最早对“避风港”规则体系作出规定的是2006年出台的《信息网络传播权保护条例》,之后,2009年《侵权责任法》第36条和2020年《民法典》“侵权责任编”第1194—1197条对“避风港”规则作了进一步的规定。“避风港”规则在我国的本土化过程中发生了以下两个变化:(1)从网络服务提供商的“版权责任规则”发展为“民事责任规则”。我国《侵权责任法》和《民法典》中的相关条文使用的是“知识产权”和“民事权益”,这意味着“避风港”规则在我国不仅适用于版权侵权,也可适用于商标侵权、专利侵权、名誉侵权等。这与欧盟法中的“避风港”规则相似,对版权之外的商标、诽谤等也同样适用[3]。(2)网络服务提供商版权“免责条款”转变为“归责条款”。最初,《信息网络传播权保护条例》是将“避风港”规则作为侵权赔偿责任免除条款引入中国法律的[4],然而《侵权责任法》和《民法典》“侵权责任编”中的“避风港”规则显然属于归责条款,即以“通知规则”(被动知道)和“明知或应知规则”为基础的过错归责条款①“避风港”之例外规则在中国法律中的表述前后不太一致:《信息网络传播条例》第23条用的“明知或者应知”,《侵权责任法》第36条第3款用的“知道”,《民法典》第1197条用的“知道或者应当知道”。,这种过错归责在司法中形成了以版权注意义务为核心的网络服务提供商共同侵权责任认定框架[5]。就责任范围而言,我国法律中的“明知或应知规则”要比DMCA中的“红旗”规则范围更广。换句话说,DMCA中的“避风港”规则(包括“红旗”规则)包含了我国网络服务提供商共同侵权过错归责体系中的“实际知道”,但是限缩了“应当知道”的情形[6]。
法是“力”和“理”的结合;法律要以“力”制人,更要以“理”服人[7],也就是说,法律规则具有拘束力,是因为有国家暴力作为后盾的强制力,更是因为有学理逻辑作为基础的说服力。因此,网络服务提供商的“避风港”版权责任规则有一个理论证成的问题。网络服务提供商版权责任立法是互联网技术发展的结果,相应地,“避风港”责任规则的理论证成也自然与其所处的技术环境密切相关。从技术环境角度证立“避风港”责任规则,可从“技术中立”和“技术不能”两个角度展开。
1.“避风港”规则与“技术中立”
“技术中立”是“避风港”规则设立及其“通知/移除”程序设计的重要理论指导。但是对何为“技术中立”,目前尚未有一个统一认识,与其相关的讨论主要集中在三个层面:(1)在立法层面讨论“技术中立”,主张法律文本的技术无关性,法律应在不同的技术环境下具有延展性。譬如,有观点指出《反不正当竞争法》第12条使用“插入链接”“目标跳转”等技术术语,违反“技术中立”这一立法原则;互联网技术日新月异,该立法势必会出现法律滞后或频繁修法等问题[8]。(2)在法律责任层面讨论“技术中立”,强调技术本无善恶,技术提供者无法干预技术的合法使用或非法使用,因此技术提供者不应因技术被他人用于非法活动而担责。通俗地讲,菜刀既可切菜也可杀人,菜刀的生产者不应因菜刀被他人用来杀人而承担法律责任。(3)在网络自由层面讨论“技术中立”,也称“网络中立”[9],强调网络服务提供商应保持中立姿态,不歧视、不偏袒、不区别对待不同的网络应用服务和网络内容,以保障网络市场自由竞争、信息自由流动和人们自由言论。
网络服务提供商“避风港”版权责任规则的理论证成主要与“技术中立”的后两种含义相关。在1984年的Sony案中,美国联邦最高法院提出“实质性非侵权用途”这一版权间接侵权责任限定规则②See Sony Corporation of America v.Universal City Studios,Inc.,464 U.S.417,442(1984).。网络服务提供商仅提供具有“实质性非侵权用途”的技术服务,不介入网络技术的具体使用,因此其在不知情的情况下不对用户上传的侵权内容承担版权责任[10]。上述责任限制又在“网络中立”方面以“市场自由竞争、信息自由流动、言论自由表达”等价值因素得到进一步确证。确立“避风港”责任规则的一个理论预设是,如果网络服务提供商被课以严格的版权责任,会激励互联网企业审查被传播的网络内容,破坏网络的自由环境[11]。总之,中立的网络服务提供商是消极的,既不介入网络服务的具体用途,也不干预网络内容的具体传播。
2.“避风港”规则与“技术不能”
“技术不能”指网络服务提供商没有有效且经济的技术手段来监测并清除网络上的版权侵权内容,这是确立“避风港”版权规则的另一个重要理由。网络内容具有两个特性:一是数量巨大、鱼龙混杂,二是实时更新、不断流动。这两个特性决定了互联网企业在发展初期无法及时且有效地监测移除网络侵权内容,即使有相应的信息监测技术手段也会因成本问题而难以实现产业化应用。“技术不能”证成“避风港”规则立法的理据是“法不强人所难”这一朴素法谚及其蕴含的法理。“法不强人所难”指法律不能命令任何人去做根本无法做到的事情,该法谚首先是对立法者的要求,即立法者在设定行为模式时必须仔细衡量常人对设定的法律义务是否能够真正地实际履行。基于此,立法者不能强迫也无法强迫网络服务提供商做其做不到的事情,换句话说,网络服务提供商对其力所不及的事情——审查过滤海量且实时更新流动的网络内容——不负法律义务,网络服务提供商只对其力所能及的事情——及时移除知情的具体侵权内容——负有法律义务。
对网络内容大规模处理分析的“技术不能”深刻地影响着1998年DMCA第512条的规则设计。美国克林顿政府的1995年“知识产权白皮书”指出,网络服务提供商诉求版权责任豁免或提高其版权责任标准,其首要原因是“网络服务提供商无法对数量巨大的网络内容材料进行有效的监控”[2]115。无独有偶,在1995年的Netcom案中,美国联邦法院指出,“让网络服务提供商为其不能够阻止的侵权行为负版权责任是不合理的。因为,数十亿比特的数据在服务器中储存并在网络中流动,从数据海洋中筛选出侵权数据,在实践层面是无法完成的”①Religious Technology Center v.Netcom On-Line Communication Services,Inc.907 F.Supp.1361,1372-1373(N.D.Cal.1995).。在中国,2012年出台的《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(以下简称2012年《信息网络传播权司法解释》)第9条第1项规定:判断网络服务提供商是否应知用户的侵权行为进而担责,应当考虑其是否具备相应的信息管理能力。这是将版权责任与技术能力相关联的一个具体体现。
互联网智能化升级的一个突出表现,是借助计算手段对网络内容进行大规模的分析处理。这归功于算力(computing power)的提升,更得益于算法的进步。以如下两类算法技术的发展为例。(1)内容相似度算法,包括但不限于文本相似度算法和音视频指纹算法。文本相似度算法,指从字面相似度和语义相似度两个方面综合计算文本相似值的方法,得出的相似值越大则文本之间越相似[12]。音视频指纹算法,也称多媒体感知哈希算法(perceptual hash algorithm),其工作机制为:先从音视频内容中提取人脑可以感知的特征信息,然后通过哈希函数将其计算为一组字符较短的哈希值(电子指纹),两个音视频内容的哈希值越接近,则两个音视频内容越相似[13]。内容相似度算法是“内容自动识别”技术的核心。(2)内容个性化推荐算法。其运作机制为,综合运用人工神经网络、协同过滤、深度学习等计算方法,对用户性别、职业、年龄等身份信息和网络内容浏览、评论、点赞、打赏、分享等行为信息进行数据挖掘,分析用户的信息偏好和需求,之后通过算法筛选出与之相匹配的信息内容自动地推送给用户[14]。
内容的相似度算法和个性化推荐算法,为网络内容的版权合规和高效传播提供了智能化方案,并具体表现为上文所述的三种情形,即算法通知、算法推荐、算法过滤。在这里,算法扮演着“警察”和“编辑”的角色,即算法通知和算法过滤中的算法如同警察一样识别并移除网络中的版权侵权内容,算法推荐中的算法就像编辑一样掌管着网络内容的筛选、整理和分发传播。作为“警察”和“编辑”的算法,能够自动、快速、批量地分析和处理网络内容,这给网络服务提供商“避风港”规则的运作程序和理论基础带来了系统性冲击。
随着相似度计算等内容自动识别技术日益成熟,越来越多的权利人开始采用算法技术在网络上巡查、识别、定位与版权作品高度相似但未经授权的网络内容,并自动向侵权内容所在网站发出移除通知。与此同时,在算法技术服务领域出现社会分工,形成许多专业的第三方技术机构,这极大地推动了算法在侵权移除通知中的产业化应用。例如,一家自称是“DMCA移除专家”的美国公司DMCA Force利用电子指纹算法为个体作者提供包括“监测侵权内容、发送移除通知”在内的网络维权服务①参见DMCA Force公司网站的简介,网址:https://dmcaforce.com/?page_id=154.最后访问日期:2021年3月1日。。再如,中国公司“冠勇科技”自称截至2019年11月,利用电子指纹算法等技术已帮助权利人累计监测到侵权链接4700多万个,发送移除通知360多万份,下线侵权链接3160多万个②参见冠勇科技公司网站的简介,网址:http://www.firstbrave.com.最后访问日期:2021年3月1日。。在第三方技术机构的协助下,利用算法向网络服务提供商发出侵权移除通知,正在成为人工智能时代版权人网络维权的“标配”。这给以人工处理为制度预期的“通知/移除”程序带来了巨大冲击,具体表现为以下两个方面。
第一,海量的侵权移除通知增加了网络服务提供商的工作压力和责任负担,迫使网络服务提供商在“移除”端使用算法技术,因此“通知/移除”程序演变为“算法通知/算法移除”。在算法技术和第三方技术服务机构的推动下,网络服务提供商收到的侵权移除通知逐年递增。以谷歌公司为例,2001年至2008年每年收到的侵权移除通知请求不足1000件,这个数字在2014年猛增至3.45亿,2015年达到5.58亿,到2016年超过了10亿[15]。谷歌公司移除通知的数量增长有企业并购和产业扩张等因素,但算法通知是移除通知数量近几年非常态激增的主导因素。显然,数量如此巨大的侵权移除通知远远超出网络服务提供商在“移除”端的人工处理能力。网络服务提供商不仅面临着处理海量移除请求的工作负担,也同时面临着版权侵权的责任压力,因为依据“避风港”责任规则,网络服务提供商在接到移除通知后不及时采取处理措施会招致版权侵权责任。这种日益增长的工作压力和责任负担,促使网络服务提供商也不得不采取算法技术来处理侵权移除通知[16]。如此一来,“通知/移除”程序突破了“人工通知/人工移除”的制度预设,演变为“算法通知/算法移除”。
第二,在“通知/移除”程序算法化的同时,作为用户救济程序的“反通知”未被算法化,因此算法化了的“通知/移除”程序出现利益失衡,用户处于不利地位。算法能够低成本地发出大批量侵权移除通知,很大程度上是以降低准确性为代价的。目前算法通知已经成为网络版权实施“积极错误”(positive false,即把原本不侵权的行为错误地认定为侵权)大规模出现的重要原因[17]。“通知/移除”程序在设立之初,考虑错误通知损害网络用户权益的可能,因此设置了“反通知”作为救济程序,但在“通知/移除”算法化的背景下,原本就羸弱的“反通知”救济程序变得更加无力。因为,在“通知-移除/转通知-反通知”的过程中,前两步是算法处理,最后一步是人工处理,处理成本的严重不对称冲击了用户反通知救济程序的实效性,很多损害用户利益的错误移除得不到有效救济。譬如,一组调查数据显示,美国电影协会在6个月内发出的侵权移除通知多达2500万个,但仅收到8份用户反通知[18]。
在网络空间,有用信息与无用信息混杂,人们在信息海洋中很难找到自己所需的信息,信息寻找成本日益增高,为此网络服务提供商研发采用以用户需求为导向的个性化推荐算法。如今,算法推荐在网络内容的分发传播中愈发重要。例如,以“今日头条”为代表的新闻聚合平台借助算法为用户提供“私人订制”式的新闻服务;再如,以“抖音”为代表的短视频网络平台凭借算法为用户提供沉浸式的娱乐体验。无疑,算法作为网络内容筛选整理和分发传播的关键设施已成为行业共识。Facebook甚至宣称平台热门话题的编排、推荐和排名可以全部交由算法完成,不再需要人工编辑参与[19]。在算法推荐商业模式中,网络服务提供商以更加积极的方式介入网络内容的分发传播和商业价值发掘,这动摇了其在网络内容版权合规管理中的“技术中立”地位,具体表现为以下两个方面。
第一,个性化算法推荐的应用,使网络服务提供商在内容分发传播过程中的角色从消极的“中立者”转变为更加积极的“参与者”。用户通常从网站按需查找内容,网站只提供消极的技术服务,其在网络内容传播中是一个相对中立的局外人。网络服务提供商的内容推荐行为在包括中国在内的多个法域内被认定为积极服务行为。内容推荐有人工推荐和技术推荐之分,技术推荐的版权注意义务低于人工推荐,但仍高于普通的网络服务行为,这在算法推荐模式中表现得更为明显。因为榜单、弹窗等传统推荐的对象是不特定网民,而算法推荐的对象是特定用户,信息服务模式从被动的“人找信息”转向积极的“信息找人”。在这种商业模式中,网络服务提供商设计并借助算法积极地整理网络内容,分析用户需求,追求网络内容的精准推送和有效消费。对此,有观点认为,网络平台使用算法推荐作品内容的行为“十分接近于直接传播行为”,应承担内容审查义务[20]。
第二,个性化推荐算法本身并不中立,它是以网络企业商业价值为导向的商业机制,而且网络服务提供商从被推荐内容中获利的方式更加直接。网络服务提供商使用个性化推荐算法的目的是增加用户黏性,开发流量经济,而流量经济开发的形式之一,是将网络内容的个性化推荐与商业广告的精准投放相结合。例如,在算法推荐某一动作类视频内容的时候,偏向于投放与男性产品有关的商业广告。网络服务提供商将网络内容和与之有特定联系的商业广告捆绑在一起推送给用户,在这一过程中,广告商业价值大增,且该商业价值与网络内容的关系更为直接。网络内容算法推荐与商业广告精准投放相结合的商业模式改变了网络服务提供商的中立地位,有较大的版权风险。有学者指出,YouTube在没有法定义务的情况下自愿采用Content ID过滤用户上传的侵权内容,其中的一个重要原因是,YouTube想要降低其商业广告精准投放的版权侵权风险,因为其商业广告的精准投放依赖于对其用户及用户所观看的视频内容的计算分析[21]。
计算网络内容相似度的方法,也被网络服务提供商用来对用户上传的网络内容进行版权过滤。目前,较为成功的版权算法过滤技术应用是YouTube的Content ID系统。该系统将版权人提供的作品内容与用户上传的音视频内容加工为哈希值(电子指纹),之后通过对比哈希值得出内容相似度。如果对比得出的相似度达到一定标准,YouTube向权利人提供以下选项:(1)阻止该视频被观看;(2)通过广告收益分成等方式将该视频货币化;(3)追踪并统计该视频的观看次数。与之类似,美国视频共享网站Vimeo自2014年开始也采用自我开发的Copyright Watch系统对用户上传的视频内容进行版权过滤[22]。在“中青文诉百度”案中,中国企业百度披露百度文库自2011年开始采用反盗版DNA比对识别系统对用户上传的文档进行版权监测①参见北京市高级人民法院(2014)高民终字第2045号民事判决书。。
算法过滤技术的发展和商业应用,改变了网络服务提供商在内容版权合规管理中的“技术不能”境况,对网络服务提供商发现并清除侵权内容不力的法律评价逐渐从“客观不能”转向“主观不为”。正如一位学者所言:“尽管相关技术还不够完美,但是这些内容过滤技术表明了网络平台是有能力进行内容审核的,因此对于用户上传的侵权内容材料,网络平台再也不能以无能为力作为借口了。”[23]网络服务提供商有技术能力监测处理侵权内容,如果能为而不为,则为主观不为,可认定过错进而追究责任。
从法经济学角度来看,事后侵权责任的配置实质上是对不同法律主体事前侵权预防成本的合理分配。早期网络服务提供商没有有效的技术手段用来监测网络内容,人工发现并清除网络侵权内容的成本太高,因此法律设置了“避风港”这一责任限制规则。在人工智能时代,算法过滤技术的成熟和市场化,降低了网络服务提供商在预防用户侵权方面的成本,这势必会影响网络服务提供商版权责任规则的制度安排。考虑版权过滤技术的进步,法律提高网络服务提供商“避风港”规则的适用标准,甚至在特定情况下将部分网络服务提供商排除出“避风港”规则适用范围,只是时间早晚的问题[24]。欧盟2019年《数字单一市场版权指令》第17条立法就是其代表,后文将会详述。
网络内容管理的“计算转向”改变了网络服务提供商“避风港”版权责任规则的实施环境和理论预设,在此背景下,网络服务提供商的版权注意义务不断提高,“避风港”规则的适用范围趋向缩减,在商业实践和一些司法立法中,版权过滤开始取代“通知/移除”,成为网络服务提供商的责任规则。总体而言,算法技术正推动网络服务提供商的版权责任规则从事后的消极责任(reactive liability)走向事前的积极责任(proactive responsibility)[25]。在国际层面尤其是美国和欧盟,这种版权责任规则的转变主要以“自治规则”(private ordering)和“国家法律”(public ordering)两种方式进行。中国应结合国际变革的动向和经验,客观评估算法技术的发展状况,对人工智能时代“避风港”规则的变革作出理性回应。
在后DMCA时代,网络服务提供商和版权主体为了应对网络生态环境的变化,在“避风港”规则的要求之外互相协作,采用算法技术对网络内容进行版权过滤,以期取得网络版权治理的“最佳实践”(best practice)。美国版权局2020年5月发布关于DMCA第512条的研究报告(以下简称“DMCA第512条报告”),报告第三部分将私人间的网络版权自治实践梳理为以下两类①美国版权局2020年“DMCA第512条报告”第三部分(后DMCA时代网络生态环境的变化)将“为应对网络环境变化所作出的努力”梳理为三个:市场采取的自愿协议、私人行动倡议、政府调查和报告。前两类对应本文讨论的私人间版权治理实践。:(1)正式的行业合作协议(cooperative agreements),即多个网络服务提供商与权利主体达成行业间的版权合作协议。此类实践的典型案例是美国主要的版权人(迪士尼、哥伦比亚广播公司、NBA等)和UGC网络平台(MySpace、DailyMotion等)于2007年10月达成的《用户创作内容网络服务商指导原则》。该协议的主体内容是要求网络平台采用(并及时更新)内容自动识别技术,以版权人提供的版权作品材料数据库为依照,对用户上传的网络内容进行版权查验和过滤,并指出,只要网络服务商遵循该协议,版权人将不会因用户的不当行为起诉他们。学者高度评价该协议,指出虽然该协议没有法律约束力,但它的成功缔结表明司法和立法不是版权人与网络服务提供商之间利益冲突的唯一解决方式[26]。(2)非正式的私人行动倡议(private initiatives),即网络服务提供商单方面提出行动方案并向版权主体发出开放性的合作邀约,版权主体可自愿加入。此类实践的代表性案例是YouTube自2007年起着手开发并应用的Content ID系统,该系统采用电子指纹比对算法对用户上传的音视频内容进行版权校验,迪士尼、华纳音乐、英国电子音乐集团等版权主体先后通过Content ID系统与YouTube达成版权过滤合作协议[27]。美国版权局“DMCA第512条报告”披露,参与Content ID系统的版权主体截至2020年已有9000多个,累计报告侵权视频80000多万条[28]。2020年的另一组调查数据显示,YouTube平台上经由Content ID移除的视频数量是应DMCA移除通知而被移除视频数量的7倍[29]。不管是哪种“最佳实践”类型,网络服务提供商自愿地采取版权过滤措施,原因在于,海量算法通知的出现和算法推荐商业模式的发展,使得现有法律中的“避风港”规则不再能对网络服务提供商的商业行为和风险管理提供足够清晰稳定的法律预期,因此,网络服务提供商在商业实践中以版权过滤合作协议为自己搭建起另外一个“避风港”。
网络服务提供商版权责任从“通知/移除”向版权过滤的转变,也体现在国家立法层面。2015年12月,美国国会图书馆下属的版权局曾就DMCA第512条的立法改革问题向社会各界征求意见,上文述及的美国版权局2020年“DMCA第512条报告”即是该立法改革征求意见的最终报告。不过,目前美国国会尚未对此取得实质性立法成果。与美国几乎是相同时间,欧盟委员会(European Commission)2015年提出“单一数字市场战略”一揽子立法计划,其中包括2016年9月提出的《单一数字市场版权指令》(以下简称《指令》)草案,该法案最终于2019年通过。《指令》第17条(草案第13条)对欧盟2000年《电子商务指令》第14条中的“避风港”规则作出例外规定,是该法案最具争议的条款之一。《指令》第17条第4款为在线内容分享服务提供商规定了两个义务,即版权许可寻求义务和版权过滤义务。两个义务之间有顺位关系:首先,应尽最大努力去寻求版权许可;其次,在版权人提供相关作品信息或发出作品侵权移除通知的情况下,采取措施阻止上述作品内容未经授权出现在网络平台上。不过,考虑内容分享服务提供商不可能对所有网络内容取得版权授权,因此版权过滤是一项常态义务。虽然《指令》第17条第8款规定在线内容分享服务提供商对网络内容没有“一般性的审查义务”,即在线内容分享服务提供商不需要审查所有网络内容,而只需审查过滤版权人提供相关作品信息的特定网络内容,但在实践逻辑上,网络平台想要实现对某一网络内容的版权过滤,必须对所有网络内容进行审查[30]。也就是说,《指令》第17条虽字面上不要求但事实上要求在线内容分享服务提供商进行一般性的版权审查和过滤。随之而来的问题是,这种监控过滤义务该如何履行?《指令》(草案)第13条毫不掩饰地提出技术过滤,最终通过的《指令》第17条为减少争议没有提及技术过滤,只是要求网络平台在行业内尽高标准的努力阻止未授权版权内容出现在网络平台上。不过,在海量网络内容中有效防止侵权内容的出现在实践中是不可能完成的,除非借助像Content ID那样的“内容自动识别”技术[31]。
总体来说,当前网络服务提供商版权责任规则的变革有两种形式,一种是以美国为代表的“自治规则”,另一种是以欧盟为典型的“国家法律”。在网络法理论中,学者尼沃(Niva)将网络主体的行为规则系统分为“国家法律”和“自治规则”两类,前者指国家权力的代理机构(如立法和司法机关)创制的法律规则,后者指私人主体在法律规定之外以非集权的方式达成的行为规则[32]。在版权史中,版权人与作品传播商和使用者博弈推动版权规则变革的策略有三种,即立法游说、司法诉讼、自治规则。立法和司法属于“国家法律”层面的规则变革策略。以私人创制规则方式实现版权规则变革的实践主要体现在网络版权法领域。学者亚菲特(Yafit)将网络版权领域的“自治规则”总结为以下三种形态:(1)版权人与用户之间的自治规则,如软件的电子锁或拆封合同;(2)版权人之间的自治规则,如包括创意共享(creative common)在内的公共许可协议;(3)版权人与网络服务商之间的自治规则,上文提及的版权人与网络服务提供商达成的《用户创作内容网络服务商指导原则》就是一个典型例子[33]。同样,国内学者熊琦也将著作权规则体系分为“私立著作权规则”和“法定著作权规则”进行讨论,并将“私立著作权规则”分为两种类型:(1)通过版权协议让作品使用者在著作权法之外承担额外义务,使版权人更大程度地控制作品;(2)借助版权协议使版权人放弃某些著作权,让作品使用者更加自由地利用作品[34]。在本文中,正式的或非正式的与版权技术过滤相关的版权协议,属于版权人与网络服务商之间达成的、旨在让网络服务商在著作权法之外承担额外义务的“自治规则”。
相比立法或司法性“国家法律”的正统和权威,“自治规则”面临着合法性问题。其原因在于,网络版权“自治规则”是某些主体为追求私人利益的产物,而追求自我利益的个体理性行为可能会造成公共福利减损的社会非理性结果,比如版权人与网络服务商之间的版权过滤协议及实践存在言论审查、侵害自由的危险。不过,我们不能因此就简单地认定“自治规则”是非法的。作为一种意定的权利配置方式,版权的“自治规则”的合法性基础是私法中的意思自治,它的灵活性和信息成本优势能够弥补版权实证法在应对产业发展上的不足,更好地兼顾作品的许可利益和传播利益[34]。进一步,版权“自治规则”是“国家法律”的有益补充,而非前者对后者的替代。美国版权局2020年“DMCA第512条报告”指出,第512条立法的完善在国会行动之外还有许多“非立法方式”(non-statutory approaches),其中就包括私人间自愿的版权合作和技术过滤实践[28]。总之,“自治规则”对于版权法律体系的改革完善具有重要价值,我们应发掘其制度优势,并承认其合法性。与美国学者“自治规则”和“国家法律”之观点相似,英国法学家哈耶克(Hayek)将法律区分为“自由的法律”和“立法的法律”[35]152;马长山将互联网法治分为“硬法之治”和“软法之治”[36]。学者们的上述二分概念虽不完全相同,但都指出了人工智能时代的“避风港”规则有两条变革路径:一是正式的、强制性的国家道路,二是非正式的、弱强制性的民间道路。
面对网络内容管理算法化的时代浪潮,以及网络服务提供商版权责任规则的国际变革动向,可以说,中国需要应对的问题不是是否变革,而是如何变革:立法、司法和私人创制规则,这三种变革策略如何选择?应该侧重于“国家法律”,还是倾向于“自治规则”?特别是,我国是否要借鉴欧盟《指令》第17条,在立法层面对个别网络服务提供商课以版权过滤义务?若想作出理性选择,我们要深入考察版权算法过滤技术的“可及性”和“准确性”,并评估由此引发的市场竞争问题和人权保护问题。具体而言,我们要注意以下两点。
第一,目前版权算法过滤技术的市场成本较高,法定的版权过滤义务会阻碍中小型互联网企业参与市场竞争。计算内容相似性的算法在近几年发展很快,但其市场价格仍然居高不下。相关资料显示,YouTube的Content ID系统的研发成本在6000万美元以上,加上系统运营维护费用,总成本在1亿美元以上,而且Content ID系统不开放第三方使用许可[27]。Facebook等互联网企业购买的是美国Audible Magic公司的技术服务,每个月的许可费约为1万到6万美元①Audible Magic没有公布统一的收费标准。一份调查报告显示,中等规模网络平台使用该公司的过滤技术,每个月需要缴纳1万至2.5万美元。See Jennifer M Urban,Joe Karaganis,Brianna L Schofield.Notice and takedown:online service provider and rightsholder accounts of everyday practice[J].Journal of the copyright society of the USA,2017,64(3):400.另一份资料显示,中型流媒体网络企业使用Audible Magic公司过滤技术的费用大概是每个月3万至6万美元。See Mike Masnick.There was heavy tech lobyying on article 13…from the company hoping to sell everyone the filters[EB/OL].[2021-04-01].https://www.techdirt.com/articles/20190121/17024041437/therewas-heavy-tech-lobbying-article-13-company-hoping-to-sell-everyone-filters.shtml.。目前尚未有可靠资料披露国内算法过滤技术成本或许可费,但考虑Audible Magic公司在全球范围内对内容自动识别技术获得大批专利②目前Audible Magic公司已经就内容自动识别技术获得51件专利,这些专利大多通过PCT进入国际专利申请程序。专利的主要覆盖领域是以电子指纹为技术基础的内容自动识别。Audible Magic公司的专利情况,see Patents awarded to Audible Magic,available at https://www.audiblemagic.com/patents/.Last visited on June 25,2020.,国内的相关技术费用大概率居于高位。内容过滤算法的技术成本和技术壁垒会影响多数中小型企业或初创企业的市场经营。若版权过滤成为一项法定义务,无法采取算法技术措施对网络内容进行合规管理的中小型企业将被排挤出市场。长此以往,趋于集中的互联网市场将会丧失竞争活力。正因如此,尽管《指令》第17条第6款对小型企业做了豁免规定,仍有欧洲学者担忧第17条立法将恶化欧洲中小型互联网企业的生存环境,进一步巩固Google、Facebook等美国巨头互联网企业在欧洲的市场地位[37]。
第二,当前版权算法过滤技术的准确性有待优化,算法技术对大量非侵权内容的错误过滤会损害用户言论自由等基本权利。旨在计算内容相似度的算法过滤技术只能进行实质性相似判断,尚不能有效识别合理使用等作品合法使用的情形,大批非侵权的内容因此会被认定为侵权并被移除。此外,算法的出错率会在规模化的网络内容处理中被放大。以全球最大的过滤技术提供商Audible Magic为例,假定其自我宣传的99%技术识别准确率是可信的,考虑算法的日常网络内容处理量在百万级别以上,每天将会有数以万计的网络内容被错误地标记和移除[37]。算法过渡执行版权,对用户上传内容的错误移除,被视为对用户信息自由、言论自由等基本人权的不当损害。值得一提的是,2019年《指令》通过不久,波兰政府向欧盟法院提起诉讼,请求撤销《指令》,其中的一个理由是《指令》第17条与《欧盟基本权利宪章》以及《波兰宪法》所规定的言论自由这一基本人权相冲突[38]。
综上所述,在人工智能时代,算法技术驱动着也同时制约着网络服务提供商版权责任规则的变革发展,因此,我们既不能信奉“算法虚无主义”,无视算法技术参与网络内容管理对网络服务提供商“避风港”责任规则带来的系统性冲击,也不能迷信“算法万能主义”,夸大算法过滤技术在网络版权环境治理中的实际作用。此外,需要考虑的一点是,版权过滤的实践需求对技术进步具有促进作用。美国You-Tube、Facebook等企业版权过滤实践对技术的需求,有力推动了字符串匹配、感知哈希函数等计算科学的发展,更是形成了像Audible Magic这样全球领先的内容自动识别技术服务商。欧盟《指令》第17条的一个重要立法背景是,美国跨国互联网企业版权过滤实践和内容自动识别技术服务在欧洲的业务拓展。可以说,私人的版权过滤实践,不仅为版权过滤立法提供了经验素材,而且促进了算法技术的发展,进而为版权过滤立法奠定了技术基础。在我国,互联网企业已经开始进行相关的版权技术审查,不过相对于欧美,这些商业实践及其技术服务都还处于起步阶段。基于上述认识,本文主张“避风港”规则在我国的时代转型应遵循“自治规则先于国家法律,司法引导过滤实践、过滤实践推动立法”原则。
第一,在立法层面,不宜盲目地以版权过滤义务限缩或替代“避风港”规则,而应通过规范版权算法决策来强化“通知/移除”程序在智能时代的有效运转。前文已述,受算法技术发展状况的制约,版权过滤义务的法定化(即使是针对部分网络服务提供者)会引发一系列法律风险:算法过滤的技术成本和壁垒会将中小型或初创型互联网企业排挤出市场竞争,偏向于过渡保护版权的技术错误会损害网络用户的言论自由以及包括合理使用在内的作品权益。实际上,许多中小型互联网企业收到的侵权移除通知较少,仍然可以在“通知/移除”程序框架内与版权人合作清除侵权内容,因此不易将眼光局限于巨头企业,片面地主张激进的立法。立法应该作为的是,强化人工智能时代“算法通知/算法移除”的有效运转,对版权的算法决策系统作出规制:一是要解决算法决策的黑箱问题,促进算法公开;二是要将合理使用判断纳入算法决策体系,实现算法公正。一个可行的方案是,借鉴各国环境法通行的“环境影响评价”制度以及欧盟《通用数据保护条例》第35条之“数据保护影响评价”制度,建立“算法影响评价”报告制度,加强对版权算法执法机制的监督和监管[39]。取向于公开和公正的版权算法决策机制,有助于“算法通知/算法移除”的有效运转,也将有益于下文所讨论的版权算法过滤实践的开展。
第二,在司法层面,应适当地提高网络服务提供商的版权注意义务,开展司法引导、市场主导的版权过滤实践,以此作为“避风港”规则的有益补充。前文已述,我国网络服务提供商共同侵权的过错归责在司法中是以版权注意义务为核心的,而注意义务分为被动注意义务和主动注意义务:前者大致等于因权利人侵权通知或侵权行为过于明显(“红旗”标准)而产生的版权注意义务,后者的典型是我国2012年《信息网络传播权司法解释》规定的因信息管理能力提高或作品推荐等积极行为而引发的版权注意义务[5]。考虑算法推荐和算法过滤对网络服务提供商“技术中立”地位和“技术不能”境况的改变,法院在个案中应根据网络服务提供商的商业模式和信息管理能力等具体情况,通过解释《民法典》第1197条中的“应当知道”,适当地提高其版权注意义务,将是否采取技术过滤措施作为涉诉网络服务提供商过错认定的影响因素。作为版权规则变革的两种方式,“国家法律”与“自治规则”之间存在互动关系,其中一点是司法活动对“自治规则”的促进作用,如Viacom等权利人以版权侵权为由对YouTube发起集体诉讼,有力地推动了YouTube在当年宣布与版权人合作并采用版权过滤措施即Content ID系统。可以预见,在法院强调版权主动注意义务的压力下,理性的互联网企业尤其是大型UGC平台为了缓解海量算法移除通知带来的责任负担,以及消解个性化算法推荐商业模式的责任风险,在商业实践中会有与版权人合作的需求,加强版权过滤技术设施建设。
第三,待司法引导、市场主导的版权过滤实践成熟,立法可考虑将其法律化。“自治规则”与“国家法律”的另外一个互动关系是前者向后者的转变。值得一提的是,DMCA第512条的相关立法资料显示,“通知/移除”规则是源自1998年之前部分网络服务提供商的商业实践①See S.Rep.No.105-190,105th Cong,2d Sess.(1998),p.45.。与之类似,私人版权过滤协议及其实践对未来立法也具有建构作用。版权过滤的商业实践会产生算法技术的市场需求,这将推动算法特别是内容相似度计算在我国的不断进步,提高算法过滤技术的“可及性”和“准确性”,为版权算法过滤实践的法律化奠定技术基础。借用哈耶克的观点,版权过滤“自治规则”的法律化是公共理性对“自生自发秩序”的发掘阐释和修正完善[35]159-160,具体而言:(1)立法将实践中行之有效的版权过滤做法整合为一般规则,推而广之。版权主体在实践中采用的技术过滤,本质上是在无版权审查义务的“通知/移除”程序之外进行有限度的版权审查。之所以称之为有限度,一是因为这类网络服务提供商多是内容存储服务商,而非所有类型的网络服务提供商;二是因为被审查的网络内容是经由版权人通过某种方式(如基于合作协议向网络平台提供作品数据)特别指定的网络内容,而非全部的网络内容。未来在算法过滤技术“可及性”和“准确性”大幅提高的情况下,我国立法不应笼统地规定网络服务商无版权审查义务,而应参考欧盟《指令》第17条,将实践中的版权技术过滤做法确立为针对版权密集型网络平台(如内容存储服务商)的特定性版权审查义务,同时强调网络服务提供商无普遍性的版权审查义务。(2)立法通过刻意的努力对私人版权过滤协议及实践中的一些固有缺陷作出修正。例如,用户在网络服务提供商与版权人达成的版权过滤协议中处于缺位状态,因此立法应该要求版权算法过滤机制采取有效措施(包括事前预防和事后救济)来维护用户享有的包括合理使用在内的合法权益。
网络服务提供商的版权责任规则关系到网络内容的版权合规和高效传播,无疑是当代版权法中制度变革最快、社会关注度最高的一个问题。在互联网发展初期,以“技术中立”和“技术不能”为理论支撑,法律为网络服务提供商设立了以“通知/移除”为核心程序的“避风港”版权责任规则。进入“无处不计算”的人工智能时代,网络内容管理的算法化系统性地冲击着“避风港”规则的运作程序及其理论预设,促使网络服务提供商版权责任规则从事后消极的“通知/移除”转向事前积极的版权算法过滤,这种变革的具体形式表现为美国式的“自治规则”和欧盟式的“国家法律”。面对网络内容管理算法化的时代浪潮,以及网络服务提供商版权责任规则的国际变革动向,我国应该:(1)在是否变革这个问题上,不能无视算法技术参与网络内容管理对网络服务提供商版权责任规则的系统性冲击,而应对“避风港”规则的时代变革作出理性回应;(2)在如何变革这个问题上,应充分认识到目前算法过滤技术可及性和准确性的不足以及版权过滤私人实践对其发展的促进作用,进而坚持以“自治规则先于国家法律,司法引导过滤实践、过滤实践推动立法”为原则对“避风港”规则的时代变革作出回应。