论人工智能新闻的法律规制

2021-01-29 01:23陆华清
社科纵横 2021年5期
关键词:权利人工智能主体

陆华清

(中国政法大学公正司法研究中心 北京100088)

随着信息技术的快速发展,“人工智能(AI)+X”逐渐影响着人们生产、生活的各个领域。在2020世界人工智能大会上,学术界、产业界人士从不同视域出发,探讨了人工智能发展的前沿问题。其中,由微软人工智能小冰作曲,多个人工智能角色共同献唱的《智联家园》开幕式主题曲让人印象深刻。事实上,早在2017年微软小冰就发布了诗集《阳光失了玻璃窗》。整体上,这些人工智能作品几乎与自然人作品不分伯仲。如果仅仅通过审查作品的文字陈述,人们往往很难区别出人工智能作品与自然人所创作的作品。由此可见,人工智能已经具备了一定水准的创作能力。进一步而言,人工智能参与文字、艺术创作将是大势所趋,这种大趋势对新闻传播领域的影响尤其重大。与通常所见闻的写稿机器人不同,未来人工智能所参与创作的新闻不再仅仅是事实和客观数据的简单叠加,而是具有独立认知分析视角的报道,其中甚至可能会裹挟着大量的价值判断。正如有学者所指出的,写稿机器人至多是新闻从业者的辅助工具,而未来人工智能可能生成富于思想性、创造性的报道[1]。由于人工智能所具有的诸多优势,例如创作高效、场景定位精准、分析视角广阔等,“人工智能+传媒”必将为新闻传播行业带来更为广阔的前景。当然,机遇与挑战并存。在这种大背景之下,人工智能新闻的法律规制便成为一个关键议题,唯有解决好这一议题,人工智能新闻产业才能够健康发展。

大体来讲,人工智能新闻法律规制的基本框架可以围绕三个技术层面来搭建,即基础数据、算法、新闻作品。在以往的研究中,研究者更多将目光集中在人工智能作品本身,而忽视了该作品背后的生成机制和结构要素。人工智能新闻是基于数据和算法所生成的作品,因此,其法律规制应当分别从这三个技术层面依次推进。在每一个技术层面,都会涉及一系列关键的法律要素,例如,法律主体、确权或侵权关系、法律归责等具体问题。可以说,这三个技术层面是人工智能新闻法制建构的骨架。人工智能新闻作品的法律规制必须以其内在技术构造为基础,否则我们就无法有效地解决人工智能新闻所引起的相关法律问题。

一、基础数据及其审查:人工智能新闻的源头活水

大数据之“大”不仅指数据库体量大,更意味着我们拥有海量数据源,离开了基础数据,人工智能新闻将成为无源之水、无本之木。可以说,基础数据决定了人工智能新闻的实质内容。人工智能新闻作品,实际上是基于终端设备所采集的相关数据,通过对这些数据进行结构化分析,进而最终形成的作品。究其实质,人工智能新闻内容就是对数据内容的一种算法解读,无论人工智能新闻最终以怎样的形式展现,其背后的数据才是根基。在基础数据层面,对人工智能新闻的法律规制需要解决两个重要问题:第一,人工智能新闻所利用的基础数据是否具有在先权利人,即这些基础数据的权属应当事先得到确定;第二,人工智能新闻对相关基础数据的利用是否会侵犯在先权利人的合法权益。尽管目前学术界对数据权的权利属性尚存在不小争议,但对数据主体的权利保护需求已经达成基本共识。因此,在利用数据进行新闻创作时,首先应当关注数据权利保护问题。

大体上,人工智能收集新闻数据的方式主要有两种:第一,直接收集,即通过一系列传感器和行为追踪器直接采集数据,并将数据转换为自然语言或可理解符号。例如,虚拟主持人进行现场播报时可实现数据的直接收集。第二,间接收集,即在既有网络数据中进行自动筛选、甄别,提取有价值的信息。例如,Newlab和STAT News两家公司联合开发的新冠疫情追踪者(Applied XL COVID-19 Tracker)就采用了计算新闻方法来收集各类结构化和非结构化数据[2]。无论是直接收集,还是间接收集,都可能涉及在先权利人。在先权利人的数据权利决定了相关数据收集行为是否合法,进而也决定了已收集数据是否能够使用以及使用范围、目的等。通常来讲,数据采集的场景化决定了采集行为是否符合法律规范。有些数据由于涉及个人敏感信息,因而在进行数据采集时,应当尽量避免采集这类数据。即便采集到这些数据信息,也必须在进行脱敏之后才能够使用。对人工智能基础数据的审查,首要的步骤便是对这些收集行为或活动的审查。

所谓“在先权利人”,实际就是数据归属主体。在实践中,数据归属主体呈现着多元化状态。例如,有学者将数据归属主体划分为个人信息主体、企业信息主体、公共信息主体等。个人、企业和政府组织均在一定范围内享有相应的数据权,他们所享有的这些数据权,决定了人工智能在进行数据收集时,能否合法收集并使用相关数据,《网络安全法》《数据安全法(草案)》等相关法律法规文件均要求采取合法、正当方式收集数据,特别当涉及个人信息数据时,收集者应当获得个人信息主体的同意。无论是明示同意还是默认同意,个人信息主体之同意是人工智能采集数据的合法性前提。实践中,有些人工智能设备或软件在网络上大量爬取个人信息(包括个人敏感信息),直接侵害了个人信息权。除此之外,企业数据权一般被认为是企业的财产性权利,人工智能所收集的数据必须以尊重企业数据权利为前提。通常情况下,仅当涉及公共数据时,相关收集行为不受特定限制[3]。人工智能新闻的前置数据收集过程应当严格遵守国家数据法律法规,不得侵犯他人数据权利,否则,不仅收集行为本身存在违法可能,而且最终所生成的新闻可能进一步对在先权利人的数据权利造成侵害,扩大权利人的损失。正如前文所述,基础数据在很大程度上决定了人工智能新闻的内容。就此而言,在基础数据层面,法律规范应当对人工智能新闻设定数据审查环节。值得注意的是,数据侵权本身并不完全等同于人工智能新闻侵权,后者包含着更为广泛的内容,例如相关评论性语句存在侵犯他人名誉的情况、其后台运行算法存在对某特定群体的歧视属性等。因此,“数据是否侵权”应成为人工智能新闻侵权审查的一个独立环节。

需要特别说明的是,当采用间接收集方式收集数据时,尤其应当注意数据审查。一方面,如果相关数据并非公开数据(特别当出版机构注明不得收集、传播时),则收集者应当事先取得发布者的同意或授权。另一方面,除数据发布者外,部分数据的收集还需要取得其他数据权人的同意。例如,当自然人A授权出版机构B发布其数据时,出版机构C要想从B处收集相关数据,则不仅需要获得B的同意,还需要获得A的同意,否则有可能同时侵犯两者的权利。综上所述,数据审查是人工智能新闻侵权审查的重要环节,在这个审查过程中,尤其要注意识别具体数据权人,并判断相关数据收集行为是否已经获得所有数据权人的授权。

在上述前提之下,人工智能的实际控制者或使用者(通常为新闻出版机构)应当被设定为数据侵权的责任承担主体。从侵权法的基本原理来分析,数据收集者便是侵权行为实施者。由于人工智能的主体地位尚未得到一般性认可,故人工智能背后的实际控制方才是真正的数据收集者,应当承担相应的侵权行为责任。那么如何确定人工智能的实际控制者或使用者呢?本文认为,应当基于多种标准进行综合判断。例如,通过人工智能产品的许可使用或转让协议进行判断;根据人工智能新闻所产生的经济收益归属来进行判断;在一定情境下,还可以根据实际占有人工智能物理载体或掌握人工智能访问密钥等进行确认。

二、机器学习算法及其审查:人工智能新闻的灵魂

人工智能新闻之所以能够不断接近自然人所创作的新闻,本质上是由机器学习算法决定的。可以说,算法是人工智能新闻的灵魂。然而,算法规制往往未能受到应有的关注,这是因为算法通常隐藏在新闻生成过程的幕后,一般人无法感知或理解其意义。除专业人士之外,甚至除算法开发者之外,其他人难以窥探算法的设计原理和详细代码,这就是人们常说的“算法黑箱”,即在输入值和输出值之间,存在着人们无法洞悉的“隐层”[4]。当人工智能收集到充分的基础数据后,会根据已经设定好的算法生成新闻作品。这一生成过程对于普通用户来讲是“不透明的”,人们无法洞悉其内在机制和原理。简而言之,当收集到相关数据之后,直至新闻作品完成,中间的创作过程、思路等通常无法为人们所知晓。不仅如此,随着深度学习算法开发技术的发展,人工智能自身也可能在不停地更新、优化其内在算法,在经过一定时间的机器学习过程之后,原算法开发者也可能不再清楚此时此刻人工智能所运行算法的基本情况。从这个意义上讲,对机器学习算法的审查显得非常关键。当人们不清楚人工智能新闻生成背后的算法时,也就不清楚人工智能最终会生成何种形式或特征的新闻稿。

算法黑箱容易引起算法偏见。一般而言,偏见仅仅停留于人们的头脑中,不会对外产生利益影响。然而,由于算法偏见直接影响着人工智能新闻的内容,而这些内容的公开发布可能侵犯他人正当权利。因此,人工智能新闻背后的算法黑箱和算法偏见问题需要引起重视。尽管算法偏见很难识别,但法律制度应当为针对算法偏见的异议及其处理提供合理的保障。例如,尽管普通人和律师无法对算法偏见进行甄别和说明,但法律应当允许当事人聘请相关领域的专家为其提供专家意见,并赋予该专家意见以法律效力,其他诸如此类的法律制度应当逐步建立起来。在司法实践中,应当赋予相关科学机构对算法的鉴定以证据效力,类似于鉴定意见的证据效力。实际上,关于算法的审查,应当将技术审查和法律审查结合起来,不仅如此,技术审查应当成为法律审查的前置环节。唯有从技术层面厘清算法设计所存在的问题,法律审查才能够做到准确的权责界定。

当人工智能新闻存在侵犯他人权利的情形时,对算法本身的审查应当成为重要环节。对算法的审查,不仅可以确定具体侵权人,而且可以避免因算法的隐藏缺陷所导致的潜在侵权纠纷。具体而言,以下三类主体可能成为算法侵权的责任主体:第一,算法背后的专利权人。根据最新发布的《专利审查指南》规定,抽象算法本身并不具有可专利性,但如果算法构成技术方案的一部分,那么该技术方案便具备可专利性。在这种情况下,该技术方案的专利权人可被列为人工智能新闻算法的侵权责任人。当然,随着算法可专利性得到法律认可,相应算法的专利权人便应当被归类为算法侵权责任人。因算法开发而获得专利权之人,应当在事先考虑到相关法律法规的强制性要求,避免因算法问题导致人工智能新闻发生侵权事件。第二,算法开发方。当不存在相应专利权人时,被侵权人可将算法开发方列为侵权责任人。第三,人工智能的实际控制者,例如新闻出版机构。尽管相关专利权人、开发方和实际控制者之间可能存在人工智能产品转让、许可使用等协议,但侵权之债可以突破合同相对性进而追诉具体侵权行为人。因此,上述三类主体都有可能成为人工智能新闻算法侵权的责任人。

除了确定侵权责任主体之外,法律规范应当建立起算法审查机制。由于算法具有复杂性、专业性,因此司法实践中可考虑将算法偏见问题提交至相关专业委员会审议,或由诉讼参与方聘请专家辅助人来协助司法审查。总体来讲,算法审查机制主要涉及技术问题,无论是行政性审查还是司法审查,都必须依赖于相关专家的专业知识,唯有在技术层面审查得出关键问题所在,相应的法律审查和评判才能获得最大化准确性。

三、人工智能新闻作品及其审查:流水线上的创作

与基础数据和算法不同,人工智能新闻作品是一个综合性产物。关于人工智能新闻作品的法律规制主要围绕以下两个问题展开:第一,人工智能新闻作品能否获得著作权法保护;第二,谁可以对人工智能新闻作品享有著作权。这两个问题是解开其他一系列问题的关键。在当前的学术研究中,部分学者将注意力集中在人工智能的主体地位问题上。他们认为,只有解决了人工智能的法律主体地位问题,才能进一步解决人工智能新闻作品的权利归属问题。人工智能是否应当具有法律主体地位,实际上并非现阶段所能解决的问题,就当前人工智能的发展水准来讲,赋予其法律主体资格缺乏合理性。与此同时,抛开人工智能主体地位问题,我们仍然需要解决其他关于人工智能新闻作品的权利、责任归属问题。

针对第一个问题,在腾讯诉上海盈讯科技有限公司侵害著作权及不正当竞争纠纷一案中,深圳市南山区人民法院判决认定由腾讯机器人Dreamwriter所自动撰写的文章构成著作权法所保护的文字作品。值得注意的是,在判决论证中Dreamwriter仅被视为一种创作辅助工具,而腾讯团队的集体智力才是该文章被认定为文字作品的关键[5]。换言之,那些由人工智能独立完成的新闻作品是否受著作权法保护,法院并未给出一般性意见,这才是问题关键。尽管该案将人工智能参与创作的作品纳入著作权所保护的文字作品范围,因而被媒体称为“AI写作第一案”,但其实质上绕开了最为关键的问题。如果将腾讯团队的集体智力劳动视为核心,那么人工智能本身实际上就显得无关紧要。可见,尽管该案被视为人工智能写作第一案,但本质上来讲,裁判者仍然规避了人工智能本身,而是透过人工智能进而讨论其背后的自然人权利状态。实践中,有些人工智能新闻作品是由人工智能自身独立完成的,当新闻作品由人工智能独立完成且发生权利纠纷时,应当如何进行解决?简而言之,当一个真正由人工智能独立完成的新闻作品出现时,著作权法是否赋予其相应保护,则仍然需要进一步探究。

众所周知,当前著作权制度仅认可自然人作品[6]。考察其缘由,有学者指出,乃是因为人类直觉与灵感无法模拟,无论人工智能发展到何种水平,其终究无法达到人脑的高级程度,由人工智能所创作的作品不应纳入著作权保护范畴[7]。这种观点从本质上否定了人工智能的法律主体资格。然而,对人工智能法律主体资格的否定,并不必然将人工智能新闻作品排除在著作权保护范围之外,这是两个相对独立的问题。很显然,通过适当的制度安排,人工智能新闻作品的著作权主体与人工智能本身可以相对分离。对人工智能新闻作品进行版权保护,并不必然意味着承认人工智能的法律主体资格。赋予其著作权保护,则能够保护相关权利人的权益。除此之外,著作权保护对象本身也随时代在发展,例如,计算机软件等被纳入保护对象是互联网时代的要求。为了鼓励人工智能在传媒领域的发展,促进新闻传媒行业的智能化,人工智能新闻作品应当获得著作权法保护。

关于著作权主体的问题,陈萍博士提出了一种可行方案,即以人工智能作品背后的意志主体作为著作权归属判断标准[8]。然而,“意志”本身是一个抽象概念,在司法实务中并不具有很强的可操作性。从操作的角度来讲,在法律规范层面,建议以“协议约定→实际控制或使用→所有者”作为一种具有可操作性的综合判断标准。简言之,若存在对人工智能新闻作品著作权归属明确约定的协议,则应当按照协议约定确定著作权归属主体。协议本身是意思自治的产物,直接体现了相关主体的意志。不仅如此,根据协议也能够有效地判断出意志主体;若不存在相应协议,则由对人工智能的实际控制或使用者享有著作权。按照日常经验,新闻作品往往最直接体现实际控制或使用者(例如新闻出版机构)的意志;若不存在相应协议,且人工智能实际控制或使用者与所有者分别主张各自享有著作权,则应当以所有者作为著作权人。这种情况可类比职务作品进行认定。

四、结语

综上所述,随着人工智能技术的发展,在新闻传播领域不可避免地要面临人工智能新闻所引起的一系列问题。人工智能新闻在一定程度上繁荣了新闻传播领域,使得新闻传播更具及时性、高效性。本文更为关注的是人工智能新闻的规制问题。这种规制并非旨在限制人工智能新闻的发展,而是旨在以维护公民及其他主体之合法权利为前提,促进人工智能新闻合法化、正当化。本文认为,对人工智能新闻的法律规制应当从基础数据、算法和新闻作品等三个技术层面切入。这三个技术层面构成了法律规制的基本框架。作为新技术的产物,对人工智能新闻的法律规制应当跳出以往的研究思路,即仅仅关注作品本身或泛化地讨论人工智能主体问题。特别是人工智能主体地位问题,更多涉及一种价值选择问题,难以进行有效讨论。如果研究视野始终局限于这些问题,则人工智能新闻所引发的一系列社会问题便难以有效解决。在人工智能新闻作品的背后,相应的技术层面应当引起重视。当涉及侵权审查时,数据审查和算法审查都应当是重要且独立的审查环节。这些审查应当实现法律审查与技术审查的双重审查。针对人工智能新闻作品而言,赋予其著作权法保护,更能够有效地保障相关主体的权利。总体来讲,随着“人工智能+传媒”的深入发展,人工智能新闻必将为新闻传播行业带来更广阔的发展空间,为了保障新闻智能化发展,一套良好的法律制度应当尽快建立起来。

猜你喜欢
权利人工智能主体
论自然人破产法的适用主体
我们的权利
人工智能与就业
论不存在做错事的权利
关于遗产保护主体的思考
权利套装
论多元主体的生成
爱一个人
翻译“主体间性”的辩证理解