赵春杰
【关键词】算法推送;数据控制权;治理
一、新闻推送算法带来的问题
随着大数据技术的发展,算法替代人类做决策越来越多,正改变着全球经济与社会的运行和发展模式。作为一种新事物,算法技术的非对等性赋予算法以某种特殊的权力。[1]当前,在新闻界中算法权力的问题主要集中于算法个性化推荐会产生信息茧房现象,这个问题已引起学界的关注。[2]然而算法“黑箱”、难以审查等内在缺陷引发的偏见与歧视备受指责。
马尔库塞的技术异化观点提醒我们,技术的进步有可能与人的自由程度、幸福程度成反比,进而成为“单向度的人”。如今,算法开始代替专业的新闻业务人员判断数据信源中的新闻价值,但其判断依据主要来源于用户的个人兴趣,而非公共利益。而这里的个人兴趣即是我们所说的个人数据。[3]在个性化新闻的推送下,个体逐渐失去独立判断与选择的能力,越来越多地被算法控制。[4]这种一味迎合用户兴趣的“受众本位”算法价值观下,用户与新闻内容被算法精准地聚类画像、匹配,会造成信息茧房现象,长期以往会使得公众处于“自我陶醉”状态中。
现有研究更多的是从伦理导向、程序设计方面探讨如何减少“信息茧房”现象的出现,化解算法“黑箱”难以规制的问题。例如将“公正性”“透明性”等伦理指引规则以代码的形式写进算法程序中。[5]然而,从当前行业发展情况来看,互联网技术和数据技术距形成成熟业态尚存在距离,此时很难用一种与实践步伐相适应的、通用的、完美的传播伦理直接拿来运用。[6]在法律层面,算法作为一种自动化决策技术,无疑影响了大部分人的生活,在《算法问责法案》中就一些对消费者个人信息隐私和安全带来高风险的算法已经被纳入该法案的规制中,[7]但新闻推送算法并不涉及这些敏感领域,作为一种新技术它是否受到法律的规制还有待进一步探讨。
二、导致新闻推送算法问题的原因
推送算法作为一种隐含于设计者的推送工具,体现的是设计者的价值取向,但是设计者的意图并不是为了推送低俗违法的信息内容。具体地说,算法在设计之初就隐含了设计者预设的判断逻辑,比如今日头条所言,“你关心的,才是头条”,算法技术就是为了增加“用户黏性”,用户的阅读兴趣成为算法设计者关注的对象。算法就是把规则注入电脑,并根据用户大数据形成新闻资讯推荐逻辑,“点击次数,转发次数,评论数量,收藏数量等都是重要的参考指标”。不同新闻聚合平台使用的算法可能产生不同的推荐结果,但这可能是设计者对相关指标的选取与权重设置之间发生的差异。[8]
算法会依据用户的关注度推送一些受大众欢迎的热点,其中有些热点可能是低俗违法的信息,给读者造成一定的负面影响。而使读者接收到这些信息的原因是算法决定了信息内容的分发渠道,替代了人工审核信息内容的环节。此外,算法所收集到的用户数据会增加这种潜在推送的可能性,导致低俗违法信息被视为热点被推送至用户。因此,有学者指出至少应对监管部门公开企业内部使用的算法代码,以提高算法透明度。暂且不说这种做法是否有实际意义,但应当认识到算法是一种智力成果,受到知识产权法的保护,如果为了监管而公开了算法代码是否对企业造成一种潜在的损害?既然算法代码不会随意公开,企业掌握这些算法的运作技术并将之作为商业秘密加以保护,用户并不知晓算法是如何运作的;实际上,正是这种信息不对称使得公众无法自主选择有价值的新闻信息,如果单纯地由算法决定推送内容的话,长此以往难以避免产生类似信息茧房等负面效应。
三、进一步完善新闻推送算法的建议
(一)推送算法平台的定性
新闻推送算法平台本身不会产生内容,而只是标记新闻内容的特征,然后将这些特征与用户兴趣进行比较,得出该内容是否能够满足用户阅读兴趣的结论,从而完成推送。新闻推送算法平台本质上属于“互联网信息服务提供者”的范畴,其传播、推送的内容受到相关法律法规的规制,诸如谣言、淫秽、色情、暴力、凶杀、恐怖等违法信息被明确禁止推送,新闻推送算法平台对此负有严格的事前审查义务。《互联网信息服务管理办法》(以下简称《办法》)第15条规定了互联网信息服务提供者禁止复制、传播的具体内容,并用兜底条款予以规制。但在《办法》第16条规定,互联网信息服务提供者发布违法信息内容,仍享有一定的豁免权,即“通知加移除”规则。
主流观点认为推送算法日益成为新闻发布的重要环节,使其承担信息管理的责任是不可避免的。通过事前过滤非法内容机制能有效控制不良内容的传播,从本质上讲是一个投入多少的问题。新闻推送算法平台减小内容传播的规模,并增加内容审查的力度,这种风险就必然降低。但问题在于过度要求控制传播风险将意味着弱化算法推送的效果。因此,新闻推送算法平台需要平衡公众信息需求之间的关系。当然,也不能以算法为借口拒绝开发和采用过滤系统,而是应当在采用自动化系统和措施之外,再根据需要增设人工审核方式。总之,新的技术分发模式不能用算法担任“总编辑”的职责,应当综合多种方式以确保推送到用户的个性化新闻具有正确的导向性。
(二)赋予用户数据访问权
但上述约束性条文显然未将“信息茧房”列入规制范围之内。形成“信息茧房”的一个非常重要的原因是个人根据自己的立场观点和主观好恶对信息进行过滤和筛选,算法进而推动了这种效应。如果用户的媒介素养得到提高,这将有效减少产生“信息茧房”的可能性。因此,要从本质上解决这一问题就需要培养全民新闻素养,提高用户自身对新闻的判断能力。柴静对此有着一段精彩的论述:读者必须和文字保持一定距离;读者要有相当强的分类、推理和判断能力,明察作者笔头流露的迷惑,分清过于笼统的概括,找出滥用逻辑和常识的地方。
此外,在法律上也应当赋予用户更为细致的数据控制权,以增强公众对媒介的认知,打破“黑箱”问题的束缚。我国个人数据保护问题涉及各个行业和领域,实践中形成了分散监管的模式。《网络安全法》是目前保障多数个人信息权利的主要立法,其中确立了多项“个人信息权”,如知情权、删除权、更正权。删除权一般是指用户可以主动删除企业所收集的大部分个人数据,删除以后企业将不得再保存这些个人数据,如果这种做法得以实现,那么用户将有更多推送新闻内容选择的权利。如笔者浏览了一篇有关历史人物的文章以后,新闻算法平台会增加推送该历史人物的文章的频次。但当笔者在该新闻平台APP上删除了有关该历史人物文章的浏览记录,此新闻推送平台仍然会继续推送该历史人物的文章。这样就产生了两点疑问:首先,现有法律并未规定企业要赋予受众访问权,这就导致不同企业对此做法不一,仅有部分新闻推送平台允许受众访问浏览记录,在多数情况下受众对新闻推送平台所收集的信息一无所知。其次,是我国《网络安全法》第43条所规定的删除权仅仅只是针对“网络运营商违反法律、行政法规、双方的约定收集和使用其信息”“网络运营者收集、存储的个人信息有错误的”这两种情形,而并未采用欧盟《一般数据保护条例》的删除权模式,即用户可要求数据收集者及时删除“对于实现其被收集或处理的相关目的不再必要的个人数据”。可见我国《网络安全法》所规定的个人信息权仍然较为笼统、不细致。用户没有法定权利访问企业收集了哪些个人数据,这些收集的个人数据如何被利用,那么可想而知,在保护个人信息方面,法律所赋予用户的删除权的意义会大打折扣,用户仍然无法有效访问、控制、删除这些被企业收集的数据。
结语
正如波兹曼所说,“每一种技术都既是包袱又是恩赐,不是非此即彼的结果,而是利弊同在的产物”。[9]就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。[10]
注释:
[1]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报,2018(06).
[2]刘海明.媒体算法的价值纠缠与伦理误区[J].湖南师范大学社会科学学报,2019(01).
[3]张军辉.理想的彼岸抑或意义的迷失:算法驱动新闻社会责任反思[J].中国出版,2019(04).
[4]彭兰.假象、算法囚徒与权利让渡:数据与算法时代的新风险[J].西北师大学报,2018(05).
[5]袁帆,严三九.新闻传播领域算法伦理建构[J].湖北社会科学,2018(12).
[6]江作苏.从“单向度”到“被算计”的人[J].中国出版,2019(02).
[7]New York City Moves to Create Accountability for Algorithms,https://www.propublica.org/article/new-
york-city-moves-to-create-accountability-for-algorit-
hms.
[8]刘文杰.算法推荐新闻的法律透视[J].新闻记者,2019(02).
[9]波兹曼.技术垄断——文化向技术投降[M].北京:北京大学出版社,2007.
[10]吴汉东.人工智能时代的制度安排与法律规制[J].西北政法大学学报,2017(05).
(作者:华东政法大学知识产权学院硕士研究生)
責编:周蕾