王亚妮
摘 要 算法时代的来临极大地提高了信息分发的效率,其中的推荐算法也一定程度上减轻了信息选择的负担,但不同的算法都有其伦理风险,将会带来信息茧房、信息选择权的让渡以及主流价值导向的缺失等问题。基于推荐算法机制的平台自身应该优化算法模型,发挥传统把关人的作用,对内容进行审核,用户自身也应提高素养,避免陷入雷同信息的大海里,应对算法推荐的伦理风险将会是未来时代的命题。
关键词 个性化;算法推荐;新闻;伦理风险
中图分类号 G2 文献标识码 A 文章编号 2096-0360(2019)01-0029-02
1 算法推荐新闻概述
随着科学技术的发展,人工智能、大数据等信息技术也深入到了新闻领域,其中的算法技术对新闻行业的生产、分发等环节都产生了巨大影响。发达国家的互联网公司应用算法技术比较早,Facebook、亚马逊、谷歌等公司在新闻的搜索、推荐方面的算法技术已经十分成熟。国内以今日头条为代表的互联网公司首先尝试了个性化算法推荐技术,用算法进行新闻的生产与分发,而传统新闻媒体并未将算法技术应用到相关制作中。
个性化服务源于出现在美国人工智能协会上的个性化导航系统we-watcher,它的出现使个性化概念在技术界传播开来,亚马逊和谷歌分别作为电子商务网站和搜索引擎的代表率先尝试了个性化服务。国外以《纽约时报》为代表的新闻网站率先尝试了算法推荐,根据用户的行为习惯和阅读历史进行推荐;而国内2012年在今日头条宣称“不生产新闻、只做新闻的搬运工”以后,搜狐、网易、新浪等新闻客户端纷纷加入了个性化推荐功能。今日头条凭借起步早的优势在2018年已经累计有超过“1亿个活跃用户”①,其活跃度远胜同类产品。
2 算法推荐新闻的技术与伦理
个性化算法推荐新闻,一方面能在海量繁杂的信息里,把合适的信息,推荐给需要的用户,但另一方面由于算法推荐导致人们偏向只关注自己所关心的信息,对其他公共信息置之不理,长此以往,用户的眼界、视野也会变得狭窄。当前个性化算法分为“基于内容的推荐算法”“基于协同过滤的推荐算法”“基于热度的推荐算法”三类,每种算法都有其局限性,本身也存在着侵犯公民隐私、偏见和歧视等伦理问题,下文将从三类算法的原理出发分析其伦理风险。
1)基于内容的推荐算法:信息茧房。基于内容的推荐算法的实质是看平台推送的内容有與用户是否有相匹配之处。每一次评论点赞的反馈行为都让该算法不断地在完善用户画像,不断打上更细化的标签,一方面信息和人实现了高效匹配,节省了用户的时间,但另一方面算法让用户在无形之中回避了自身不太感兴趣的内容,进行了“选择性接触”②,久而久之也就失去了了解和认识不同事物的能力,更不利于自身全面客观地认识世界。“信息茧房”让用户生活在自我的世界里,认为眼前的信息即是真实的世界,长此以往,正如赫伯特·马尔库塞所说,“当每个人都只关心‘我时,人们对待社会公共事务的热情也会逐渐减弱,那么社会公共价值也就无从谈起”。另外,基于内容的推荐算法无法审核信息的质量,很有可能给用户构建起一个充斥着低质内容的“信息茧房”,用户每天生活在“过滤泡”精心打造的世界里,泛低质的内容极易让用户产生悲观、消极心理,长期的思维偏执甚至可能让人在现实生活中做出一些极端行为。
2)基于协同过滤的推荐算法:信息选择权让渡给社交和算法。基于协同过滤的推荐算法通过观察用户以往的行为数据,来监测用户的喜好,并根据用户的喜好来对用户进行分组。协同过滤推荐算法两类,一类基于用户,一类基于物品,也就是通常所说的人以类聚,物以群分。用户并不知道自己所看到的报道是已经经过算法干预的,这极大可能导致用户错过一些本应知情却未知的信息,侵犯了用户自身的信息选择权和知情权。今日头条CEO张一鸣在2016年的未来媒体峰会上表示,“以前,媒体可以决定用户知道什么,但现在媒体已经无法完成信息的过滤,目前要么将信息过滤的权利交给社交圈,朋友推荐内容,要么让算法推荐内容。”③权力让渡给社交关系和算法都是一种黑箱作业模式,其过程并不透明,用户并不知晓它如何分析、分发信息,平台也不能保证不通过算法来滥用用户数据。
3)基于热度的推荐算法:缺乏主流价值导向。基于热度的推荐算法和微博热搜榜相似,新闻的浏览量、分享量越高,越有可能被推荐给用户。但受到用户热捧的文章,往往是有争议的噱头标题,有极端的观点或只是搜刮组合文字而成的热文,因此仅依靠流量与点击为标准进行推送,大量的低俗、泛娱乐化内容甚至是标题党泛滥。根据“沉默的螺旋”④理论,当用户收到大量相同价值取向的推送,将产生许多人持相同看法的心理倾向,负面观点甚嚣尘上,容易带来不良影响,不利于用户形成良好的价值观。
3 算法推荐新闻的未来发展
当前各大新闻资讯类App为了克服三大算法的弊端,纷纷采用混合推荐算法,譬如今日头条在顶部的导航栏设置了“关注”“推荐”和“热点”三个板块,为了防止相似内容推荐过于密集的问题,在热点新闻的右下角有小小的X符号,用户点击以后有“不感兴趣”“反馈垃圾内容”“拉黑作者:海外网”“屏蔽”四个选项。尽管算法能一定程度上帮助我们过滤掉一些不必要的信息,但是算法推荐模式的伦理风险依然存在,为了使算法推荐能更好地帮助人类,需要技术和人工干预相结合。
1)建立安全可靠的推荐算法模型,尊重和保护隐私权。基于内容和协同过滤的推荐算法发挥效用的前提是收集用户的所有数据,不仅包括性别、年龄、居住地等基本信息,也包括手机终端信息和网络信息等,算法平台掌握了大量的数据,如果想要保证信息不被窃取和滥用,首先应该保证的是算法的安全性,在读取、收集用户数据时,应遵守“合法正当,最少必要的原则”[1],要求员工遵守保密原则,不滥用和出售用户信息,同时也应及时更新算法技术,维护系统安全,一旦算法的安全性被破坏,直接危害到了信息安全,侵犯了用户的隐私,继而可能伤害人的精神和身体。
2)优化算法推荐模型,引入人工审核机制。信息的选择权被让渡给了算法,算法只关注阅读量、日活跃量等数据,只对内容的受欢迎程度负责,并不对质量负责,因此大量的虚假信息、怂人听闻的言论和其他低俗内容很有可能进入到用户眼里,这也会造成用户心理失衡进而影响其社会行为表现。所以,平台不仅需要引进高级算法工程师,发挥技术优势,不断优化推荐模型;更需要引进编辑人才进行人工审核,“建立人机结合的内容审查机制”[2],发挥传统把关人的作用,对不良内容进行筛除,对优质内容及时反馈给平台,合理进行推广。
3)用户自身提高媒介素养,主动参与、反馈服务体验。算法推荐让用户能在极短时间内找到自己喜爱的内容,无疑给用户带来极大的信息选择便利,但长此以往,用户生活在一个自我封闭的信息氛围中,极大会形成“自我意见的回音室”,同时也对其他更有价值的信息视而不见。为了避免陷入“信息茧房”,用户应该提高自身的媒介素养,用独立批判的眼光审视信息,培养自己多元化、多维度、多角度的思维方式,有意识地了解不同领域的信息,培养自己的正面兴趣,用开放的态度观察社会生活。同时,用户也应及时向平台反馈产品体验,表达自己的诉求,及时帮助改进算法的不合理之处。
4 结束语
尤瓦爾·赫拉利认为,“未来的上帝不再是客户,生态的顶端是算法,算法会帮我们做出许多决定。”[3]但算法不是万能的,不同的算法代表着设计者背后不同的隐含价值观,都会导致不同的风险,即使是采用了混合推荐算法也无法从根本上解决伦理风险,如何在算法和人类价值观之间找到伦理平衡点是未来亟待解决的一个命题。
注释
①今日头条CEO张一鸣互联网大会演讲实录,2016年11月7日。
②选择性接触:受众在接触大众传播活动之际,并不是不加区别地对待任何媒介和内容,而是更倾向于接触与自己的既有立场、观点、态度一致或接近的媒介或内容加以接触,而有意无意地回避那些与自己既有倾向相左的媒介或内容。
③今日头条CEO张一鸣2016年的未来媒体峰会讲话。
④沉默的螺旋:人们在表达自己想法和观点的时候,如果看到自己赞同的观点且受到广泛欢迎,就会积极参与进来,这类观点就会越发大胆地发表和扩散:而发觉某一观点无人或很少有人理会(有时会有群起而攻之的遭遇),即使自己赞同它,也会保持沉默意见一方的沉默造成另一方意见的增势,如此循环往复,便形成一方的声音越来越强大,另一方越来越沉默下去。
参考文献
[1]方师师.算法如何重塑新闻业:现状、问题与规制[J].新闻与写作,2018(9):11-19.
[2]赵双阁,岳梦怡.新闻的“量化转型”:算法推荐对媒介伦理的挑战与应对[J].当代传播,2018(4):52-56.
[3]陈佳茹.今日头条新闻客户端的“信息茧房”传播效应影响[J].新媒体研究,2018,4(4):11-12.