董方旭 康许培 赵乐群
【摘要】算法推荐的出现对新闻的生产与传播带来了极大影响,尤其是“过滤气泡”现象的出现,更是引发了学界和业界的广泛关注。通过对“過滤气泡”的形成、影响及其规避的阐发,旨在使用户对该现象有一个更为全面深入的认识。我们在看到其负面影响的同时,也应正确利用算法推荐的积极作用,助力新闻业的健康发展。
【关键词】算法推荐;过滤气泡;影响;矛盾;规避
随着人工智能时代的到来,新闻业已经发生了翻天覆地的变化。机器人写作、VR/AR新闻、算法推荐、无人机采访等“科技+新闻”的产品正被越来越多地应用在人们的日常生活中,并不断给用户带来新奇的感受与体验。然而,这些产品在解放传统媒体人的同时,也对媒介伦理发起了挑战。尤其是算法机制带来的“过滤气泡”现象,更是不容忽视。笔者旨在通过对“过滤气泡”的形成、影响与规避等层面的分析,指出“过滤气泡”的双刃剑属性。即越来越多的用户既要看到这一现象带来的信息窄化、身份歧视、思维固化等负面影响,也要积极运用它的精准推送、快速分法和渠道拓宽等优势,更好地服务于用户体验和新闻生产。
一、算法推荐与“过滤气泡”
信息过载时代,如何实现信息的高效分发成为一个难题。算法推荐的出现将用户所需的信息从庞大的互联网信息库中迅速筛选出来,并将其精准地送到用户面前,从而解决了这一难题。腾讯、微博、微信、今日头条、一点资讯,以及搜狐新闻、腾讯新闻等门户网站均采用了算法推荐,以增强用户体验,提高用户黏性。与此同时,随着技术的不断升级,算法也在不断优化与改进。其中,主要有四种主流算法:一是基于内容的推荐。它主要根据用户的历史记录进行文本分析,提取关键词,向用户推荐与历史项目相似的内容。二是协同过滤推荐。它通过找到与用户具有相似偏好的用户进行内容推荐。三是关联规则推荐。即通过大量用户的历史数据,挖掘潜在关联,分析用户的潜在兴趣。四是组合推荐。即集合多种算法,取长补短,实现信息的精准推荐。[1]
众所周知,技术是把双刃剑。算法一方面提高了互联网的生产力,但另一方面,它的出现也面临着诸如收集数据时对用户的隐私侵犯、算法自身所包含的偏见与歧视、新闻内容把关失范,信息窄化、“信息茧房”等诸多伦理挑战。当然,“过滤气泡”现象同样也是算法推荐引发的后果。作为一个概念,该词最早由伊莱·帕里泽(Eli Pariser)于2011年提出。在他看来,“过滤气泡”不仅以受众的兴趣爱好为导向,而且还能将受众生活的方方面面都包裹在其中,从而为受众打造了一个独一无二的个性化信息场域。以至于无论是社交、购物还是阅读资讯,受众都将被过滤气泡紧紧包围。
二、“过滤气泡”的形成
(一)受众的行为导向
互联网出现之前,大众传媒主要根据自己的媒体特色和价值立场来筛选与发布信息,而受众对这些信息也并不是全盘接收。拉扎斯菲尔德等人提出的“选择性接触假说”指出:“受众在接触大众传播的信息时并不是不加选择的,而是更愿意选择接触那些与自己既有立场和态度一致或接近的内容,而对与此对立或冲突的内容有一种回避的倾向。”[2]换言之,作为有自主意识的主体,在大众传媒已对信息进行了“一层筛选”的情况下,受众仍然会以自我兴趣为导向对信息进行“二次筛选”。在流量经济时代,受众这一特质引起了传媒业的广泛重视。尤其是在人工智能背景下,传媒产业进一步争取用户的手段则是剥夺用户“二次筛选”的“自主决定权”,并将其转移给算法。算法虽然不能彻底了解用户的需求,但它却可以根据用户留在网络上的身份信息、社交关系与网络行为,对其进行详细分析,从而侧面挖掘和推演用户对内容的偏好和潜在需求,并在此基础上向用户精准推送符合其偏好的各类资讯。在这一过程中,虽然看似是由算法主导资讯分发,但算法推送的内容实际上仍是由受众决定的。
(二)互联网的全景式监视
为算法提供完整用户数据的是互联网这座无形的“监狱”。大数据时代,公民的日常行为被数字化编码,一举一动都被互联网以数据的形式予以记录。私人领域和公共领域之间已经自然地融合在一起。这种情况下,不管公民是否愿意,他们的隐私实际上随时可能遭到泄露。[3]福柯曾提出“圆形监狱”这一概念来描绘权力运作模式:“四周是一个环形建筑,中心是一座瞭望塔。瞭望塔有一圈大窗户,对着环形建筑。环形建筑被分成许多小囚室,每个囚室都贯穿建筑物的横切面,一个对着里面,与塔的窗户相对,另一个对着外面,能使光亮从囚室的一端照到另一端。”[4]在监狱中,囚犯的一切都被公开在瞭望塔的监视者眼中,任何信息都无从藏匿。
如果说囚犯因为不知道监视者什么时候看他,而会进行“自我监视”,从而掩盖自己的真实想法和行为,那么在互联网环境下,他们的一切想法与举动则无所遁形。因为他们甚至不能察觉到瞭望塔中有人在监视着他们,而这实际上也是一种更加隐蔽而全面的监视。美国理论家马克·波斯特在福柯的基础上,提出了“超级全景监狱”这一概念。“超级全景监狱中的数据库给每个人都构建了身份,而且在构建时甚至全然不顾该个体是否意识到这种构建。电脑数据库‘认识这些个体,对数据库而言,他们有独特的‘人格,并且电脑会根据具体情况按程序化的方式‘对待他们。”[5]在这一场景中,计算机数据库显然担任了瞭望塔的监视者这一职务。它们全方位监视并记录着用户的生活,虽悄无声息却又无处不在。用户作为超级全景监狱的“囚犯”,所作出的任何无意识举动都将处于互联网的监视之下,并留下“数据脚印”。而这些“数据脚印”很快就会被互联网技术深入追踪、分析,并从衣食住行各个方面拼凑出一个人完整的虚拟画像。
(三)算法的反馈机制
向用户提供个性化推荐服务的算法实质上是一套编码程序,该程序的设定依托于互联网收集的海量数据。用户数据与内容数据被建立起数字化的联系,从而生成了各式各样的“用户—内容”的程式。一旦用户信息被作为自变量录入算法,算法便会在海量数据库中进行自动化运算,然后通过既定反应排除其他关联度较小的选项,反馈出符合用户兴趣和需求偏好的特定信息。当然,这一反馈过程也是“过滤气泡”形成的过程。只是这些反馈结果并不是一成不变的。具有“自我反馈”技能的算法会对互联网上实时更新的数据流进行自动追踪,对用户不断发展变化的网络行为进行分析,进而优化算法模型的参数和阈值,以期得到更加精确的分析结果,从而形成独一无二的个性化推荐系统。随着“数算力”时代的到来,算法推荐正在被越来越普遍地运用于人们的日常生活中。诸如“网易云音乐”的“每日歌曲推荐”,“淘宝”首页的“猜你喜欢”等早已被用户所熟知。毫不夸张地说,算法推荐已经渗透到了人们生活的每个角落,并将用户的日常生活包裹得密不透风。因此,身处“过滤气泡”中,用户对信息的“自我选择权”在很大程度上被让渡给了算法。
三、“过滤气泡”的影响
(一)精准的信息匹配
互联网带来的信息“爆发性”发展使用户在海量的碎片化信息中难以迅速找到自己感兴趣的阅读目标,从而个体需求无法满足。为了进一步提高分发效率,大数据算法应运而生。就像每个生物体内都有特定生物膜鉴别异质、阻挡异物侵入一样,算法推荐带来的“过滤气泡”也为每位用户的网络生活提供了一层“电子膜”。它主要以用户的行为动机为导向,综合参考多个维度来筛选“异物”,从而让“符合条件”的信息顺利抵达,以实现用户与信息的精准匹配。
算法架构师曹欢欢曾介绍,“今日头条”的算法推荐主要从三个维度来考虑用户与信息的适配性。第一个维度是内容特征,它主要通过对文章、图片、视频的内容进行关键词提取生成“内容画像”,并根据“内容画像”寻找适合的用户。第二个维度则是用户特征,与第一个维度原理相似,它主要是提取用户上网的有效数据,从而做成“用户画像”。第三个维度则是环境特征,身处不同的地点、不同的场景,用户的喜好可能会发生改变。基于此,算法可能会综合环境因素做信息推送。而今许多推荐系统在以这三个维度作为推送基础的同时,还各自发展了其他评判维度。[6]
总的来说,维度越多、越细化,对于信息的匹配也就越精准。在信息井喷的今天,为提高分发效率、加强用户黏性,许多媒体均引入了推荐系统。诸如《华盛顿邮报》从亚马逊使用的产品推荐系统中获得了灵感,自主研发了clavis智能算法引擎,建立了新的推荐系统,并将其运用在页面底部的“The Post Recommends”板块中。该智能算法一方面通过td-idf算法(term-frequency,inverse document frequency)为每篇文章进行主题分类并匹配关键词,另一方面则对用户阅读历史中的关键字和短语进行分析,将每一位读者进行分类并贴上关键词,从而将读者与符合其阅读历史的文章匹配。[7]
(二)“窄化”的信息环境
不可否认,“过滤气泡”在面对海量信息时确实提高了信息的分发效率。但与此同时,“过滤气泡”过分“投其所好”,其个性化的信息推送常常将许多有价值的、多元的信息阻挡在气泡之外。在传统媒体主导新闻分发的时代,编辑往往根据新闻的重要性、显著性、时效性等特点进行把关,且对于内容的选择往往会受到新闻制作中的业务标准和新闻传播中的市场标准的双重制约。对此,有学者在梳理国内外新闻算法研究的新进展时,提到了外国学者德维托“通過对比传统媒体和算法机制两种不同的生产原则和价值取向,指出传统媒体具有公共属性,更关注异常、破坏现状的越轨行为;而算法新闻则主要受到商业利益的驱动,根据用户需求生产和传播个性化信息”[8]。这就意味着传统媒体更趋向呈现给用户公共的、多元的、开放的信息。但随着算法的普及,用户对公共议题的关注逐渐弱化,对兴趣点的关注亦被简化。从而出现了喜爱体育的用户难以看到经济信息,而喜爱经济的用户也难以看到娱乐信息的现象,从而用户逐渐被“过滤气泡”囚禁在窄小的圈层之中,形成了信息环境的窄化。长此以往,“过滤气泡”为用户营造的拟态信息环境就会越来越狭隘。而用户身处其中,其思维模式也会逐渐走向片面化和单一化。久而久之,用户便会被隔绝在信息孤岛中,难以触碰到真实的世界。
四、“过滤气泡”引发的矛盾
(一)信息接收的窄化与拓宽
20世纪大众媒体的环境特征之一在于偶然接触新闻。人们在阅读报纸时除了根据自己的需求与兴趣着重关注自己感兴趣的内容之外,还有可能偶然接触到自己兴趣点之外的信息。例如,一位对政治新闻感兴趣的读者在报纸上阅读完时政新闻后,会有很大概率接触到相邻版面的财经新闻、民生新闻等信息。基于这样的偶然接触,读者的视野得到开阔,而不再仅仅局限于某一方面的信息。与此同时,当具有过滤机制的算法因其个性化服务盛行于互联网时,许多学者则会担心这样强针对性、高个性化的信息推送会导致用户偶然接触的机会减少,从而使用户视野变得狭窄,思维逐渐固化,并最终随着信息接收的“窄化”陷入“信息茧房”的困境。
毋庸置疑,“过滤气泡”带来的单一化信息推送现象的确存在,但是这种个性化推送真的会形成严重的信息“窄化”吗?2017年,路透社研究院就曾针对该现象做过数据调查并给出分析报告。该报告指出,“回音壁效应”与“过滤气泡”对某些人来说是真实存在的。但他们同时也发现,总体来看,社交媒体、新闻资讯平台以及搜索引擎的使用者会比非使用者接触到的信息更加多样化,而且算法能够使大多数用户接触到更多的在线内容。通过调查还发现:大约有36%的用户赞同社交媒体和新闻资讯平台将使他们看到不常使用的新闻来源,而27%的用户则持反对意见,剩下的用户保持中立。[9]除此之外,2018年,阿姆斯特丹大学的Judith M[O]ller、Damian Trilling等学者通过研究多个推荐系统对多样性的影响发现,所有调查之下的算法推荐逻辑都证明它们可以产生与人工编辑差不多的推荐结果,并且若该推荐系统是基于用户历史推荐时,则可以大大增加推荐主题的多样性。[10]这些研究表明,虽然算法会根据用户的上网轨迹来推测用户喜好,但事实上这种个性化推荐并非是过于单一化、片面化的。故而,身处这一推荐系统下的用户并没有完全处于信息孤岛中。就目前来说,“过滤气泡”带来的信息环境“窄化”似乎仍处在一个可控的范围内,甚至因为算法对互联网海量信息的高效分发使得用户接触信息的范围有扩大迹象。
(二)用户身份的平等与歧视
在传统媒体大行其道的时代,大众传播中的传受关系极其不对等。以大众传媒为主的传播者掌握着信息生产和分发的主要权力,他们是传播特权的拥有者。而受众在传播过程中则完全处于被支配的地位,即传播者呈现什么内容,受众就只能在指定范围内进行信息接收。这一时期的大众传媒牢牢把握着信息流通的内容、渠道和方向。互联网时代的到来则给大众传媒带来了新的挑战,海量的、碎片化信息的出现以及网络环境下共享性、便携性等新要求的提出,使得大众传媒不得不将“把关者”的部分权力让渡给算法。从而算法推荐的应用不仅提升了用户节点的权重,而且也提高了用户在新闻生产流程中的地位。可见,算法推荐带来的过滤气泡在某种程度上可以说是受众意志的体现。它的存在表明了以往以大众传媒的价值观为导向的传播原则如今正逐渐向以个人意志为导向的方向转变。其个性化的过滤机制不仅削弱了大众传媒议程设置的权力,而且还使得每个个体逐渐成为自己的议程设置者,从而使得大众传媒在信息传播中的垄断地位日益被打破。
只是当用户在享受着更加平等的传受关系时,也有可能正经历着更为隐秘的歧视。这是因为以个人信息作为筛选基础的“过滤气泡”不仅为用户筛选信息,同时也为信息筛选用户。2015年卡内基·梅隆大学和国际计算机科学研究所(ICSI)曾做过一项调查,该调查使用了一款名为AdFisher的定制软件模拟网络用户的浏览活动。当软件假冒男性用户访问招聘网站时,它或许会看到更多许诺高薪的广告,而假冒女性用户时却无法看到。另外,2018年电子科技大学的周涛在“新青年新未来——第二届AI+移动媒体大会”上提到,他发现很多开发者在设计商品推荐系统时,会考虑用户对价格的敏感性。换言之,如果一个用户经常购买同类商品中价格比较便宜的,则算法就会判定该用户比较“穷”,从而会优先为该用户推荐低价商品。可见,在用户常见的个性化广告、个性化推荐中,其实隐藏着“歧视”。更有学者认为:“算法推荐的内容差别导致阶层间价值观念的差异,通过社群传播,最终导致对不同阶层认知的偏见,从这个角度来看,个性化推荐下的过滤气泡强化了既有阶层的偏见。”[11]可见,虽然“过滤气泡”的存在有效地维护了用户的主体性,但在这个过程中,用户甚至不知道什么信息被过滤了,而这正是“过滤气泡”真正令人担心的地方。
(三)自我意识的提升与算法控制
不言而喻,传受关系趋于平等化有利于促进用户自我意识的提升。在这种情况下,用户在网络环境中被平等赋权。[12]有了这种赋权,用户就不再僅仅是信息的接收者,而是逐渐参与到内容的生产、把关、传播等各个环节中的多元主体。正如“今日头条”的读者不仅可以在该平台上阅读资讯,还可以申请成为内容的生产者进行创作。当然,微博用户的每一次分享、转发、点赞都相当于是一次内容筛选,类似于一种“社交把关”。总之,不管是在哪个平台,用户的个人偏好都已经成为该平台最基础的信息推送依据。喻国明认为,这种变化“无疑赋予了参与者一种权力感,他们通过参与、合作,重新制定了标准和规范,让人感到即使摆脱主宰20世纪的旧权力这一‘中介,自己也能获得成功”[13]。
与之相矛盾的是,“过滤气泡”机制虽然一方面促进了用户自我意识的提升,但另一方面却也在无形中规训着用户的思想与行为。如果说在互联网出现之前,用户还拥有在报纸上、电视上选择其他内容的权利,那么,自动化算法推荐的出现在某种意义上则是对用户“自主选择权”的剥夺,它在一定程度上决定了用户的信息消费和生产行为。伊莱·帕里泽在TED演讲上也说明了这一权利被剥夺的后果:“互联网只推荐他们认为我们想看的,而不是我们必须去看的。”长此以往,在不断接收同类化的信息过程中,人们的认知会走向窄化,思维会走向固化,甚至在安逸的环境中会逐渐失去主动获取不同信息的意识和能力。这是一种“温和的暴力”,处于“过滤气泡”中的用户非但感受不到权利被剥夺的痛苦,甚至还会感到愉悦和享受。抖音依赖于个性化算法推荐所取得的巨大成功就是有力的证据。他们通过精准定位受众,迎合受众喜好,使得一个十五秒的短视频就能常常让用户在刷了两个小时之后还能沉浸其中。事实上,在这个场景中,用户不知不觉地已被算法所操控,并乐此不疲地为该应用贡献着流量。
五、“过滤气泡”的规避
(一)尊重用户隐私权
“过滤气泡”形成的基础来源于用户在互联网中的数据信息,但在很多情况下,互联网企业捕捉用户数据信息时并没有经过用户的同意。大数据时代,人们在互联网上的一举一动都会留下“数据脚印”,隐私的保护在这一时期显得尤为艰难。面对这一情况,互联网企业首先要自律,要充分尊重用户在网络活动中的知情权。即在涉及收集用户隐私数据时提前告知用户,并在征得用户同意的情况下进行收集。若用户不愿意放弃个人隐私来获取相应的个性化服务,企业也不应使用“霸王条款”直接禁止用户对该应用的使用。除此之外,政府也应积极采取相关措施去维护公民在互联网中的隐私权。
实际上,我国在隐私权保护方面起步较晚,体系也尚未完善,与西方发达国家相比仍有一定差距。为了弥补这方面的不足,我国可以虚心向他国学习,借鉴他国的成熟经验。而今欧盟主要采取立法规制模式,通过法律条约对网络隐私侵权行为进行限制。美国则主张以行业自律来解决这一问题。其倡导“政府少干预,行业重自律”的最低干预原则,要求行业自觉遵守相关法律法规,并根据行业自身特点制定行业内自律公约或成立自律组织,自觉进行自我管理。英国则采取技术控制模式进行应对,其主要使用先进的网络隐私保护软件对被收集资料的用户进行提醒,通过展示网站正在或将要收集的数据内容,让用户自行决定是否继续使用该服务。[14]我国则可以在此基础上结合我国实际,探索出符合本国国情的网络隐私治理新模式。
(二)自觉提升媒介素养
面对“过滤气泡”,用户应自觉提升自己的媒介素养,积极改变具有惰性的使用习惯,以摆脱算法推荐营造的“温室”。根据路透社研究院2017年的研究结果可知,接触新闻源更多的社交用户偶然接触新闻的概率要比接触新闻源数量更少的非社交用户大。这或许是因为各个平台聚合的信息和使用的算法不同,由此根据用户属性推送信息的侧重点也有所不同。在这种情况下,关注多个信息源能有效增大接触偶然新闻的概率,防止算法推荐下信息渠道单一化带来的消息重复化。因此,为规避“过滤气泡”,用户应有意识地拓展多个新闻源,从多个不同路径获取信息。此外,在一些媒体提供个性化定制功能服务时,用户应该有意识地增添不同类别的主题,力求扩大信息推送范围,弱化“过滤气泡”所带来的影响。最后,用户还应当利用算法依据用户网络行为进行信息推荐的特性,主动搜索不同类别的信息,自觉打造多元的信息环境,进一步打破信息壁垒。总之,一旦用户合理地运用不同的资讯平台,那么,他们不仅能够享受算法高效、精准的个性化服务,而且还能促进推荐内容的多样化。
(三)优化算法设计
第一,增强算法设计的透明度。与算法推荐相伴而生的“算法黑箱”问题一直是算法受到外界诟病的一个痛点。处于“过滤气泡”中,气泡内有什么实际上不是由用户决定的,也并非工程师个人可以掌控,而是由掌握信息分发权的科技巨头决定的,用户自身并不能看到哪些东西被过滤掉了。因此,适当提高算法设计的透明度则有利于让用户了解算法的运行依据,让用户知道算法是基于哪些方面为自己推送信息,而哪些信息又被它过滤掉,从而根据算法的运行规则调整自身行为,以减轻“过滤气泡”的负面影响。麻省理工媒体实验室曾开发了一个名叫Gobo的社交媒体聚合器,来帮助用户更好地达到这一目的。该应用主要是让人们通过滑动政治、严肃、粗鲁等指标的滑片,来调整自己的气泡。如推动“政治”指标的滑片,观点的呈现范围则是从“我的观点”到“大量观点”。通过调整该过滤器,用户既可以从横向选择信息的接收范围,又可以从纵向调整信息接收的深度。[15]
第二,深化算法的学习功能,探索用户新的兴趣点。如今的算法推荐主要是分析用户当下的意愿需求,收集用户短期的信息以进行反馈。但短期的用户信息收集很可能会导致数据反馈的片面化,进而使用户陷入“过滤泡沫”的困境。未来的算法应该深化学习功能,增强预测力,并通过感知、分析用户需求的自然转变及时对算法做出适当的调整,主动探索用户不断变化的兴趣点。
第三,坚守价值理性。当下大部分互联网公司都是以盈利为目的的商业公司,在“注意力经济”时代,个性化算法显然是它们谋取更多利益的重要手段。然而,个性化算法虽然能精准戳中用户的兴趣点,给公司带来巨大的商业利益,但过于“投其所好”对于用户来说或许会有信息窄化的风险。基于此,对价值理性的坚守之于当今的互联网公司来说尤为重要。
近几年,一些互联网公司为解决算法带来的“过滤气泡”问题也做出了相应的努力。诸如社交化新闻聚合平台BuzzFeed推出了“Outside Your Bubble”功能,它在一些热门文章的底部附上了来自Twitter、Facebook、Reddit等多个平台的观点和评论。而这些观点和评论往往来自不同的立场,表达不同的态度。BuzzFeed做出这样的设计正是想要避免个性化推荐所带来的信息环境单一化现象。为应对这一问题,谷歌浏览器也在做着同样的努力。它推出了一款名叫“逃離泡沫”(Escape Your Bubble)的插件,这款插件会根据用户的阅读习惯,在用户阅读facebook上的新闻时,推荐与其原有立场、观点相左的不同视角的文章。[16]显然,它与BuzzFeed的原理类似,也是试图让用户接触不同的观点和信息,旨在拓宽用户视野,打破“过滤气泡”构成的“信息壁垒”。
六、结语
综上所述,“过滤气泡”现象对用户来说已经成为一把双刃剑。作为人工智能时代的产物,算法推荐所带来的“过滤气泡”一方面引发了许多关于媒介伦理问题的争论,但另一方面,它也顺应了时代潮流,极大地提高了传媒产业的效率和效益。本文基于对算法推荐机制下“过滤气泡”的形成、影响以及产生的基本矛盾,提出了“尊重用户隐私权、提升媒介素养、优化算法设计”等规避措施。以此希望越来越多的互联网用户能够辩证地看待“过滤气泡”现象。即不仅不再单纯纠结于它所带来的种种负面影响,而且还要努力学会在现有条件下充分利用其高效分发和精准推送的优点,从而拓宽自己获取信息的视野和渠道,实现自身利益的最大化。
[本文为教育部2018年第一批产学合作协同育人项目“地方高校通识教育网络课程资源建设与管理模式研究”(项目编号:201801039020);国家广播电视总局部级社科研究项目(项目编号:GD1955)的阶段性成果]
参考文献:
[1]喻国明,韩婷.算法型信息分发:技术原理、机制创新与未来发展[J].新闻爱好者,2018(4):8-13.
[2]郭庆光.传播学概论[M].北京:中国人民大学出版社,2011:77.
[3]顾理平.大数据时代公民隐私数据的收集与处置[J].中州学刊,2017(9):161-167.
[4]米歇尔·福柯.规训与惩罚:监狱的诞生[M].刘北成,杨远婴,译.北京:生活·读书·新知三联书店,1999:224.
[5]马克·波斯特.第二媒介时代[M].范静哗,译.南京:南京大学出版社,2000:96.
[6]今日头条推荐算法原理全文详解[EB/OL].https://36kr.com/p/5114077.
[7]How the Washington Post used data and natural language processing to get people to read more news,[EB/OL]https://knightlab.northwestern.edu/2015/06/03/how-the-washington-posts-clavis-tool-helps-to-make-news-personal/.
[8]章震,周嘉琳.新闻算法研究:议题综述与本土化展望[J].新闻与写作,2017(11):18-23.
[9]路透社研究所.2017数字新闻报告(英文版)[EB/OL].https://max.book118.com/html/2018/0111/148314516.shtm,2018.1.11.
[10]路透社研究所.2017数字新闻报告(英文版)[EB/OL].https://max.book118.com/html/2018/0111/148314516.shtm,2018.1.11.
[11]赵双阁,岳梦怡.新闻的“量化转型”:算法推荐对媒介伦理的挑战与应对[J].当代传播,2018(4):52-56.
[12]喻国明,杨莹莹,闫巧妹.算法即权力:算法范式在新闻传播中的权力革命[J].编辑之友,2018(5):5-12.
[13]喻国明,杨莹莹,闫巧妹.算法即权力:算法范式在新闻传播中的权力革命[J].编辑之友,2018(5):5-12.
[14]魏玉东.大数据时代国外网络隐私保护的典型模式及对我国的启示[J].沈阳工程学院学报(社会科学版),2018(4):456-460.
[15]网络上由来已久的“过滤泡沫”现象想要解决光靠科技可不行[EB/OL].https://baijiahao.baidu.com/s?id=1610312407762574355&wf
r=spider&for=pc,2018.8.31.
[16]围观良心外媒的“戳泡运动”[EB/OL].https://news.qq.com/original/dujiabianyi/paopao.html,2017.3.21.
(董方旭为河北大学教务处讲师、高等文化研究院研究员;康许培为保定学院讲师;赵乐群为河北大学新闻传播学院学生)
编校:赵亮