智媒时代“信息茧房”再论:概念界定和效应探讨

2019-12-16 06:31艾鹏亚杨韫卿
未来传播 2019年6期
关键词:信息茧房茧房个性化

李 武 艾鹏亚 杨韫卿

新媒体的互动特征日益彰显用户在媒介消费过程中的能动性。不同于在传统大众媒介环境中被动接受信息的情形,现在的用户可以主动定制符合自身需求的信息。随着个性化定制时代的到来,早在世纪之交就引发了学者对其潜在消极后果的担忧,即用户所接触的信息越来越窄化。2006年,凯斯·R·桑斯坦在《信息乌托邦——众人如何生产知识》中提出“信息茧房”(information cocoons),[1]这个概念非常形象地描述了新媒体时代用户被包裹在信息茧房中的现象。

近几年来,大数据与人工智能迅速发展,个性化推荐技术在媒介生态中“粉墨登场”,成为智媒时代的重要形态特征。越来越多的内容分发平台基于算法推荐为用户提供信息推送服务,有些平台甚至直接以“精准推荐”为主要卖点,如以文本信息内容推荐为代表的今日头条、以音频信息内容推荐为代表的网易云音乐和以短视频内容推荐为代表的抖音。这种现象级的个性化定制服务更加加剧了相关学者和政策制定者的担忧:基于用户兴趣爱好的算法推荐是否会致使用户在这些平台上所接收的信息出现“千人千面”的效果?用户是否又因此被“束缚”在越来越同质的信息流中?除了“信息茧房”之外,“过滤气泡”(the filter bubble)和“回音室”(echo chamber)等术语也逐渐见诸学界,形成了新一轮的“茧房忧虑”。

在对“信息茧房”的担忧情绪日益弥漫的当下,本文试图对此做一个学术层面的回应——在智媒时代,该如何正确地理解“信息茧房”随着媒介环境的更迭而发生的变化?又该如何理性地看待目前关于“信息茧房”的探讨和担忧?具体而言,本文首先在第一部分对桑斯坦所提出的“信息茧房”概念进行修订完善,以更好地反映其内涵和外延的变化。其次,在第二部分通过对信息茧房效应的学术研究文献的回顾,梳理是否存在信息茧房效应的理论依据和实证依据。最后,在前两个部分的基础上,本文在第三部分提出了我们看待信息茧房效应时所应持有的立场和态度。

一、对“信息茧房”概念的定义:从自我选择到算法推荐

桑斯坦将“信息茧房”定义为一种“交流场域(communication universes)”。若置身其中,我们只能获取我们选择的和令我们愉悦的内容。鉴于当前算法推荐技术的发展,这一定义显得过于狭隘。因此,本文将“信息茧房”的概念重新定义为“个人或群体在信息消费过程中因自身或外界的因素而形成的信息窄化和观念极化现象”。在内涵方面,这个定义强调从结果的角度——信息窄化和观念极化——来定义信息茧房;在外延方面,根据成因,可将其主要区分为由“自我选择”(自身因素)和由“算法推荐”(外部因素)所导致的信息茧房。

(一)自我选择

由自我选择所导致的信息茧房对应的正是最早由桑斯坦所给出的定义。在传播学中,这种现象被称为“选择性接触(selective exposure)”。[2]早在1944年,拉扎斯菲尔德等人对1940年总统大选的研究发现,受众会选择性地接触或规避媒介和讯息——受众会有意地选择那些能强化他们已有观点的讯息,而规避那些可能改变自身观点的讯息。[3]选择性接触不仅存在于政治领域,其在商业和娱乐等信息消费领域也普遍存在。[4][5]

从心理学的角度来看,认知负荷理论(Cognitive Load Theory)可以很好地解释说明“选择性接触”假设背后的原理。认知负荷理论由澳大利亚心理学者John Sweller提出,所谓的认知负荷是指同时被要求施加在工作记忆上的智力活动的全部数量,当总的认知负荷超过个体所能承受的范围,就会导致较低的认知效率。[6]因此,当讨论人类的信息处理方式时,不得不注意到人们注意力和认知能力的有限,而由于能力的有限,许多对信息的选择都是在不自觉中发生,[7]公众只选择自己关注和喜欢的信息以减轻认知负荷是自然而然的。另外,Sear和Freedman把选择性接触的发生机理归因为用户的认知不协调(Cognitive Dissonance)。[8]换言之,在使用媒体和消费信息的过程中,人们倾向于选择与自己观点、信念相一致的信息以避免在认知方面的失调。[9]

虽然早在20世纪中叶前后,学者们已经就选择性接触现象和理论进行了一些研究。但是在随后的多年中,关于这方面的研究并不多见。在很大程度上,这是因为可供用户选择的媒体渠道和信息内容本身就比较有限。[10]然而随着网络时代的开启,信息过载的问题变得非常严重,[11]人们不得不进行大量的主动选择和信息过滤。桑斯坦本人也承认“超载危机和过滤的需求是相伴而生的”。[12]在桑斯坦看来,在这种背景下,就可能会诞生麻省理工学院传媒技术专家尼葛洛庞帝所预言的“我的日报”(the Daily Me)——用户完全根据自己的需求和喜好主动选择符合自己口味的内容,定制属于自己的“我的日报”。诚然,新媒体的发展赋予了用户选择信息的主动权,彰显了用户在媒介消费中的能动性,但由于用户的“信息偏食”,不可避免地会将自己包裹在由个人事先选择好的“信息茧房”中。

(二)算法推荐

在基于捕捉和分析用户偏好的算法推荐技术方兴未艾的今天,“我的日报”俨然已经成为现实,并广受追捧。但与尼葛洛庞帝预言有所不同的是,尽管用户的自我选择仍然存在(如用户在社交媒体上选择感兴趣的话题或者主动关注感兴趣的个人/机构),但算法推荐也已经成为个性化定制的主要方式。许多学者认为,搜索引擎、资讯网站、社交媒体等“机器”在数字时代取代了以往的人工编辑,在信息传播过程中扮演了新的“把关人”。与信息茧房的概念类似,由Eli Pariser于2011年提出的“过滤气泡”同样也是一个形象的比喻,指机器和算法充当了信息的过滤器,将用户限制在一个又一个的“泡泡”当中。

从运作原理的角度来看,算法推荐的信息流背后并非是单一的算法逻辑,而是多类算法综合作用的结果,常用的算法有基于内容的推荐系统、协同过滤系统、混合推荐等等。[13][14]一般而言,算法推荐的结果往往是以下三个方面综合作用的结果:(1)大众化、多数人的偏好;(2)根据用户个人特点计算出的用户偏好;(3)用户社交网络中的他人偏好。而依据用户使用习惯和社交关系得到的推荐结果具有明显的针对性和封闭性,算法内容分发的过程中既过滤了信息又分装了信息,因此产生信息茧房是完全可能的。[15]

在过去推荐算法尚未普及的时代,用户的自我选择在构筑“我的日报”中发挥了重要的作用,但如今推荐算法俨然成为了智媒时代中另一股推动“我的日报”形成的巨大力量。从某种角度来看,用户的自我选择是对信息的“主动获取”,而在基于算法推荐个性化定制中,用户偏向于“被动接受”信息。即使表面看起来是用户主动获取信息的“搜索引擎”,但其获取的检索列表仍然是基于算法过滤的结果。以谷歌为例,很多人都认为,在谷歌上同一时刻输入同样的搜索词后,会得到完全一样的检索结果,但事实上“千人千搜”的推荐模式在十年之前就已然形成。[16]具体来说,谷歌利用用户之前的搜索词、所在的位置和社交关系等信号“揣摩”用户的身份和喜好,反馈基于用户判断的检索结果。因此,从用户感知的角度来看,也可以把搜索引擎的推荐功能视为“隐性推荐”,而将个性化推荐平台的推荐服务视为“显性推荐”。

另外,值得注意的是,相对于自我选择,不管是隐性还是显性推荐,用户确实是“被动”地在接受基于算法推荐的内容,但算法推荐本身的构建目的就是预先判断用户兴趣,其目的在于“迎合”用户的需求。因此,自我选择和算法推荐本身并非截然对立,后者也许只是提前帮助用户选择了他们可能会“主动”选择的内容。

二、对“信息茧房”效应的探讨:从思辨分析到实证研究

辨证地来看,个性化定制对用户个体或群体既可能会带来积极的影响,也可能会存在潜在的消极后果。一方面,对信息内容的自我选择彰显了用户在信息消费过程中的能动地位,算法推荐也帮助用户在信息超载的时代降低了获取信息的成本,提高了获取信息的效率。另一方面,个性化定制的结果会使得用户难以接触到自我选择或机器推荐以外的信息,而这些信息在很大程度上可能是用户不感兴趣的或者与自身观点不符的。久而久之,用户就会将自身桎梏于像蚕茧一般的“茧房”中。[17]“信息茧房”这一概念其实就是学者们在表达他们对个性化定制所带来的消极后果的担忧。

(一)思辨分析

对信息茧房消极影响的担忧和思考,最早源自于桑斯坦。要理解桑斯坦为何会有这种担忧,要从“协商民主”(deliberative democracy)谈起。协商民主是他写作《网络共和国》和《信息乌托邦》这两部专著的语境,具体是指“存在冲突的个人或群体应当相互协商,并通过理性的讨论最终得到一个令所有人都满意的结果”。[18]协商民主认为公民应该积极参与公共事务,参与公共舆论空间进行讨论,通过“平等、理性、深思熟虑”的协商来提升民主质量。[19]虽然关于协商民主有诸多不同的流派,但“公共协商”的过程是其核心,这就要求参与协商的人们应该可以获取任何可能的信息,并具有一定程度的“共同经验”。

但是,网络技术的赋权使得人们作为信息消费者的角色被无限地放大,公民只关注自己所喜爱的信息。换言之,在对媒介和信息的自我选择中,每个人都在阅读“我的日报”,而不太接触到自己不喜欢或与自己观点不同的信息内容。长此以往,人们就可能会进入到态度强化的螺旋中,并日益缺乏具有“社会粘合剂”功用的共同经验。换句话说,传统大众传媒的社会整合功能日益消散——“在很多方面,它会降低而非增加个人的自由,它也会造成高度的社会分裂,让个人和团体更难相互了解”。[12](136)这正是桑斯坦所担心的因自我选择而导致的信息茧房的严重后果。詹姆斯·韦伯斯特也表达了类似观点:由于在数字时代存在海量的信息和渠道,人们会为自己预设获取信息的有限范围,而这个有限范围的设定,基本会与人们的心理预期及喜好相符合。这种模式使得用户的决策变得简单,与此同时也会将更为多元的内容和观点排除在外。[20]

受到所在年代技术发展的限制,桑斯坦在表达技术发展所带来的担忧时,未曾将算法推荐可能产生的信息茧房纳入思考范畴,但其追问的逻辑完全适用于由任何原因所引起的“信息茧房”现象。事实上,欧盟委员会相关专家小组就曾在2012年提出了一份“警告”,提醒人们应该警惕由搜索引擎的发展所带来的对信息获取多样性的“破坏”。[21]随着今日头条这样的个性化推荐新闻平台在国内的盛行,人民网也发表评论文章指出,“智能化的信息传播信息机制可以快速地完成用户于信息的精确匹配,大大降低获取信息成本,为生活带来便利。但换个角度来看,算法主导下的内容分发模式,也会带来‘自我封闭’的危险”。[22]另外,比尔·盖茨在2017年初接受采访时也表示,“不管人们在观看自己喜欢的电视频道、新闻网站和facebook,都很容易陷入媒体所带来的‘过滤气泡’中,从而强化原先的观点并排除其他的看法……诸如社交媒体这样的科技使你和观点相似的人聚在一起,进而不能共享和理解不一样的观点,这个问题要比我们想象得更为严重。”[23]

(二)实证研究

除了从思辨的角度来表达对信息茧房效应的担忧之外,也有机构和学者从事数据收集和资料分析,从实证的角度探索信息茧房的效应。

1.针对由自我选择所导致的信息茧房效应

总体而言,早期关于信息茧房效应的探讨,集中在用户的自我选择方面,Borgesius等人对这类的实证文献进行过系统总结。[10]他们指出,关于这类的研究主要集中在政治传播领域,探索用户的“信息偏食”对民主社会的影响。比如,Stroud利用美国的选民样本进行分析,结果发现如果选民总是关注持偏激观点的新闻,他们在选举过程中会变得更为极端。[24]选择性接触对信息窄化和观念极化的这种影响效应在实验研究中也得到了证实。[25]Price等人则“反其道而行之”,调查了经常关注不同媒介信息的人群,发现定期通过媒体接触不同观点的人,能够更好理解他人的立场和动机。[26]

尽管不少研究表明用户的选择性接触对信息窄化和观念极化存在一定的作用,但这种效应往往非常有限,而且在个体之间存在较大的差别,许多人并没有受到影响。[10][27]对此,Borgesius等人从两个方面给出了可能的解释。其一,在当今媒介形态日益分化和丰富的今天,人们能够从不同的信息源来获取相关资讯,几乎没有人会生活在完全绝对的“信息茧房”中。其二,除了媒介之外,人们还经常通过与家人、朋友和同事的谈话获取最新的信息,在这种谈话中,人们也会接触不同的观点和不同的信息。另外,最近的一项跨国实证研究发现,虽然使用在线媒介的用户确实拥有了更多的主动选择权,但他们并不会将自己“隔离”进信息茧房当中。作者给出了另外一种视角的解释——虽然在新媒体环境中,用户的自我选择权力变大了,但是他们还是会选择(或是“偶遇”)被多数人关注的“主流信息”。[28]

2.针对由算法推荐所导致的信息茧房效应

近些年来,随着机器和算法推荐在个性化定制中的广泛应用,学者们也对其所产生的信息茧房表现出浓厚的研究兴趣。但令人惊讶的是,尽管少数研究在一定程度上指出信息茧房/过滤气泡/回音室的存在[29][30],然而大多数的实证研究还是都表明,不管是使用“隐性推荐”的搜索引擎,还是使用“显性推荐”的信息推荐平台和社交平台,“被动接受”基于算法推荐信息的用户并没有明显出现信息窄化和视野变窄的现象。

在以搜索引擎为对象的研究中,Courtios等人通过对350名谷歌搜索用户检索结果的内容分析发现,没有证据显示搜索结果的不同可以归因于用户先前的偏好和行为,这种不同更可能是因为检索语句以及时间因素导致的。[31]Nechushtai等人针对168位背景各异的用户利用谷歌搜索有关希拉里·克林顿与唐纳德·特朗普的新闻所返回的结果列表进行分析,发现几乎每一个账号所被推荐的信息都是类似的,即使账号主体具有不同的政治倾向。[32]在以推荐平台和社交平台的研究中,Nguyen等人选取了电影评分和推荐网站Movielens上历时21个月的数据,对根据算法推荐选择电影观看的用户和不理会算法推荐的用户进行比较发现,两类用户观看电影的多样性方面都有所下降,但前者的下降幅度反而不如后者。[33]Bechmann等人对1000个丹麦人两周内在Facebook个人主页上撰写发布的内容和分享的外部链接的与其他成员的相似度进行分析,结果显示,这两个数字都大大低于预期。[34]Möller等人则将不同的推荐算法运用到同一新闻源的数据科学实验,对不同类型推荐算法推荐结果的多样性进行比较,并与人工编辑的选择比较,通过对多样性的指数进行计算,发现个性化推荐算法相比于非个性化推荐算法,信息的异质性并未降低。[35]

之所以出现上述的诸多实证研究结果不太支持算法推荐导致信息茧房效应的结论,其原因是复杂多样的。方可成对此曾经有过一些解释。[36]首先,算法推荐具有不同类型。当人们在讨论的时候,往往将“算法”视为一种单一的、同质性的存在。实际上,算法有着多种类型,比如基于内容的推荐算法和协调过滤算法就是截然不同的思路,不同的算法可能会产生不同的效应。其次,用户行为和社交关系是复杂的。正如前面所提到的,即使在以算法推荐为主导的个性化定制时代,用户的自我选择仍然存在,比如用户在社交媒体上选择感兴趣的话题或者主动关注感兴趣的个人/机构。因此,用户的自身行为和所构建的社会关系对其接触到信息的多元性也具有非常重要的影响。除了这两个可能的解释之外,对信息茧房效应的测量也可能是原因之一。事实上,目前的研究大多聚焦于短期效应,而对信息茧房的科学测量也许要基于长期效应的考察研究。另外,在大多数研究中,学者们并未区分信息茧房在客观存在层面和主观感知层面的差异。[37]

三、总结与展望

从桑斯坦最早提出的“信息茧房”概念入手,结合技术发展背景,本文对“信息茧房”的概念进行再定义,认为对该概念的界定不应局限于其具体成因,而应该侧重于对“信息窄化和观念极化”这一现象的揭示。这一新的定义扩展和深化了其内涵和外延,整合了由桑斯坦所提出的因用户自我选择所导致的信息茧房和当前因机器和算法推荐的发展而导致的“过滤气泡”现象。与此同时,本文从思辨分析和实证研究的角度回顾并梳理了学者们对信息茧房效应的探讨。文献综述结果发现,尽管在自我选择和算法推荐与信息窄化和观点极化之间存在较强的理论关联,但这些关联尚未得到足够的实证研究支持。

那么,我们要以怎么样的态度来看待所谓的信息茧房现象呢?尽管当前的实证研究并未提供足够支持信息茧房存在的证据,但必要的担忧仍然不可或缺。担忧从来不是多余的,若缺乏担忧,反倒可能因此陷落于一个分裂和极化的世界,并且不自知——若真如此,那就恰好印证了尼尔·波兹曼在《娱乐至死》中的论述,“我们将毁于我们热爱的东西”。[38]而当产生忧虑的时候,恰恰可能意味着进步的到来。学者Bozdag尝试从算法构建的内在逻辑中戳破“过滤气泡”,[39]我们也应该如他一样以忧虑为始继而进行理性反思。只有真正的学术探讨才能为后续制定科学政策和规避潜在风险提供指路明灯。也正如此,未来对信息茧房这一议题的研究需要引入多学科视角和多方法路径,更加系统全面地探讨其概念及效应问题,从而使我们对它的理解和判断更多的是基于“洞见”而非“担忧”。

猜你喜欢
信息茧房茧房个性化
一种融合PageRank和PersonalRank的多层个性化推荐算法
织就“信息茧房”的人,或许就是你自己
织就“信息茧房”的人,或许就是你自己
织就信息茧房的人,或许就是你自己
坚持个性化的写作
微时代大学生“信息茧房”效应干预
社交媒体时代下新闻产需变化刍议
“信息茧房”禁锢了我们的双眼
上汽大通:C2B个性化定制未来
“信息茧房”禁锢了我们的双眼(观察家)