孙海龙
【关键词】算法推荐;价值观; 技术; 人文主义
【基金项目】赣南师范大学研究生创新基金项目“新闻算法推荐的现状、问题及未来优化策略相关研究”,项目编号:YCX18A033。
国内关于算法在新闻传播学领域的研究盛行于2016年,学者王佳航认为数据和算法正在重塑整个新闻生产系统,[1]如今看来已经成为不争的事实,算法已经成为今日头条、天天快报、一点资讯、网易新闻等众多新生新闻平台生产过程中不可缺少的一部分。諸多学者在探讨算法推送机制时,对于算法对新闻价值观的冲击都表现出不同程度的担忧。学者彭兰认为将来的机器和算法会将人类从简单复杂的信息中解放出来,但在人—机互动中,我们需要时刻思考:人如何把握机器智能的方向?如何超越算法,坚守人的价值?[2]学者方诗诗基于“Facebook偏见门事件”的研究,提出动态新闻算法是一种基于用户社交使用的协同过滤机制,目的在于过滤出对于用户“有意义”的信息,而这样的推送机制也挑战了传统的新闻价值观。[3]学者陈昌凤和霍婕提出智能时代,同样应该被彰显的是人的价值、人的精神,新时代的新闻领域必将是在人主导之下人类智慧与机械智能高度融合的结果。[4]
在国外,英国的David Beer在2009年就发现,以算法为基础的应用已经渗透到用户的生活中,这些算法以人们日常生活中的代理者身份出现,形成了新的复杂的数字鸿沟,也造成了技术性的无意识。[5]阿姆斯特丹大学的 Natali Helberger 意识到算法介入分发系统,造成媒体与其用户之间的关系中新的不平衡。因此,她提出一种“公平媒体实践”(Fair Media Practices)的做法 :即应该树立价值观和原则来引导媒体和用户之间的关系,规范算法向媒体内容呈现和推送给用户的方式。[6]加拿大学者Fenwick, Mc Kelvey 认为算法挑战了传统的公共理论,因为算法的技术操作不能提示形成公众所必需的反思和意识。[7]
本文试图从算法推荐的现状入手,基于算法暴露的问题,从人文主义视角看算法技术存在的弊端,警惕算法流于表面“以人为本”的梦幻,给资讯服务类从业者,特别是新闻行业从业人员打下预防针。在和智慧算法共同完成资讯服务的同时,需同样赋予“算法”人文主义精神,这不是低级的个性化以人为本,而是一种高级价值观,即人类社会共通的优秀价值理念。
在大数据和人工智能技术的带动下,目前的算法推荐已经发展到个性化算法推荐系统。与互联网早期传统的热门算法推荐(HOT)不同,个性化算法推荐涉及到自然语言处理、机器学习、大数据计算等复杂领域知识。早期的热门推荐算法原理比较简单,主要是根据平台网页的浏览情况,对全体用户做无差别推荐。国内以今日头条、天天快报、一点资讯为代表的资讯服务平台利用个性化算法推荐系统吸引受众阅读自己的产品。在国外有Flipboard、Dailyhunt,均主打个性化推荐新闻分发。
个性化算法推荐系统融合了热门推荐、相关推荐、用户的短期兴趣和用户的长期兴趣推荐结果。热门推荐即计算出实时的热门资讯推荐给用户;相关推荐是识别用户当前正在阅读文章主题,推荐与其相关的其他资讯;用户的短期兴趣是根据用户最近阅读文章内容的关键词进行相关内容的推荐;用户的长期兴趣是一组根据用户长期行为形成的关键词(keyword),进而展现出“用户自画像”,包括性别、年龄、偏好等。此外,个性化推荐算法能够识别与“用户自画像”相似的“他人自画像”,将他人的选择推荐给用户,这种社会过滤的方法也叫做“协同过滤算法”。
自从2012年今日头条创办开始,创始人张一鸣就给自己定位“不是个媒体公司,因为不创造内容,不发表观点。”他认为人不应该强行干预受众的内容选择,他接受采访时曾这样说:“如果头条有主编,他不可避免会按照自己的喜好去选择内容,而我们做的就是不选择。”[8]但事实是今日头条已经成为新闻聚合的最大平台,成为用户接收信息的重要渠道。猎豹全球智库发布的《猎豹大数据——2017年度中国APP排行榜》,在新闻资讯类中,今日头条作为个性化推荐新闻资讯的代表,以周人均打开次数156.6次,名列排行榜榜首。[9]
但基于算法形成的新闻推送机制也带来了一系列争议。
第一,版权纠纷问题。从2014年到2015年,先后有广州日报、新京报、搜狐、楚天都市报等媒体起诉今日头条侵权,国家版权局对今日头条进行立案调查。经历了起诉后的今日头条知名度反而越来越响,在受众脑海中留下了“今日头条不生产新闻,只是新闻的搬运工”的印象。
第二,2017年今日头条涉及“低俗恶俗信息”的风波不断。先后有“头条问答”因讨论低俗话题被北京网信办约谈;央视曝光今日头条旗下的火山直播向用户推送“艳俗”直播内容,今日头条和火山直播被网信办约谈整改;2017年8月,今日头条因传播低俗庸俗内容遭到处罚;2017年9月,《人民日报》连续三天刊文评今日头条算法决定内容;2017年12月,因连续传播色情低俗信息,违规转载和标题党突出,今日头条6个频道被网信办勒令关停24小时并整改。这些风波的背后,算法无疑成为推动“低俗信息”传播的罪魁祸首。
第三,虚假新闻问题。2017 年 10 月拉斯维加斯大规模枪击案发生后,以Google、Facebook为代表的算法推荐网站上假新闻泛滥,虚假信息在这些网站上阅读量甚至高达几百万。在信息传播的关键时期,算法无疑加速了假新闻的扩散,为了打击假消息,Facebook 与一些媒体机构合作,包括 Snopes 和 ABC News。[10]
第四,用户隐私问题。2018年4月,Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)在美国国会上接受有关其公司数据收集惯例的质询。据报道一个名叫“剑桥分析”(Cambridge Analytica)的英国商业运营的政治数据分析公司,获得了Facebook的5000万用户信息。毫无疑问,算法在收集和分析这些用户信息的时候起着不可小视的作用。
从2017年开始,移动短视频行业发展迅速,2018年5月17日,全球领先的新经济行业数据挖掘和分析机构iiMedia Research(艾媒咨询)权威发布《2018年中国社交类短视频平台专题报告》。艾媒咨询数据显示,2018年中国短视频用户规模将达3.53亿人。[11]短视频的用户流量带来了巨大的“注意力经济市场”,各种短视频平台大量涌現,如中国移动旗下的咪咕圈圈、今日头条旗下的抖音短视频和火山小视频、快手APP等等。基于用户生产内容(UGC),依托算法渠道进行推送,导致这些短视频平台在发展的过程中出现大量雷同化、低俗化内容。短视频中含有大量血腥、色情、恶搞等猎奇性低俗内容,比如生吃毛毛虫、蝎子、蛇等视频。还有一些短视频的博主利用虚假视频赢取受众同情心,比如假装自己生病、出车祸等。甚至有些短视频内容已触犯法律底线却依然能够登上热门,比如被央视点名的快手、火山小视频平台中出现的“未成年少女妈妈”内容。 不可否认,是隐藏在“你可能感兴趣的人”背后的算法促成了这些“乱象”大肆传播,严重影响整个资讯服务平台的秩序。
这里不得不提的是,由于算法的介入,如今新闻专业平台和资讯服务平台边界日益模糊,正朝向“泛媒体化”发展。像网易新闻、今日头条等被称为“超级平台媒体”,它们不仅推送传统意义上的新闻,还根据用户的年龄、偏好、地域等因素推送诸如星座知识、美食、随笔软文等生活服务类信息。新闻的功能从呈现经过核查和筛选的事实性信息、为公共生活设置议程,蜕变为碎片化、弥散性的、时时微更新的资讯分发生态系统。
基于算法推送的新闻打上“个性化”标签,每个用户都可以根据自己的偏好浏览自己所需要的讯息,学者王茜用“千人千面”[12]来形容这种现象再恰当不过。但是“个性化”的背后有两个重要问题不能忽视。一方面,看似“以人为本”的背后实际是低层次的个性满足。人文主义终极目标是要关注将个体维系起来的社会纽带,也是涂尔干所说的具有道德特性的集体意识或共同意识。[13]另一方面,人有着主观能动性,人的变化在规律中又时常出现偶然性。“个性化”算法推荐是用用户过去的数据来预测未来,但人们的喜好并不是一成不变的。
基于算法推荐的资讯就好比尼古拉斯·尼葛洛庞帝20年前在《数字化生存》中预言的“我的日报”(The Daily Me),尼葛洛庞帝充满遐想地写道 :“我们可以从另外一个角度来看一份报纸, 那就是把它看成一个新闻的界面……这份报纸将综合了要闻和一些‘不那么重要的消息, 这些消息可能和你认识的人或你明天要见的人有关, 或是关于你即将要去和刚刚离开的地方,也可能报道你熟悉的公司。你可以称它为《我的日报》(The Daily Me)。”[14]算法给每个人都定制了一份特殊的动态算法模式,一方面算法基于用户阅读习惯和内容进行推荐,另一方面用户每一次浏览又被算法所记录,并且直接影响下一次推荐,这样整个“私人定制模式”是一套加固循环模式。长此以往会造成“信息茧房”和“回音壁”效应,受众仅仅安于和自己意见相同的圈子里,具有排他性、固执性。这就使得人与人之间共通的价值观越来越少,对于社会“公共意见”越来越麻木。
美国西北大学计算机新闻学教授尼古拉斯·迪卡普洛斯详细介绍了算法责任报道(algorithmic accountability reporting)概念,并以此来强调计算机程序在社会中的影响。他指出算法有各种不同的新闻价值值得我们去调查分析,包括歧视与不公平,算法的失误或错误,违反社会与法律规范的情况,以及人类的误用。[15]算法推荐基于“用户需求”,以今日头条为首的技术公司容易单纯地考虑市场占有率、用户需求量、技术先进性,却忽略了他们的产品具有新闻属性,是新闻资讯,就要考虑新闻导向和传播规律。20世纪90年代,新闻专业主义传入中国,激发一代新闻从业者的梦想与追求。传统的新闻专业主义认为新闻必须以公众性、公益性为核心坚守,需具备一定的专门知识和技能。但是算法推荐具有“纵容性”和“溺爱性”,只要是根据用户习惯记录的,就源源不断进行推送。这也是虚假新闻、低俗信息泛滥的重要原因。更有甚者是别有用心者会利用算法做出违规之事,Facebook的创始人扎克伯格曾透露有人利用Facebook的推荐算法,注册大量的僵尸账号转发内容影响舆论,以间接影响大选结果。
共同营造一个良好的信息传播生态环境是新闻从业者义不容辞的责任,但随着算法推荐机制的普及,自媒体“做号”灰色产业链形成,这些自媒体人并没有受过新闻专业知识的教育。自媒体利用算法推荐的特征,形成“100000+”的阅读量,然后与广告主进行合作,整个信息传播生态充满利益与金钱的味道。“做号”者们生产一篇内容仅需十几分钟,导致整个传播环境中充满大量重复性、无价值信息,造成资源浪费,甚至影响到受众的社会价值观培育。利益驱动的背后是利用人性的弱点,造成了“标题党”、“过度煽情”、“虚假信息”、“低俗信息”等不良现象在信息传播生态环境中大行其道。
Brian Arthur认为“技术是对现象的有目的的编程,技术是一种有目的性的系统。”[16]因此,技术并不是孤立地发展,在人类社会的技术发展史上,我们看到每当一种新媒介出现,总会有弊端呈现,这些问题既包括人为的,也包含技术本身的缺陷。从目前来说,尽管算法带来了一些问题,但人类完全有信心能够解决。认识算法、批判算法、善用算法,算法作为人工智能重要组成部分,未来一定会同人类智慧相结合,在人文主义精神指导下,在全新的资讯传媒生态系统内,更好地为社会发展服务。
既然算法能够收集和分析数据,那利用算法来审核数据,屏蔽掉有损社会公共价值观的信息是完全能够做到的。重要的是算法设计者应首先意识到人文主义精神的重要性,在设计算法的过程中赋予其“人文主义”。可以设想未来的算法新闻报道是一种合作模式,通过数据科学家、有计算机学习背景的专业记者和技术专家的跨专业合作,确保算法推送在一定新闻专业主义规则指导下进行。现在看来,张一鸣宣称的“不将编辑的思想加入”是不可取的,也是对用户的不负责任。在人类文明发展过程中,总是需要优秀的共通的人类文化价值观进行指导和引领,这是人类所追求的高层次人文主义精神,是人类社会向前发展的重要推动力。同时,集体人文主义意识会引导公众舆论良性发展,起到社会“粘合剂”的作用,有利于社会稳定和团结。
大众在选择信息时有时是盲目的,完全依靠算法推荐机制会导致迎合受众低层次需求。算法的相对保守不能完全适应社会的复杂多变,这就表明如果完全将资讯服务交给算法来完成是不符合客观规律的,那就需要有第三方的监督——人的介入。因为算法所服务的是具有人文主义追求的人,只有人与人之间才能共享人文主义内涵,并对此进行沟通和阐述。在“人文主义精神”顶层设计下,进一步洞察用户行为,将个性化推送与共性化推送相结合,才能生产出具有一定审美层次的高质量内容,从而引领社会核心价值观。
要彻底防止“人成为媒介的延伸”,[17]对于算法的直接享用者——用户来说,需要提高自己的人文素养。公众往往只知道算法的运行结果,而对算法的运作过程却不得而知,这就造成了算法的“黑箱”问题。用户要尽可能多地了解哪些参数比较重要,因为依据参数,人工智能或算法才能得出结果。在了解算法的运行机制之后,用户应该避免成为算法的奴隶,在日常生活中,有意识地控制自己的上网行为,包括克制自己不随意点击浏览低俗恶俗信息,同时发现有类似信息应该积极向有关监管部门反映,遏制其进一步传播。
习近平总书记在十九大报告中指出“要坚定文化自信,推动社会主义文化繁荣兴盛”,我们知道文化是价值观的核心,一个国家或民族需要有共通的价值规范来进行引导,实现民族伟大复兴。学者杜骏飞有感于技术对于新闻行业的冲击,给未来新闻学科的发展开了一个药方,即“新闻回归到人本主义”,用他的话说:“新闻学即人学,彻底的和终极的新闻精神即人本精神。只有当新闻学真正关注人的生存、人的价值、人的尊严时,它才能分析新闻、评判新闻、实现和发展新闻。”[18]在算法成为新闻资讯平台重要生产和分发渠道的今天,我们没有必要畏惧算法,而是应保持理性思考,用“人文主义精神”改善算法,和算法一起创造属于未来智慧世界的运作模式。
注释:
[1]王佳航.数据与算法驱动下的欧美新闻生产变革[J].新闻与写作,2016(12).
[2]彭兰.机器与算法的流行时代,人该怎么办[J].新闻与写作,2016(12).
[3]方诗诗.算法机制背后的新闻价值观——围绕“Facebook 偏见门”事件的研究[J].新闻记者,2016(09).
[4][10]陈昌凤,霍婕.权力迁移与人本精神:算法式新闻分发的技术伦理[J].新闻与写作,2018(01):63-66.
[5]David Beer :Power through the algorithm? Participatory web cultures and the technological unconscious,new media&society,2009,Vol11(6):985-1002.
[6]Natali Helberger :Policy Implications From Algorithmic Profiling and the Changing Relationship Between Newsreaders and the Media,Javnost/The Public,2016(4),23(2):188-203.
[7]Fenwick,Mc Kelvey:Algorithmic Media Need Democratic Methods:Why Publics Matter,Canadian Journal of Communication,2014.
[8]张一鸣:今日头条不模拟人性,也不引导人性,你们文化人给了我们太多深刻的命题.https://www.huxiu.com/article/174510.html.
[9]搜狐科技.http://www.sohu.com/a/217185450_410407.
[11]艾媒网.艾媒报告|2018年中国社交类短视频平台专题报告.http://www.iimedia.cn/61347.html.
[12]王茜.打开算法分发的“黑箱”——基于今日头条新闻推送的量化研究[J].新闻记者,2017(09):7-14.
[13]埃米尔·涂尔干.社会分工论[M]. 渠东 译.北京:三联书店,2008.
[14]尼古拉斯·尼葛洛庞帝.数字化生存[M]. 胡泳,范海燕 譯.海口:海南出版社,1997:175-176 .
[15]张建中.新闻记者如何让算法负责[J].青年记者,2018(07).
[16]布莱恩·阿瑟.技术的本质[M]. 曹东溟,王健 译.杭州:浙江人民出版社,2014.
[17]姜红,鲁曼.重塑“媒介”:行动者网络中的新闻“算法”[J].新闻记者,2017(04):26-32.
[18]杜骏飞.新闻是人,新闻学是人学[J].国际新闻界,2018(02).
(作者单位:赣南师范大学新闻与传播学院)
责编:姚少宝