季丽莉
摘要:算法在新闻生产中的局限性主要表现在以下三个方面:算法不能生产有风格的新闻;算法组织不能取得广泛的社会信任;算法不具有中立性,无法进行新闻价值判断。
关键词: 算法;新闻;生产;局限性 中图分类号 G2 文献标识码 A 文章编号 2096-0360(2019)23-0020-02
算法在新闻生产中的应用已成为普遍趋势,各大传媒组织都在积极发展利用算法推进新闻生产流程的智能化水平。但是目前的技术还没有发展到“强人工智能”阶段,当前的算法更多是一种混合算法,需要机器和人类共同为它输入信息,算法在具体应用中还存在诸多局限。
1 技术局限:算法不能生产有风格的新闻
“现代文艺理论认为,风格体现了作家、艺术家全部作品中一以贯之的、经常出现的思想特点,体现了作家、艺术家在创作中所表现出来的艺术特色和创作个性。”[1]新闻风格是记者独特的人生阅历和思想情感在新闻作品中的体现,是新闻作品成熟的标志。如当年的《华盛顿邮报》在面临来自美国白宫的压力时,不惧权势,勇敢坚持报道“水门事件”,成为正义与民主的化身。由于在事实调查方面的杰出表现,报道获得1973年美国新闻界最高奖项——普利策奖。做有风格的新闻是媒体记者一以贯之的追求目标,也是新闻独特价值的体现,世界范围内的知名主流媒体都建立起自身的报道风格,成为当今新闻媒体的典范和追求标杆,相比之下,算法生产新闻依赖结构化的数据和固定化的生产流程,通过内设程序自动匹配新闻模版,是一种工业化、程式化生产模式,信奉泰勒式高效率管理模式。算法工作原理犹如面包机,只要按照食谱要求设定好原料成分与比例,任何人都可以做出一个完美的面包来。在算法机制下,只要有数据、模版及精确的流程就可以生产新闻,不重视人的主观性与能动性,所生产的新闻往往给人千篇一律、似曾相识的感觉。而且技术具有通用性与开放性,任何机构和个人只要掌握了技术都可以进行相似的操作,如果媒体机构过分倚赖技术,就难以写出独具特色的报道,不容易形成自己的媒体风格。
2 组织局限:算法技术组织虽大力进军新闻生产领域,但不能取得广泛的社会信任
科瓦奇和罗森斯蒂尔在他们影响深远的著作《新闻学的十大原则》中写道:“新闻业对一个文化而言有其独特的作用:为公民提供实现自由所需的独立、可靠、准确、全面的信息”[2]。新闻业在社会发展中具有重要的作用,包括信息警示、社会教育、文化传承、提供娱乐等,专业媒体组织由此担任着重要的社会角色,那就是提供客观真实的、符合大多数人需求的信息,引导社会公共舆论,形成社会合意,同时有责任对谣言、谎言等虚假信息进行辟谣、更正。专业媒体组织依靠长期以来在社会生活中的独特地位,取得公众的高度信任,被认为是立法、行政、司法之后的“第四权利”,媒体记者被授予为“无冕之王”“国家航行之船上的瞭望者”等光荣称呼。
技术公司如谷歌、脸书、苹果等虽然对新闻领域的渗透日益深入,却无不弱化自身的媒体色彩而强调自身的技术属性,认为平台无须为其内容和产生的后果负责。媒体曝光的“剑桥分析”事件中,据报道有5 000万脸书用户数据被不正当抓取和使用,脸书被政府部门处以高额罚款。美国政府不間断地展开对谷歌、脸书等科技巨头的反垄断调查。媒体的曝光与政府的反垄断调查,使得这些技术平台面临公众信任度下降的严峻考验。多种针对媒体信任度的调查中,都发现受众对主流和传统媒体的信任度远远超过网络媒体。2017年美国皮尤研究中心通过对4 581名美国成年人调查显示,67%的美国人通过脸书等社交媒体看新闻人,但是却有高达57%的读者认为这些媒体上的新闻是不准确的。路透新闻研究院2017的一份调查报告分析了以脸书为代表的社交媒体难以获得广泛信任的原因,主要有三个方面:“在社交媒体上看到的信息不可靠或质量低(35%);不核查信息的真实性(25%);而且信息过于武断、存在偏见或有议程设置(24%)。”[3]其他导致受访者不信任的关键词中还涉及对夸张、煽情以增加点击率(6%)、病毒式传播(5%)及信息超载(5%)的担忧。
3 应用局限:算法具有非中立性,不能进行新闻的价值判断
价值判断是基于人的价值观和主观认识,对特定客体对象进行的评价判断,其判断标准一般是客体对象对人的应用价值。新闻价值蕴含在新闻事实中,新闻记者和编辑通过长期的新闻实践活动积累了对价值的经验认识,形成对新闻价值的判断标准。“新闻价值判断实际是记者、编辑运用价值观鉴别新闻是否有价值、有哪些价值以及价值的大小。”[4]新闻价值观通过协调媒体各部门、媒体与受众的关系,引导受众与媒体形成对新闻效用相近或一致的看法,从而发挥媒体的社会化功能。
算法体现出的是其背后设计者的主观意识,并不像很多科技公司所宣传的那样是中立的。苹果语音助手siri曾因反堕胎立场引发公愤,俄罗斯版siri被指有歧视同性恋立场,被认为是将苹果自身立场编入了算法程序中。2016年Facebook公布了News Feed的新闻价值观,即3F原则(Friends and Family y First),就是“友谊和家庭优先”。算法总是会被植入一定的先验价值标准和框架,研究发现,美国申请信用贷款者通过的人员中,总是白人比黑人多,而人们很难解释清楚其中的原理。谷歌的图片识别算法将黑人标注为大猩猩,不禁令人怀疑算法是否被植入了种族歧视的思想。算法的大数据分析还会挖掘用户隐私,美国折扣零售商塔吉特(Target)通过女性购买物品的大数据分析,向一位高中女生邮寄了婴儿用品和婴儿床的优惠券,这位女生的爸爸很快从开始的愤怒中平静下来,因为他的女儿确实怀孕了。
算法不能准确理解人类词语中的暗喻或意指等隐含义,2012年,美国推特上“大鸟”一词搜索量急速飙升,由于算法不明确这个词的真实含义,无法给出准确的信息推荐。由推特雇佣的人类判定官此刻发挥了关键作用,确定这个词指的是正在谈论政府对公共广播进行资助的米特·罗姆尼。算法还可能出现令人尴尬的错误,微软聊天机器人Tay在上线不到一天之内,就爆出充满攻击性与极端民族主义言论,如“希特勒是正确的,我恨犹太人”“布什是911幕后推手”等。算法犹如一个正在学习成长的幼儿,如果由人类提供的学习内容中包含不健康的知识或错误的表达,算法就会学习这种错误,甚至会错上加错。
近期,“深伪”技术支持下的换脸应用引发人们讨论,用户可以生成任何人物的视频内容,包括各大好莱坞明星和特朗普总统,不仅视频中的人物可以随意更换,还可以通过语音生成技术模拟相应人物的语音。“假照片”生成真假难辨的图片,可以发布奥巴马视频“假新闻”;网络马甲账号、社交机器人可以大批量发送虚假信息,2018年皮尤研究中心发现,著名社交网站推特上66%指向热门网址的推文都是由机器人发布的。虚假新闻一直是困扰传媒界的严重问题,而在算法时代,其生产流程更加难以追踪,无法进行有效监管,这一问题变得愈加复杂。算法的算力需要人类智力的配合,英国的Radar提供了这方面的较好案例。Radar项目的六名新闻记者首先通过政府数据集找到富有新闻价值的选题,然后为这些选题建立相应的由数据驱动的报道模板,模板生成的报道经过人工审核后再发表。“在这一方法中,记者和自动化高效结合:记者利用他们的专业知识和沟通技巧,为数据预设一些可能的‘故事线。他们也会与不同信源讨论来获取某个问题的全国普适视角,从而编写报道模板。”[5]同时,Radar项目对自动化新闻有三个阶段的质检流程:记者阅读-结论与原始数据源的对应-编辑再次检查排除错漏。
对于传媒组织和新闻工作者来说,应客观理性的认识算法,既要避免盲目的技术崇拜,又要深刻理解算法的局限性,通过更好的人机写作,打造良好新闻生态。
参考文献
[1]周蔚华,吴燕.论编辑风格的形成[J].中国编辑,2010(3):24-26.
[2]马特·卡尔森,张建中.自动化判断?算法判断、新闻知识与新闻专业主义[J].新闻记者,2018(3):83-96.
[3]全媒派.路透重磅万人调查报告:专业媒体VS社交平台,读者到底更信任谁?[EB/OL].[2017-12-11].https://mp.weixin.qq.com/s?src=11×tamp=1574657585&ver=1995&signature=ZAH532kJmlcXdf1qn1Y*fa4W1jM-ebKjCPP2hS*SSO-ujQlNdRKz9ExBELldHBgl3jgH6XXAuPKzjxbekrzOMns*6ekKF8axtaOyi3XWOBJ0kPW9L-XmdF5HmblBQjrs&new=1.
[4]劉建明.新闻学概论[M].北京:中国传媒大学出版社,2017:84.
[5]钛媒体.人工智能如何改变新闻工作[EB/OL].[2019-07-19].http://news.infosws.cn/20190719/24510.html.