匡文波
(中国人民大学新闻学院,北京 100872)
人工智能、5G、大数据等技术在新闻传播领域生产、分发和传播等环节的渗透给传媒生态造成了广泛而深刻的影响。 当前,虽然人工智能技术在传媒领域的应用还处在初级阶段,但已经成为一个备受关注的问题。 人工智能的核心在于算法,算法的社会本质是一种权力。 作为数据与人工智能的节点,算法在新闻内容生产和分发环节中起着关键的逻辑控制作用,在信息的准入、准出方面发挥着重要的过滤作用,在检索、分类方面发挥着记录和判定作用。 正如斯科特·拉什(Scott Lash)所说,“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中”[1]。 算法技术的运用,不仅对原有的传媒生态进行了重新赋能与赋权,还影响和解构了以往的权力模式。 算法在给普通用户提供个性化信息服务、提高信息生产效率、缓解信息过载难题的同时也引发了一系列伦理问题。 在媒体和代码渗入日常生活的当下,传统的新闻传播伦理问题如虚假新闻、新闻寻租等仍然存在,甚至被放大,变得更加隐蔽和难以控制, 而新技术赋权带来的数据泄露、隐私侵犯,“信息茧房”风险,知情权、自主决策权、被遗忘权不同程度受到冲击等新问题也层出不穷。 用户行为数据足迹的永久存储、全景监狱式的无缝监视[2],以及个人数据信息过度商品化、算法黑箱等传播伦理问题成为新闻传播研究领域备受关注的议题。 现有研究多从某一视角或个案切入,聚焦于算法带来的某一具体伦理问题,本文试图以整体视角审视算法给受众个人、行业和社会层面带来的伦理困境,并提出可行的解决对策和建议。
1.隐私让渡与全景监狱
算法在传播领域一个重要的应用是个性化信息的智能推送。 信息分发主体在收集用户基本数据的基础上,根据用户行为、社交关系、地理位置等信息推断其兴趣偏好与需求,描绘用户画像,打上数据标签,在此基础上推送给用户“喜闻乐见”的信息商品。 目前用于新闻分发的算法主要包括3 种:协同过滤(Collaborative filtering recommendation)、基于内容的推荐(Content-based recommendation)和关联规则推荐。 其中协同过滤系统包含基于记忆的(Memory-based)和基于模型的(Model-based)协同过滤[3],其基本思路是通过对内容、个人、环境(场景)特征的判断,进行信息匹配。 对个人数据的采集、使用行为的记录是信息定向推送的基础,这些信息是用来判别和定义用户的“元数据”,也是信息时代商业机构竞争的重要战略资源。 数据采集是信息定制的基础,这意味着受众个人必须要“让渡”一部分隐私数据使用权才能让算法了解和定义自己,才能实现“千人千面”的专属定制和精准推送。就像进行衣服定制时要提供自己的尺寸,要进行信息定制,也要提供自己的数据。 信息定制意味着信息暴露,而信息暴露的程度却并不完全取决于受众个人。
在实践中,这些“元数据”大多在个人不知情的情况下被采集,而且还存在数据泄露和二次售卖问题,“元数据”商品化现象广泛存在。 2019 年9 月20日中国青年网报道了网络求职者“简历”被一元售卖的现象,被人民网官方微博转载。 全球最大社交平台Facebook 也多次卷入数据泄露风波,2018 年更是因为5000 万用户数据泄露的“剑桥分析事件”而接受调查。 此外,部分应用或者设备在用户知情却不能拒绝(“不同意就停用”)的情况下获取远超过自身正常应用需要调用的用户权限,获得用户的数据信息。 数量众多、良莠不齐的各类设备对用户数据进行普遍抓取,这意味着个人信息被获取后其用途和是否会泄露成为了不确定事件,隐私侵犯隐患成为常态。
云存储和5G 技术的出现使得个人在互联网上所有的踪迹都变得有迹可循,绝对意义的私人领域已不存在。 理论上,如果打通所有的数据渠道,是可以还原一个人在数据世界的生活图景的,真正的个人空间和私域消失,某种程度上,人在数据世界里变成了透明人。 信息化、数据化已成为不可阻挡的浪潮,但是我们拒绝过度的隐私信息采集。 个人隐私不被侵犯是对人性自由和尊严的尊重,是对自主权的捍卫,也是互联网技术进一步发展的必然要求。 在大数据时代,我们是否真的愿意用隐私通货(privacy currency)交换便利[4]? 隐私的边界在何处? 信息采集和调用的边界在何处? 如何规范数据采集方处理和分析的权限?要回答和解决这些问题,亟待建立算法对个人数据的调用与分析规范。
算法推荐的基础是对用户数据场景信息的分析, 因此海量信息的采集成为不可避免的选择,而海量的数据也意味着海量的监控,个人的阅读、行动、消费轨迹在大数据下都变得有迹可循,传统意义上个人对国家和公共机构不透明的空间基本消失,个体暴露于数字化的全景监狱,算法背后的技术与资本完成了对个人的监视、规训与剥削[5]。
2.自主让渡与规训操纵
信息定制化推送还意味着“自主权”的让渡,个人用户接受定制化信息服务意味着在一定程度上接受了算法代替个人决策“看什么不看什么”“多看什么少看什么”内容,从而构建了一个由算法意志和部分个人意志共同决定的“拟态环境”。 经过双重筛选后的信息在内容和观点上都有极强的兴趣导向,与真实的多元和多样化世界脱节。 与受众兴趣和观点匹配度高的信息会以更符合他们阅读习惯的方式出现,通过算法过滤,屏蔽了一部分真实世界。 自主决策权的让渡让受众变成被动接受信息投喂的“信宿”。 麦克卢汉认为,媒介即人的延伸,延伸意味着截除。 智能算法延伸了我们的智能判断能力,也让我们在技术中被驯化,逐渐丧失了思辨能力。 在这种情况下,算法通过对个人数据的分析进行信息干预,改变受众态度和行为的风险大大提高。 有学者指出,基于兴趣导向的算法推送导致受众所接触信息的同质性增加,知识多样性减少,人类的自主权在认知和行为层面都有了减退的风险[6]。 以今日头条为代表的多个资讯APP 也因此备受诟病。 此外,作为普通公民,“想知道的信息”不等同于“需要知道的信息”。 媒体建构的拟态环境是人们认知世界的重要工具,它已经不可避免地与真实世界有所偏离,如果信息的分发与推送只依据单一的兴趣偏好原则,会更加限制受众对真实世界的认知,使受众被束缚在算法构建的信息茧房中。同质化的信息来源容易造成认知偏差、刻板印象和群体极化。 “信息茧房”(Information Cocoons)是凯斯·桑斯坦在《信息乌托邦》一书中提出的概念,他指出,公众的信息需求并非全方位的,人们倾向于将自己包裹在感兴趣的内容中,从而将自身桎梏在一个“信息茧房”中。 信息茧房提供了一个更自我的思想空间,将个人限制在有限的领域内,加深了不同群体之间的交流鸿沟。 这些“茧房”边界的设定中掺杂着算法开发者的意志,其筛选和推送机制裹挟着其他利益相关者的商业目的,其输出结果也必然执行开发者利益最大化的原则,优先推送那些最符合自身诉求的信息,通过有偏向的算法影响个体认知和议程设置,这些经过精心筛选的信息共同完成了对个体的规训和操纵。
3.知情让渡与“技术黑箱”
知情权原指知悉、 获取信息的自由与权利,在数字时代,知情权还包括对自己被提取的个人信息及其用途有知悉的权利[7]。 算法对知情权的威胁体现在算法推荐逻辑单一带来的“信息世界窄化”、个人信息在用户“不知晓”的状态下被采集和使用以及“技术黑箱”的部分不可知。
个体在接受算法的信息过滤机制的同时,也意味着在某种程度上默许“同意算法推送一个由算法逻辑为主导的不完整的世界”,而这个“算法逻辑”的加工和选择机制并不完全被普通新闻用户所熟知,算法在其中如何过滤和排序信息对绝大部分用户而言是一个“技术黑箱”[8],这造成传播地位的严重不对等,普通用户甚至对“算法推荐”的存在都浑然不知。 用户对算法和算法逻辑的不知情,干扰了他们对真实世界的认知与判断,进而影响其社会公共参与。 传统的非算法推荐逻辑下的的拟态环境虽然也窄化了信息世界,但是其筛选机制融入了专业机构和把关人的社会公共价值考量,且其过程是公开和可被审视的,但是算法的过滤逻辑和价值导向却并非如此。
技术和资本垄断也构成数字时代算法推荐对个体知情权的威胁,占据垄断地位的行业巨头变成了新闻信息流通道路上重要的“守门人”,其利益相关者的“有偿新闻”和“有偿不闻”也变得更加隐蔽,资本和技术对“热搜榜”“头条”竞价排名等的过度介入威胁了普通公众知悉事实真相的权利。
4.平等让渡与算法歧视
歧视即区别对待,它意味着不平等和非正义。算法歧视是由于算法开发者或使用者在运用算法时根据算法逻辑对目标对象进行划分并施以区别对待而产生的。 这也是算法推荐难以避免的一大难题,因为算法的一个重要运行逻辑是数据的“标签化”“类别化”,这是其进行后续量化分析与操作的重要基础。 标签化与类别化也意味着 “去个性化”,这种做法加深了“刻板印象”和社会偏见,容易对“类别”中的独立个体造成误判和伤害。 而认知上的偏见会导致行动上的歧视, 在算法歧视中,数据采集、数据解读的偏差,算法设计者主观思维上的偏见等因素都会引发最终执行结果上的歧视行为[9]。 算法歧视导致不同地区、收入水平和性别种族的人群间信息资源的分配不均,进一步扩大“数字鸿沟”。 这种歧视和偏见通过算法推荐再次被人们所吸收,偏见被固化,形成“自我实现的歧视性反馈循环”[9]。 除了信息资源的不公正分配,算法歧视还体现在“价格歧视”上,典型的如某网约车平台的“大数据杀熟”现象。 在内容付费时代,很难保证这种价格歧视不会迁移至知识付费、新闻付费领域。
偏见普遍存在于不同的文化中,算法作为人造物,不可避免地继承了这些偏见,而且使之变得更加隐蔽。 随着算法推荐的扩散,其引发的风险也变得更加不确定和不可预计。 因此,在数据采集、分析和算法设计过程中减少偏见,加强监督和管理显得更加重要。 不同成因的算法歧视需要不同的治理路径,研究者们普遍认为通过公开算法的运行机制与设计意图、接受公众的监督能减少算法创设环节的人为偏见。 此外,“机会平等原则”(Equality of Opportunity)和“人文主义精神”也被提议纳入到算法系统的设计中[10]。
5.被遗忘让渡与永久记录
数字化记忆是网络信息时代的重要特征,个体和集体记忆的形态从生物记忆延伸到了数字空间。伴随着对互联网的使用,个体的身份信息、检索数据、浏览痕迹、购买行为等会长久甚至永久地存储在互联网数据库中。 从个体在网络上留下浏览痕迹或者内容数据那一刻起,用户就逐渐丧失了对这些信息的掌控,对数据的控制与访问权则被让渡给了数据记录者和占有者,他们通常是占据垄断地位的科技公司、政府等机构[11]。
数字化记忆的可访问性、持久性、全面性以及由此所形成的“凝视”给我们带来了新的挑战,人类日常生活面临着数字化时间与空间双重维度的介入[12]。 经由一系列的数字行为轨迹的拼合,在多年之后仍然可以通过推测数据还原出用户的个人画像,人们可以想象,在网上不经意的行为被长久地记忆可能成为引发某些事件的导火索。 如加拿大心理咨询师费尔德玛在一本杂志中提到自己曾在20 世纪60 年代服用过致幻剂,由此,他在进入美国边境时被扣留了4 个小时。 在社交、资讯、购物等平台中,小到抱怨、负能量,大到激烈的辩论和意见、态度的发表,情绪可能是一时的,但记录是永久的,甚至在多年之后还会被当做“黑历史”再现,影响个体的生活。 从这个角度来说,它似乎缩小了个体“改过自新”的空间。面对这种个人信息和行为数据在网络上长久留存可能带来的不可控的预期损耗和风险,人们或许会在互联网上选择“噤若寒蝉”,导致所谓的“寒蝉效应”(chilling effect),即为了避免不可预知的潜在风险,减少意见发表和对公共事务等的参与。
记忆伦理的核心问题是 “谁在记忆”“记忆什么”“如何记忆”以及“如何表述记忆”[13]。 什么样的机构和组织可以去记忆,什么样的数据可以被纳入数据记忆之中,这些都是需要进一步考察的议题。目前,这一领域的问题仍处在探讨阶段。 2016 年,我国颁布了《网络安全法》,正式确认个人对其网上个人信息的“删除权”,即“个人发现网络运营者违反法律、行政法规的规定或者双方的约定收集、使用其个人信息的,有权要求网络运营者删除其个人信息。 ”[14]这种“删除权”并不完全等同于“被遗忘权”(right to be forgotten),它更多的是为了保障网络信息传播秩序的稳定,而且技术上的实现也有困难。美国加州2014 年通过了“橡皮”法律,该法律规定用户可以要求科技公司删除涉及个人隐私的信息。2012 年,欧盟在《通用数据保护条例》草案中也提出了“被遗忘权”。 这些法律和条例的制定为“被遗忘权”在我国的本土化提供了一些借鉴与参考。 在中国语境下,当被遗忘权与公共利益冲突时,我们应该如何界定被遗忘权的边界,如何明晰被遗忘权与言论自由的权责关系,如何在公共领域的开放性和私人领域的不可侵犯性之间寻找平衡点,也同样是需要进一步探索的问题。
除此之外,算法推荐的逻辑是根据个体过去的行为轨迹来预测其未来的行为倾向,从而投其所好,“投喂”符合其偏好的内容。 但在现实生活中,人的行为逻辑是复杂的,不是只有“过去+现在—未来”导向。 个体的需求和成长具有发展性,行动逻辑还具有目标导向性,即“未来—现在”导向。 就像人的口味会改变一样,人的信息需求和生活目标也会改变,一味根据过去的行为逻辑和标签投其所好只会禁锢个体的视野,限制其发展的空间。 从这个角度来说, 算法推荐还影响了个人成长和发展的可能性。另外,算法推荐对出版权、言论自由等权利也造成了不同程度的冲击。
算法推荐技术在新闻传播领域的运用对新闻生产和传播方式都产生了重要影响。 专业机构对新闻生产和传播过程的垄断性地位受到冲击,成为算法分发平台的重要内容源[15]。 算法的创设主体拥有大量活跃用户和优质的内容分发渠道,为实现新闻内容更广泛的传播提供了必要条件,而拥有采编权的专业新闻机构和海量的UGC 内容则成为算法创设主体的内容来源。
算法推荐技术简化了功能和意义丰富的新闻逻辑,并将其简单处理为“信息”供求问题,通过点击率、阅读量等一系列指标量化满足用户的喜好。这种去价值化、去意义化的做法将新闻简化为一种无差别的“信息商品”[16],变成为商业资本服务的工具,而非实现新闻理想、追求社会公平正义的重要途径[17]。
与传统的受过系统训练的专业新闻工作者把关不同,算法推荐机制以兴趣为导向的逻辑无法实现对主流价值观的引导,新闻业的环境监测、舆论监督、价值引领的职能也受到削弱。 新闻专业主义的核心理念是客观性, 新闻从业者应秉持客观、公正、中立的原则进行真实、准确地报道,捍卫公众权利。 而算法的客观性和中立性其实是一个伪命题,算法究其根本是一段解决具体问题的指令,通常由一系列的代码与公式组成,这意味着它从诞生开始就必然夹带着算法创设主体的意志,特别是商业资本的介入使其独立性、客观性更加受到质疑。
此外,智能算法推荐的逻辑已经渗透到新闻生产从选题到内容分发的各个环节,个性化新闻推送对数据挖掘与分析的深度依赖以及由此带来的新闻失实风险、决策风险、偏见风险、隐私风险和声誉风险都需要我们进一步提高警惕。
传播是一种权力,在我国,主渠道的媒体传播属于公权力的一部分,在西方国家,媒体也被称为“第四权力”。 党的新闻舆论工作承担着“高举旗帜、引领导向,围绕中心、服务大局,团结人民、鼓舞士气,成风化人、凝心聚力,澄清谬误、明辨是非,联接中外、沟通世界”的任务。 但是在智能传播时代,主渠道媒体的视听时间被平台媒体的渠道所分散,人们越来越偏向基于兴趣偏好推送的算法新闻,而算法体现的是资本和技术开发主体的意志, 代表的是少数股东的诉求,而非广大公众的利益。 资本的本质是逐利,算法技术的高度垄断使得信息推送的把关权从公共机构迁移到掌握资本和技术的公司,原先代表公共利益和公共意见的把关机制有转向代表商业公司及其算法开发人员意志的风险。
这种变化大大削弱了媒体的公共性,媒体作为社会公器的监督作用被减弱。 信息茧房和回声效应的形成使得传播环境失去了意见的多元空间,“澄清谬误、明辨是非”的思辨与批判机制也受到了冲击;数字空间的永久记忆造成的“寒蝉效应”降低了公共参与精神被培育的可能性,构建了沟通壁垒和偏见;数据标签体系的建立助长了刻板印象的产生,不利于整个社会民主和协商之风的形成。 算法建立了新的把关机制,过滤了那些不利于算法开发者的信息,编织了一个有利于资本的信息气候,破坏了意见的公共空间。
算法是计算机科学技术领域的话题,本质上是由一系列代码与公式组成的解决具体问题的指令。算法推荐技术在改变人们获取信息方式的同时,也打破了传统的新闻生产格局,构建了算法创设主体、算法运用主体和算法新闻收受主体之间新的动态关系[15]。 算法推荐技术带来的一系列伦理问题,一方面是由算法技术天然自带的特性造成的,另一方面则是由“新闻逻辑”和“技术逻辑”之间的不适配导致的。 技术逻辑是问题导向的,算法推荐重在解决信息资源在传受双方间的最佳匹配问题,其核心是提高效率; 而新闻逻辑着眼于社会公平问题,除了提供信息、引导舆论、教育大众外,还承担着重要的监测环境、舆论监督等功能。 新闻业的合法基石在于向公众提供可信赖的新闻信息服务[18]。 算法推行的是“用户”思维,着眼于信息生产和分发的效率;新闻业推行“公众”思维,着眼于社会公平正义和民生福祉,两者着眼点的不同导致在融合初期出现众多不适配的现象。 随着商业资本的介入,算法中还渗透了商业逻辑,造成对公共利益和公众作为人本身的价值和权利的忽视。 此外,也存在管理、法律、监管等诸多外部影响因素。 当然,信息接收方也有不可推卸的责任,娱乐主义和商业主义的盛行形成了公众整体的信息偏好,可以说,算法迎合了受众的兴趣偏好导向,导致受众主动脱离公共空间。 这种意见气候助长了算法的单一价值取向,所以受众的理性培育也是规范智能传播的重要方面。
当下, 算法的核心技术掌握在少部分公司手中,其不仅占据绝大部分的用户资源,还掌握着绝大多数受众的使用行为数据,技术垄断意味着数据资源的垄断,技术和数据资源的垄断取消了观点的自由市场,也加剧了数据商业化、隐私侵犯的风险。算法代表了其开发者,通常是资本集团及其股东的利益,而不能代表广大公众的诉求,在公众利益与集团利益相左时,算法优先考虑其自身利益。 而且相比于传统媒体清晰的操作流程,算法使传播的操作后台化、不透明化,难以受到公共力量的监督[19]。算法使权力从公共机构迁移到资本驱动的技术公司所引发的风险值得我们关注。
目前阶段,算法相关管理机制与法律还不够健全。 在智能技术已经广泛应用到传播实践中的当下,法律规定似乎成了一个“下医”,规范与管理总是滞后于技术发展的步伐,“医未病,医欲病”的情况少,总是在问题出现后再去补救和防治。 传媒立法的滞后也让很多领域成为灰色地带,比如,网络平台个人信息的售卖、“水军”“有偿公关”等“灰色产业”急需严加整治。 在算法运用方面,同样缺乏规范的法律体系, 未来要加强相关领域的立法与管理。 一方面,要明确责任主体,规范算法研发者、运营者和使用者各自的权利与义务关系; 另一方面,面对算法引发的具体伦理和法律问题,要建立健全审查机制,建立包含新闻、法律和伦理相关领域专家的监察机构审核算法原理及决策过程[20]。 相关部门应通过立法或行政干预,鼓励优质主旋律内容的生产和传播[21]。
当前部分国家和地区已将人工智能立法提上日程。 2018 年5 月生效的欧盟《一般性数据保护法案》(General Data Protection Regulation,GDPR)给予用户申请基于算法得出结论的解释权。 美国纽约州为了解决政务系统算法歧视问题, 于2017 年12 月通过了算法问责法案。 这些案例都为我国建立健全规范智能算法应用方面的法律法规提供了借鉴意义。
良好的行业自律是整个行业健康发展必不可少的条件, 就人工智能在传播领域的应用问题而言,增加透明性和建立良好的伦理准则有助于行业的健康发展。 仇筠茜与陈昌凤等学者认为,算法对信息处理的过程对于普通新闻用户而言已经形成了一个“技术黑箱”,算法透明化被认为是解决算法黑箱的重要方式。 通过落实“可理解的透明度”[22]公布算法黑箱中存在的技术和价值取向,并接受公众的审视,不仅需要行业力量的努力,还需要相关部门的行政干预。
此外,我们也注意到,目前国内人工智能领域缺少统一、规范、公认的行业准则,虽然有少数几家公司在监管部门的督促下提出了一些可行方案,但是从行业整体层面看,行业自律领域几乎处于空白状态,各个利益集团仅从自身出发,在技术上野蛮增长,构建自己的传媒帝国。 人工智能应用面对的伦理问题是国际性问题, 在全世界范围内广泛存在,2019 年4 月8 日,欧盟委员会发布了人工智能伦理准则,列出了人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制等7 个确保人工智能足够安全可靠的关键条件。 根据官方解释,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。 这为我们根据国内实际情况制定规范的人工智能伦理准则提供了重要参考。
此外,还有学者提出,面对伦理困境,相较于道德规范的建构,伦理原则的确立具有更高的学术价值和现实意义。 大多数研究都集中在“社会责任原则”、“真实原则”、“客观原则”、“公正原则”和“善良原则”的讨论上,也有学者提倡应该将“公平、准确、透明、可解释、可审计、责任”等原则囊括进算法责任伦理体系,认为算法的设计要体现社会公平,考虑社会的多元性和不同价值观,需要考量利益相关者的权益,尽量避免因偏见的数据或偏见的算法设计导致对某一特定群体的歧视[23]。
除了商业和资本的原因外,人工智能带来的伦理问题还源于技术本身自带的缺陷。 机器算法不能完全取代记者和编辑进行道德伦理判断、人文关怀和独立的价值判断等,也无法对非量化内容作出准确判断,它将内容简化为一系列指标,简单粗暴地将“社会人”视作信息商品(提供数据来源,作为信息主体)和信息消耗体,将“社会人”数据化、机器化,使得人作为人的特征被消解,取而代之的是像原子一样无差别的信息消耗体和信息提供体(信宿和信源), 这是技术科学与社会人文之间的根本差异。 正如哈贝马斯所说,科技进步导致人对精神价值的忽视,并将自己作为生产要素,沦为机器和金钱的附属品。 在算法推荐中,我们也看到这种技术反客为主,人的主体性被削弱、异化的趋势[24]。 因此,不将用户看做数据商品的提供者,重视以人为本,尊重人的价值,突出人在技术环境中的主体性地位也是我们应对伦理困境的重要议题。
探讨算法带来的伦理问题, 并不是要排斥技术,将算法关回潘多拉魔盒中,而是要寻求两者达到动态平衡的更多可能性。 技术,包括算法技术,是新闻权力生成的重要来源之一。 新闻的“传播权力”通过传播技术实现,不论是在以报纸、广播、电视、杂志为主导的传统媒体时代还是算法渗透到全民生活的智能化传播时代,不可否认,新闻传播技术一直形塑着传播内容与传播关系。
数据信息的资源化已成为不可逆的趋势,我们生活的空间、行为的情境无一不被数字化、算法所重新定义与塑造。 同时,也应该看到,算法从来不是独立的,是人类自身赋予技术权限去记录、读取、分析我们的行为数据,为我们的决策提供意见与帮助,但是在具体使用的过程中难免出现目的与路径错位的现象。 随着技术和机制的日臻完善,我们需要在数据采集、数据计算、算法模型中提升人的主导作用,在全面认识算法推荐技术的基础上,厘清其在新闻传播领域引发的伦理问题,寻找效率导向的“算法”与公平导向的“新闻”二者间的平衡点,并在此基础上建构算法推荐新闻的伦理规范原则及应用细则。认识算法、理解算法、批判算法是善用算法的前提,否则“我们塑造算法,然后算法塑造我们”将不止存在于科幻故事中。