徐霄扬 黄镇如
摘 要:算法重构了新闻生产的流程,极大地提升了新闻的生产效率,但作为一个正在进化完善中的新生媒介,算法新闻诱发的认知风险也不容忽视。价值有偏内容引发的认知失调、算法黑箱导致的媒介信任缺失、虚假新闻自动化生成诱发的确认偏误增强、过滤气泡助推的舆论极化、隐私泄露产生的数字孪生公开,均是当前算法新闻领域已被确证存在的认知风险。在防范算法认知偏向的过程中,技术、法律和伦理的多维治理路径为我们提供了重要启示。回收算法把关权限,确保人在新闻生产中的核心作用,是维护新闻质量的关键。将风险感知、社会责任和伦理规范编码进算法,是预防和减少算法偏差的有效途径。构建算法透明机制,提高算法的可解释性,是增强公众信任和监管机构有效保证监督的基础。
关键词:算法新闻;认知风险;风险防范
中图分类号:G210 文献标识码:A 文章编号:1001-4225(2023)12-0033-09
引 言
习近平总书记2019年在《求是》杂志发表的重要文章中指出:“要探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,全面提高舆论引导能力”。同年,习近平总书记提出了“全程媒体、全息媒体、全员媒体、全效媒体”的建设方案。这“四全”媒体成为我国智能媒体发展的指导目标。十九大报告中提出我国要“推动互联网、大数据、人工智能和实体经济深度融合”。近年来,传媒业作为我国与人工智能技术深度融合的风口,在“四全”媒体的顶层设计目标指导下,高速向智能化转型,传媒业的发展已步入“智媒时代”。
人工智能已成为了新一轮科技和产业革命的主要驱动力,对政治、经济、社会发展等多个领域产生了深远的影响。在这一背景下,作为传媒业人工智能应用的代表,基于大数据的自动化算法新闻生产及分发模式日趋成熟。“算法新闻”(Algorithmic Journalism)是运用算法自动生产新闻并实现传播的方法或系统,包括采、写、编、审、发、馈等业务的自动化实现。算法已由纯粹的生产工具逐渐转变,获得了信息生产者的属性。算法极大地扩展了媒体资讯的宽度和广度,简化了新闻生产的流程,丰富了受众的信息个性化体验。
然而,将内容生产的权利让渡给算法这一行为,自其诞生之初就伴随质疑。虚假新闻、错误认知导向可以出自人之手,同样也可由机器生成。2016年Facebook宣布裁撤人工内容编辑部门,将编辑权利让渡给算法,并声称此做法是为保证媒体内容的客观及中立。但裁撤人工编辑后,Facebook平台内容的可信性及中立性不升反降。其在美国各类政治事件中的偏见及虚假新闻的传播引起了广泛的争议。随着算法在新闻生产全流程的应用,相关的认知风险及其治理问题也日益凸显。
皮尤研究中心关于公众对计算机算法的态度报告指出,58%的人认为包括新闻生成在内的算法存在偏见,会诱发公众的负面认知偏向[1]。算法新闻越多,人们了解真相的难度就越大。自动化内容在政治、种族等方面的认知偏见引起了公众的担忧。算法内生性的认知偏见可能源于资本介入,也可能源于其“学习”的样本自身存在的社会结构性认知问题。这种向偏见内容“学习”的算法,生成的内容本身也带有不良的认知导向,且此类内容又会被进一步“学习”。认知偏见的循环容易形成算法信息对真实有机世界的遮蔽。其自动化、个性化快速生产的特性,使其能快速占据受众的认知渠道,从而将错误的内容传播到公众的大脑中,影响其对世界的真实认知。
现有算法新闻的研究大多着眼于自动化对业界的影响。学界已意识到算法的认知风险,但相关防范机制研究仍不足。现有研究也较少从认知角度出发探究算法新闻的心理影响,更多集中在可读性缺陷的规避和可信度的检验上。
在新时代“四全”媒体的目标指引下,算法新闻是我国传媒业在智媒时代必然要大力推广的技术,保证算法新闻能为受众所接受,保证其正确的认知导向,是提升我国新闻传播能力建设的重要举措。且由于算法新闻存在较高的认知风险,其防范研究也是大面积应用须解决的问题。因而基于新时代的传播环境和前沿的传媒人工智能进展,关注算法新闻的受众认知和风险因素,并依此开展认知偏向防范研究,是保证这项技术健康地服务于“四全”媒体建设的题中之意。
一、算法与新闻生产
(一)算法新闻的源起
算法新闻,又称自动化新闻、机器人新闻,是使用人工智能算法自动完成新闻生产并实现媒介运营的过程、方法或系统,它涵盖了信息内容采集、存储、写作、编辑、呈现及数据分析等新闻业务的自动化实现[2]。算法新闻的发展历史见证着新闻产业从传统手工作坊式生产逐步向自动化、智能化的转变。算法新闻的起源可以追溯到20世纪90年代末,算法开始被应用于新闻的聚合与生产领域。当时的自动新闻生成系统主要基于模板填充技术。这种自动化写作技术使得一些标准化的新闻报道,如财经报告和体育新闻,可以实现快速自动生成。这种自动化不仅提高了新闻生产的速度和效率,也使得新闻机构能够覆盖更多的新闻事件,尤其是在数据密集型的报道领域。进入21世纪,随着大数据和机器学习技术的发展,算法新闻开始融入更复杂的数据处理和自然语言生成技术,生成内容不再限于财经和体育等可模板化领域。其开始在新闻选题、编辑甚至专业写作过程中发挥作用。Appelman等指出,算法新闻的兴起改变了新闻的工作流程,使得新闻生产更加自动化和数据驱动化[3]。国内学者也强调了算法重构了新闻的生产流程[4]。新华社研发的“媒体大脑”就是人工智能在我国权威媒体应用的代表,其具备了专业化新闻内容的自动生产、智能分发与实时监测能力,实现了智能化的算法新闻生产与传播反馈。
(二)算法對于新闻生产流程的重构
算法对新闻生产流程的重构体现在多个方面。首先,算法使新闻选题更加依赖于数据分析,算法可根据用户兴趣和行为模式来预测和选择新闻内容。其次,融合了自然语言生成技术,算法可自动生成一些非标准化的新闻报道,大大提高了生产效率。算法还影响了新闻的编辑和校对,新闻机构开始利用自然语言处理技术来检查语法错误和事实准确性。算法使得新闻生产过程更加高效,能够快速响应社会事件和用户需求,减少了对传统记者和编辑的依赖,使得新闻报道更加迅速和广泛。此外,算法个性化推荐系统能够根据用户的阅读习惯和偏好来推送新闻,从而增强用户体验。张洪忠等指出,算法新闻正在重塑新闻生产与消费的关系,使得新闻生产更加以用户为中心[5]。
目前领域内的研究主要着眼于大数据与算法的深入应用对传统新闻生产的冲击与形塑。范红霞等指出,算法为新闻业带来的变革主要体现在:传播语境的转换、算法改变公共舆论、过滤气泡及社会隐喻的转换四个方面[6]。新闻的生产模式在算法的影响下变更为“闭环新闻生产”[7],这可能意味着国内整个新闻产业的破格重生[8]。且这种影响已经不仅停留在新闻生产层面,相关影响会通过智能化媒介及算法生成的媒介内容渗透到人类生活和社会发展的各个层面。
新闻传媒业界对于算法新闻的思考更多着眼于算法对于传统媒体中人的功能的替代与形塑。何天平认为写稿机器人的出现和应用,模糊了新媒体和传统媒体的边界,记者与编辑这类“人”的存在问题是智能化冲击中的焦点[9]。基于媒体中权力转换与让渡的视角,ScottLash提出“在一个媒介和代码无处不在的社会,权力越来越存在于算法之中”[10]。喻国明提出“算法即权力”,由于算法的存在,在新闻线索的获取中,信息权已弥散;在新闻写作与编辑中,算法已收编了把关权力;在新闻事实核查上,算法通过非制度性权力来构建“社会共识”[11]。彭兰认为未来的媒体社会中,虽然智能算法的地位会继续升高,“流行”于各类专业领域,但“人的价值比算法更为重要”[12]。无论从何种角度,算法对于新闻业的形塑已不可阻挡。
二、“进化”中的算法新闻
保罗·利文森的补救性媒介理論以及媒介进化三阶段理论为我们提供了一个理解媒介发展的框架,强调了媒介演进是一个不断进化和被补救的过程[13]。在这一视角下,每一种新兴媒介的出现都不是终结,而是媒介演化史上的一个节点,它继承了前一代媒介的优点,并针对其局限性进行了改进和优化。这一过程中,人类的主观能动性和对媒介的控制力发挥了至关重要的作用。
算法新闻作为新闻传播领域的新兴媒介形式,其发展历程体现了补救性媒介理论的核心观点。算法新闻的起源可以追溯到精准新闻、计算机辅助新闻和数据新闻,这些前身媒介在信息收集、处理和传播方面奠定了基础。从精准新闻到算法新闻的发展过程,也是人类不断发展的信息技术与媒介技术对于新闻媒介的修正过程。精准新闻强调以客观数据为基础进行新闻报道,计算机辅助新闻和数据新闻则利用技术手段提高新闻生产的效率和精确度。算法新闻在继承这些优势的同时,也致力于补足前序媒介专业门槛高、生产效率相对低下的缺点,实现了新闻内容生产的半自动化甚至全自动化,极大地提高了新闻的生产效率和分发速度。
然而,随着算法应用的高速落地,算法新闻在实践中也逐渐暴露出其内在的缺陷,其仍然是一个需要“进化”和被“补救”的媒介形式。尽管算法新闻继承了精准新闻的“真实”“客观”和“科学”的特性,但在算法的加持下,这些特性变得难以验证。例如,Facebook声称为了内容的客观中立而放弃人工编辑,但实际上却陷入了认知倾向和政治议题的偏见争议。
自动化的算法新闻生产过程中,新闻内容的偏见及对认知产生的不良影响并未得到根本解决,反而因为算法的介入而变得更加隐蔽。算法新闻的生产过程中缺乏人为监督和干预,使得潜在的歧视和认知偏见得以隐藏在算法的复杂性之后,不易被发现和纠正。这不仅对新闻的客观性和公正性构成了风险威胁,也对社会的价值观和意识形态产生了深远的影响。
在传播学领域,对于算法认知风险的讨论可追溯到1996年。Friedman等在探讨计算机中的偏见问题时指出,技术并非价值中立,算法作为技术的一种表现形式,不可避免地会反映出其设计者的认知倾向。换言之,人类的认知偏见和价值观念可能通过算法,以多种形式渗透到应用层面[14]。这一观点挑战了技术决定论的假设,强调了技术与社会价值间的互动关系。
在不同的商业或政治目的驱动下,各类算法内容生产与分发平台的运营者可能会在其算法中主动嵌入特定的认知倾向。这种行为直接影响着信息的筛选、组织和呈现方式。除了算法的发明者,使用者的立场和偏好也在算法偏见的形成中扮演着重要角色。使用者的互动行为、反馈模式和选择倾向可能会在算法学习过程中被捕捉并加以利用,从而在一定程度上塑造算法的输出结果。
根据Friedman的分类,机器中的认知偏见可以分为三种类型:“先在偏见”“技术偏见”和“突发偏见”[14]。先在偏见源自于社会现有的结构和制度,它可能在算法的发明者和使用者都不自知的情况下,被内化到算法中。这种认知偏见通常与社会文化背景紧密相关,反映了广泛存在的权力结构和社会不平等。技术偏见则更多地体现在算法设计者或使用者在技术层面上设定的限制,是有意为之的,直接将特定的认知取向植入算法中。算法会因为设计者的主观判断而被编程以优先考虑某些类型的信息,或者在处理数据时有意忽略某些群体的声音。突发偏见则是由算法使用的社会环境变化所引起的,这种偏见与社会认知、价值取向和文化品位的变化密切相关。随着社会环境的演变,人们的期望和需求也在不断变化,这要求算法能够适应这些变化,以避免产生不公平或不恰当的输出。然而,算法的更新和调整往往滞后于社会变迁,这可能导致算法在新情境下的不适应性,从而产生突发偏见。
作为新生媒介的算法新闻,其不断的“进化”过程,就是其认知风险的排除过程,无论这类风险是先在的、技术的还是突发的,都会影响受众对于真实世界的认知。
三、算法新闻的认知风险
在探讨算法新闻的潜在认知风险时,学术界普遍采用了理论演绎的方法,构建了综合性的假设框架。董天策等通过隐私权、技术伦理和认知价值取向三个维度,系统地识别了算法新闻的风险要素[15]。邓建国强调算法新闻的风险主要体现在新闻价值的缺失、算法错误可能导致的广泛影响、算法新闻生产过程中的不透明性,以及算法新闻质量与社会数据化水平的正相关性[16]。陆新蕾从算法偏见、信息传播的狭窄化、新闻价值的异化等角度,分析了算法技术存在的认知风险[17]。具体而言,目前关于算法新闻的认知风险,学界主要从有偏的价值导向、算法黑箱、虚假新闻、过滤气泡及隐私泄露几方面展开讨论:
(一)有偏导向与认知失调
在社会主义核心价值观的涵育之下,公众普遍形成了一套主流的核心价值体系。从认知失调理论的视角,带有错误价值偏向的新闻会引起大众的认知失调[18]。这是因为其挑战了人们现有的认知体系,迫使人们在保持心理平衡和接受新信息之间做出选择。这种选择过程会导致受众认知结构的改变、信息的选择性接受或对信息源的重新评估,从而在个体和社会层面产生广泛的影响。
算法新闻的开发者普遍强调算法的中立与无偏,但现有的大规模算法应用不断诱发着认知偏向风险的争论。人为操控的机器学习模型,在学习了有偏的训练数据后自动生成的内容必难以达到中立与客观的标准。这成为了算法新闻认知风险中对社会潜在危害最大的一点。错误的价值导向若在算法的掩护下被高效且精准地传播,必然引起负面的社会意识反响。
周葆华等关注算法新闻的价值取向,认为新闻的核心任务是满足受众的认知需求而非欲求,算法新闻在迎合用户兴趣和需求、优化信息匹配的同时,可能带来信息质量下降的风险[19]。陈昌凤从价值导向角度出发,认为基于内容的推荐算法倾向于迎合用户偏好,而非进行教育或引导,鉴于新闻产品的社会功能,大众媒体应超越娱乐,承担起更广泛的社会责任,这要求对算法价值观进行人文价值的外部调整[20]。王海燕关于数字新闻时间性的研究指出,过分强调技术和速度可能会削弱新闻的权威性和社会合理性,而算法新闻作为一种强调时效性的技术,其广泛应用对新闻权威价值导向和社会正当性构成了潜在挑战[21]。
(二)算法黑箱与媒介信任
从工作原理上看,算法是基于一系列复杂的数学模型和编程指令来处理数据并做出决策的。但这些决策过程对于新闻受众来说往往是不可见的,受众在接触算法生成的新闻内容时,往往难以理解背后的机制和逻辑,这种“黑箱”特性增加了受众对算法新闻的不信任感[22]。
对于新闻受众而言,算法不仅是一个技术工具,更是一个价值判断的主体。算法根据用户的历史行为数据,如点击、浏览和分享等,来预测用户的偏好,并据此调整新闻内容的生成和推荐。然而,受众通常无法获知算法是如何分析这些数据的,也不清楚算法在内容推荐中所采用的具体标准和权重。这种信息的不对称性使得受众在面对算法新闻时感到无力和困惑。
此外,算法新闻的不透明度还可能导致受众对新闻机构的不信任。当受众无法理解新闻是如何被生成和筛选的时候,他们可能会怀疑新闻机构是否在背后操纵信息,以服务于特定的目的。这种怀疑不仅损害了新闻机构的公信力,也对社会的信息环境造成了负面影响。
算法的高不透明度和低解释性是受众普遍可感的风险因素。在新闻领域,公信力是新闻机构生存和发展的基石。如果受众对算法新闻的生成过程缺乏信任,那么无论算法多么高效和精准,都难以实现其应有的社会功能。
(三)虚假新闻与确认偏误
受众在处理信息时存在确认偏误,即倾向于偏好、寻找、解释和记忆那些与自己现有信念相一致的信息,同时忽视或贬低与之相悖的信息的现象。这种认知偏差普遍存在于人类的决策和判断过程中,影响着个体对新信息的接受和处理。虚假新闻往往利用这一点,通过提供符合特定群体信念的信息来获得信任和传播。
算法新闻的兴起为信息传播带来了革命性的变化,但其自动化特性也引发了关于内容真实性的深刻担忧。张志安等提出,算法新闻在揭示事件深层真相及提供深度现实解析方面存在局限。相较之下,人类在事实甄别与复杂逻辑推理方面具有独特价值,这不仅体现了记者的创造性,也突显了算法所缺乏的人類特质,间接批判了算法新闻生产过程中价值异化的现象[23]。Allcott等的研究发现,算法新闻的自动化生产和分发机制降低了假新闻生成和传播的门槛,使得虚假信息能够迅速在网络空间扩散。这种传播方式不仅损害了新闻的公信力,也可能被外部群体利用,通过干预信息流动来影响公共舆论[24]。
在算法新闻的运作过程中,由于缺乏主观能动性,算法本身无法对新闻内容的真实性进行判断和筛选。正如Anderson所指出的,算法仅仅是按照预设的程序和规则执行任务,它无法主动提升新闻内容的质量,也难以识别和过滤掉假新闻[25]。但算法新闻能够根据用户的阅读习惯和偏好提供个性化的新闻推荐,助推了受众确认偏误的形成与巩固。这种局限性意味着,它在无法保证推荐内容的质量和真实性的情况下,就把符合受众偏好的信息展示在受众面前,很可能导致受众对真实世界的认知产生偏差。虚假新闻与确认偏误之间存在相互作用。虚假新闻可以引起或增强受众的确认偏误,而确认偏误又可能导致虚假新闻的接受和再传播。
(四)过滤气泡与舆论极化
在算法对于新闻生产流程的影响研究中,算法带来的智能化的精准分发是被讨论最多的议题。过滤气泡、信息茧房与回音室效应都是在讨论算法重塑新闻分发过程时常被提及的概念。这些现象共同描绘了一个信息分发的图景,其中个性化推荐算法可能导致用户仅被投放与其现有观点相一致的信息,从而形成了过滤气泡。这种现象不仅限制了用户的信息接触范围,也可能导致公众对现实世界的片面理解。
随着移动互联网和智能设备的普及,新闻消费行为逐渐向移动端迁移。各类新闻应用程序通过收集用户的信息偏好、生理节律等数据,构建了更为精准的用户画像。这些数据使得算法能够更精确地推送符合用户兴趣和偏好的新闻内容,从而在一定程度上满足了用户的个性化需求。然而,这种个性化服务的另一面是加剧了过滤气泡效应[26]。用户在不知不觉中被限制在一个狭窄的信息空间内,缺乏对不同观点和信息的接触,为舆论极化提供了土壤。回音室效应是过滤气泡效应的延伸,算法助推生成了一个相对封闭的信息环境,其中相似的观点和信念不断被重复和加强。在这样的环境中,受众被同类信息所包围,异质性观点难以进入,从而导致用户的认知和态度进一步极化。这种环境不仅会使个体的态度、信念和决策变得更加极端,也可能在更广泛的社会层面上引发问题,如社会分裂和极端主义思想的滋生。
(五)隐私泄露与数字孪生
从算法新闻的隐私风险角度,其自动化内容生产和分发的技术架构,依赖于大规模数据集内的用户画像和新闻资讯接触数据。各个终端制造商及媒体服务平台均建有收集用户数据的数据库,其中详尽记录了用户的个人信息及网络活动,包括性别和年龄等人口学信息、受众主动的偏好设置、被动的信息偏好模式、消费习惯、其他行为模式和生理节律等,这类信息收集行为,在现实意义上生成了用户的“数字孪生”。这一方面为算法新闻的生成提供了基础素材,并精确定位了推送信息的目标受众。另一方面,这些详尽的个人信息,特别是过往内隐性的心理信息,通过数字孪生变为可测量、可计算、可复制和可利用的外显信息,这对个人隐私权构成了新的威胁。
跨国互联网巨头如Google、Facebook以及国内的阿里及腾讯,由于其庞大的用户基数,掌握了海量的用户网络行为数据,这些数据汇聚成可供算法分析的大数据资源。用户在使用网络服务,即是在不断地贡献数据,同时也在无形中暴露了个人隐私。在平台服务器中存储了无数用户的“数字孪生”,这形成了算法助推下的一种全景式监控的格局,使得个人的认知、行为、态度和偏好均成为可被全面观察的对象。如2012年Google绕过Safari浏览器的隐私设置,追踪用户浏览活动的行为等隐私侵犯事件仍屡见不鲜。个人信息的非知情记录与公民对隐私的期望背道而驰,大数据的采集与个人信息隐私权的冲突日益显著。从传统的“私密领域”保护到对“信息自主权”的主张,及业界对“被遗忘权”的讨论,隐私风险也一直是算法新闻及其内容源头的大数据相关的认知伦理讨论的核心。
四、算法认知偏向的防范
算法新闻的认知风险涉及有偏价值导向、算法黑箱、虚假新闻、过滤气泡及隐私泄露等多个方面。要有效防范这些认知风险,需要从技术、法律和伦理等多个维度进行综合考虑。目前学界与业界关于算法风险治理有三条明确路径。
(一)回收算法把关权限
算法新闻有偏及虚假内容的生产,其根源在于“算法对把关权力的程序化收编”[11]。在传统新闻业中,新闻制作者依据新闻价值标准,如事件的重要性、时效性等关键属性,并结合其职业伦理自我认同,对新闻素材进行精心撰写与编辑。在算法时代,面对便捷性、共享性以及信息碎片化等新兴要求,传统新闻工作者作为信息守门人的角色逐渐被数据驱动和算法决策所取代。
许加彪等强调了内容审核人员在确保新闻真实性中的重要性,提出在人工智能时代,应当建立一个人机协作的纠错机制,即以人工审核为主,机器算法为辅。这种机制能够有效地结合人类的专业判断和机器的高效处理能力,确保新闻内容的真实性和可靠性。通过这种方式,可以在快速变化的信息环境中,保持新闻质量的高标准[27]。鞠宇恒通过对今日头条的案例分析,揭示了算法驱动的新闻生产与分发平台在内容审核机制上的不足。该研究指出,算法引发的一连串问题,源于人工编辑在算法决策过程中的缺位,这导致了算法审核的优先级超越了人工编辑。这种优先算法审核后人工审核的机制,可能会导致信息内容的质量控制不力。同时,算法审核标准忽略了传统新闻价值观念,致使其内容充斥着大量具有负面价值导向的内容,如色情、低俗和虚假信息。[28]
为解决算法对于把关权力的收编,图灵奖得主Donald Knuth提出了一种整合技术逻辑与职业规范的策略,强调算法工程师与专业工作者之间应建立紧密的协作关系[29]。依据他的观点,在算法开发过程中应该融入新闻职业的伦理和价值观,以确保算法不仅遵循技术逻辑,同时也符合新闻传播的真实性和公正性要求。
Jane Kirtley從法律和伦理的角度,指出算法固有的局限性可能无意中促成虚假新闻的产生与扩散,同时导致具有新闻价值的信息被边缘化[30]。她提倡采用“人工影响模式”,通过人工干预来识别和阻止虚假新闻的传播。Kirtley的论述强调了在算法新闻生产中人工监督和审查的必要性,以及在算法可能导致的偏差中发挥人的主观能动性。
尽管算法技术在新闻传播领域的应用带来了诸多便利和效率提升,但其管理和规制的问题也日益凸显。虽然算法新闻的自动化生产改变了传统新闻业的运作模式,但人的参与在确保新闻内容的真实性和可靠性方面仍然不可或缺。随着算法新闻的普及,对于算法可能导致的错误和偏差,需要明确责任归属,划定把关责任的界限,以便进行有效的监督和管理。在这一过程中,媒体人、算法设计师、传播学者需共同协作,探讨如何在算法新闻的生产和分发中平衡技术自动化与人工把关的关系。
(二)嵌入风险感知规则
算法新闻产生过滤气泡及隐私泄露等风险的核心,在于算法本身缺乏固有的道德判断能力和自我纠正机制。算法设计者往往声称其产品是“价值中立”的,但这种中立性实际上为负面认知的传播提供了空间。换言之,这种所谓的中立性反倒致其在处理信息时无法有效识别和抵制有害内容,从而产生了认知风险。
在流量为王的当下,各类算法新闻平台及其背后资本将大量的算力资源投入内容生产及分发,以吸引广泛的受众注意并实现商业利益最大化。为了争夺注意力,有些平台将资源和流量导向那些能够激发用户兴趣的价值有偏内容。基于用户共性兴趣,低俗和猎奇的新闻内容往往能吸引大量的流量。这种以迎合用户偏好为标准的内容分发机制,短期内虽能迅速吸引用户,实现流量激增,但从长远来看,将引发算法新闻,乃至整个新闻行业的信任风险。算法平台应积极履行媒体社会责任,将积极的社会态度和价值观整合入算法模型和内容生成分发系统中,将法律、道德等社会规范和价值观念编码嵌入算法系统。
Daniel Neyland在其研究中指出,算法在悄无声息中对我们的生活施加了限制,并对我们的隐私权造成了侵犯。他提出,通过将问责机制编码整合进算法系统中,我们能够构建一个算法自监督的体系[31]。这要求算法的设计者和运营者,不仅要关注技术的效率,还要考虑到算法可能带来的伦理后果,并为此承担责任。这意味着算法需要内置一种机制,能够对其输出的内容进行道德和伦理层面的评估,并在发现问题时及时进行调整。
陈璐瑛概述了一个三步流程:第一步识别并制定算法应遵循的伦理规范,规划在价值冲突时的应对策略。第二步将这些规范转化为代码,自上而下修正算法,并通过投入人类社会真实样本来让算法学习价值判断。第三步是对算法系统的工作成果进行评估[32]。
Betsy Williams提出了探索性歧视感知数据挖掘(Exploratory Discrimination-aware Data Mining)的策略,该策略的核心在于通过数据分析的过程,主动寻找和监测可能导致歧视的模式和趋势,从而在算法决策过程中预防和减少不公平现象的发生。Williams的研究表明,社会类别数据,如性别、种族和年龄等,尽管在某些情况下可能被认为具有敏感性,但在揭示和对抗算法中的歧视性决策方面发挥着关键作用[33]。通过积极地使用这些数据,研究者和开发者能够更准确地识别和理解算法决策背后的社会动态,进而设计出更为公正和透明的算法模型。
(三)构建算法透明机制
在学术界和产业界的共识中,提高算法的可透视性被视为确保算法新闻真实性的关键条件。这不仅有助于受众辨别新闻内容的真伪,也便于对媒体机构的运作进行有效监管。然而,达到完全的开放和透明仍是一种理想化的追求。
张淑玲认为,为了建立算法的公开机制,应当从算法的构成要素、程序流程和运作背景三个维度进行明确[34]。多维度的透明度策略不仅有助于受众理解算法如何运作,也为监管机构提供了监督和评估算法决策的基础。可以确保算法新闻的生产过程更加公开,从而增强新闻内容的可信度和权威性。遵循透明度原则,新闻机构与算法开发者需从数据源、运算逻辑和算法背景三方面确保算法透明度。
数据透明要求新闻平台对数据源的披露、数据处理的质量和方法进行详尽的公开。这包括但不限于数据的采集方法、样本的代表性、数据的可信度与准确性,以及数据处理过程中的关键变量。通过这种方式,受众能够对算法如何影响新闻内容的生成和推送有一个清晰的认识,从而提升对算法运作机制的理解。
运算透明强调设计者和工程师需向公众阐明算法的工作原理、决策逻辑以及数据处理过程中可能存在的不确定性。这不仅涉及到算法的推荐机制,还包括算法在处理信息时所依赖的规则和参数。
背景透明要求新闻机构应明确算法设计者和人工编辑在内容筛选过程中的角色和参与程度,尤其是在处理涉及社会价值导向的新闻时。机构需要向受众传达算法设计的初衷和目标,以避免潜在的偏见和误导,从而提升公众对新闻内容生成机制的信任。
結 语
算法新闻作为一种新兴的传播形态,其在提升新闻生产效率和满足个性化需求方面展现出巨大潜力,但其引发的认知风险也不容忽视。价值有偏内容引发的认知失调、算法黑箱导致的媒介信任缺失、自动化虚假新闻生成诱发的受众确认偏误增强、过滤气泡助推的舆论极化、隐私泄露产生的数字孪生暴露,均是当前算法新闻领域已被确证存在的认知风险。这些风险的存在,提示我们算法新闻的发展不应仅追求效率的最大化,更应关注其对社会价值观、信息真实性和公众信任的影响。
在防范算法认知偏向的过程中,技术、法律和伦理的多维治理路径为我们提供了重要启示。首先,回收算法把关权限,确保人工编辑在新闻生产中的核心作用,是维护新闻质量的关键。其次,嵌入风险感知规则,将社会责任和伦理规范编码进算法,是预防和减少算法偏差的有效途径。最后,构建算法透明机制,提高算法的可解释性,是增强公众信任和监管机构有效监督的基础。
面对算法新闻的挑战,新闻机构、技术开发者和政策制定者需探索平衡技术创新与社会责任的新路径。这不仅要求我们在技术层面上的创新,更需要在价值层面上进行深入反思。唯有如此,算法新闻才能在促进社会发展的同时,避免潜在的认知风险,真正成为服务于公众及“四全”媒体建设的有益工具。
参考文献
[1]SMITH A. Public attitudes toward computer algorithms[EB/OL].(2018-11-16)[2023-03-01].https://www.
pewresearch.org/internet/2018/11/16/public-attitudes-toward-computeralgorithms.
[2]SIM D H, SHIN S J. Implementation of algorithm to write articles by stock robot[J]. International Journal of Advanced Smart Convergence, 2016, 5(4): 40-47.
[3]APPELMAN A. The News Gap: When the information preferences of the media and the public diverge[J]. Journalism & Mass Communication Quarterly, 2014, 91(4): 848-850.
[4]彭兰.智媒化:未来媒体浪潮——新媒体发展趋势报告[J].国际新闻界,2016,38(11):6-24.
[5]张洪忠,石韦颖,刘力铭.如何从技术逻辑认识人工智能对传媒业的影响[J].新闻界,2018(2):17-22.
[6]范红霞,孙金波.数据新闻的算法革命与未来趋向[J].现代传播(中国传媒大学学报),2018,40(5):131-135.
[7]王佳航.数据与算法驱动下的欧美新闻生产变革[J].新闻与写作,2016(12):38-42.
[8]杨舒涵.算法新闻生产中的把关机制研究[D].山东师范大学,2019.
[9]何天平,倪乐融.机器人新闻的迷思:“记者”将被淘汰?[J].东南传播,2018(3):1-2.
[10]LASH S. Power after hegemony: Cultural studies in mutation?[J]. Theory, Culture & Society, 2007, 24(3): 55-78.
[11]喻国明,杨莹莹,闫巧妹.算法即权力:算法范式在新闻传播中的权力革命[J].编辑之友,2018(5):5-12.
[12]彭兰.机器与算法的流行时代,人该怎么办[J].新闻与写作,2016(12):25-28.
[13]保罗·利文森.软边缘:信息革命的历史与未来[M].北京:清华大学出版社,2002.
[14]FRIEDMAN B, NISSENBAUM H. Bias in computer systems[J]. Transactions on Information Systems, 1996, 14(3): 330-347.
[15]董天策,何旭.算法新闻的伦理审视[J].新闻界,2019(1):27-33.
[16]邓建国.机器人新闻:原理、风险和影响[J].新闻记者,2016(9):10-17.
[17]陆新蕾.算法新闻:技术变革下的问题与挑战[J].当代传播,2018(6):87-89.
[18]邓胜利,赵海平.基于认知失调理论的偏差信息搜寻行为与认知的作用机理研究[J].情报科学,2019,37(1):9-15.
[19]周葆华,骆陶陶.人工智能重塑新闻业:进展、问题与价值[J].南京政治学院学报,2018,34(6):83-89.
[20]陈昌凤,师文.个性化新闻推荐算法的技术解读与价值探讨[J].中国编辑,2018(10):9-14.
[21]王海燕.加速的新闻:数字化环境下新闻工作的时间性变化及影响[J].新闻与传播研究,2019,26(10):36-54.
[22]CHENG X, LIN X, SHEN X, et al. The dark sides of AI[J]. Electronic Markets, 2022, 32(1): 11-15.
[23]张志安,刘杰. 人工智能与新闻业:技术驱动与价值反思[J]. 新闻与写作,2017(11):5-9.
[24]ALLCOTT H, GENTZKOW M. Social media and fake news in the 2016 election[J]. Journal of Economic Perspectives, 2017, 31(2): 211-236.
[25]ANDERSON C W. Rebuilding the news: Metropolitan journalism in the digital age[J]. Digital Journalism, 2013, 2(2): 249-251.
[26]ROWLAND F. The filter bubble: What the internet is hiding from you[J]. Portal: Libraries and the Academy, 2011, 11(4): 1009-1011.
[27]许加彪,韦文娟,高艳阳. 技术哲学视角下机器人新闻生产的伦理审视[J]. 当代传播,2019(1):89-91.
[28]鞠宇恒.大数据算法下新闻把关机制研究——以今日头条为例[J]. 传播力研究,2019,3(36):74.
[29]KNUTH DONALDE. 计算机程序设计艺术(第3版)[M].北京:国防工业出版社,2002.
[30]KIRTLEY J E, MEMMEL S. Rewriting the“book of the machine”: Regulatory and liability issues for the internet of things[J]. Minnesota Journal of Law Science & Technology, 2018, 19: 455.
[31]NEYLAND D. Bearing account-able witness to the ethical algorithmic system[J]. Science, Technology & Human Values, 2016, 41(1): 50-76.
[32]陳璐瑛.算法新闻的传播伦理失范问题及对策研究[D].辽宁大学,2021.
[33]WILLIAMS B A, BROOKS C F, SHMARGAD Y. How algorithms discriminate based on data they lack: Challenges, solutions, and policy implications[J]. Journal of Information Policy, 2018, 8: 78-115.
[34]张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(7):49-53.
(责任编辑:孙碧玲)