“数字规训”与“精神突围”:算法时代的主体遮蔽与价值守卫

2021-04-15 01:34
云南社会科学 2021年1期
关键词:智能算法主体数字

方 正

一、引论:算法时代的到来

近年来,随着人工智能与大数据进入新闻传播领域,人类社会开启了以数据与计算为核心的信息传播新时代。所谓大数据与智能化传播的本质,就是基于计算机的算法程序对各类数据信息进行搜集、整理、评估、分类以及应用。智能算法应用的普及所带来的社会变革,引发了学术界的深度思考。2016 年,英国权威刊物《自然》发表社论指出,智能算法为各类数据信息的获取带来了巨大便利,但也产生了隐性的不平等、歧视、偏见等社会问题。①“More accountability for big-data algorithms”.Nature,2016,537(7621),p.449.基于计算系统的算法程序缩短了数据抓取与信息生成之间的时距,提升了新闻信息的时效性②Tandoc.E.C.&Maitra,J.“News organizations’use of native videos on facebook:Tweaking the journalistic field one algorithm change at a time”.New Media &Society,2018,20 (5),pp.1679-1696.;算法推荐下的智能信息分发机制,满足了受众日益多元化的个性需求③Möller,J.,Trilling,D.,Helberger,N.&van Es,B.“Do not blame it on the algorithm:An empirical assessment of multiple recommender systems and their impact on content diversity”.Information,Communication &Society,2018,21(7),pp.959-977.;算法在分发受众不同信息时,也在某种意义上保护了现代民主文化④Balkin,J,M.“Free Speech in the Algorithmic Society:Big Data,Private Governance,and New School Speech Regulation”.SSRN Electronic Journal,Setempber 2017,Available at:https://ssrn.com/abstrait=3038939 or http://ax.doi.org/10.2139/ssrn.3038939.。但算法的推广亦产生了诸多潜在的风险,如算法以受众取向为标的,将媒介物质性推向了分析中心,带来了关乎媒介伦理的诸多质疑①Helberger N,Karppinen K,D’Acunto,Lucia.“Exposure diversity as a design principle for recommender systems.Information”,Communication &Society,2016,21(2),pp.1-17.;算法黑箱的存在使得信息过滤不透明,引发用户对其可信度的普遍不信任②Finn,E.What algorithms want:Imagination in the age of computing.Cambridge:MIT Press.2017,pp.1-5.;信息的个性化定制亦意味着信息来源的相对同质化,破坏了传统信息传播结构的动态平衡③Nechushtai,E.&Lewis,S.C.“What kind of news gatekeepers do we want machines to be? Filter bubbles,fragmentation,and the normative dimensions of algorithmic recommendations”.Computers in Human Behavior,2019,90(04),pp.298-307.;信息获取的即时性,消耗了公民公共参与的热情④常江:《价值重建:新闻业的结构转型与数字新闻生产理论建构》,《编辑之友》2019 年第3 期。等。

无论国内外学者对其作何种评估,毫无疑问智能算法已对当代人的生活产生了重要影响。究其本质,在于社会数据化的不断深化,个体社会交往模式发生了根本性转移。社交模式转变促使了身体在场向精神在场的流动。从现实走向虚拟的过程中,算法深度介入人的社会生活,成为个体日常的重要组成部分。在拟态的数字空间中,个体与外界的信息交换不再依赖身体进行实体沟通,“身体的直接交流让位于通过数字化编码的虚体的中介进行的交流。作为身体的影子的虚体正在逐渐凌驾于身体之上,成为控制和支配身体的力量”⑤蓝江:《生存的数字之影:数字资本主义的哲学批判》,《国外理论动态》2019 年第3 期。。“虚体”的交流并不必然对应着人与人的关系,沟通双方既有可能是实体对象,也有可能仅是一段虚拟程序或是智能软件系统。但无论这些对象是人还是非人、是真实对象或者虚拟对象,在赛博空间中都会得到同等的对待。在“虚体”的交流中,基于大数据与计算系统的算法成为最大的沟通规则。当人的实体身份全部化约为冷冰冰的数据身份时,人的社交关系不得不依赖于服从于算法,一切事物都成为算法与大数据结构下的对象。人的本质在其现实性上是一切社会关系的总和,社会关系的数据化让所有个体的日常为海量数据信息所包裹,而人的精神与价值则面向数字技术所架构出来的全新场域。

二、“数字规训”:智能算法裹挟下的主体遮蔽

步入21 世纪,人类精英改造世界的主战场不再局限于自然伟力、太空宇宙或是微观世界,而是深入到每个个体的精神世界。数字技术的不断发展使人的社会关系虚拟化,信息媒介的更新迭代让主体意识毫不设防地全面敞开。在媒介与代码无处不在的社会中,主体的自由意志不得不面向技术的规训与重塑。

(一)数字全景监狱

1785 年,英国哲学家边沁为改造违法者设计了一种圆形监狱(环形监狱),并将之描述为“一种新形式的通用力量”。在边沁的设计中,“(监狱)中心是瞭望塔,所有囚室围绕着中央监视塔,囚舍有两扇窗户,一个面向瞭望塔,另一个则用于通光。中心瞭望塔上的看守对囚犯可以一览无余”⑥Foucault,M.Discipline and Punish:The Birth of the Prison,New York:Pantheon,1977,p.200.。圆形监狱设计的绝妙之处在于,囚徒永远处于被凝视的状态,而信息的不对称使之无法得知自身是否被监视。法国哲学家米歇尔·福柯将“圆形监狱”理论化为“全景敞视主义”。全景敞视是现代控制型社会的自我镜像,它通过最微小的权力操控与空间配置将身体的所有行为规约于最细致的训诫之下,而执行这一权力的监视机构则遍布在社会所有的“毛细血管”中。监狱、学校、工厂甚至精神病院,几乎所有的公共机构都成了让监视无处不在的规训机器。“全景敞视主义”也预示着,对个体的监视将不再局限于一个密闭的物理空间中,监视面向全社会敞开了大门。进入20世纪90年代,长期研究“监视社会”的美国学者戴维·里昂将之定义为:“通过公共权力机关和大型企业的计算机系统对社会成员日常生活信息不间断地追踪、收集、储备并不停运转分析的社会。”⑦Lyon,D.The Electronic Eye:The Rise of Surveillance Society.Minneapolis:University of Minnesota Press,1994,p.67.监视主体不再是实体的存在,监视权力则通过更为先进的电子监控设备完成。电子镜头之下各种参差细节、复杂排列、有序组合在无时空间断的模式下得以完整具现,“监视社会”由此成为现代社会的重要特征之一。

相比于戴维·里昂所定义的电子摄像孔下的“监视社会”,数字时代的监控更加不易觉察而又无孔不入。2013 年“棱镜门事件”的爆发昭示了数字技术建构出的窃听网络已经遍布全球,即便身居高位的掌权者亦难摆脱被监控的命运。基于大数据与计算系统的算法,让数字空间成为所有人都无法逃离的新型全景敞视空间。从公共机构到企业实体甚或某款智能软件,在一切需要用户身份信息登录的数字平台上,社会成员的各类信息如同千疮百孔的遮羞布一样被一层层剥离。大数据与算法程序的“优异”之处在于:当社会成员进入数字空间并开始与外界进行信息沟通时,一切痕迹都将成为算法抓取与分析的对象,而成员自身则处于完全无意识的状态,无从得知在何时何处何种信息被取用。这种虚拟空间中的无意识,让诸多无法尽阅的“用户须知”“用户条例”成了窥探用户隐私的利器。算法的智能化则摆脱了信息筛选的繁杂程序,所有信息被有针对性地过滤与排列组合,勾勒出该用户完整的“数据轮廓”。身份信息的数据化与透明化,让传统社会相对于国家与公共机构并不透明的私人空间完全敞开,主体存在不再是现实世界中的真实自我。数据监视的可回溯性、实时性与极限化,让主体意识处于无时无刻不被监视的情境,而主体意识却处于毫无觉察的松懈状态,并在网络匿名与伦理松绑的心理暗示中,继续以制造数据“痕迹”的方式参与建构数字监视网络。因而有学者指出,算法应用虽造就了稳定的控制型社会,却让主体在被算法监听、监视与监控中丧失了多元发展空间,限制了人类成长的诸多潜在可能性。①周辉:《算法权力及其规制》,《法制与社会发展》2019 年第6 期。

(二)数字致瘾机制

社交模式由现实在场向虚拟空间的迁移,不仅是因为数字技术带来了节约时间成本的诸多便利,而且数字设备使用时间的不断增长,充分凸显了数字技术在其便捷性之外的另一个显著特征——致瘾性。恰如美国左翼社会学家亚当·奥尔特指出的:“数字时代的环境和氛围比历史上任何时代都更容易让人上瘾……社交媒体彻底塑造了年轻一代的头脑。”②[美]亚当·奥尔特:《欲罢不能:刷屏时代如何摆脱行为上瘾》,闾佳译,北京:机械工业出版社,2018 年,第10 页。数字致瘾机制与传统的化学药品成瘾机制不同,“它并非是将某种化学物质摄入体内,但产生的效果却是类似的——因为它们吸引力强,并且设计得当”③[美]亚当·奥尔特:《欲罢不能:刷屏时代如何摆脱行为上瘾》,第3 页。。在数字致瘾机制的运作模式下,隐藏着一整套“致瘾流程”。自从媒介流量与算法技术同商业利益勾连以来,传统以传播者为中心的传播模式逐渐走向以受众为中心的时代。当关注度成为日渐稀缺的商业资源,极尽所能取悦受众便成为传媒资本运作的首要原则。当代中国社会流动性不断增强,公民社会身份的变化随之加快。在虚拟的数字空间中,智能算法可以基于不同情境的话语场景设置,自发嵌入大数据描绘出的关于其个体身份的相应设计,从而契合受众身份变迁的现实需求。认同带来的满足感成为束缚受众的隐性羁绊,并使之沉迷于获取现实社会中极度缺乏的虚拟关注与认同的幸福之中。不仅如此,媒介技术的变革也在不断重构着数字世界的虚拟环境。从虚拟现实(VR)、增强现实(AR)再到各类可穿戴设备的发明,智能算法在人机互动中不断强化人的感官体验:算法可以在隐私数据的收集中感知个体情绪的喜好,从而调整人机界面的背景色、画面感、字体以及音量等体验要素,使之不断接近用户心理需求的最佳状态,将用户心理挫折感限制在最低程度,从而最大化地增加用户使用时间与频次。

从数字致瘾的流程看,人对算法运作的依赖是相对隐性的。算法程序越完善,算法决策越符合人的内心倾向,其体验度便越接近用户的心理舒适区。在算法决策日益精准化的时代,媒介技术变革与主体行为惯性之间的内在张力不断加剧用户对算法决定的依赖,并在其选择是否接受某些信息的问题上越来越适应和接受算法决策,主体思维的惰性由此形成。高度仿真的虚拟世界还会增强虚拟形象与主体的互动功能:智能算法结合用户的社会关系、身份信息以及知识结构等要素勾画出系统的思维图谱,虚拟形象则借此完成与现实主体的对话沟通,给予受众前所未有的虚拟体验。“精心设计的场景让受众迷失在有趣的机器世界,逐渐模糊了人与机器、强迫与控制、诱惑与爱好之间的界限。在人机一体的状态下,日常担忧、社交需求甚至身体意识都会消失。”①Lee,K,W .“Addiction by Design:Machine Gambling in Las Vegas by Natasha Dow Schüll (review)”.Technology and Culture,2014,55(1),pp.278-280.当主体无法清晰意识到虚拟与现实的界限,便会在数字世界耗费更多的自由时间,对现实的关注度逐渐萎缩,甚而本末倒置地忘却作为自身存在与发展基础的真实自然。人类主体意识的形成源自现实社会的身体实践,缺乏足够的现实沟通使个体在虚拟沉迷中丧失与现实勾连的兴趣。导致“人们的自主意识、价值选择等主体能动性被蚕食”。②刘璐璐:《数字经济时代的数字劳动与数据资本化——以马克思的资本逻辑为线索》,《东北大学学报(社会科学版)》2019 年第4 期。

(三)数字异化劳动

1977 年,美国学者达拉斯·斯麦兹在《传播:西方马克思主义盲点》中正式提出了“受众商品论”,以马克思主义视域来考察传播的政治经济学意义,并将受众视作以市场广告为主要收入来源的传媒资本所生产的商品。“受众劳工”的概念首次进入学界的视野,并在理论上昭示着“数字劳动”的出现。大众传播系统自此摆脱了单一的意识形态功能,具有了生产与引导的双重属性。随着数字技术的不断发展,21 世纪以来对“数字劳动”的关注与研究逐渐增多,英国马克思主义学者克里斯蒂安·福克斯较为系统地阐述了“数字劳动”理论。在福克斯看来,“数字媒介技术和内容的生产中资本积累所需要的所有劳动都属于数字劳动”③Scholz T.“Digital Labor: The Internet as Playground and Factory”.New York:Routledge Press,2013,p.212.。照此定义的理解,受众在社交媒体上的数据生产,包括视频、图像以及文字等各类形式的内容制作均属于“数字劳动”的范畴。这些因用户的社交需求或心理需要所开展的内容生产完全出于其主观意愿,因而是一种免费劳动。当这些数据信息的使用权限为社交媒体所获取,并被作为商品销售给某些特定的企业(如广告商)获取巨额利润,便构成了“数字劳动”概念中所指的数字剥削的全过程。与现实的物质性生产不同的是,“数字平台上的竞争不是由价格和成本的差值来计算的,数据收集和分析成为评判资本竞争优势的主要方式”④Nick Srnicek.Platform Capitalism.Cambridge:Polity,2016,p.97.。质言之,当用户在使用数字媒体时,其生产出来的任何数据都有可能被“打包”成可供出售赚取差额利润的商品。在这一过程中,由于用户是无偿劳动,社交媒体是无偿占有,传媒资本由此完成了对数字用户的完全剥削。

当数字技术革新步入算法时代后,“数字劳动”的特征便更为凸显。智能算法的运作让传播的操作后台化,在传媒资本权力不断扩张的情况下,传播资源被逐步垄断,内容采集、生产以及分发的各个环节均难以受到公共力量的监督。劳动者甚至无法得知自己何时会成为被剥削的对象,信息的不对称使之处于完全无意识的状态,“数据流动的透明性与不可逾越的资本结构性限制相抵触,个人信息的商品化成为权力不平衡的根源”⑤Crain,M.“The limits of transparency:Data brokers and commodification”.New Media &Society,2016,20(3),pp.88-104.。深藏于“数字劳动”剥削本质之下的,是数字媒体用户大量自由时间与精力的消耗以及主体性意识的丧失,受众被还原为没有能动性的纯粹市场要素。以定向广告的投放为例,用户生产出来的以个人信息为主要内容的商品因其独特的强相关性成为作用于劳动者自身的重要工具。在获取了大数据与算法分析整理的用户数据之后,广告商的广告投放可以更高效精准地符合用户的心理期待,从广告形式、广告内容再到广告设计,无不契合用户的潜在喜好,增加了用户对广告的关注时间,激发了用户的购买欲望,提升了数字消费的可能性。精准的广告投放在博得用户大量关注后,逐渐消解了其自觉的抵抗意识,而用户却会因过度消费而逐步陷入纵欲、失控、无序的消费影像中,建构起鲍德里亚语境下后现代化社会的消费主义文化景观。

(四)数字价值茧房

伴随着数字技术的发展,互联网信息呈现爆炸式增长的样态。数字时代的吊诡之处就在于:在信息海量增长的现实之下是人们无法获取有效信息的悖论。正如约瑟夫·奈所说:“丰富的信息导致关注的贫乏。当我们被大量的信息淹没在其中之时,我们难以确定关注什么。”①[美]约瑟夫·奈:《硬权力与软权力》,门洪华译,北京:北京大学出版社,2005 年,第152 页。智能算法的出现,有效地解决了这一问题。根据传播心理学的观点,受众的选择性心理会将信息进行人为分流,对不同信息进行选择性接触、选择性理解以及选择性记忆。换言之,即用户会主观能动地进行信息筛选。算法推荐机制运作的源头便在于人们的选择性心理,算法程序根据用户身份背景、知识结构以及兴趣爱好等因素勾勒出该用户的数字画像,在大数据的痕迹抓取后,个体的偏好以及需求被输入算法流程,无数信息经由算法的筛选与过滤,最终完成用户个性化信息的定制与推送。由于数据信息流转速度的巨幅提升,导致智能算法一经出现便全方位地淘汰了人体的“生物算法”,让用户习惯于获取已经被推送至眼前的资讯。算法推荐机制在“今日头条”“抖音”等智能软件的信息推送中已得到了广泛的实践,并取得了良好的应用效果,但也在无形中产生了诸多不可避免的负面效应。自新媒体打破主流媒体话语权威模式后,数字媒体发布信息的可信度便始终是为学界所诟病的重要缺陷。算法推送信息的真实性与价值立场是否客观公正,成为近几年来媒介研究的焦点问题,并出现了“信息茧房”“过滤气泡”“回音室效应”等相关理论。这些理论认为,人们会基于选择性心理接触同一价值倾向的信息以保持集中的注意力与心理的舒适感,久而久之便将自己封闭于同质化信息所建构的“茧房”之中,而狭隘的信息领域则会固化主体的立场倾向。智能算法的出现使得信息过滤更为便捷,因而会加速“信息茧房”的形成。

由此推之,传播学视域中智能算法运作的本质,就是通过选择性的信息呈现与策略性的意义赋予,重新构造受众所处的信息环境,并具现出某种社会现实。在马克斯·韦伯看来,“权力意味着在一种社会关系里哪怕遇到反对也能贯彻自己意志的任何机会,不管这种机会是建立在什么基础之上”②[德]马克斯·韦伯:《经济与社会》(下卷),林荣远译,北京:商务印书馆,1997 年,第81 页。。算法程序在信息流的筛选中加剧了与技术客体的信息不对称地位,强行建构出偏异或背离于现实的虚拟真相,成为主体精神建构的重要力量,在某种意义上已衍生出权力的意蕴。“算法权力”的确立意味着,所谓主体的能动性选择已然在潜移默化中变质为被动性的接受,即用户失去了自我寻求有效信息的主观意愿,而拥有的仅为是否接受推送信息的权力。一旦算法推荐将“信息茧房”构筑起来,固有的立场会在主体自我构设的价值圈层中逐步强化。在封闭的“信息孤岛”中,偏见与错误会不断地重复并被算法推送的信息强化加固。当扭曲的事实成为真相,真相将反转为谬误,成为不被认可并需要加以批判的对象。在此意义上,智能算法已将“信息茧房”转变为“价值茧房”,价值的相异使得不同意见群体间形成激烈对抗的“偏见共同体”,从而构造了“分节式、阶式化”③[美]凯斯·桑斯坦:《信息乌托邦:众人如何生产知识》,毕竞悦译,北京:法律出版社,2008 年,第3 页。的价值分裂格局,主体自由意志则为“孤岛化”的“偏见共同体”所侵染与解构。

三、“精神突围”:揭弊算法效应守卫主体价值

主体意识是实现主体自由而全面发展的基本前提,数字技术的革新拓展了人的社会实践空间,也潜在地将人的主体意识置于偏颇而不易察觉的虚拟“真实”之中,并构筑起了谬误式的“认识—实践—认识”的自反性循环。因为社会要素的数字化投射并非完全真实、客观和准确,算法操控下的偏异认识无法引导真正的社会实践,而虚拟世界的实践也无法产生正确的现实认知。在谬误式虚拟认知不断深化的过程中,人的主体意识逐渐为技术所牵引,主体精神为算法所操控。规避数字技术的悖谬性发展,需要人们在对现代性进行反思的基础上,自觉把人的尊严和价值作为技术发展的根本目的,坚持人的主体性地位,守卫正确的价值导向。

(一)制度创新:强化刚性约束明确媒体行为边界

以智能算法为代表的数字技术变革,对数字空间重构与传媒产业发展有着不言而喻的重要意义。但技术与商业资本的过度介入不仅导致专业传媒组织话语权的转移,造成了信息可信度的降低,也在信息供给的同时不断侵袭着公众的私人领域,受众的自由意志在智能算法的裹挟下被规训与型塑。在推进国家治理现代化的现实背景下,加快数字技术领域制度建构,通过立法明晰商业资本的行为边界,对实现智能算法的规范性发展具有特殊的时代意义。

基于算法运作的数字平台来看,当今全球范围内的互联网企业发展已呈现出明显的聚合性特征,资本的竞争往往局限于几个超大型数字平台之间。当数字空间的游戏规则由极少数平台制定,处于抽象平等地位的受众便不可避免地成为被刻意忽视的对象。这些大型数字平台往往掌握着海量的用户数据信息,而这些信息则会以隐蔽交易的方式被转移给某些专业性机构用于攫取特殊利益。2018 年,知名社交媒体“脸书”(Facebook)5000 万用户数据信息被泄露,并被出售给剑桥分析公司用于赢得政治选票,充分凸显了大型数字平台对用户隐私数据保护的轻视。未经授权的隐私数据滥用,使用户权利保障成为数字平台开出的空头支票。在美国,已有政界人士提出了加强数字平台监管的建设性方案,即通过立法将全球年收入在250 亿美元以上、向公众提供在线交易或链接的第三方数字平台认定为平台型公共设施,禁止这些平台企业同时拥有平台公共设施和平台上的其他第三方业务,要求平台公共设施遵守公平、合理、无歧视的交易规则,禁止其与第三方共享用户数据。①Elizabeth,Warren.“Here’s How We Can Break up Big Tech”https://medium.com/@teamwarren/heres-how-we-canbreak-up-big-tech-9ad9e0da324c,(2019-03-07)(2020-02-01).毋庸置疑,算法技术支撑下的数据挖掘与数据共享,已成为媒介资本攫取商业利益的重要手段,用户在民法意义上的隐私权沦为平台用户条约下的空洞注解。与大规模的隐私数据侵犯相对应的,是相关法律制度对该领域的覆盖不到位。在推进国家治理现代化的现实背景下,理应从制度层面对大型数字平台与商业信息机构的行为边界予以明确界定,从而消弭媒介效益最大化与主体隐私权利保护间的内在张力,实现数字媒介经济效益与社会效益的齐头并重,让算法技术在数字平台的制度性框架内合法运行。

基于内容生产的具体流程分析,公共权力机构还应就媒体的数字生产进行有效的规限。在算法运的作诸流程中,数据抓取是数字生产的首要环节。数字平台的隐私数据抓取在用户身份信息登录时便已开始,数据取用往往未经用户同意,或以某些平台功能为诱导而迫使用户必须授予其获取隐私数据的权限。由于公民数据防护意识不足以及不对等的用户条例存在,个体数据隐私的保护在现实操作中仍存有较大困难。用户隐私数据如何获取、获取后的使用范围以及使用权限如何界定等,都是未来相关法律制度建设中需要考虑的重要问题,在数字内容的产出中,仅依靠平台自身对低质、虚假信息进行过滤,无论是从监管意愿还是监管力度上看,都难以做到全面高效。在数字内容的监管与治理上,已有西方国家率先制定了专门性的法规。2018 年,德国立法机关制定了《社交媒体管理法》,规定凡拥有200 万用户以上的社交媒体必须承担屏蔽、删除、清理平台上非法言论的法律责任,若违反法律规定的相应条款,须承受最高5000 万欧元的罚款。当前数字技术的革新使得信息更新速度越来越快,互联网内容治理不能仅依靠调动数字平台自我管理的积极性,公共管理机构也需转变互联网治理理念,加快与数字平台合作,共同建立起合理的数字内容监管体制机制,以行之有效的制度创新净化数字空间生态,消解“流量变现”“眼球经济”逻辑下的算法操控。

(二)信息供给:拓展信息来源建构理性探讨空间

解蔽智能算法营造出的“信息茧房”,须认清的现实前提是:人们正处于信息极大丰富的数字媒介时代。在媒体与代码无处不在的虚拟空间中,既存在着多种类型的算法,信息的获取也从来不是单一而同质的。算法窄化主体信息领域、偏移主体价值,其根本原因在于算法推荐机制下的信息获取途径过于狭窄。固化主体思维的“信息茧房”不能通过网络巴尔干化的激烈对抗方式解决,拓展主体信息来源渠道,建构理性的探讨空间,才能在沟通与交流中明辨真相,重拾人的主观能动性,建构主体自由而全面发展的数字空间。

数字空间是可以容纳诸多不同声音的包容性空间,鼓励不同声音发声也是社会民主化程度的重要标识。拓展信息来源渠道的本质就是要包容多元化声音,从不同数字平台的算法程序中获取信息,在多方机构的信息过滤中提升优质信息的供给,扩大受众的信息选择空间。信息供给的多元化机制需着眼于“质”与“量”两个维度的保障:破除不同数字平台间的信息流通壁垒,增强用户获取信息的便捷性,保证算法信息“量”的丰富性;增强数字平台间的联动与合作,协同过滤虚假信息与低质信息,保证算法信息“质”的可靠性。在人类与技术的关系中,人类对技术的依赖性越强,就越会失去自主选择的主观能动性与人本精神。多元而优质的信息供给促使受众接触到丰富而异质的信息,稀释了个性化定制信息中的价值偏见,消解了算法推荐机制下用户所面临的“信息孤岛”困境。由于自由流转的信息具有极强的公共物品属性,信息供给的自发秩序还需要公共机构予以引导。在公众接受符合个性化需求的信息时,公共机构也需要提供关乎公共利益与社会发展的信息。公共性信息的供给不仅可以平衡个性化信息的需求,也会引导公众更加关注公共事务,使之超脱局限于“私域”内对心理舒适度的追求转而参与“公域”中公共精神的塑造与建构。

“信息茧房”是造就“偏见共同体”的重要因素,却并非唯一因素。网络巴尔干化的前提在于沟通与交流的缺乏,不同意见群体在固化的价值立场与思维模式中构造出了抵抗式的圈层结构。价值分野强化了他们对自我价值的认同,圈层内的“群体成员通过偏爱内部群体与贬损外部群体来‘修复’他们受到威胁的自尊……在与反对者进行互动的过程中,观念会变得更加尖锐和激进”①[荷]伯特·克兰德曼斯、阙天舒:《认同政治与政治化认同:认同过程及其抗争的动力》,《国外理论动态》2016 年第2 期。。多元化的信息供给机制为建构理性讨论空间提供了基础条件,在信息充分的情境下构筑起开放性与包容性的沟通氛围,才能保证“意见的自由市场”得以出现。“意见的自由市场”并非“众声喧哗”式的各表言论,也非“沉默的螺旋”下的无声抵抗,而是理性的沟通与对话。“没有了对话,就没有了交流;没有了交流,也就没有真正的教育。”②[巴西]保罗·弗莱雷:《被压迫者的教育学》,顾建新译,上海:华东师范大学出版社,2000 年,第7 页。开放式、商谈式的沟通与辩论,让偏颇的信息在不同意见群体的对话中得以补足与纠正,激发了网络多元价值之间的良性互动,建立起社会成员之间相互理解与妥协的认知基础。当有序的沟通得以推进,超越立场、视角、利益偏颇的共识能够达成,数字技术强行构筑的“价值茧房”便没有了存在的基石,主体意识将在“意见的自由市场”中得到全面而自由的发展。

(三)人文涵化:普及算法素养增强公民自律意志

康德认为:“意志自律是一切道德法则和与之相符合的义务的唯一原则”。③[德]伊曼努尔·康德:《实践理性批判》,邓晓芒译,北京:人民出版社,2003 年,第43 页。高度的意志自律使主体能够摆脱生理本能的束缚,拥有按照自我道德法则行事的能力。智能算法时代,主体自律意志可使受众有效规避蕴含价值偏向的算法信息,是受众保持主体意识的重要品质。从算法的运作流程看,用户的自我价值导向事实上决定了大数据为其描绘的数字画像,从而影响算法推送的个性化信息。智能化的信息分发机制所能决定的仅是推送信息的品类,受众自身对是否接受算法信息具有决定意义。心理学研究表明,相较于客观而不带价值立场的信息,具有情绪意义的信息更能激发受众的情感共鸣④王敬欣、贾丽萍、黄培培、白学军:《情绪场景图片的注意偏向:眼动研究》,《心理科学》2014 年第6 期。。自律意志可以使用户保持稳定的心理状态,消解极化信息对自身的情绪刺激,增强其对低质、庸俗与虚假信息的免疫性。当用户信息选择发生变化,选择过程中所产生的数据分析会修改大数据描绘出的用户数字画像,最终转变算法信息推送的品类。算法运作的相对隐性化,也要求在增强主体自律意志之外,提升用户对算法建构的媒介环境的具体认知。公众对算法环境的认知不在于拥有阅读构成算法的代码与程序的能力,而是指向用户对算法运作流程的了解程度。基于对算法机制中的信息排序与编辑目标的了解,公众才能够有意识地防范算法信息所潜藏的思想渗透与情绪诱导,防范算法权力对主体意识的价值规训。

数字化时代,用户日益参与到数字信息环境的建构中实现了人人都是传播者的传播结构变化。同质化与单一性的信息环境易构造出极化的“偏见共同体”,多元化的传播主体对保持信息环境的异质性与均衡性具有显著的意义。数字传播主体的结构性变化,要求算法时代的用户拥有相对专业化的内容生产能力。当前数字媒体用户的内容生产往往与自身兴趣喜好、价值立场与心理变化紧密相关,拥有较高关注度的用户,他的内容生产具有强烈的感染力与扩散能力。在数字时代受众的人文素养中应包括部分新闻专业素养,使之具备相应的描绘现实并进行客观阐释的能力。尤其是在社交媒体的意见领袖群体中,专业的新闻素养可以使其在面对任何资讯时均保持理性审慎的态度,增强其兼容异质信息与意见的包容度,对某些信息的转发或再加工时能够在保有主导价值基础上彰显个性化特征,进而在公共价值导向的框架内影响更广泛的受众群体。

(四)技术支撑:加快数据共享实现算法全程监督

从智能算法的发生机制来看,层层嵌套的技术黑箱将算法运作流程完全隐匿于数字传播的“去中心化”的表象之下,算法权力在资本逻辑的操控下以自由与个性为旗帜作用于数字用户,并在精神与实体两个维度产生深刻影响。就其工具意义而言,算法技术作为人工智能时代的优化选择,在信息传播领域的应用已凸显出极高的商业性效用,但却潜在地忽视了人的情感与精神价值。当工具理性凌驾于价值理性之上,则价值意义将被工具效用的不断扩张所侵蚀,人在舍本求末之下被迫沦为技术的客体。摆脱技术加诸人的隐性枷锁,需要从技术本身寻求突破与克制之道。

算法带来的隐性权力规则,让互联网赋能个体权利的愿景不得不被平台私权力的崛起而冲淡。平台私权力的过度膨胀源于主客体双方在信息获取上的不对称。合理管控平台私权力的行为边界,要求监督作为其技术支撑的智能算法,消解算法技术本身的神秘性与不透明性。智能算法的本质,是基于计算系统与大数据技术对个体数据信息的抓取、整理、评估以及应用。算法本身所引发的诸多问题,一定程度上是源自对用户数据未经授权的使用以及对算法应用目的不确定性的质疑。因而建立对算法的全程监督机制,需要保障利益相关者对自身数据信息流向的知情权,快速发展的数字技术为数据共享的实现提供了现实可能。例如区块链技术具有去中心化、不可篡改、全程留痕、公开透明等特点,能够有效解决信息不对称的问题,在保障用户数据知情权方面具有广阔而丰富的应用前景。①李拯:《区块链,换道超车的突破口》,《人民日报》2019 年11 月4 日,第5 版。在智能算法的具体研发中,也需要公共权力机构充分担当起监督者的角色,对初期的算法设计、中期的算法策略以及后期的算法应用均做到监督在场,最终实现算法编辑程序规范化、算法责任主体公开化、算法应用目标透明化。

在算法的基础设计中,需要在程序上保证算法所抓取数据的真实性与准确性。任何算法的生成、编辑与应用都离不开基础数据的支撑,失去了数据的算法犹如无本之木、无源之水。但信息的爆炸式增长使得数字空间弥漫着各类良莠不齐的数据信息,失真的数据、错误的数据只能构建出偏异的社会现实,导致算法应用出现偏差。因此,算法的数据收集程序设计应首先要明确数据来源,确保数据的完整、准确与真实,并尽可能还原客观的社会现实。在算法信息过滤系统设计中,可以基于流行热词在程序中增加相应的热词过滤系统、过滤蕴含消极语义的高频词汇与信息,保证公共价值导向不被低质、庸俗的信息所侵染。由于机械的程序不能实现算法内容的完全过滤,在算法内容生产与分发的环节还需要数字平台培育专门的人工过滤与把关团队,在数据选择、内容生成与信息分发的各个阶段扮演价值仲裁者的角色。人工过滤旨在提升优质信息的优先级,实时拦截不实与虚假信息,对描述性信息进行意义判断,突出算法信息的公共价值导向。人工操作亦可以将算法运作的完整流程公之于用户,提升智能算法的透明度与曝光度,增强利益相关者对算法的监督等。在“人工+智能”的双重检视下,算法高效精准的运作特点将与信息的客观真实性有机融合,这样既还原了其作为技术工具的本质属性,而且人的主导性和价值观也能得以复归。

猜你喜欢
智能算法主体数字
神经网络智能算法在发电机主绝缘状态评估领域的应用
论自然人破产法的适用主体
基于超像素的图像智能算法在矿物颗粒分割中的应用
答数字
从鸡群算法看群体智能算法的发展趋势
改进的多目标快速群搜索算法的应用
数字看G20
关于遗产保护主体的思考
论多元主体的生成
成双成对