◎段梦琪
算法技术被定义为“解决特定问题或实现特定结果而采取的一系列步骤”①,现已成为智能平台运转的基础架构的一部分。推荐算法是在算法基础上,通过对用户行为进行数据追踪和分析,输出个性化精准推荐,以抖音、淘宝智能推荐平台为典型代表。第51次《中国互联网络发展状况统计报告》显示,截至2022 年12 月,我国短视频用户规模已达10.12 亿。②观看“个人定制”短视频成为惯习,平台推荐逻辑束缚着用户的选择权,增强着用户对推荐系统的黏性,可以说系统隐性操控实现了对用户意识规训的目的。
当用户在使用媒介期间感知到个人被算计和监视时,便会尝试一系列行为试图躲避算法追踪或对其进行错误引导,这便是德赛图和斯科特的“日常抵抗”思想。德赛图将日常生活看作是全面监控下的宰制和抵抗的斗争场域,提出战术是“弱者”在专有地点的缺席造成的故意行为,以“时间换取空间”的方式迂回渗入权力之中,小心地在权力裂缝中侥幸获得成功。③置于互联网场域下理解,用户面对推荐算法,也逐步形成一套较为完整的抵抗“战术”,在不断地磨合和调适中寻找最佳契合角度。
米歇尔·福柯在《规训与惩罚》中用“全景敞视监狱”理解现代社会权力的运作模式:囊括无数间小型囚室的环形建筑中心无时无刻不被一座瞭望塔监视着。④出于压力,每个人都会形成自我监视,这种监视关系便是福柯所提出的规训理论中规训手段的一种。如今,当算法技术被应用在推荐新闻、推送广告、驾驶汽车、评级信用等方面时,流动的结构空间中用户以数据化形式进一步被规训,以个性和隐私作交付,进行着自我展现、自我暴露和自我审查等行为,但在过度分享和展示后,规训的力量也让他们本能地意识到“被凝视”,他们开始调整自己的言论和行为。在这个角度上,公共空间是具象化的全景敞视监狱,而这种监视便是对人们的规训和鞭策。
斯科特在《弱者的武器》中指出,农民阶层的反抗意识可分为行动和意识两方面。⑤米歇尔·德赛图在《日常生活实践》中提出了“避让但不逃离”抵制理论,认为社会底层人民在日常生活长期受到压制的规训之下,既不离开其势力范围,又能恰到好处地抵抗强制规训。抵抗行为的产生投射出当前互联网底层用户的生活压力、对工具理性的批判和自我主体意识的觉醒,琐碎的“日常抵抗”不断积累主体意识,最终能汇聚成一股能量倒逼算法制定者作出适当改变,这也成为一种强制沟通的方式。互联网视域下,网络平台试图以“机械化推荐”规制人们的生活方式,而用户则通过线上的“日常抵抗实践”对算法展开抗争,通过直接或间接迂回的抵抗手段,无形中对算法进行反击。
在大数据捕捉和算法计算分配构建的赛博空间活动秩序中,人的信息接收和社交关系都越来越依赖算法,被海量数据信息裹挟的用户个人精神和主体意识不得不接受技术的规训。
算法技术的规训是阶段性的,不断增强用户黏性,直至心理上瘾。在以抖音为代表的智能推荐短视频平台上,定制化内容看似节约用户时间成本,但在流量和商业利益的价值导向下,通过不间断的“瀑布流”式个人“日报”,实现对个人纵向时间轴的控制。“数字时代的环境和氛围比历史上任何时代都更容易让人上瘾。”⑥当捕捉用户注意力成为平台第一目标时,智能算法基于不同情境对用户画像进行设计,输出满足其现实需求的定制化内容,使用户沉溺在虚拟幸福中。为保持用户对软件的高度黏性,平台不断寻找新的内容风口,打造新的爆点。从用户角度出发,原有碎片记忆在还未完全形成完整认知时,新碎片的出现又打断了原始知识积累进程。技术的黑箱和信息的不对称让用户在无意识状态之中被放置于被剥削位置,用户被个性化麻药麻痹,在算法的精准“投食”中无法抽离,个人画像在赛博世界中被整全性肢解,而这种剥削之下也导致了用户主体意识的丧失。
近年来,对算法推送信息立场的客观性、真实性讨论也延伸出较多关于“信息茧房”“过滤气泡”的讨论,推荐算法的盛行更是加快了此茧房的形成速度。推荐算法不断地向用户兴趣最深处挖掘,完善用户个人画像,这其实阻碍了完整信息的推送,抑制着用户对未知的探索欲,人的自主选择性和自由意志受到智能算法的潜在规制。算法虽然是技术创新的产物,但同时也是“信息茧房”的缔造者,是技术规训的重要手段。
算法在为具有相同特质的用户群体培养更多共同兴趣时,圈层内同质信息的泛化也影响着社交媒体走向同质化,信息愈加封闭和狭隘,人们的立场和观点再次固化,这时人们的感知便如韩炳哲所说,变成一种“毫无节制的呆视”⑦。当同质化显露在社会各个生活领域时,社会不再给人们带来新的洞见,探索欲望棱角被磨平,碎片化信息持续强化着一成不变的内核,人们心智不再有“否定性”,生活中也不再有能够站出来否定自我的他者,最终陷入“自我想象的洗脑”状态中。
18世纪末,边沁提出具有独特圆形结构设计的全景监狱,福柯说这是一座象征着“精神对精神的权力”堪称完美的规训机构。而如今互联网的后台监视和记录与全景监狱原理相似,只是互联网的存在让监视流动了起来,这也是鲍曼所提出的“液态监视”。监视液态化的社会已经成为现代智能社会的重要特征之一⑧,身份的透明化使得用户一切痕迹都成为算法分析的对象,用户隐私成为空值。不只是数据监视的实时性让用户处于无时无刻不被监视的情境中,用户也存在主动交付隐私的行为。在平台鼓励下,用户积极地参与到线上形象管理中来,将个人信息、兴趣爱好标签自觉奉上,但偶尔也触发对隐私和监控话题的争论,于是,人们在拒绝隐私侵犯和主动交付个人信息间反复横跳。
技术已成为人们生活中无法剥开的那部分,基于对算法的经验性认知和体验,人们也开始“戴着镣铐跳舞”,试图突破技术枷锁勇毅前行,然而由于不同用户对算法推荐技术的想象不同,抵抗战术也有所不同。
在推荐内容无法提供使用快感,或与个人需求出现匹配断裂时,用户会采取拒绝点开、下载,甚至卸载等极端阻断软件行动,这种躲避和逃离在斯科特看来是弱者的常用武器,是主动选择的结果。以抖音为例,当用户在面对无感视频时会快速划走,防止后台留下“浏览足迹”,害怕被贴上相关内容的喜好标签,也有相关使用者表示为了避免平台对个人信息的获取,会主动拒绝下载相关软件。⑨这种对推荐算法技术从空间上进行阻断的方式也是卡尔·纽波特提出的“数字断舍离”计划,即“停用生活里一切不必要的科技”,以娱乐化、碎片化为标签的短视频并非人们获取知识和信息的必要手段,它只属于锦上添花的存在,用户对此类“不必要的科技”主动进行的数据和信息阻断过程其实是对个人主体意识的最大保护。
当人们的生活被算法的智能性带向更偏向积极和便利的轨道时,用户会积极地与算法系统进行交互,按照平台设计开发的原意进行交互,甚至将自己的想法策略主动嵌入到算法规则中,如积极使用点赞、收藏等功能表达自己的喜好,积极参与评论以纠正相悖观点,针对性地使用算法塑造个性化信息流。这种高度卷入算法推荐规则的行为并非代表用户处于“技术无意识”状态,反而展现了用户自主思考,通过交付自己的隐私和监控权以获得更好的推荐内容,这是一场较为公平的交易。⑩此外,部分用户会通过完成新注册平台的“自我定制”环节,参与到自我信息产品的定制中,成为更高级的个性化用户。但用户主动嵌入过程也体现了平台系统程序对个人选择权的制约过程,比如在感兴趣与否的二元对立选择中,点击“不感兴趣”,其本身就是反向选择感兴趣,这种参与也深化了后台用户画像的细节。
技术素养较高的用户透过对算法推荐平台的逻辑理解,尝试将个人意识凌驾于机器意图之上,从更深层面去规避、扭转和反规训算法。例如,有的用户会选择关闭“通知”,故意不点赞、不评论、不关注、不登录,减少个人网上浏览痕迹以规避某些信息的推送;有的用户主动对内容产品进行引导,扰乱后台的精准标签和画像,以此来维护自身的主体意识和主动权;有的用户对个人隐私极度重视,采用虚拟专用网络,以抵抗平台对个人信息的收集;算法素养较高的用户则利用技术打败技术,比如利用RSS信息聚合服务快速获得多个网站的订阅内容,以破除单一来源的“信息茧房”……根据不同的平台和场景采取不同的行为和策略,都是用户为摆脱算法监视和规训所进行的尝试。这种“反算法”行为并非意味着远离数据,合理地利用数据和平台算法进行抗衡也是在信息社会中牢牢掌握个体主动权的新思路。
技术在发展过程中是多方参与、共同构建的产物,永远镶嵌在人们所处的社会文化之中。因此,为避免工具理性逻辑成为通用逻辑,还需要通过政府顶层规范、平台制度重塑和提高用户算法素养等多种方式,防范技术发展带来的问题。
2022 年3月,国家互联网信息办公室等四部门联合发布的《互联网信息服务算法推荐管理规定》(以下简称“《规定》”)正式施行,将对算法应用中存在的违法和不良信息传播、操纵社会舆论等乱象进行整治。其中《规定》第十七条要求,“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。”这是给予用户对推荐内容的一票否决权利,也是人们对算法进行反规训的权利体现。但目前各平台对于“算法关闭键”按钮的层层烦琐的操作步骤和相关提示的“咬文嚼字”,让用户仍处于被动地位。算法治理不是一场“打地鼠游戏”,尽管当前国内算法治理政策需求较为迫切,但政府和市场失灵的问题还需进一步对治理模式和手段进行探索。⑪应该以治理目标、主体、对象、手段、模式这五项治理要素为维度,建立完整系统的综合治理框架。在治理对象上,从算法应用主体和应用场景角度拓宽算法治理范围;在治理手段上,实现司法和技术治理双线共行。
人与媒介技术的互相建构是一个复杂过程,算法从底层修改着生活逻辑。作为网络活动主体的用户,其行为也在倒逼算法技术迭代,推动平台组织的制度重塑。人是具有自律自觉能力的主体,算法只有在人类主体的正确引导下才能展开活动。在用户反向推动下,平台不断完善双向交流通道,根据用户反馈对产品使用体验进行优化,在重视对算法系统能力建构的基础上强化对客户的理解和服务意识。其中,平台需要注意对算法逻辑规则的设定,对用户进行画像分析时,必须尽可能减少低俗化、娱乐化的模型趋势,尽量突出用户正面兴趣点,给予积极内容推荐和引导。同时,还要在算法逻辑设计中增加对优质内容的曝光,将精准推送与优质题材结合,培育整体向上向善的网络文化,如此对平台网络信息内容的生态管理才能实现公共性和商业性的平衡。
马克思·韦伯曾提出“理性铁笼”概念,即当工具理性超越价值理性,手段成为目的时,人们便不可避免进入“技术牢笼”中,被自己构建的规则束缚。启蒙运动后,人们认为行为可以等同于一个人的内心,但一个真实的人并不等于算法捕捉到的表面信息。根据“多数即正义”原则,当数据和流量成为评价的标准时,算法捕捉到的只是标签和频次的最大公约数,所以算法标签相加小于真实的人。用户对算法的抵抗实践也只是拒绝在赛博世界中被进一步切割,拒绝个人自主性被抽空。就像雪莉·特克尔所说,“我们值得拥有更美好的未来,只要记得提醒自己,我们才是能够决定如何使用科技的人。”⑫在技术社会之下,反抗的基点是个人,根据自己的需求和动机对内容加以选择,有计划、有目的地使用媒介,成为对内容文本进行多义解读的“理性驱动者”。但算法时代并非对每个人有明确的高要求,个体只需尝试避开自己的本能反应,关心和提高主体意识,将精神层面真正的获得感置于前面即可。
当推荐算法成为人们获取信息必经的过滤器时,用户更加依赖并沉溺在个性化定制中,隐私被入侵成为日常惯例。社会信息同质化、群体圈层化过程加速,而用户也根据算法想象产生了不同程度的抵抗行为,比如通过主动嵌入规则“扶正标签”,让推荐算法生成更为准确的推荐,又或者是采取“扰乱画像”策略,拒绝精准推荐。对算法进行反规制是对人主体性的强调,但在算法技术进行突围的实践中,个人仍旧是“戴着镣铐跳舞”。当代社会要不要算法并非一个非此即彼的选择题,只能通过政府或平台对技术监管的传达,寻找公共性和商业性的平衡。但是,若想提高对算法技术克制的上限,还需每一个人的行为投入,尝试去逆转行为本能,才能更加客观地认识算法推荐机制造成的正负面影响。
注释:
①Diakopoulos N.Algorithmic Accountability: Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2014,3(3):398-415.
②第51次《中国互联网络发展状况统计报告》[EB/OL].中国互联网络信息中心,2023-03-02.https://www.cnnic.net.cn/n4/2023/0302/c199-10755.html.
③吴飞.“空间实践”与诗意的抵抗——解读米歇尔·德塞图的日常生活实践理论[J].社会学研究,2009(02):177-199+245-246.
④[法]米歇尔·福柯.规训与惩罚[M].刘北成,杨远婴,译.上海:生活·读书·新知三联书店,2019:234.
⑤[美]詹姆斯·C.斯科特.弱者的武器[M].郑广怀,张敏,何江穗,译.南京:译林出版社,2007:35.
⑥[美]亚当·奥尔特.欲罢不能:刷屏时代如何摆脱行为上瘾[M].闾佳,译.北京:机械工业出版社,2018:10.
⑦[德]韩炳哲.他者的消失[M].吴琼,译.北京:中信出版集团,2019:183.
⑧董晨宇,丁依然.社交媒介中的“液态监视”与隐私让渡[J].新闻与写作,2019(04):51-56.
⑨张萌.从规训到控制:算法社会的技术幽灵与底层战术[J].国际新闻界,2022(01):156-173.
⑩Swart J.Experiencing algorithms:How young people understand,feel about,and engage with algorithmic news selection on social media[J]. Social media+ society,2021,7(2).
⑪Geiger R S.Beyond opening up the black box:Investigating the role of algorithmic systems in Wikipedian organizational culture[J].Big Data&Society,2017,4(2).
⑫[美]雪莉·特克尔.群体性孤独[M].周逵,刘菁荆,译.杭州:浙江人民出版社,2014:355.