失衡与抗衡:“算法污染”的权力规制

2024-10-17 00:00:00张爱军杨丹妮
人文杂志 2024年9期

关键词 算法污染 权力 人工智能

一、引言

算法是“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法”。① 算法作为概念被明确提出是在公元8世纪的波斯,之后,其逐渐成为数学学术讨论的重要概念。从数学计算角度来看,算法是求解某类问题的一系列计算法则。作为一系列解决问题的清晰指令,算法天然就是程序。因此,随着电子计算机的发明,算法开始与编码发生关联,成为程序设计的核心,并成为逻辑和规则的代言词。②在算法技术的应用上,一方面,算法推荐信息使得用户避免“瓦釜效应”的消极影响,提升用户沉浸式体验,增强用户黏性;另一方面,算法存在算法黑箱的问题,制造算法污点,瓦解用户对于技术的信任,阻碍平台与媒体的发展。近年来,超级算法与超级算力的出现,加快机器计算速度的同时,也为技术治理带来了挑战。

对于算法问题的研究,国内外学者均有讨论,具有针对性、持续性的特点,聚焦算法伦理、算法权力、算法正义等领域。其一,算法伦理问题涉及公共领域的话语表达,通过拟人化的算法系统自主做出决策,削弱人的自主性,代替人的主体性。算法社会化伦理利用算法技术,产生算法歧视、算法黑箱等社会化问题,扰乱秩序的构建。“算法价值化的现象可以通过算法自动化生成的艺术作品以及加密算法的数字货币等体现,成为实现社会价值的新形态。”①算法价zFQQgbrWGrjgXpnpM/CnkfxiaSFkQutgwlrS217reG4=值作为多元价值的组成部分,改变人的审美和意识形态,形成算法价值化伦理问题。其二,算法作为一种新的权力形态,有平台与技术的双重加持。平台天然具有逐利性,利用算法技术实现利益最大化。“算法的运行过程不仅仅是智能技术运用的过程,在其技术的背后体现的是设计者的意志,在其工具的外表下暗藏的是权力的归属。”②其三,算法伦理与算法权力的异化呼吁算法正义,构建算法秩序。算法正义旨在设计合理程序,将定性正义向定量正义转变。程序正义从结果出发,认为符合算法计算的程序,规避算法黑箱、坚持态度中立的原则,其产生的结果带有正义的铁律。“算法的逻辑呈现出简明的悖论性质:算法的目的乃是‘使自动化’(automate),于是‘自动化’本身产生了‘正义自动化’的效果。”③

现代技术持续迭代,算法问题仍不断凸显。技术与权力异化导致伦理失焦,衍生出算法问题的新议题,不同于算法黑箱、算法歧视,将微观权利侵扰扩大至中观平台秩序冲突,产生出对于“算法污染”的研究。“算法污染”的内涵是什么,如何生成,如何造成权力的失衡,又如何规制权力实现平衡仍然需要继续探索。如果不清楚“算法污染”的内涵,就无法理解权力与技术平衡的逻辑;如果不对“算法污染”中的权力进行规制,就无法清楚权力的本质,无法构建算法正义。随着元宇宙、ChatGPT技术的升级,算法能够自主学习,污染更加隐蔽,更加具有针对性,将会给个体、网络空间带来高风险。本文将对“算法污染”的权力失衡进行初步探讨,并提出权力规制建议。

二、“算法污染”的概念厘定及生成逻辑

算法技术是一把双刃剑,它既能为用户提供便捷化、智能化的服务,也会出现权力俘获,污染个体的社交领域、网络空间,造成“算法污染”。“算法污染”在理论上是技术与政治的结合;在实践中,算法推荐、ChatGPT、Sora视频都是算法技术的延伸,并不断更新,“算法污染”也带有融合性、拓展性、智能性的特征。

1.“算法污染”的概念厘定

“污染通常意味着污染水、肮脏的空气或者其他环境危害。候选人利用政治金钱形成腐败,污染政治系统。污染隐喻提出的最困难的问题:政府努力监管表达造成污染的合宪性。”④就环境污染的阈值而言,政治稳定一直是社会福祉的核心。政治环境不稳定会导致经济效率低下,加大二氧化碳的排放量。从道德层面讲,“厌恶是一般动机系统的一部分,该系统是为了保护个人免受疾病侵害而进化的。厌恶会激发对与污染威胁相关的行为的负面评价;对可能通过身体接触构成污染威胁的陌生群体的消极态度;以及更多地支持某些将污染风险降至最低的社会和政治态度”。⑤ 从政治污染的角度出发,20世纪60年代,西方对其研究较为集中,包含黑人运动中的政治污染、利益污染腐化政治选举,造成性别歧视。21世纪初,随着新媒体技术的应用及普及,出现信息污染,公民的权利受限,进而影响制度运行的有效性。综上,政治与污染有着表象与本质的关联。表象是指我们可以观察到的具体形态的污染,例如环境污染、气象污染等。本质是对于具象污染究其本源,探讨解决路径。

“算法污染”是技术与政治的结合,它既从微观污染个体的社交场域、污染网络空间,影响信息传播秩序,也从宏观隐喻权力借助算法技术污染政治系统,侵扰公民权利。“算法污染”具体表现为信息污染、意识形态污染、商业污染,是用户与技术平台合力产生的结果。信息污染是平台利用算法技术搜集用户数据,提供相对应的信息。用户数据的收集是偶然性与必然性的结合。机器不具有情感认知,机械化搜集信息,不能做到信息与用户完全匹配,形成信息污染。算法工程师植入个体的意识形态、平台逐利性交易传播意识形态、意见领袖流量性传播意识形态,合力形成意识形态污染。商业污染是指平台为了盈利运转,使用算法技术打造沉浸式、消费式的媒介环境,污染网络空间。乔万尼·萨托利在《民主新论》中讲道:“目前对于民主制度中的信息过程所作的大多数批评,都指出传递信息的权力是少数人的权力,具体言之,它的分配是不平等的”。① 因此,算法技术发展需要兼顾传播秩序、传播权力的分配,避免信息极化污染政治系统。

2.“算法污染”生成的基本逻辑

第一,算法标签与用户标签混合产生认知污染。如今,“数据处理者、算法掌控者已不再是普通的私主体,而是在拥有巨大技术优势与数据资源势能的基础上,形成了相对于个人而言的、能够辅助甚至替代公权力的数据权力、算法权力或平台权力”。② 智能算法依托互联网实时计算,利用数据模型进行数据分析,跟踪用户变化,产生个性化的算法标签。在社交平台中,用户拥有不同的身份,被贴上高达上千种的社会化标签,打破用户对于现实个体的认知。算法标签固化、僵化用户形象,成为互联网用户的第二张名片。用户将线下社交圈迁移至网络社会,线下关系转换至互联网,或维系、或屏蔽或沉默。线下存在的标签也会投射到线上,影响用户点赞、评价的行为。用户标签产生的行为,向算法技术释放出强烈的信号。算法技术不能完全灵活处理,使得用户标签与算法标签混合,造成认知与标签的盲目匹配,干预用户的价值判断。用户自我标签基于现实生活中的“镜中我”理论凸显,具有一定的情感性特征。机器判断基于用户有意识、无意识的行为数据计算,带有片面理性的局限性。

算法工程师作为个体是情感本体的体现,一定程度上影响算法标签。算法工程师将自己的认知导入信息传播机制中,送至用户端。算法标签与用户标签或冲突、或重合、或不相干。算法标签与用户标签冲突,将出现用户信念体系坍塌,造成认知盲乱。群体急于在网络空间自证观点,引发网络谩骂,造成网络空间的认知污染。算法标签与用户标签融合,用户偏见由固化向僵化过渡,在网络空间扩散,与主流认知形成反差,出现主流与非主流的认知错乱,污染网络空间。算法标签与用户标签不相干,用户标签传播一系列信息,算法标签传播其他信息,不论信息是否符合主流价值观、是否能够扩大政府的公信力,都在一定程度上造成信息轰炸。用户认知水平有限,过多的信息加大用户的认知负荷,降低用户的辨别能力,污染社交平台的信息承载空间。

第二,领域界限模糊引发用户权利污染。在社交平台中,用户的权利包括看见与被看见权利、遗忘与被遗忘的权利以及话语表达的权利。智能媒体的出现,打破时空界限、人机界限,拓宽信息传播的渠道。算法推荐以用户为中心的同时,也会形成网络的“巴尔干”化,出现网络“去殖民化”到“再殖民化”的现象。用户私人领域抢占公共领域。私人领域强调用户个体空间,用户处在舞台的后端,展示真实的自我。公共领域强调社会价值的宏观导向,用户处在舞台前端,打造人设。算法技术利用信息推送的功能,以用户兴趣导向为传播模式。用户群体分散于社会各地,认知能力与认知水平参差,出现兴趣的低俗化、劣质化区隔的现象。低俗化内容成为娱乐大众的首选,符合算法推送的一般条件。用户在浏览、观看、评论、转发低质化内容的信息时,形成沉浸式体验,缩小用户权利的选择。社交用户将私人领域的兴趣扩大,算法技术主动识别分配流量,占用公共领域,造成领域界限的模糊,以及前台人设与后台自我的混合。低质化内容成为用户权利的导向,算法技术成为污染网络空间的抓手,打破伦理纲常,影响网络空间的传播秩序。

第三,社交分发强化算法圈层污染。社会交往是生活的重要组成部分。人们通过社交获取信息、传播信息,形成社交分发。互联网社交分发聚焦用户群体之间强关系与弱关系、强情感与弱联系之间的传播。“当人们将算法推荐的内容分享到社交平台时,算法分发也会影响到社交分发的内容。”①算法技术捕捉到用户与好友的聊天记录、转发记录,从而形成跨平台的联动,批量生产社交模式下的信息内容,造成用户情感的排斥。即使用户删除社交内容,算法也会自动保留数据痕迹,持续向用户推荐个性化内容。用户所处的社会地位不同,交友范围不同,信息传播局限于用户周围的圈层。与之相应,信息形成近邻推荐的传播模式,占据了用户的时间、精力,也使得算法模式中社交权重加大。用户强关系网络联系紧密,直接或间接影响用户的判断,自觉或不自觉遵守强关系行为规范,勾勒出圈层模型。根据《第53次中国互联网络发展状况统计报告》,截至2023年12月,中国网民规模达到10.92亿。② 网民都有自己的社交圈层,算法渗透圈层内部,强化圈层信息污染。

第四,利益驱使刺激算法商业污染。“在几乎实现算法‘全覆盖’的数字化社会里,算法直接控制着人们的消费、思考、娱乐乃至情感活动,人成了资本权力支配的对象。”③商业利益是互联网信息传播的驱动力之一。商业利益刺激用户的感官,反复诱导消费者买单,进一步提升平台流量变现。信息内容涵盖消费主义、拜金主义、娱乐主义的倾向,网民产生非理性消费的行为。算法技术的投入,使得商业化信息能够精准匹配到用户的诉求,造成用户对于信息内容、商业内容上瘾的结果。算法技术的野心不局限于商业信息的精准送达,还会根据用户的消费水平进行“大数据杀熟”。算法商业信息的投入与商品价格的差异形成算法的商业污染。算法商业污染本质上是资本权力的体现。“网络符号消费的媒介权力就是媒介所有者影响、操纵以及支配受众消费行为与观念的力量,是一种软权力。”④平台方有汇聚用户的能力,商家有入驻平台的资格,形成CtoC的商业闭环。资本不甘心单纯成为用户与商家的信息桥梁,利用算法权力获取利益,掌握用户的数据动向,甚至想要贩卖用户数据获取更大、更多的利益。平台在追求更大利益空间的过程中,忽略法律法规的束缚推送诱导性信息,形成用户端更大范围、更深层次的算法商业污染,技术“道德化”发展任重道远。

第五,政府部门俘获导致算法权力污染。民主与平等的关系是一个经久不衰的议题。有学者认为“仅有基本的政治身份平等、投票权的平等以及法律面前的人人平等,还不能令人满意。完全意义上的实质性平等,则是任何社会难以企及的”。⑤ 平台信息的审核模式包括机器初审与人工终审。机器初审能够过滤掉大部分敏感内容,人工终审结合平台运营标准,确定信息的发布。平台结合商业、流量、内容、成本等因素,制定最低限度的运营标准。随着媒体转型的深化发展,政府部门想要分享平台的用户红利,利用政务媒体进入信息平台。流量成为平台、政府的共需。除此之外,政府部门需要数据监测舆情,隐性介入算法的设置模式,干预算法工程师的算法推送模型,使得算法带有一定的目的性与政治性。算法平台想要与政府达成合作,则将用户数据提供给政府。在美国大选时,政府能够提前获取用户的数据,了解选民的政治倾向,制定针对选民的动员方案。在此过程中,平台算法与政府部门交易处于公众不被察觉的地方。权力被隐藏,出现用户自主性偏移,产生算法权力污染,影响用户对于政治的判断与选择。

三、“算法污染”引发的权力失衡

“算法污染”借助算法技术造成权力主体与权力客体在一定程度上对立,激发显性与隐性的社会矛盾。

1.话语权力失衡

“算法污染”建立在算法标签与用户标签基础上,在用户使用过程中被塑造,所产生的算法偏见不再局限于算法工程师的偏见价值观,也包括用户个体的偏见。一方面,算法偏见受算法工程师个体情感影响。比如女权、自由、国际新闻等的输出,算法工程师分散于不同的意识形态群体,产生不同群体的认可结果。用户本身就存在有意识与无意识的偏见,接收信息强化偏见认知,形成算法信息壁垒,造成官方话语权与算法话语权失衡。对于国际传播而言,算法话语成为垄断话语的形式之一。国际信息流的流向、流量仍然掌握在老牌媒体手中,国际信息秩序在趣缘化再结构的算法逻辑下再次固化。① 西方媒体植入算法偏见进行精准性传播,形成算法推动下的话语霸权,造成国际话语权与算法话语权的失衡。另一方面,用户个体本身就持有不同的意识形态,带有不同的偏见性质。用户根据个体的偏见检索信息内容,算法设置推送用户检索的内容,强化偏见,污染网络空间。“算法污染”实时捕捉用户的行为习惯,在互联网“全景监狱”中释放大量意识形态信息,僵化用户个体的算法偏见。算法偏见的僵化使得假新闻、反转新闻增多,网络个体间出现对抗与撕裂,导致意见领袖与个体之间的话语失衡。

2.信息权力失衡

算法驯化是“算法污染”的现实表现,也是信息权力失衡的直接原因。算法驯化经历占用—客体化—纳入—转换的过程,信息流传播扩散污染网络空间。算法驯化包括平台驯化、内容创作者驯化与用户群体驯化。算法工程师是算法模型的建构者,其受到平台文化的熏陶、行为理念的加固。“对于这一类平台管理人员来说,适应职业生涯变迁的过程就是从接受算法思维驯化到驯化他人的过程。”②驯化后的算法工程师想要通过信息传播驯化更多的人,使互联网上的认知统一,掌握信息选择与传播的权力。被驯化了的算法工程师驯化算法模型,进行信息分类,控制信息的传播端,产生平台与用户间的信息权力失衡。平台推出内容创作者激励计划,构建优质内容职责联盟。内容创作者撰写自媒体文章,拍摄短视频迎合用户也驯化用户,形成内容创作者与用户间的信息权力失衡。意见领袖传播者与用户处在不对等的位置,用户被动接收过滤后的信息。获得驯化信息的用户会二次或多次传播驯化的信息,使得信息内容驯化范围扩大。信息意识形态内容推动用户的行为,营造集体行动的媒介景观,污染网络,固化信息壁垒,制造多层级的信息焦虑。

ChatGPT的诞生,使得“算法污染”更加隐蔽地深入用户端,信息权力在机器、官方、用户之间失衡。ChatGPT的舆论发展呈现出动态演化阶段特征,可以分为缓慢萌发期、火爆出圈期、波动下降期以及稳定发展期四个阶段。意见领袖以其独特的创新视角、创新理念在一定程度上影响了舆论的传播,进而影响了舆论中的关注主题和网络中的公众情感。① 机器将用户作为节点式的存在,一对一进行驯化,驯化的深度、强度都在增加。机器与用户间天然地存在信息鸿沟,官方信息难以一对一加工传播,难以实时在线,进入用户视野的难度增大。信息权力在机器、官方、用户三方之间失衡。

3.技术权力失衡

“算法污染”的形成使得算法从神坛地位过渡到用户焦虑、恐惧的处境。“算法神话”通过算法技术、算法平台以及算法传播的包装,构建了人与技术不平等的想象。② 算法技术能够为用户提供个性化、精准化以及交互化的服务,降低用户搜集信息的时间成本与精力成本。用户对于平台的黏性增强,将技术神秘化,最终产生“算法神话”的语境。“算法神话”夸大技术的使用权引起“算法污染”的问题。技术是把双刃剑,算法技术既能够提升用户获得信息的成就感、喜悦感、幸福感,也能够根据用户的习惯偏好进行大数据杀熟、大数据交易,造成技术权力的失衡。“算法污染”利用用户信任,跨平台联动获取精准的用户画像,从用户的消费数据窥探用户的收入水平,提供差异化价格商品,侵犯用户的个人权利,产生技术与人的不对等的关系。用户在算法权利污染的背景下,想要逃离算法陷阱,呼吁算法权力的规制。除此之外,“算法污染”让用户诟病的是算法背后的隐私数据被出卖,使得用户处于被监控的“全景监狱”中,行为与情感被量化。用户处于透明网络环境中,收到骚扰信息增多,个人信息安全问题引起关注,算法技术的使用权失衡。算法技术即使识别到错误的数据信息,也会时时刻刻推送与错误信息有关的商业信息,使用户沦为数据的劳工,人权价值被商业价值取代。

4.公权力失衡

“算法污染”是算法权力滥用的彰显,也是公权力迁移的后果。算法权力迁移一方面涉及用户个体权利,用户能够根据个人喜好选择、建立信息群组,控制群组舆论,约束成员行为。倘若群组成员和主流价值观相悖,会夸大个人权利、群体权利,从言论、行为等方面与公权力对抗,造成公权力与公民权利的失衡。另一方面,在政治选举方面,选民的权利、资本的权力以及政府的权力发生冲突。资本借助算法操控选民,选民成为资本的俘虏。网络空间中,用户在匿名性的庇护下,言论表达权利化、暴力化,希望通过言论表达弥补现实生活的境遇,形成用户权利的向后迁移。政治选举涉及宏观政治与微观政治。“算法污染”依托平台利用算法技术推送信息,造成算法权力前移。根据扎根理论,选民更倾向于以已有认知进行选举。媒介环境营造非虚构的网络空间,用户在“算法污染”的作用下,难免成为技术的工具,权利选择出现迁移。“新闻的分发权由大众媒体转移到了算法平台,新闻的把关权由‘前置’变为‘后移’,新闻的选择权由受众部分转移到了算法平台。”③因此,算法平台占据权力,导致政府与公众之间的不信任,出现公权力与平台权力的失衡。

社交媒体时代,政府与群众由弱连接逐渐过渡到强连接,政府部门改变以往刻板严肃的形象,转变信息传播形式,利用算法推荐技术包装权力,融入民众生活。民主政治从宏观转向微观,从线下转向线上线下相结合的状态。算法技术根据用户阅读习惯、视觉习惯、付费习惯,将政治信息以用户喜爱的形式分发到用户的社交账号,让用户接受政治信息的渗透。公权力超过法律边界,将用户暴露在互联网空间,干扰民间舆论场,使用户被迫贡献数据,使政治传播变为政治营销,民主走向崩溃。权力过多地介入民众生活中,民众的政治态度趋于中和,“沉默的螺旋”加大,政治权力裹挟政治情感,导致公权力与公民权利在网络空间失衡,网络秩序混乱。长此以往,民主在网络空间出现网络的“巴尔干”,内外部矛盾联动,威胁国家主权。

总体而言,“算法污染”的现实表现在算法问题基础上得以深化,权力平衡的边界被打破,并伴随着政治风险威胁。内部权力受到技术操控,外部敌对势力时刻准备渗透意识形态。长此以往,权力失衡转向权力失控,政治风险演变成政治危机,文化安全受到威胁。针对权力失衡需要找到对应权力相互抗衡,达到稳定的状态,保证网络空间风清气正。

四、“算法污染”的权力抗衡

1.法治支撑:以行政立法权抗衡算法自主权

约翰·罗尔斯在《正义论》中提到“自由的优先性意味着只要基本自由能够有效地确立,一种较少或较不平等的自由就不能与经济状况的改善相交换。”①行政立法权指立法机关行使立法权制定部门规章、法律法规,约束算法生成的内容以及分发信息的机制。算法自主权包含两个方面:一方面是算法平台的自主选择信息,进行深度学习,不断升级算法功能,进一步替代人的价值;另一方面是用户以权利为借口,设置群组区隔群组外成员和信息,造成圈层式的“算法污染”。算法自主权超出法律法规控制范围,不仅会造成技术发展的失控,使得负面舆论、谣言蔓延至网络空间,而且还会加剧网民的认知偏见,阻碍主流价值观的引导,形成网络的“再殖民化”现象。

以行政立法权抗衡算法自主选择权,重点在于官方制定算法相关的法律法规,平台遵守算法规则,识别主流价值观与非主流价值观的内容,规范算法技术的应用范围。用户在此过程中没有丧失自由的权利,而是拥有规则下的自由,共同构筑算法正义。以行政立法权抗衡算法的自主选择权也并非剥夺平台对于算法的合理应用,而是在合理立法权范围内抗衡算法与用户造成的圈层式污染。“网信部门需与国家数据局等机构充分考虑算法平台的公私主体双重身份,以法律制度为基础,调和算法平台商业逐利与公共利益间的价值冲突。”②行政立法权在算法制造端设定算法规则,保护用户人权;在算法传播端设置关键词筛选,避免圈层式的“算法污染”;在用户接收端设置隐私条款,保护用户的数据痕迹。

“无论是宏观上公共政策的选择,还是微观上具体规则标准的确立,行政行为的合法性是作出行政行为的最基本要求。”③行政立法权若过大,一定程度上会挤占用户的权利空间,增加用户选择信息的成本。立法时需要考虑用户自主选择的权利,保证权力运行的适时性、适度性、适宜性,将用户纳入权力主体中,共同管理、运行算法技术。算法平台提供权力渠道,用户根据内容进行标记,标记最多的内容进入机器初审环节,信息内容倘若被机器再次标记则会进入官方人工终审环节,最终由官方进行信息内容的取缔或保存。用户与官方并不总是保持一致,需要对权力运行进行升级优化,构建统一规则和标准。行政立法权的权限由立法部门搜集民意,听取专业人士的建议,形成草案,在网络空间试行。

2.利益让渡:以数据保护权抗衡数据交易权

数据的应用范围广泛,既包括官方舆情数据的全景监测,商业数据的分析、支撑、变现,还包括个人数据的计划汇总。数据成为人们生活中不可或缺的存在,它既能带来商业盈利,也会让个人处于互联网的“全景监狱”中,一举一动都在掌控中。哈耶克认为“一个有效的竞争制度和其他制度一样,需要一种明智规划的并不断加以调节的法律框架。强制力量的控制者是否应该将自己限制于笼统地创造条件,充分发挥每个人的知识和创造力”。① 数据化时代,用户数据安全意识也在不断提升,注意到数据显性交易与隐性交易,渴望个人数据的删除与被遗忘,避免成为商业的数字画像。对于数据显性交易的现象,可借助区块链构建用户数据的保护伞,强调数据的去中心化,保护每个用户的数据,以安全保护防止数据污染,抗衡商业数据的不法交易权。对于数据隐性交易的现象,数据保护权抗衡隐匿的数据交易权,将权力赋能用户。用户可以选择数据的公开或不公开,在互联网设备上设置私密账号,避免监听的选项。除数据用于公共领域的维稳,用户的数据安全需要得到政府部门的保护。

数据关乎用户的权利,数据交易权关乎商家在互联网生存的权利。数据保护还需要为数据交易权留有空间,达到权力平衡的状态。“无论企业的生产经营活动还是国家机关履行法定职责,抑或公共机构提供公共服务,都需要进行个人数据的收集、存储、加工、使用、提供等各种处理活动。”②数据交易权需要商家与用户处于平等地位,尊重用户的隐私。在用户许可的范围内,借助算法技术推荐相应的商品信息,降低用户寻找商品的成本。商家也可以根据用户购买习惯,推荐相应的购买平台,建立与用户之间的交往关系。数据保护权与数据交易权并不是冲突、对立的存在,而是权力抗衡、规制后,共存于网络空间。若过分夸大数据保护权,就会让用户在互联网空间“野蛮生长”,从而失去管理。若过分夸大数据交易权,就会让用户陷入消费主义的陷阱,“娱乐至死”将会蔓延至整个互联网。数据保护权与数据交易权要在适度允许的范围内规制双方,既能够让用户处于被保护的范围,也能够让商户获取相应利益。

3.权利自卫:以信息公开权抗衡信息控制权

信息公开强调政府信息的公开表达,是保障公民知情权利的重要方式。“政策文件的制定可以反映出各机关部门权力和职责所在,即权力主体的所在。”③传统媒体时代,公民获取信息渠道有限,政府信息选择性呈现,信息公开的权力主体更多针对掌控信息的政府而言。智媒时代,用户数据形成用户画像,信息流、数据流被控制在资本方。政府议题呈现也受平台推送制约,差异化的分发结果影响公共议题的传播效率。“算法污染”本质上是资本方掌握了用户数据、官方议题,植入商业利益,造成大数据杀熟以及数据污染的局面,是资本信息控制权力的体现。为了更好地传播主流意识形态,打破资本对于信息的束缚,用户需要信息公开,监督资本平台的运营,维护个体权利。对于宏观议题、重大事件,用户拥有知情权,要求资本方设置公共议题,拓宽用户参与公共话题讨论的渠道,同时,用户要合理利用官方创建的网络学习平台,了解中央以及各地市的重大新闻、政策,规避信息权力失衡。然而信息公开并不是指所有的信息都要暴露在互联网空间,用户个人的隐私数据仍需保护,避免因为商业污染造成用户算法焦虑的后果。

算法技术既能污染网络空间,也能够维护网络主权,增强网民的凝聚力、向心力。算法推荐根据用户对于信息的接收程度进行个性化分配,影响网民的认知和行为。一方面,算法推荐主流信息以多种形式进行美化,间接传递到用户端,被用户所接受,建立用户对于主流信息的信任;另一方面,算法推荐与信息公开存在对立关系。算法推荐将个性化的信息窄化传播,注重信息的高接收率,期望产生“皮下注射论”的效果。信息公开是一对多或多对多的传播,注重信息的传播范围、传播广度,决定用户是否知晓信息,却无法判定用户是否采纳信息。信息公开是用户的需求所在,只有信息公开,用户才能真实了解各领域的最新情况,也是抗衡权力的途径之一。信息公开与算法推荐技术结合,能够将官方信息个性化到达用户界面,也同时实现了信息公开。以信息公开权抗衡信息控制权不单纯是权力的规制,更是用户权利自卫的结果,是维护信息秩序的需要。

4.三方共治:以技术监督权抗衡技术使用权

技术监督权规范技术的发展方向,追踪技术的升级需求,纠偏技术的发展轨道。技术使用权是指在技术的操作层面,平台拥有一定的自主选择空间。机器具备自主学习的能力,意味着即使离开算法工程师,机器也能够自己运行。弱人工智能时代,“算法污染”的表现停留在用户数据的收集、整合、传播方面。强人工智能时代,“算法污染”不仅是数据流侵蚀,还会带有意识形态的渗透,强化用户的认知偏见,激发社会矛盾,扰乱网络秩序。“在某种程度上,技术带来的很多问题其实都可以通过技术本身的进一步优化和完善而得以解决。”①官方联合公民实时、全景监督算法平台的运行,在平台端开通公民举报窗口,用户发现自己被“算法污染”,通过举报可以锁定算法相关账号。此行为既能保证官方权力的合法化,也能提升公民的参与感,将技术的发展过程展现在公众视野之下。当然,算法机器具有隐匿性,用户未必可以发现自己被算法污染,可聘用专业人员,鉴定算法传播的内容,对出现算法污染的情况及时制止。官方也可培养自己的技术团队,若发现平台偏离运行方向,可随时介入平台的操作端进行修正。技术的监督权关乎技术的发展方向,也关乎用户的数据安全、隐私安全、文化安全,需要官方与用户共同参与。

技术监督权与技术使用权需要将权力细分,确定多主体的权力范围,明确官方监督什么样的算法内容,用户监督什么样的信息推送,平台聘请专职人员监督什么样的算法信息。技术监督权本质上是借助外力实现权力规制,技术使用权则是权力的自我规制。技术使用权能够保证技术走在现代社会的前沿,探索服务人类的便捷化方式。算法技术的初衷并不是为了污染个体的社交场域和网络空间,而是为了精准推送信息,提升用户的体验。算法技术使用权掌握在技术的生产方、运营方,就需要相关责任方遵守行业的基本原则,遵守社会发展的基本规律,进行权力的自我规制,实现刀刃向内的效果。权力自我规制并没有实质性惩戒措施,仅仅是道德教化,在利益、权力面前,可能会超越法治的界限。我们对算法规制的讨论越多,反而陷入技术控制的“科林格里奇困境”越深,即监管者对人工智能技术异化风险的规制存在明显的迟滞与缺陷。② 以技术监督权抗衡技术使用权,将自律与他律相结合,“算法污染”的问题才能从根本上得以解决。

5.价值引领:以话语主权抗衡话语霸权

“话语不仅作为一种交往工具使用,而且被赋予了特殊的含义,具有越来越强大的社会功能。”③话语权体现在言论的转发、复刻、传播方面,本质上是一种影响权力。“算法污染”通过数据词条制造言论、算法机制分发言论、“信息茧房”解释言论,从而挤占官方话语通道,形成话语霸权,影响用户心智。ChatGPT的研发弱化了人与机器的边界,机器参与到用户话题的讨论过程中,传播速度、传播规模、传播渗透力相继扩大,话语传播、引导难度加大,甚至出现权力迁移、言论失控的局面。以话语主权抗衡话语霸权,一方面要求主流媒体掌握议题的设置,借助网言网语,弱化官方的角色扮演,深入到民间舆论场中,引领主流价值观,形成观点的遍在效果。另一方面,应建立智慧政府平台,监测舆论的形成,设置峰值等级。如果言论影响力不断上升,并且有意制造性别对立、种族对立、民族对立等矛盾,需要以技术手段打破言论圈层,将话题隐藏缩小传播范围,明确官方态度,塑造主流认知。需要注意的是,话语主权抗衡话语霸权并不是形成一种新的霸权,而是通过权力制约实现技术向善。

在“算法污染”问题上,权力抗衡权力看似是权力间的对抗,实则是权力间的规制。权力理论将权力主体与权力客体对立,忽略权力在隐性议题中的影响力。算法权力可以引起网络社会动乱,也可以打造和谐社会。本文以权力抗衡权力并在一定程度上约束、规制失衡权力,最终以权力平衡的状态保护用户的私人场域,维护网络空间的秩序。

五、结语

“算法污染”是权力与技术合谋的结果,造成话语权力、信息权力、技术权力和公权力的失衡。为了规制“算法污染”造成的负面影响,应从法治、平台、用户、价值方面抗衡“算法污染”。随着ChatGPT、Sora技术的应用,算法从弱污染向强污染跨越。权力对于“算法污染”的抗衡需要继续深化,从技术制约人向人制约技术拓展。政府已出台相关的算法约束条例,设置奖惩规则。例如,《互联网信息服务算法推荐管理规定》第二章第九条要求算法推荐服务提供者应当加强信息安全管理,建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。发现违法信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信部门和有关部门报告。①

权力也需要自我规制。权力需要关进制度的笼子里,保证权力的合理合法。权力运用的过程中难免出现利益交换,政府权力俘获的现象可引发政治僵局,进而造成政治危机。“算法污染”等人工智能技术的应用,将官方与公民聚合在同一战线。但是,公民本身的认识水平有限,偏好不同、地域不同、地位不同,容易掉入算法设置的陷阱,削弱联合权力主体监督算法的效果。权力的约束不可忽略,需要将法治与德治结合,在制度上给予权力支持,对于原则上的非正义进行取缔。德治提倡社团道德,鼓励公民角色性参与。约翰·罗尔斯在《正义论》中讲到社团道德,社团是一个共同体,每个人在社团中拥有适合自己的角色和地位。② 法律与道德共同发力,从权力主导向全方位参与转变,算法弱污染与强污染得到制约,技术向善成为一种可能。