欧阳林洁,张永红
(西南大学 马克思主义学院,重庆 400715)
生成式人工智能(Generative Artificial Intelligence)是基于训练数据和生成式算法,可以自主生成创造性的文本、图像、音频、视频、3D交互内容(如虚拟化身、虚拟物品、虚拟环境)的模型和技术,[1](P2)ChatGPT正是其典型代表。生成式模型(Generative Model)的突破,让生成式人工智能在自然语言处理、计算机视觉等信息科技领域的实践应用得以落地,开创了数字内容生产模式革新的信息科技新时代。在信息科技高度嵌入人们生活的背景下,数字内容生产模式的变革也将改变人们的认知方式与行为模式,进而将影响传导至意识形态领域,我国意识形态工作将面临诸多重大理论和实践课题。
人工智能的意识形态风险命题,肇始于20世纪以降的科学技术与意识形态关系之争。相关讨论大体可分作“非意识形态论”和“技术统治论”两派。虽然当时两派学者均未涉及人工智能的意识形态问题,但二者观点交锋的余波犹存。“非意识形态论”以丹尼尔·贝尔等资本主义的辩护士为代表,将科学技术与意识形态相对立,片面强调科学技术对于社会的改造作用,并宣称“意识形态已经终结”。[2](P450~519)虽然“非意识形态论”在20世纪下半叶西方的“再意识形态化”运动中破产,但其对于科学技术与意识形态无涉的观点却影响至今。作为论战的另一派,“技术统治论”则以法兰克福学派为代表。他们认为科学技术本身即是意识形态的一部分,发挥着“维护现有社会统治和导致社会堕落的意识形态作用”,坚称当前的社会已经掉入“技术统治”的窠臼,悲观地将科学技术视作桎梏人类解放的枷锁。[3](P1~11)在人工智能时代背景下,“技术统治论”的拥趸们也将人工智能技术视作一种意识形态,一种服务于社会精英的统治工具。[4]事实上,这一观点具有极强的迷惑性。它看似揭露了西方主导人工智能技术发展背景下的技术弊病与意识形态风险,但本质上是无视了科学技术的阶级应用差异,通过转嫁责任给科学技术的方式,将人工智能技术本身进行了全然的意识形态化与批判化,从而巧妙地掩盖了技术应用背后的资本主义社会的阶级压迫问题。因此,纵使“非意识形态论”与“技术统治论”对于科学技术与意识形态关系持截然相反的观点,但二者却分别以“全无”或“全有”的方式否定了马克思关于意识形态的理论。[5]他们将全部的注意力都集中在了物质的、客观的且作为生产力而存在的科学技术上,忽略了暗含在科学技术应用背后的阶级矛盾,因而也就丧失了厘清科学技术与意识形态关系的可能。所以,这两派的观点均难以成为准确破解人工智能与意识形态关系命题的理论支撑。
科学技术意识形态风险分析的关键在于应用领域,人工智能亦是如此。马克思曾在《资本论》中指出,尽管“智力转化为资本支配劳动的权力,是在以机器为基础的大工业中完成的”,但也“要学会把机器和机器的资本主义应用区别开来”,因为机器的资本主义应用才是产生矛盾和对抗的源头。[6](P438,444)马克思以大量实际案例,诠释了机器如何在具体的资本主义应用场景中制造矛盾与对抗。例如,马克思在剖析机器大生产导致工人劳动时间大幅延长的现象时指出:“作为资本,自动机在资本家身上获得了意识和意志……而机器的有效寿命,显然取决于工作日的长度或每天劳动过程的长度乘以劳动过程反复进行的日数。”[6](P416~417)原本用来节约劳动时间的机器,在资本主义应用下却导致了劳动时间的延长,这无疑是一种机器应用的“异化”。马克思的论述给予我们两点启示:一是科学技术的应用具有鲜明的意识形态属性,二是科学技术的风险源于具体应用场景下科学技术应用的“异化”。因此,对于人工智能的意识形态风险的剖析,也需要建立在意识形态辨析和应用场景分类的基础之上。当前,国内相关研究仍处于初期阶段。虽然在人工智能意识形态属性与人工智能意识形态风险样态研究领域已有一定进展,但既往研究对应用场景的分类却鲜有涉及。由于缺少对人工智能技术的具体应用场景及意识形态风险类型化的关切,既往研究在论述人工智能的意识形态风险时,经常出现抽象、泛化的现象,难以切中人工智能意识形态风险问题的要害。
生成式人工智能的意识形态风险源于技术应用的“异化”。当前科技界人士对于生成式人工智能的忧虑,显然不是对正常技术应用的担忧,而是对于技术应用“异化”的担忧。为此,ChatGPT的母公司OpenAI专门对当前最为先进的生成式人工智能模型GPT-4技术应用“异化”风险进行了分析。OpenAI分析了GPT-4已知的十二种具体应用“异化”的风险,分别为幻象(Hallucinations)、有害内容(Harmful Content)、放大偏见(Amplify Biases)、(1)OpenAI是从应用场景的角度出发,对此条目进行命名,即对代表、分配和服务质量的危害(Harms of representation, allocation, and quality of service)。而此项“异化”风险的核心是“放大偏见”,为便于读者理解本文将条目名称替换为“放大偏见”。虚假信息和行为诱导(Disinformation and Influence Operations)、武器扩散(Proliferation of Conventional and Unconventional Weapons)、隐私(Privacy)、网络安全(Cybersecurity)、潜在的紧急危险行为(Potential for Risky Emergent Behaviors)、与其他系统的交互关系(Interactions with other Systems)、经济影响(Economic Impacts)、科技加速(Acceleration)和过度依赖(Overreliance)。[7]但以上的技术应用“异化”的风险是OpenAI基于纯粹技术视角评估所得出的,不能直接用于意识形态风险分析,因此需要结合具体的应用场景,重新对生成式人工智能应用“异化”的意识形态风险予以类型化处理。如果以不同应用场景下生成式人工智能与意识形态风险间的因果关系为分类标准,排除与意识形态关联性较弱的具体风险后,可将生成式人工智能应用“异化”的意识形态风险分为三类:(2)通说认为意识形态具有阶级性与社会性。以此为标准,结合OpenAI分析报告中列举的风险案例,本文将无法或极小概率导致意识形态混乱的具体风险,以及仅以技术形式存在而不直接作用于社会群体的具体风险都排除在讨论范围之外。被排除的具体风险包括:隐私、网络安全、与其他系统的交互、科技加速。一是基础应用场景下的原发性意识形态风险。此类风险源于技术自身的缺陷,包括幻象、有害内容、放大偏见、潜在的意外危险行为等。二是恶意应用场景下的继发性意识形态风险。此类风险产生于个人或组织的恶意应用,包括虚假信息和行为诱导、武器扩散等。三是长期应用场景下的并发性意识形态风险。此类风险是一种附随风险,技术应用仅发挥催化剂作用,包括经济影响、过度依赖等。
综上,从马克思对于机器应用“异化”的观点出发,生成式人工智能的意识形态风险实际上是一个伪命题,真正的命题应表述为生成式人工智能应用的意识形态风险。只有紧扣生成式人工智能具体的应用场景,才有可能厘清意识形态风险的生成机制,进而探寻科学、有效的治理进路。
生成式人工智能的发展给意识形态建设带来了历史性机遇,但也带来了意识形态风险。这种意识形态风险本质上是一种由技术应用的“异化”所形成的对主流意识形态安全的威胁,包含风险因素、风险事故和风险损失三大要素。[8](P113)而生成式人工智能应用的风险生成机制则表现为:基于生成式技术特征的风险因素,在应用“异化”的过程中可能发生削弱主流意识形态凝聚力或引领力的风险事故,并最终导致主流意识形态认同危机的风险损失。
原发性意识形态风险是一种基础应用场景下,嵌于技术底层的内生性意识形态风险。它源自生成式人工智能技术的核心——生成式算法。在生成式人工智能出现前,人类是唯一的内容生产主体,政治、文学、艺术等均来源于人类基于特定的物质条件和社会关系基础上的塑造。但生成式算法让人工智能具备了这一此前由人类所“独享”的能力,成为新的内容生产主体。生成式算法的能力源于海量的数据训练和模型参数的微调,以ChatGPT为例,“无监督预训练+有监督微调”即是其最初模型GPT-1的诞生范式。[9]但这一算法训练方法却并非完美,即便迭代到了GPT-4模型,ChatGPT生成内容的幻象、有害内容、放大偏见、潜在的意外危险行为等现象依旧存在。
首先,原发性风险发端于海量问题数据生成的“算法钢印”风险因素。生成式算法以海量数据喂养的预训练模型为基石。所谓“算法钢印”是指在预训练过程中如同钢印一般烙印在生成式算法中的刻板化的意识形态。无人监督的海量数据预训练造就了生成式算法的强大能力,但同时也将算法质量与数据质量相绑定。有研究显示,即便是经过人工筛选的数据质量都已堪忧,[10]更遑论以未经严格筛选的互联网数据为训练来源的生成式算法。OpenAI所提及的幻象、有害内容、放大偏见等问题最初均源于互联网中的海量问题数据。而问题并未止步于此。由于不同语种的数据在互联网中分布不均,且生成式人工智能技术仍处于西方领先的状态之下,所以当前的主流生成式算法均由英语等拉丁语系语种训练而成。OpenAI甚至未对GPT-4模型的中文水平进行评估。[7]为验证GPT-4模型应用的意识形态表现,笔者与ChatGPT就中国历史评价及中国台湾地区地位等问题进行了实验性对话。笔者发现ChatGPT不但在非中文对话中呈现出明显的意识形态偏见,在进行中文对话时,ChatGPT也存在混淆政治概念、负面评价诱导等问题。因而从意识形态角度来看,当前主流的生成式算法是真正的西方技术,并且其意识形态偏见已深深地印刻于算法之中。
其次,原发性风险生变于社会意识生产领域“逆向驯化”的风险事故。“逆向驯化”是指在“算法钢印”的影响下生成式人工智能“异化”了原本的社会意识生产模式,在文艺、教育等领域对人们进行反向意识形态输出的现象。原本的社会意识生产模式以社会实践为基础,正如马克思所指出的“普遍意识不过是以现实共同体、社会存在物为生动形式的那个东西的理论形式”,[11](P302)其生产过程必然经过人的感知器官和社会器官的加工。但生成式人工智能的应用却颠覆了这一模式。生成式人工智能的社会意识生产并非源于现实的社会实践,而是源于既有数据的整合。其所生产的数字内容产品不会经过任何人的感知器官或社会器官的加工,但却会受到“算法钢印”的“异化”影响,进而引发“逆向驯化”的风险事故。一方面,“量”的碾压将产生逆向挤占的效果。相较于人类,生成式算法的社会意识生产边际成本近乎为零。生成式人工智能可在既往人类作品的基础上,生成海量的文学、艺术作品,迅速充斥、挤占社会意识生产领域;另一方面,“质”的低劣暗藏有驯化诱导的风险。以教育领域为例,纵使人工智能在教育领域拥有巨大市场,但其本身仍应符合“道德的、值得信赖的或负责任的”准入标准。[12]从ChatGPT在教育领域的实际应用来看,当前的生成式人工智能不但无法提供必要的情感教育,而且存在大量捏造教育内容的情形。[13]就意识形态而言,如果教育内容中潜藏有意识形态偏见,将对受教育者的价值观产生深远影响。因此,在生产能力强大且存在“算法钢印”的生成式人工智能面前,人类会迅速从社会意识的生产者沦为被驯化者。而这种“逆向驯化”事故如若出现,则必然威胁我国主流意识形态安全。
最后,原发性风险成形于人类封闭的被动的“认知茧房”风险损失。马克思将意识视作可以区分人类与动物的标准,因为“人的类特性恰恰就是自由的自觉的活动”。[14](P96)然而,生成式人工智能的“逆向驯化”事故,可能“异化”这种“自由的自觉的”意识状态,进而让人类陷入封闭和被动的“认知茧房”。其一,以“封闭”的虚拟互动取代“自由”的社会联系。人是社会性动物,需要通过社会联系来实现自身价值、维系自身存在。这种社会联系必须是处于人“自由的”意识支配下的真正的联系,而非形式上的、虚假的联系。当人们面对存在“算法钢印”的生成式人工智能时,虽然可以通过比肩真实场景的互动交流,感受到表象化的社会联系,但事实上却离自由意识越来越远。因为这种社会联系完全由算法所驱动,只要这种虚拟互动持续存在,人就会持续遭受潜在的“算法钢印”的驯化,慢慢陷入封闭的“认知茧房”。其二,以虚假的“自觉”掩盖真实的“被动”。人类作为与生成式人工智能互动的发起者,极易产生一种“自觉的”错觉,似乎整个互动过程都处于自己的意识掌控之下,从而低估了生成式人工智能的意识操控能力。但OpenAI的研究指出,以GPT-4为代表的生成式人工智能非常擅长罗织真实程度极高的虚幻内容,甚至还有主动欺骗人类的意外危险行为。[7]这意味着一旦人类沉浸于这种虚假的自觉,就可能经由“逆向驯化”被动地落入“算法钢印”编织的“认知茧房”陷阱。受困于“认知茧房”的人数愈多,对主流意识形态认同的冲击也就愈大,这种诞生于生成式算法本身的原发性意识形态风险也将沿着这条技术应用的“异化”路径,逐步成为现实的威胁。
继发性意识形态风险与原发性意识形态风险不同,它并非是自然生成于技术应用的“异化”路径,而是诞生于个人或组织的恶意应用场景之下。就意识形态领域而言,OpenAI的技术报告中有两种具体风险与之相关,即虚假信息和行为诱导、武器扩散。所谓虚假信息和行为诱导是指生成式人工智能会遵循使用者的要求,生成一些虚假、有害或者诱导性内容用于恶意攻击。而武器扩散则是指生成式人工智能可能会被用作网络认知对抗的武器。[15]两种风险虽有不同,但所遵循的意识形态风险生成机制及样态是一致的,二者均恶意利用了生成式人工智能的智能仿真技术,试图突破意识形态的把关机制,以摧毁主流意识形态的价值体系。
首先,“智能仿真”风险因素为继发性风险的产生创造了先决条件。智能仿真(Intelligent Simulation Technology)是指人工智能与仿真技术的集成性应用技术,即利用人工智能技术还原或模拟物理世界。[16]随着生成式人工智能时代的到来,智能仿真技术将迎来“模型即服务”(MaaS)的新模式。这意味着智能仿真中的仿真智能体技术(Agent Simulation)将直接为用户提供服务。有学者认为智能体要在现实社会中自主完成委托任务,应当具备以下四种能力:自治性、社会能力、响应性和能动性。[17]但对于意识形态安全而言,仿真智能体技术愈发成熟,其被恶意利用的概率就愈高,所导致的意识形态风险也愈大。从世界范围来看,智能体已成为计算性宣传(Computational Propaganda)的重要工具,即利用算法、自动化程序、大数据分析等方法在社交平台发布诱导性信息,以实现操纵舆论的目的。在生成式算法广泛应用前,智能体仅能完成一些简单、重复的计算性宣传工作,如信息发布、信息收集和简单交互。但生成式智能体的出现将彻底改变这一局面,它不仅具有极强的响应性和能动性,具体表现与人类专业的宣传人员相差无几,[7]还具有一定的自治性和社会能力,能够对社交环境进行识别并按照既定要求自主完成对于人类社会交互行为的仿真。[18]出色的智能仿真能力,叠加生成式算法的深度合成技术(Deep Synthesis),将让生成式智能体成为威胁意识形态安全的重大风险因素。
其次,“把关失效”风险事故为继发性风险的扩散撕开了制度豁口。列宁指出:“社会主义意识只能从外面灌输进去”,[19](P3,29)但何种意识需要灌输必须经过选择,这种选择的过程就是意识形态把关的过程。把关理论本质上是一种信息控制范式,该理论认为社会中所流动的信息只有经过把关人的价值筛选才能进入传播渠道。传统把关理论将把关人、把关内容和把关效果视为研究重点,[20]这在一定程度上也还原了大众传播时代意识形态把关制度的设计重点。然而,生成式人工智能的出现轻易地将意识形态把关制度撕开了豁口。其一,传统把关人无法应对仿真智能体把关对象。尽管遭遇互联网兴起的严峻挑战,把关制度仍不至于失效,因为把关人已近乎布满整个互联网。[21]但这一结论成立的前提是把关对象为人类个体,而非仿真智能体。因为恶意控制下的生成式智能体可以轻易伪装成人类渗透进公共信息平台,在海量智能体的协同下,实现操控议题、转移话题、挑唆情绪等意识形态操控目标。作为把关对象的生成式智能体在恶意控制下将成为意识表达和传播的重要参与者,而无论把关人是人类个体还是组织都难以应对。[22]其二,传统把关的内容分析模式无法分辨深度合成内容。传统把关理论认为对于信息内容的把关应当经过两个阶段,即信息采集和信息加工阶段,而把关人会基于一定的价值判断在这两个阶段中完成对于内容的分析和把关。[23]因此,传统把关的内容分析模式高度依赖把关人对于信息来源及社会背景的认知。但在互联网背景下,碎片化的信息内容呈现方式在打断这一内容分析模式的同时,也破坏了把关人对于信息背景的整体性认知。此时,经由生成式算法产生的深度合成信息的出现,将彻底让把关人无所适从,他们无法分辨合成信息的真伪,也就无法完成对于内容的把关。其三,传统把关的效果反馈机制难以穿透生成算法黑箱。传统把关的效果反馈是调整把关机制的重要环节,顺畅的把关效果反馈应建立在全面掌握把关过程的基础之上。但对于生成式算法的算法黑箱而言,即便是设计者也一筹莫展。把关人自然更加难以把握信息内容的生成规律,无法准确评估把关效果。
最后,“价值失衡”风险损失是继发性风险现实化产生的危害后果。继发性意识形态风险是主观恶意最强的“异化”风险,对意识形态把关制度的突破不是其目的,其真正的目的在于摧毁我国主流意识形态价值体系。一方面,仿真智能体利用社会焦点事件助推政治极化。从境外仿真智能体参与计算宣传的案例可见,智能体更擅长通过“标签劫持”引导舆论走向极化,以实现操控者的政治目的。[24]有研究显示,中国也是境外计算宣传进行舆论渗透的重灾区。以境外社交媒体Twitter为例,其中约超过1/5与中国相关的帖文均由智能体发布,相关内容主要发布在重大社会性事件发生后,集中在政治议题和人权议题上,以歪曲解读、煽动对立为主。[25]当前智能体的恶意应用多以信息发布和转发扩散为主,极少进行互动式传播,但随着智能仿真能力的不断提升,仿真智能体制造政治极化的风险也将更大。另一方面,仿真智能体借助从众效应宣扬西方价值。仿真智能体也可被用于制造虚假的社会共识,它可被部署在社交媒体上,集中放大特定的宣传信息,并通过从众效应以形成对具体个体或价值观的现实支持。有学者指出,2016年美国大选特朗普的竞选集团就应用此项技术为特朗普赢得了广泛支持。[26]事实上,仿真智能体对于社会意识的操纵都是一体两面的,在进行意识形态攻击的同时,也必然伴随着对另一价值观的宣扬。对于我国而言,无论是对社会主义核心价值体系的攻击,还是对西方价值观的宣扬,生成式人工智能恶意应用者的根本目的均在于颠覆主流价值体系,造成“价值失衡”的意识形态风险损失。
并发性意识形态风险是生成式人工智能技术在长期应用场景下所产生的附随性风险,同时也是一种最底层、最不可逆的意识形态风险。这种风险已触及人的主体性问题,进一步助推了近代以来资本主义生产方式所造就的人的异化危机。生成式人工智能的出现应验了马克思的判断,“我们的一切发明和进步,似乎结果是使物质力量成为有智慧的生命,而人的生命则化为愚钝的物质力量”。[27](P776)即便OpenAI也不得不承认,经济影响和过度依赖的风险是生成式人工智能给人类社会所带来的不容忽视的重大风险。前者将人从生产活动中排挤出去,令其失去了他的“类生活”;后者让人脱离现实,令其沉溺于“描绘他的真正的类生活的讽刺画”中。[14](P53,25)在二者的综合影响下,传统的价值观、道德感将逐渐解体,并最终导致社会信仰迁移的意识形态风险损失。
首先,“主客异位”的风险因素让人的主体性地位遭遇空前的挑战。马克思曾详细分析过人的异化现象,在其看来这些有悖人的类本质的现象均源自资本主义生产关系下劳动的异化。[28]虽然这种劳动的异化会导致机器对人类的排挤,但机器本身的地位却并未改变,不会危及人类的主体性地位。然而,生成式人工智能却对人类的主体性地位发起了挑战,甚至从多个维度开始混淆人的本质概念,最终将引发质变。依照OpenAI的测试,GPT-4模型在众多选拔类职业资格考试中均取得了超越常人的优异成绩,如美国研究生考试(GRE)、美国统一律师考试(MBE+MEE+MPT)等,[7]这意味着生成式人工智能在脑力劳动领域已初步具备了取代人类的能力。而随着OpenAI收购挪威人形机器人公司1X,那些依靠人类多感官协调的技术性体力劳动也将面临严峻挑战。[29]并且这种取代可能不再是马克思所描述的劳动生产关系中机器对于人类的排挤,而是更为底层的主体地位的替代,即“主客异位”。如果生成式人工智能获得了主体地位并成为超越人类的存在,那么人类将必须为自身的存在寻找价值和意义,人的存在也将日益变得“虚无和荒谬化”。[30]这种“主客异位”必然挑战以人为核心的意识形态基础,由此引发的意识形态风险也将是史无前例的。
其次,“解构传统”的风险事故激化了社会中原有的意识形态风险。马克思虽力主批判资本主义的生产方式和意识形态所导致的人的异化现象,但他也承认“以资本为基础的生产……创造出一个物质的和精神的普遍有用性体系”是“服从于人的需要”的,并具有“伟大的文明作用”。[31](P389~390)但长期应用场景下的生成式人工智能却正在从物质层面和精神层面解构这些以人为基础的“普遍有用性体系”,激化原本就存在的意识形态风险。OpenAI列举的经济影响和过度依赖的风险便是例证。一方面,经济影响的风险通过剥夺人类劳动机会的方式,从物质层面解构人类个体自我实现的基础,将人们困于自我价值否定的陷阱之中。马克思虽然认为资本主义生产关系所导致的劳动异化,让人无法从劳动中感受到生命的价值,因此必须加以批判。但不可否认的是,大部分被异化的人仍在生产关系中占据一席之地。而在OpenAI所预测的经济影响风险中,生成式人工智能可能导致经济体发生组织层面的变革,将相当数量的人完全排除在劳动生产之外,同时叠加生成式模型的“加速”特性,(3)加速(Acceleration)是指生成式模型作为当前最先进的技术,能够让企业或组织获取先发红利,因此企业或组织出于竞争的需要可能会陷入类似“赛车”比赛一样的持续加速开发和部署的状态。但社会却尚未做好运用制度性规范进行“刹车”的准备,导致生成式模型在不断“加速”的过程中,存在完全“失控”的严重风险。被替代的人群范围可能愈来愈大。由于生成式模型迭代的速度远超人类,被替代的人将永远失去追赶的机会,进而掉入自我价值否定的陷阱。另一方面,过度依赖的风险通过令人类个体脱离社会环境,从精神层面解构人类社会的现实基础,让人们沉溺于个体的虚拟幻象之中。马克思直言:“甚至当我从事科学之类的活动,即从事一种我只是在很少情况下才能同别人直接交往的活动的时候,我也是社会的,因为我是作为人活动的。”[14](P122)事实上,人与社会的相互塑造关系决定了人的社会活动和享受无法脱离社会而单独存在,与此同时人类社会的存在也有赖于永不停息的人的社会活动和享受。因此,任何将人的活动和享受抽离于现实社会的科技都是一种解构人类社会基础的力量。在进入信息时代后,以虚拟的活动和享受替代现实社会的解构进程便已开启,而生成式人工智能技术的出现更是加剧了这一趋势。就人的活动而言,除去必要的物质交换,生成式人工智能依靠强大的模型和数据足以在任何专业领域满足普通人的知识和信息需求,在普通人心中塑造其智能权威的形象。而对于人的享受,生成式人工智能也可以通过精准个体化定制,为每个个体提供专属性服务。长此以往,生成式人工智能应用的“异化”,也就逐渐将人类个体剥离出现实社会,并包裹在为个体打造的专属虚拟幻象之中。
最后,“信仰迁移”的风险损失将造成主流价值观消解的严重后果。信仰有个人信仰与社会信仰之别。从意识形态角度出发,社会信仰源自特定文化共同体和特定人群的共同意识,是塑造主流价值观的必争之地。在生成式人工智能大规模应用前,社会信仰之争所折射的是不同社会生产方式下人的地位问题,如资本主义将宗教作为压迫人民的统治工具,而马克思主义信仰则致力于实现人的解放。但生成式人工智能的出现,从主体层面对当前以人为核心的社会信仰发起了挑战,在解构社会传统的同时,也为社会信仰迁移至以非人类为中心的“数据”或“超智能存在”提供了可能。从路径上看,这种社会信仰的迁移不会是一蹴而就的,它至少可分为两个阶段,即解构人类社会权威的阶段和塑造非人类社会权威的阶段。前一阶段的特征为:以模型依赖解构社会权威。有研究显示,当人们缺乏人工智能素养时,容易高度信赖人工智能模型。特别是在自己不熟悉的专业领域,人们可能将人工智能视作“客观逻辑”的呈现。[32](P1~23)而随着人们对生成式模型信任度的增长,人们也愈发难以质疑或验证生成式模型的结论,与之相伴的则是依托于人类知识体系和主流价值观的社会权威影响力的消弭。后一阶段的特征为:以模型依赖塑造智能权威。一项针对人工智能依赖性的实证研究发现,虽然人们可能会因各种缘由对具有可解释性的人工智能产生“无理由的信任”(Unwarranted Faith),但其中那些不具备人工智能素养的人更有可能会将人工智能视作高于人类的智能存在。[33]这一结论印证了尤瓦尔·赫拉利所预言的“数据主义”出现的可能,也预示了社会信仰存在向非人类的智能权威迁移的巨大意识形态风险。
习近平总书记指出:“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应。”[34]面对生成式人工智能应用所带来的各种意识形态风险,切不可讳疾忌医,以抵制技术的方式防范风险。而应因势利导,针对不同类型的意识形态风险,探寻切实可行的风险治理路径。
生成式人工智能应用的原发性意识形态风险根植于算法底层,单纯依赖人力将难以破除根深蒂固的“算法钢印”。因此,对于原发性意识形态风险的治理思路也应从既往的“人工规训”转向“技术规驯”。而从“技术规驯”的角度出发,可衍生出两条具体的治理路径:一是锚定技术本身的治理路径,强调对生成式算法的规制;二是锚定技术应用场景的治理路径,强调对生成式算法的驯化。
一方面,通过建立生成式算法备案与披露制度,增强技术透明度,强化对生成式人工智能技术本身的规制能力。生成式人工智能应用的原发性风险治理应摆脱依靠人工规训算法的路径依赖。因为在以大模型为基础的生成式算法面前,即便是设计者也无法探查全部的潜在算法风险,更毋言通过预先的人工干预来加以规避,人们能做的只是在发现问题后尝试对算法进行微调。[35]因此,通过备案和披露制度提升监管机构的反应与规制能力,就成为了治理原发性意识形态风险的关键。2023年7月10日颁布的《生成式人工智能服务管理暂行办法》(以下简称《管理办法》)规定了生成式人工智能应用提供者的合法性义务,并确立了生成式算法备案与披露制度。但总体而言,当前的备案与披露制度仍过于粗略,难以满足治理需求。其一,备案与披露的类型过于单一,未能实现分级分类的监管目标。当前的备案与披露制度,仅针对“具有舆论属性或者社会动员能力”的生成式算法,但生成式人工智能应用的原发性意识形态风险却不一定发生在舆论领域。其二,备案与披露的内容过于模糊,难以满足精准审慎的监管要求。《管理办法》准用了《互联网信息服务算法推荐管理规定》中的备案程序制度。后者虽要求备案人披露“算法类型、算法自评估报告”等信息,但却并未对算法概念进行准确界定。对于生成式算法的备案与披露,是只需要对算法类型进行描述性的形式备案,还是需要对算法模型本身进行实质备案,以及备案内容是否涉及敏感词数据库、分类器等必要内容,均缺少明确规定。而有效治理的前提则在于提升技术透明度,强化与算法平台的沟通协作。所以,国家应尽快制定配套、细化的分级分类生成式算法备案与披露制度,进一步明确备案登记的内容和程序,切实提升对于生成式人工智能技术的规制能力。
另一方面,通过建立意识形态敏感领域应用规范与强制定向训练制度,增强技术安全性,提升对于生成式人工智能应用的驯化能力。如前所述,生成式算法的“算法钢印”形成于海量问题数据的预训练模型,而破解之道同样在此。为确保意识形态领域的安全,《管理办法》明确将“具有舆论属性或者社会动员能力的生成式人工智能服务”列入需要主动申请安全评估的类别,并明确生成式人工智能“从事新闻出版、影视制作、文艺创作等活动”时还应遵守相应领域的例外规定。在上文深度剖析生成式人工智能应用的意识形态风险生成机制后,我们可以发现《管理办法》的规定意在预防生成式人工智能应用所可能引发的继发性意识形态风险。但同时,我们也可以发现《管理办法》显然没有考虑到生成式人工智能技术的全部应用场景,进而忽略了原发性意识形态风险这一风险类别。事实上,我国可参鉴欧盟的《人工智能法案》,对生成式人工智能技术应用的关键领域划分风险等级,将教育领域等可能发生原发性意识形态风险的敏感领域设置为高风险应用领域。具体路径可分作两步:一是针对意识形态敏感领域设置特殊的应用规范,明确生成式算法所必须具备的技术标准;二是依据不同意识形态敏感领域的特点设置定向训练数据库和敏感词定向训练数据库。《管理规定》虽强调要推动建立“公共训练数据资源平台”,但却并未规定强制性的定向训练制度。对于已经存在“算法钢印”的生成式人工智能,定向训练是纠正其算法偏见最直接有效的方法。因此国家应加快生成式人工智能基础设施和公共训练数据资源平台的建设,并要求在意识形态敏感领域提供服务的组织及个人,在正式开展业务前,必须使用指定的定向训练数据库对算法模型进行强制定向训练。例如,在教育领域,要求生成式人工智能技术在应用前应预先完成中国特色社会主义理论体系数据库的定向训练,以避免在应用过程中出现严重的政治及意识形态错误。只有如此,才能在最大程度上避免“算法钢印”的意识形态威胁,消除“逆向驯化”所可能产生的“认知茧房”效应,将西方技术驯化为中国技术。
生成式人工智能应用的继发性意识形态风险的症结在于,传统的把关人无法应对仿真智能体所发起的全方位挑战。因此,风险治理模式也必须与时俱进,由把关人理论下的“重点监管”转为“全链监管”模式。为适应在智能仿真技术加持下,计算宣传智能体所可能发起的意识形态攻势,“全链监管”应从以下两方面入手。
一方面,完善分布式监管网络,合理划定权责。分布式监管区别于把关人理论下的分段、重点监管体系,其核心价值在于能有效弥合传统中心式监管体系所造成的监管缝隙。传统的中心式监管体系以把关人为监管核心,监管责任高度集中于把关人,因此以“量”取胜、重点布控是惯常操作。但面对有生成式人工智能技术加持的仿真智能体,无论如何增加把关人的数量,也无法应对可能随时攻击信息采集、选择、编辑、审查、导向、发布等意识形态传播全链条任意环节的仿真智能体。同时,在“模型即服务”模式日益盛行的当下,把关权实际上已开始向算法平台企业转移。算法平台企业在拥有筛选服务对象的巨大权力时,却无需负担相应的监管职责,从而产生了巨大的监管真空地带。而《管理办法》的“分类分级监管”原则正体现了这种分布式监管的理念,强调了生成式人工智能服务提供者的法律责任。然而可惜的是,《管理办法》虽界定了“生成式人工智能服务提供者”的概念,但并未严格区分算法平台与利用API(应用程序可编程接口)的终端服务提供者。而角色的不同不仅意味着在传播链条中的地位和能力差异,也意味着责任的不同。例如,OpenAI的政策研究中心主任Miles Brundage等人所提出的疑问,当前的算法平台能够通过API控制申请使用生成式算法的终端服务提供者,但真正的问题是谁能通过申请?通过理由如何?算法平台又该怎样制定访问权限规则?[36]模糊的规定意味着模糊的责任,并将最终导致架空责任条款的结果。因此,国家应当将分布式监管的思路贯彻到底,打造符合生成式人工智能应用路径且权责一致的分布式监管网络,以构筑起治理继发性意识形态风险的监管体系。
另一方面,提升智能化监管水平,以技术制约技术。对于恶意利用生成式人工智能技术所可能导致的风险,《管理规定》从三个角度尝试予以防范与治理,即自主监管、用户监管和行政监管。总体而言,《管理规定》的监管思路是清晰的,准确切中了意识形态风险治理的要害。但规定中的技术含量仍然不高,所体现的更多的是倚赖把关人的传统监管思路,难以应对以仿真智能体与深度合成技术为主要攻击手段的继发性意识形态风险。从可预期的实际治理效果来看,《管理规定》所重点倚赖的自主监管和用户监管路径恐难奏效。一是恶意利用必然回避现有规范,令自主监管落空。继发性风险源自恶意应用。算法平台如果直接参与了意识形态的计算宣传或认知对抗,便不可能遵守《管理规定》中的自主监管条款。而如果是终端服务提供者所实施,也必然绕开了平台监管,更加不可能遵守《管理规定》的自主监管规定,例如,为虚假的深度合成内容加注标识。二是恶意的深度伪造具有极强的迷惑性,让用户监管失效。互联网背景下的传统监管模式主要采取增加把关人的治理思路,即将用户作为把关人吸纳至监管体系之中,实现把关人数量的指数级增长。但用户监管受限于个体的认知与知识体系,对于可能引发社会意识形态风险的深度合成内容,甚至是深度伪造的内容则束手无策。因此,行政监管才是应对继发性意识形态风险最为重要的手段。同时,为更好地应对潜在的海量计算宣传与认知对抗意识形态攻击,必须将监管体系由以人工为主过渡到以技术为主,大力发展智能化监管工具,如人民网开发的“人民审校”产品。只有以技术为依托,坚持三管齐下,才能有效提升继发性意识形态风险治理的智能化监管水平。
并发性意识形态风险其本质是一种颠覆以人为本价值体系的信仰危机,故而风险治理的思路应当反其道而行。任何以人为本巩固社会主流价值观,并提升人们抵御智能依赖的方法,即为并发性意识形态风险的治理之道。
一方面,以强化“人机对齐”筑牢人工智能以人为本的价值观。《管理办法》通过明确规定人工智能技术所应遵循的准则和要求的方式,对以上问题给予了回应。但就规范层面而言,相关规定只是宣示性规范,是国家立场的宣告。事实上,当前人机对齐的具体工作仍主要依靠生成式人工智能服务提供者,特别是算法平台自主完成。例如,OpenAI所开发的InstructGPT预训练模型,就是采用“人类反馈强化学习”的人机对齐技术。但就实际效果而言,其只是一项“行动目标对齐”技术,而非“价值观对齐”技术。因此,InstructGPT虽然让ChatGPT的行为更像人类,但却并未给出消减反人类价值观行为的解决方案。[37]所以,欲实现价值观层面的人机对齐,应当依赖国家和社会的力量,而非由算法平台各行其是。国家应主导人机对齐技术的发展,充分利用人工智能行业协会、学会、研究会等社会力量,共同制定生成式人工智能伦理标准和发展规划,将以人为本价值观深深地印刻在生成式人工智能的算法之中。
另一方面,以培育“智能素养”增强社会公众的智能依赖抵御力。上文引述的研究表明,缺乏智能素养的社会公众将更容易陷入对人工智能的过度依赖。那么反之,培育智能素养能否有效提升社会公众的智能依赖抵御力?答案是肯定的。有研究显示,公众仅仅认知到机器学习模型所可能存在的性能差异,就可显著降低其对于模型的依赖程度。[38](P120~129)但可惜的是《管理办法》再次将管理职责交给了算法平台,仅要求提供者“采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务”。事实上,过度依赖现象并不仅发生在未成年人身上,预防并发性意识形态风险有赖于社会公众智能素养的普遍提升,因此必须多管齐下。其一,在企业层面,应对生成式人工智能服务提供者提出明确且清晰的规范要求。如在用户登录界面提示生成式算法的局限性,并列举错误范例;又如为用户提供生成内容相关度与准确性的提示,并标明参考信息来源等。其二,在社会层面,应注重针对社会公众的宣传。管理机关应与宣传机关协作搭建信息共享平台,利用各种舆论契机,加大针对社会公众的人工智能通识性宣传。其三,在教育层面,应在各教育阶段增设符合学生需求的智能素养教育内容,尽快普及智能素养教育,从根本上提升社会整体的智能依赖抵御能力。