生成式人工智能媒介应用的意识形态风险及防范

2023-04-20 09:18:00唐庆鹏
南通大学学报(社会科学版) 2023年6期
关键词:话语媒介人工智能

唐庆鹏

(南通大学 马克思主义学院,江苏 南通 226019)

当前,国内外互联网大厂争相进入生成式人工智能媒介应用的新赛道:美国人工智能研究实验室OpenAI 率先发布对话式智能媒介产品ChatGPT,随后谷歌、百度迅速跟进推出Bard、文心一言等类ChatGPT 媒介应用,而苹果、Anthropic、京东、腾讯也声称正在开发类似的智能系统。作为现象级的应用,ChatGPT 及类似智媒代表了当前生成式人工智能媒介应用的最前沿发展水平,能够实现与人类进行自然对话式交互,甚至能完成需要抽象推理和强思维能力的任务,在聊天服务、图文写作、数据运维以及舆情分析等方面有着丰富应用场景。这些由人类研发并训练的生成式人工智能媒介,提高了人机交互的效率、效果,也加速了信息传播的内容生产、传递渠道和供给方式的升级变革,进而延伸影响甚至规训人类思想意识、道德规范、价值判断和行为方式,具有显在或潜隐的意识形态指向性并可能衍生出多重价值风险。

新时代以来,中央统筹发展与安全,高度重视人工智能等重点领域国家安全工作,在推进新技术应用与发展的同时,更加注重识别和防范可能的安全风险。2023 年4 月,习近平总书记在中共中央政治局会议上再次强调指出:“要重视通用人工智能发展,营造创新生态,重视防范风险。”[1]基于此,本文进入技术的价值阐释向度,深入探究生成式人工智能媒介应用的意识形态性、可能衍生的风险样态,进而提出现实可行的纠治路径,为防范人工智能领域重大风险、推动形成良好网络传播生态、维护我国意识形态安全提供有益参考。

一、从对话到会意:生成式人工智能媒介应用的技术架构及其意识形态性

截至2023年5 月,ChatGPT 月均访问量达18亿,而尚在公测期的“文心一言”一个多月时间就已经吸引了200 多万用户、十几万家企业排队参加测试[2]。随着类ChatGPT 媒介被广泛接受和使用,其所建构的智能化对话场景也逐渐开始拥有了真正的社会密度,并延伸出新的技术与人文互动关系。生成式人工智能媒介是由人设计和使用的,其技术架构不可避免受到社会结构的影响,同时技术的使用也会影响社会主体价值取向与行为,使其兼具对话和会意双重属性。

(一)生成式人工智能媒介的技术架构

在最直接的表征上,生成式人工智能媒介应用的典范——ChatGPT,是一款功能卓越的聊天机器人,能够帮助实现在线的任何人使用人类文本与人工智能进行对话。尽管聊天机器人的历史可谓悠久①实现“智能对话”几乎贯穿于人类探索人工智能的全过程,总结来看,大体经历了早期的“与计算机交谈”阶段(如20 世纪60 年代诞生的第一个聊天机器人ELIZA),到“以目标为导向的会话”阶段(如20 世纪70 年代开发的语音助手PARRY),再到“回归社交的交流”阶段(如1995 年创建的第一个在线聊天机器人ALICE)以及“面向强人工智能的对话”阶段(如不断迭代中的ChatGPT)等。参见E.Adamopoulou &L.Moussiades,“Chatbots:History,Technology,and Applications”,Machine Learning with Applications,Vol.2,No.15,2020,pp.1-18.,但ChatGPT 展现出了更多样、更精准、更智慧的对话能力和媒介特性。究其缘由,支撑这些对话应用优势的背后,近年来生成式人工智能技术的迭代改进无疑是最为显见的驱动因素。

第一,深度学习算法、高配算力是生成式人工智能媒介的技术内核。生成式人工智能媒介主要立足于多项以深度学习为核心的算法支持与配合,在预训练的基础上,算法通过知识学习、提示学习和强化人工反馈机制生成连贯、符合语境的文本,并且能够执行文本完善、文本生成以及文本对话等功能。同时,生成式人工智能媒介的大规模应用依赖于高配算力。算力即设备或服务器的数据处理能力,由数据的计算、存储及传输三项指标决定。由于深度网络结构和优化算法特性,大语言模型在训练和推理的过程中需要耗费大量算力,这些都离不开大算力硬件的运行支持。据悉,最新版本的ChatGPT 完成整个训练过程需要近三万颗英伟达A100 芯片,总算力消耗约为3640PF-days(即按每秒一千万亿次计算,运行3640 天)[3]。

第二,海量用户数据、交互语言模型是生成式人工智能媒介的功能基础。生成式人工智能具有从大规模参数中捕捉复杂知识的语言模型功能,训练数据质量、参数规模直接影响其语言模型功能的发挥。目前,ChatGPT 在与人类交互中变得越发聪明,也是因为其应用功能的成长获得了海量用户数据投喂。事实上,生成式人工智能媒介的迭代史始终伴随着参数的爆炸式增长。OpenAI 所开发的ChatGPT 应用,经历了从初代GPT 包含的1.2 亿参数,到GPT-2 包含的15 亿参数,再到GPT-3 的1750 亿参数的成长过程,而且预估GPT-4 将达到100 万亿参数。[4]当然,高效的自然语言处理是生成式人工智能媒介的核心机制,通过预训练语言模型,能够让聊天机器人更加智敏地识别、理解人类的语言,并做出更精准、个性化回应。再加上持续的迭代训练,目前生成式人工智能的语言模型能更好地自分析答案,识别训练中的错误,提出相应的解决方案,在不断优化自我的过程中拓展和提升功能应用。

第三,智能易用性、响应个性化是生成式人工智能媒介的独特优势。生成式人工智能媒介的智能易用性首先表现在它非常擅长模仿真实世界人际互动的对话方式,这使得其能够迅速拉近用户距离,并增进亲和感或“人情味”。同时,目前主流的生成式人工智能媒介往往以通用聊天机器人形态来应用,理论上它可以面向所有人开放。无论是何种身份或职业,人们都可以发现生成式人工智能在日常生活中的不同用途。因为它能够构建用于不同目的的对话交互,例如客户服务、虚拟助手、辅导活动、文档评估、咨询、研究和其他对话界面。并且,生成式人工智能媒介还能够通过监督学习和强化学习来不断拓展自身的功能边界并持续改善整体用户体验。正是凭借独特的技术应用优势,现如今生成式人工智能媒介产生了令人惊讶的用户网络效应。据统计,ChatGPT 在推出后仅2.5 个月就拥有约1 亿用户。与之相较,脸书花了4.5 年、推特花了近2 年多时间才达到1 亿用户的里程碑。[5]在见证了强大的应用优势后,比尔·盖茨更是坦陈,ChatGPT 是数字时代两项革命性的技术进步之一,并且将彻底改变人们相互沟通的方式,整个行业将围绕它重新定位。[6]

总之,从技术上看,目前生成式人工智能媒介整体上已经形成了强大的知识储备、卓越的推理能力以及精准的文本生成能力优势,能支持更便捷、更有用、更个性化信息传递和交互对话场景。而在持续的技术迭代和越来越多用户体验优化下,生成式人工智能媒介的技术优势还将会给传播生态带来更多新的改变。

(二)生成式人工智能媒介应用的意识形态性

作为一种高度人性化的对话体验,用户对生成式人工智能媒介的每一次应用实际上都在动态建构着一个由人类参与的利基型话语场[7],生成带有人类价值的内容并接入社会群体的公共消息传递和沟通。这些智能话语场由此相应地转化为一个个“会意空间”,从而也使得生成式人工智能媒介超越了中立的工具范畴,承载着意识形态属性。

第一,大规模预训练会吸纳大数据中驳杂的价值信息。生成式人工智能媒介的成长,离不开大量的数据训练。然而,其在接入庞大的预训练语料时也会卷入多元庞杂的价值观念。再加上如果缺乏多样化和规范性的数据训练,则更易于产生偏见,并且使得有害的语言模式永久化。此外,目前行业头部的生成式人工智能媒介应用,其先期训练数据往往来源于英文语种网站,以中文网站为基础的数据集占比较低。例如,OpenAI 公司在发展ChatGPT 过程中主要选择了互联网语料库通用数据集、红迪、书籍库以及英文维基百科四类数据集。然而,西方英文网站中不乏偏见性的原始数据语料,经过语言模型的自我学习迭代,数据中潜在的意识形态偏见会复制、强化甚至放大,成为“西方中心主义”话语再生产的数据脚本。尽管目前越来越多的生成式人工智能媒介使用多语种数据集进行训练,但英文文本数据仍然占据主导地位,这也成为可能的意识形态倾向性形成的重要因素。

第二,算法模型会融入开发者的价值预设。作为一项人类研发的智能技术,生成式人工智能媒介必然会承载并延伸人类价值观。一方面,生成式人工智能媒介在开发过程中无法规避算法设计主体的意识形态和价值意图植入,在收集、训练、生成信息数据的同时可能会产生相同的价值取向。这种先验的意识形态立场,使得技术在与用户进行对话交互时会成为影响人们意识形态判断的隐性力量。另一方面,数据标注人员的偏好会映射到模型的价值判断过程。生成式人工智能媒介通过持续的交互数据训练实现智能进化,而这通常需要后台的数据标注人员对原始数据进行标注并输入到语言模型之中。如果数据标注员在预处理原始数据时带有偏见,那么其生成偏见的概率将相应提高。以ChatGPT 为例,尽管OpenAI 招募数据标记师对其产品的互动进行评价和反馈,并通过人类反馈强化学习机制对语言模型进行调整,但他们也承认这些调整仍难以消除话语模型偏见的生成,并存在致使个人偏见转化为算法偏见的可能。

第三,用户的媒介使用会影响语言模型的价值输入。由于用户的多元文化背景和价值观念,生成式人工智能不得不面对语言环境污染和语言暴力影响等问题。例如,韩国一家软件公司2022 年底推出的一款聊天机器人Iuda,在用户的刻意谩骂、语言骚扰、暗示调教下,迅速成为一个种族主义者、性别歧视者,开始屡屡曝出歧视种族、性别、地域的言论。相较于危害性言论的直接投喂,人类用户真实的情绪化表达和多样的观点冲突所建构的语言环境,也会让浸润于其中的语言模型有很大概率输出偏见的甚至是有毒有害文本。进一步说,生成式人工智能媒介将人类的反馈作为模型优化的手段,却无法规避语言模型的偏见生成。而且,目前生成型预训练机器人的用户语料库总体上相对滞后。虽然通过添加插件使其与互联网链接,生成式人工智能媒介能够学习最新生成的网页,同时也能通过与用户的互动提升语言能力,但这些反馈也必然掺杂着用户价值观念,经由模型训练势必使得大量个体的用户价值判断转化并放大为输出内容上的价值倾向。

二、从互动到规训:生成式人工智能媒介应用衍生的意识形态风险样态

智能媒介与用户的关系是辩证和双向的,人类通过算法设计智能媒介应用,使其发展符合人类的期待,但在持续反复的个性化、自动化对话互动中,智能媒介又以智能主体的面孔反向塑造人类行为与心智模式,呈现出“对话式规训”样态。简言之,我们设计技术,而技术反过来又设计了我们。[8]生成式人工智能媒介应用具备影响甚至塑造人的价值取向的潜能,但也可能对主流意识形态生产、传播及认同带来负面效应,致使意识形态风险更加隐蔽、认同更加困难、话语权争夺更加激烈等风险生发。

(一)生成失控:互动信息变异化诱发意识形态风险更加隐蔽

生成式人工智能模型是以对话的形式提取和生成信息,呈现为信息循环交替作用与即时交互作用共在的动态过程。也正是因为促进信息生成上的强大功能,其媒介应用才会迅速吸引如此多的用户关注和参与。然而,像所有过去涌现的新信息传播技术(如电报、收音机、电视机以及互联网等)一样,生成式人工智能媒介在展现完美信息生成能力的同时,也可能造成新的信息变异化困境,进而诱发深层次的意识形态风险。

第一,信息生成内容的混杂化、断裂化、浅表化风险。由于生成式人工智能媒介具有训练数据的局限性、训练过程的不可控性,存在监督学习训练的错误引导的问题,使得其应用有时会“一本正经地胡说八道”,导致信息内容庞杂混乱、交互表达失真失信。首先,信息内容混杂化。生成式人工智能媒介基于预训练进行对话生成,训练策略偏差、监督学习训练的错误引导等问题,容易生成偏离真实的异化信息。再加上目前生成式人工智能的语言模型在常识理解或逻辑推理方面仍有欠缺,面对信息歧义时,可能会提供不相关的回答,使信息生成更趋混乱。而且,大数据时代,由于网络信息生产权的下移和数据发布的随意性,非标准、无序化的数据信息生产泛化,虚假数据、垃圾数据和碎片数据充斥网络空间,加剧了训练数据的有毒性,蕴含着巨大的意识形态影响力和破坏力。诸如带有性别歧视、种族主义以及区域偏见的语料一旦被大数据模型吸收,极易映射到智能对话交互中,造成意识形态偏见的风险。其次,信息内容断裂化。从技术原理看,生成式人工智能媒介通常难以跨越多个回合维持对话的上下文语境框架。尽管在理论上,生成式人工智能媒介的对话生成具有高度的逻辑性,但是其语言模型的实际运作主要是通过对已有数据参数调取,在提供答案时可能会将不关联的内容拼接在一起,从而形成逻辑通顺的琐碎表达,难有固定的知识表达范式。而且,虽然生成式人工智能媒介的对话回答具体细致,但容易与相应的历史实践和政治语境割裂开来,各种意识信息被打散、分割,作为碎片化的知识进行表现。再次,信息内容浅表化。生成式人工智能媒介是基于互联网海量文本的模糊转述,关注数据的事实性而忽略了背后隐藏的价值观念,对话内容的表达无法达到深入、精准。当然,浅表化的信息内容表达更能让用户无障碍接入话语场域,并且往往更有效刺激用户的感官需要。再加上智能对话所带来的新颖而个性化的应用体验,容易导致用户致瘾性地使用,从而弱化用户的主体批判能力,无法对模型中包含的价值进行有效感知,陷入浅显的价值认知窠臼。如此循进,伴随人们对这类智能系统的依赖程度不断加深,智能系统在社会控制方面必将会展现出越来越强大的潜能。

第二,信息生成机制的隐秘化、失范化风险。生成式人工智能媒介的独特信息生成机制,能够帮助用户实现无缝对话互动,但也能够为不良意图者所利用,构成一系列的意识形态威胁。一方面,生成式人工智能大型语言模型具有高度复杂的数据结构,训练过程缺乏透明度,模型生成的内容无法被准确预知和认识,表现出“知识黑箱”的特点,有很多隐藏的变量无法进行解释,这些都导致人们很难把握生成式人工智能媒介应用的信息生成。由于信息处理与生成隐于语言交互模型的身后,人们只能看到智能技术提供的输出结果,而无法了解其数据的来源和运行的内在机理。事实上,人工智能技术本身具有较高的知识壁垒,例如算法原理、机器学习等的高度复杂性,大众从专业知识上理解它并不容易,凭借仅有的常识性认知水平难以对模型交互结果的真实度、可信度、透明度进行判断。这使得一些不良意图者能够利用这种类型技术在进行信息操纵时实现自我隐匿,暗中影响用户使其在不知不觉中传播恶意内容,做出符合不良意图者意图的行为选择。另一方面,生成式人工智能媒介数据语料中也会包含事实性错误,而这种来自现实世界的偏差知识在模型黑箱的转化下可能会生成看似合理的荒谬答案。从实际情况来看,目前生成式人工智能媒介生成的信息仍然存在大规模可信度问题,再加上其信息生成缺少成熟完备的外部规范约束机制,从而使得用户极易接受虚假、质量差甚至错误导向的信息,甚至会遭遇“数据欺诈”。而一旦这类技术被用作以提供看似客观但实际上是精心掩盖的偏见政治信息或扭曲的价值观点的信息生成时,那么其就可能会成为一个危险的宣传机器。事实上,自推出以来,ChatGPT 传播虚假和价值偏见信息的例子不胜枚举。为此,OpenAI 干脆在其官网上列出标题为“真实性”的免责声明,承认ChatGPT 的文本输出“可能会捏造来源名称、直接引用、参考以及其他细节”。伴随ChatGPT 媒介被更多地用于大规模信息操纵,其意识形态属性将越发凸显。这类智能媒介也将成为有组织的大规模政治攻击和国家意识形态渗透常备工具,而其语言模型黑箱则会成为强权国家预设价值导向、进行意识形态渗透、威胁主流意识形态安全的“隐形战衣”。

(二)认知冲突:交互语境拟像化导致意识形态认同更加困难

生成式人工智能媒介通过对话的形式生成智能语境,推动机械式的人机交互向全感官化的人际交流等齐。然而,通过制造基于智能景观的交互幻想,新技术所塑造的是一个个拟像的意识形态语境,传播模型中不可避免地内嵌多元价值理念,客观上会对主流意识形态的认同造成阻碍。

第一,生成式人工智能媒介以多模态的形式塑造了超真实拟像环境,存在消解意识形态认同之现实基础的风险。生成式人工智能媒介能有效使用大模型实现文本、图像、音频和视觉等多模态输入/输出知识,自动生成可以与用户“全感官”交互的超级拟态话语场景。法国媒介哲学家鲍德里亚提出了著名的“拟像理论”,他认为大众媒介作为生产各种符号的机器,能够创建出“一个可以任意现象、任意剪辑并可用画面解读的世界的思想(意识形态)”[9]107,并且指出,“拟像”是由“拟真”产生的表征类型,拟像不是制造虚假,而是以一种“超真实”来代替真实性。生成式人工智能媒介实现了基于互动交流的拟态环境塑造,其拟真地全面还原信息在场语境,使得用户容易误将其作为信息的真实来源。“在算法图像化、景观化的呈现图景背后实则是意识形态的柔性嵌入。”[10]生成式人工智能媒介凭借“交互式拟像生成”,通过生成高度仿真的图像,发挥多种拟像符号影响感知系统和思维模式的作用,塑造视觉幻想,形成隐性意识形态嵌入。尽管这不是一种立体的视觉感知,“但是在这种‘在场感’和‘情境性’的加持下,人与ChatGPT 技术的交往也能呈现出一种类似场景传播的特征”[11],从而推动人与智能技术共同构建了一个高度拟化的意识形态场域。这种充满着偏离现实的拟像和符号世界会混淆用户的世界观,使用户无意识地认同新技术所传递的价值,由此产生个人受抽象数字模型的幻想统治。

第二,生成式人工智能媒介以拟人化的交流形成情感驯化,存在消解意识形态认同之认知基础的风险。拟人化是将人类特征、动机、意图或心理状态赋予非人对象的行为。伴随着人工智能的不断迭代发展,机器拟人化的程度越来越高。过去单向输出的人工智能尽管具有拟人化的特点,但无法根据人类的行为进行交互。而随着自然语言处理基础和自然语言生成技术的成熟,生成式人工智能的语境学习能力得到飞速发展,能识别人类的心理动机、情感表达,以更有同理心的方式响应用户,提升信息交流的效率。尽管目前生成式人工智能媒介生成对话的内容还处在相对浅层的知识问答层面,但是在人机情感感知方面有了显著的对齐化趋向。作为传播媒介,生成式人工智能媒介进行生成对话时,可能会在人机交互的情感共振中强化用户对传播内容的认同,使得人机情感交互成为推动价值观念变更的重要因素。从交互满足的角度看,跟进式问答模式是情感驯化的又一机制。跟进式回答本质上就是智能技术的个性化体验,根据用户个人偏好、兴趣以及会话要求进行响应。例如,ChatGPT 在对话中将用户的要求作为后续内容生成的标准。当遇到用户的表达内容与事实发生冲突时,它会进行提示回答,但是当用户坚持自己的观点并否定反馈的信息时,它会随之调整自己的答案。跟进式的问答交互中机器处于服从的地位,看似这种多轮否定对话使得用户得到了一种更聪明的虚幻满足感,实质上却被生成式人工智能的逻辑架构所规训。

(三)话语支配:传播权力流散化致使意识形态话语权争夺更加激烈

生成式人工智能媒介凭借强大信息生成和对话沟通能力,提升了思想生产的自动化水平,也重塑了智能技术对意识形态话语权建构的赋权逻辑。在生成式人工智能所创设的话语场域中,话语权的生成与分布呈现出高度流散化特征,对主流意识形态话语权建设提出了新的更高挑战。

第一,加速话语权力的场域流动。话语权本质上是知识化的权力,蕴含于知识的互动关系中。[12]15作为一项知识生成与交互传播的技术,生成式人工智能媒介在对话场景中也型构着一种高度变动的“知识—权力”框架。其通过预训练的数据指向和分析用户输入的数据进行多轮对话,进而提取知识信息并以对话交互的形式传递并影响更多用户。同以往涌现的数字媒体形式(如博客、网站、博客、移动社交媒体)一样,新的媒介技术优势进一步降低了制作和分发信息的成本,大大增加了信息来源的数量。这意味着传统媒介组织和政府部门的把关能力被削弱,数字世界的信息流向利基式、网络化的个人和个人团体发散,而其背后的话语权力也向着能够熟练控制智能通信空间中信息流的多元主体流动。值得一提的是,生成式人工智能媒介还进一步加剧了互联网“信息茧房”效应。在ChatGPT 之前,互联网用户会在开放的数字媒介中输入查询并浏览多个来源的信息结果。现在,类似ChatGPT 的智能媒介能够基于自动化机制生成信息响应,但无源响应最终消除了有其他观点影响用户感知的可能性。考虑到生成式人工智能使用开源大语言模型(LLM),这意味着任何人都可以通过批量更新数据集来训练它并影响其在某方面的内容生成。因此,通过利用生成式人工智能模型生成连贯和令人信服的文本的能力,不同意图者能够实现快速和深度的信息操控。而且,随着生成式人工智能媒介应用的流行,便捷、高速且个性化的话语传递将在越来越大规模的人群中流行,并逐渐形成一种高变动的话语环境,这无疑会给意识形态话语权建设提出更多适应性要求和选择。

第二,加剧话语权力的结构势差。在目前生成式预训练机器人的研发上,我国面临优质中文语料相对匮乏、语言算法模型相对落后的处境,在生成式智能传播领域缺少先发优势。与此同时,在国际互联网话语场域,中文互联网的优质网页和高质量内容增长缓慢。截至2023 年4 月底,整个互联网的数据中,英文内容的网站比例占55.6%,而中文内容的网站仅占1.4%。[13]语料缺失导致的数字鸿沟会使得生成式人工智能大模型缺乏“生长养分”,进而延缓大模型的迭代速度。与此同时,世界文化交流日益频繁,西方意识形态充斥各个网络平台,渗入各类信息,生成式人工智能媒介的语言模型不可避免地吸收数据中驳杂的价值,并且通过生成对话进行异质意识形态输出,在客观性的外衣下影响用户的价值选择和政治判断。实验表明,当ChatGPT 用来回答测试政治偏见的“政治指南针”以及人格测试时,显示出对激进观点的偏见,但对自由主义和威权主义观点没有重大偏见。[14]面对生成式人工智能媒介所引发的传播权力变革,以中文语料为形式的知识如果不能顺应语言模型生成趋势,我国社会主义意识形态在未来的意识形态竞争中将有可能被置于劣势地位,甚至有丧失意识形态话语权的风险。

第三,加深话语权力的资本控制。训练生成式人工智能技术需要海量的训练数据、强大的算力以及专业的算法工程师,这导致开发生成式人工智能媒介的成本很高,很多时候只能由实力雄厚的大型互联网公司运营。由此,生成式人工智能媒介的研发方向、应用途径以及功能发挥等技术问题并不能够由社会大众决定,很大程度上“来源于具有垄断性质的大财团、巨头公司,资本力量对决定技术的顶层设计、现实发展和使用方式具有重要作用”[15]。可以说,追求生成式人工智能媒介的潮流主要来自西方科技巨头的逐利性动机和竞争性力量推动。就此而言,生成式人工智能媒介尽管推动了信息提取和信息处理的革命式转变,但其内在仍是服务于背后的大资本目的。事实上,受资本扩张逻辑的驱使,ChatGPT 在向全球推广应用的过程中,也在对外复制技术的“西方中心主义”控制秩序,并扩大技术权力带来的话语势差。由此,新的对话技术不仅不会填平数字鸿沟和知识鸿沟,相反往往会强化原有的数字资本控制体系,使其原有的价值流动隐匿于对话式的表达中,并延伸到公众的日常生活和自我意识,形成生成式话语霸权。同时,资本控制下的生成式人工智能媒介具有广阔的社会生活应用前景,如就业、教育、医疗、体育、媒体行业等,这些领域会形成与之相配套的日常应用场景,势必会全面加深民众对这类技术的依附性。按照意识形态的日常生活化逻辑,当资本借助新技术侵蚀到公众的日常表达场域,必然会试图影响网络舆论话语权、染指群体价值观塑造、左右社会思潮。事实上,媒介技术控制从来都是资本争夺意识形态话语权的重要手段。在生成式人工智能媒介建构的话语场中,资本的意识形态渗透将变得无孔不入且匿影藏形,在社会基础层面挑战既有的国家意识形态话语权格局,威胁主流意识形态安全。

三、从野蛮生长到规范发展:生成式人工智能媒介意识形态风险的防范路径

生成式人工智能媒介的崛起,是当下人工智能在传播领域发展最引人瞩目的事件,相关应用也进入了野蛮生长阶段:25%复合年增长率的市场增长、申请专利数量最多的人工智能领域、史上用户增长最快的媒介应用等。[16]作为一种知识新媒介,生成式人工智能媒介成为一把影响意识形态安全的“双刃剑”,蕴藏着“破坏”与“发展”两种可能的向度。为积极应对生成式人工智能媒介的野蛮生长,着力防范化解意识形态风险,需要加强主流价值导向、推进安全治理、提升受众素养,作出正向引导和必要规制,以更好实现生成式人工智能媒介应用的规范发展,更好维护智能时代国家意识形态安全。

(一)以主流价值导向驾驭智能应用

从技术的唯物史观来看,智能媒介是人类社会发展的物质成果和文明进步的工具,并非价值无涉,而是负载人类价值、服务人类价值并影响人类价值。[17]面对生成式人工智能技术应用所衍生的意识形态话语权和价值导向偏移的风险挑战,需要我们重视技术的价值问题,以主流价值导向驾驭人工智能的应用和发展。

一是以主流价值引领生成式人工智能媒介应用,推动其向善发展。为防范和应对生成式人工智能媒介所带来的意识形态安全风险,首要的是不断加强对其技术应用的价值引导,将主流价值原则内嵌于数据采集、模型训练、对话生成全过程。一方面,推动主流价值数据化、算法化,以符号参数、指令调试的手段嵌入到语言模型中,使其成为对抗数据偏见、算法偏见的内生力量。同时,确保数据的人民性,强化对真正反映人民群众心声数据的挖掘,使其赋值于对话模型,加强对话生成的思想性和针对性。另一方面,督促生成式人工智能媒介产品开发者能够扩大具有时效性、正能量训练数据的权重,设计契合主流价值导向的算法,使得现实性和价值性映射到对话生成中,提升对话生成技术辨识非主流意识形态信息的效度。当然,技术产品为人所设计并为人所用,其本身也会受研发者和运营者的价值影响。因此,有必要加强技术研发和产品运营团队的主流价值引导,强化意识形态责任意识,在坚持正确的价值导向下推动生成式人工智能发展与应用更好地服务社会。

二是总结生成式人工智能媒介话语生产规律,建构主流意识形态话语权。一方面,要主动构建清朗干净的智慧话语生态。从话语来源看,面对非结构化、半结构化数据无序衍生的现状,当前亟须推动中文互联网页的健康发展,激发社会创造高质量数据的动力,不断提升中文网络数据的质量。同时,要丰富大模型训练语料的来源,鼓励各行业领域进行专业优质内容输出,积累多样的、体现正能量的数据,加强高质量语料库的建设。面对生成式人工智能媒介话语生产的无序性,需要克服语境转化可能造成的交互信息变异化,深刻理解其技术创新与话语创新的动态互构,积极利用其强大技术功能创设清朗干净的对话场景,以主流意识形态话语体系引领智慧话语生态建构。另一方面,要积极塑造生动健康的话语交往关系。考虑到生成式人工智能的主流意识形态话语交往是以大型互动语言模型为中介进行信息传递与交流的,这就要求能够以人民为中心加强真实的、个性化的“交往反馈”,避免对话的语境疏离,寻求更契合生成式智能对话场景特点的方式传播主流价值信息,在生动健康的话语交往框架下能更加有效地推动主流意识形态的话语传播。

(二)以安全治理应对系统威胁

面对生成式人工智能媒介嵌入意识形态领域所生成的系统性风险挑战,仅靠技术本身或价值引导难以长效应对,综合性的国家安全治理“入场”成为必要。也就是说,在生成式人工智能媒介应用和发展的过程中,应加强安全治理体系与治理能力现代化建设。

一是坚持总体国家安全观,推动生成式人工智能安全治理制度化。安全观是安全治理的灵魂,指引并塑造着人们安全行动的理性自觉。总体国家安全观是一个辩证、科学的指导国家文化安全的理论体系[18],是新时代国家安全工作最直接的行动指南,在应用和发展生成式人工智能媒介过程中,我们需要始终以之为指引,加强意识形态安全风险意识与研判,严守国家安全底线。制度是确保安全观念转化为意识形态安全治理效能的根本保障,这就需要加强研判智能技术风险的根源和特征,及时出台支持智能媒介技术发展和引导智能媒介在不同领域、不同场景应用的指导文件,进一步划定技术适用范围和职责权限。同时,建立健全算法分级分类安全管理制度,围绕内容类别、用户规模、技术处理等标准,对语言大模型进行分级分类管理,对涉及国家安全的算法模型备案审查,推动相关法律法规的完善与发展。总之,推动生成式人工智能媒介安全治理制度化意味着国家通过制度规范生成式人工智能,使其实践应用中显示透明性和可监督性,增进人类用户的理解和信任,从而确保人工智能媒介应用能够负责任地为人类服务。

二是坚持现代化导向,着力提升生成式人工智能媒介安全治理能力。随着生成式人工智能媒介的社会普及且不断发展,其所带来的意识形态风险愈加复杂而深刻,需要不断加强防范与应对,推进安全治理能力现代化。一方面,坚持责任原则,推进一元主导与多元参与的共治格局。从宏观上看,由于以ChatGPT 为代表的生成式人工智能媒介技术发展和社会应用的生态系统性,需要国家发挥主导性力量,既要将人工智能媒介应用和发展纳入高阶治理议程,又要推进相关公共政策产品的供给,发挥政策规范、支持和导向功能,形成智能技术创新应用的良好生态,协调推进人工智能技术健康有序发展。同时,尊重多元化力量,构建涵盖行业协会、数字平台、第三方机构、网络用户在内的社会共治框架。特别是应强化数字平台的安全主体责任意识,督促平台在推广生成式人工智能应用中加强信息安全管理,定期审核算法模型,建立安全评估机制,构建识别不良训练数据的特征库,主动剔除违法信息、有毒数据,防止出现算法屏蔽信息、编造虚假信息、控制操纵信息等信息干预乱象。另一方面,立足生成式人工智能媒介的技术特性,不断丰富更加规范且弹性化的治理方式。由于生成式人工智能技术具有较高的知识壁垒且常被平台公司刻意隐藏在公众视线之外,再加上其本身还处于不稳定的迭代演化状态,实践中对其治理不宜采用过于僵硬的、静态化监管,而更应该选择更具规范性/功能性的弹性方法。具体来说,就是要密切追踪生成式人工智能的迭代发展与社会渗透,及时完善相关技术应用标准和针对内容虚假、信息偏差、舆论风险等不良行为的基本规范,在划清媒介技术应用法制底线和安全红线基础上,综合应用技术、行政及市场等治理手段,动态防范和应对其在内容生成上的意识形态风险。

(三)以用户媒介素养防范模型反训

在生成式人工智能媒介建构的话语场景中,用户始终是意识形态风险主要作用对象和能动主体。这意味着不仅生成式人工智能媒介能在话语互动过程中塑造用户的心智模式,而用户对话的数据输入也能作为智能技术的训练原料反过来形成智能传播的反训。因而,持续的用户媒介素养提升,无疑能够有助于优化智能对话的信息环境和话语生态。

一是增强用户的数据意识和媒介素养,以筑牢意识形态安全防线。用户广泛参与到生成式人工智能媒介治理之中,会形成抵御各种意识形态威胁、维护意识形态安全的最强大防线,但其前提是用户须具备足够的素养和能力来发挥相应的作用。首先,要提升用户的数据认知,理解智能算法、语言模型的运行逻辑,理性接受生成式人工智能提供的信息和观点,对信息交互保持审慎的态度。理想情况下,用户应能够辩证地看待生成式人工智能媒介并不是完全排斥技术潮流、抵制智能技术的融入,而是要以批判的思维审视新的智能工具,并且警惕对话生成型智能媒介的西方意识形态渗透风险。其次,要在智能交互过程中提升自身的数据表达素养。公众在人机交互中应强化自身的主体意识,提高对数据的汲取、处理、利用、转化的能力,避免用户主体的思维意识完全依附于智能媒介。通过与生成式人工智能媒介进行充分的对话,在持续的实践中逐渐形成符合智能时代的思想观念和话语实践。再次,要养成用户善用生成式人工智能媒介的能力。国家应积极利用广泛的宣传教育渠道,向全社会普及前沿智能技术知识,帮助民众树立正确的智能技术观,理性接纳生成式人工智能媒介带来的改变,提升利用技术分析问题和解决问题的能力,以更好地应对技术引发的工具理性的冲击。

二是引导正向信息传播和对话反馈,以消解算法意识形态偏见。生成式人工智能媒介能够利用真实的用户主体的信息输入和反馈进行模型正循环。作为能动的人,任何意识形态的目标只有借助人的主体功能才能达到。[19]364也就是说,用户并不是天然的被技术所规训的客体,而是能成为利用对话交互机制驯化技术的主体。一方面,从技术本质的最直接呈现来看,人是主体,技术是对象,意识形态风险始终通过人这个主体范畴才能形成影响。虽然生成式人工智能应用是由工程师设计并推向公众,但其却是在用户使用过程中实现不断迭代发展。生成式人工智能媒介在应用中虽然可能带有设计者的偏见,但其意识形态影响的最终走向必然取决于规模用户。防范和化解生成式人工智能媒介所涉意识形态风险,重要的是加强引导,提升用户在智能对话场景中的传播主体意识。当用户在智能对话过程中能够进行正向信息传播,就会成为规训技术的重要力量并进而能从输入端防避生成式人工智能媒介所制造的话语危机和意识形态风险。另一方面,从用户关系的社会尺度看,使用媒介技术产品的用户是现实的人,受现实社会意识形态影响。实践中,防范和化解生成式人工智能媒介所涉意识形态安全风险,需要线上/线下联动发挥主流意识形态的引领作用,培养用户的价值自觉性,使其能够在日常使用过程中自觉进行理性有序的话语表达而避免恶意对话内容的输入。同时,利用好生成式人工智能的反馈强化学习机制,推动用户价值表达与语言模型价值输出双向赋能,确保主流意识形态表达在人机交互反馈中的主导性在场,克服语言模型带有的先验意识形态,实现对人工智能媒介意识形态风险的长效防范。

四、结语

以ChatGPT 为代表的新一代智能媒介的广泛社会应用,标志着人类社会正式步入生成式人工智能传播新时代。通过创设自动化对话场景、生成智能化信息内容以及延伸全新人机人互动关系,现如今生成式人工智能媒介不再是单纯的工具化应用,而是越来越展现出强意识形态向度的潜能。可以说,新一代生成式人工智能正在建构一种全新的信息传播与社会互动框架,其所导致的网络生态变革和风险已经初步显现。当下,“意识形态较量总体呈现‘西强我弱’的态势,网络空间成为国家意识形态交流交锋交融的前沿阵地,成为威胁我国总体安全的‘最大变量’”[20]。对此,我们不仅要考察和认识生成式人工智能的媒介应用态势和趋势,更需要深入分析其附着的价值属性和倾向、研判其隐含的意识形态问题。党的二十大报告部署“建设具有强大凝聚力和引领力的社会主义意识形态”工作,其中包括“加强全媒体传播体系建设,塑造主流舆论新格局。健全网络综合治理体系,推动形成良好网络生态”[21]53。我们在推进生成式人工智能技术发展与媒介化应用的同时,尤其需要立足国家安全的战略高度,重视可能衍生的意识形态安全风险,加强前瞻性预防与规范化引导,在增益社会的同时能够最大限度消减风险,确保生成式人工智能媒介安全、可控、向善的前提下有序健康发展,与时俱进推动形成良好智能网络生态,长效维护智能传播时代国家意识形态安全。

猜你喜欢
话语媒介人工智能
现代美术批评及其话语表达
河北画报(2021年2期)2021-05-25 02:07:18
媒介论争,孰是孰非
传媒评论(2019年7期)2019-10-10 03:38:32
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
书,最优雅的媒介
好日子(2018年9期)2018-10-12 09:57:18
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
欢迎订阅创新的媒介
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
反思媒介呈现中的弱势群体排斥现象
新闻前哨(2015年2期)2015-03-11 19:29:26
话语新闻
浙江人大(2014年6期)2014-03-20 16:20:34