黄日涵 姚浩龙
(华侨大学国际关系学院 厦门 361021)
当前舆论力量愈发显现,不仅只作为公共意志的凝聚,更在政治和社会发展中发挥巨大影响,因此舆论导向正确是党和人民之福,舆论导向错误是党和人民之祸[1],舆论安全成为国家安全的重要组成和基础部分。考虑到每次技术革命都将对公共舆论的塑造与传播模式带来巨大冲击,都将改变时下舆论场域的发展脉络、特征及发展态势。从赋能角度看,技术变革帮助变革既有信息获取和传播方式,大数据、5G技术加持下的网络信息传播渠道推波助澜舆论发展,并进一步外溢成对舆论生产与传播的影响。因此讨论技术发展对舆论的多方面影响极为重要。当前,以ChatGPT为代表的生成式人工智能逐渐被认为是继互联网搜索引擎之后的新一代知识调用工具,甚至被认为是“上帝之脑”[2]。作为深度参与网络信息收集、再加工和生产“新”信息的工具,社会主体对ChatGPT的使用行为必然不可避免地参与到公共舆论的产生与传播当中。当下,围绕ChatGPT展开的讨论聚焦在对学术伦理、社会发展和知识生产等方面。在与舆论的关系上,既有研究关注类ChatGPT人工智能引导和影响舆论中政治情感[3],及对于既有国际传播体系生态的影响[4-6],围绕其对舆论产生与传播模式方面影响研究并不透彻。因此本文意图通过研究以ChatGPT为代表的生成式人工智能对智媒化时代下的公共舆论的产生与传播模式影响,来探讨该类型的人工智能将会对现有舆论发展乃至舆论安全方面产生的影响,针对性提出政策建议,丰富相关研究。
作为基于GPT(Generated Pre-trained Transformer)模型开发出的对话式人工智能,ChatGPT能够通过对用户提出的问题进行串联,理解所给文本的上下文语义,并基于训练数据以文本输出的形式,生成近乎人类自然语言的回答。从技术特征来看,相较于传统在工业生产方面使用的人工智能,ChatGPT具有较强的语言理解能力、更拟人化的语言风格、具有局限性的数据论证能力以及依赖于训练数据质量的思想深度与内在逻辑[7]。
每一次媒介技术的变革,都引发着媒介形态、传播格局和传媒生态的巨变[8]。与ChatGPT遵循相同训练机理的人工智能凭借自身对文本生成、传播格局等节点和媒介的变革性影响,深度参与其中,并在某种程度上对舆论的生产与传播模式产生近乎“再塑造”的影响。
从舆论生产方式看,ChatGPT能够凭借既定程序设计和自动化生产等技术优势,大幅提高舆论观点的生产与输出效率,并能通过规模优势进行跨平台议题联动,形成议题网络,快速塑造舆论潮。随着技术发展,技术对信息内容的产生介入变得更加深刻,舆论与技术的关联度快速提升。而ChatGPT在舆论的生成与传播中,扮演着“自动产生、自动扩散、强化接受”三者结合的舆论生产主体。从信息生产方面看,ChatGPT所基于的信息检索能力能够无时无刻通过与网络的链接抓取信息形成答案,跨过传统方式中对信息的转写、翻译等步骤,提高速率。例如,人工智能此前已被运用在新闻写作等方面,且其输出结果的准确率高于人工书写的新闻稿[9]。具备良好上下文理解能力和无监督自我学习能力的ChatGPT能够根据具体内容,理解语境信息,快速生成所需内容,更能够依据用户要求调整输出结果的格式和条例,模式化、标准化、自动地不断产出所需内容。事实上只要预设较为简单的脚本,便能够持续不断的让此类人工智能长时段的产出相关信息,围绕既定主题进行产出。而在传播阶段,“人机协同”乃至“机机协同”能有效减损传播消耗,用户与人工智能的互动需要则替代了过往信息传播对平台的依赖,信息传播效率大幅提高。基于新技术产生的、具备个性化的舆论收发工具将侵蚀既有的传播平台“分发式”舆论传播模式,用户得以通过各端口与信息直接交互。因此ChatGPT等生成式人工智能将大幅缩短舆论生产链长度。
除此之外,该类型人工智能将对社交机器人进行“改造升级”。现有网络机器人更多是检测网络信息的关键词等特征,以此输出固定话语内容,极容易被平台和用户所识破,更有可能出现“找错目标”等情况。相较于传统网络水军,生成式人工智能赋能下的社交机器人不仅能够生成视频、图片等更加具有真实性、直观性的材料来“编造故事”,并“自圆其说”,博取网民眼球;更能够全天候围绕既定议题和给定立场进行同质化的舆论内容输出,通过先占优势、规模效应不断抢占舆论空间,在不同平台、不同领域中围绕同一主题的舆论内容进行相互联动,最终以譬如“纯路人”“自来水”等“羊皮”伪装自身,塑造舆论热点和主导性内容,引导舆论变化。
从舆论传播格局的演变进程看,ChatGPT对人机互动模式的变革影响将深化智媒体时代舆论的网格式传播特征,即进入互联网时代后,互联网提供的信息生成和传递端口使得个体能够实时编辑和发表新闻与观点,智能技术使得用户能随时参与到对部分事件的建构当中,将其转换为带有自身观点的主观事实。这些主观事实又因为回音壁效应而不断被相关主体所接收,形成一个个“网格”,对同一事件的不同表述导致不同网格内部的舆论特征、情绪导向存在差别乃至完全相反。因此互联网时代的舆论传播格局趋向“多节点、多向交流”等特征,舆论场中的主客观信息间的区分度将会越来越小,事实性、公正性信息将会被淹没在主观意见当中,客观性事实本身被传播主体的主观认知所掩盖。在ChatGPT的加持之下,这些特征形成会变得更加“悄无声息”:在该技术加持下,舆论传播速率大幅提高,信息传播渠道被拓宽。从舆论传播程序来看,基于ChatGPT为代表的生成式人工智能所开发的各类应用,将有效降低舆论生产主体搜集信息的繁杂程序。基于“文本交换——持续追问——答案生成”模式,此类应用可给予任何使用者快速收集信息和输出观点的能力。而由于自监督微调和人类反馈学习等机制的设立,舆论信息的生产与转播主体都能够向既有舆论悄然掺杂自己观点,参与舆论生成的主体类别和规模快速增多与扩大。在该技术的加持下,往舆论中“添加”偏向的能力存在强烈且明显的个体差异,具备强大算力资源的一方将得以灌输信息,信息内容的同质化与发声主体多元化的趋势将会显现,个人认知的区分度将会逐步降低,由此使得舆论更容易被引导与传播。
而大模型加持下的多模态、跨模态应用将会对既有生态注入更多信息内容,舆论的熵将呈现指数级的提升,舆论传播的规制与治理将变得尤为困难。
随着资本对传媒市场的介入程度逐步加深,资本开始利用所控制的媒体来表达自身价值观,维护自身利益[10]。全球化进程的推进客观上提高了商业资本对舆论的需要。在数字时代,数据成为资源的主要形态。凭借对智能技术和平台优势的掌握,资本实现了对舆论生成、扩散、演变、反馈的全过程把控,由此构建了一张完整的影响舆论的技术网络[11]。生成式人工智能的出现则为资本革新对舆论的影响方式提供可能。首先,科技公司研发生成式人工智能,需要大量资金投入到算法革新和数据筛选当中,难免资本在大模型发展应用当中打下烙印。其次,当前资本运用舆论展开商业竞争已屡见不鲜。在生成式人工智能研发当中,受限于技术发展模式,领先的一方会将算法、算力优势外溢到其他领域,实现“一步快、步步快”态势,这就导致处于竞争态势的资本会相继研发、应用和革新生成式人工智能,展开“军备竞赛”,避免落入下风。最后,资本和人工智能研发机构的相互需要将催生出专注于议程设置、舆论引导、话题引爆等方面的人工智能,加深资本对舆论发展的控制。由此,舆论不再单纯是社会观点摩擦和交锋诞生的产物,更是资本力量对抗而被引导的副产品。笔者在使用来自不同企业的对话式机器人,例如通义千问、文心一言等时,会发现他们对同样问题的价值倾向存在明显差异:例如这些人工智能在被问及如何评价中国优秀企业家们时,不同人工智能表现出非常明显的价值倾向,甚至出现了片面评价的情况。因此社会团体对不同生成式人工智能的使用可能生产出另类“小群体”,进一步造成不同群体对社会价值的异化吸收。
因此,在ChatGPT等生成式人工智能的影响下,公众舆论生产与传播的“产业链”可以说被“再塑造”,探讨这种改变带来的多维度影响尤为重要。
舆论是政府进行社会治理的重要依据[12]。在网络媒体视域下,舆论安全包含三个主要特点,即作用正向、传播有序及阵地可控[13],同时国内外的公众意见不会对国家政权发展、社会稳定等造成冲击,是国家安全在舆论领域的体现[14]。舆论纵向深度融入其它国家领域,总体与国家安全呈现出蜘蛛网式的联络,舆论安全的丧失将直接或间接催生出诸如意识形态对立、阶级对立等态势,舆论的“不安全”将给其他领域的稳定发展带去威胁,因此舆论安全是国家安全的必要地基和“晴雨表”,忽视对舆论安全的维护将从根本上影响总体国家安全的实现。生成式人工智能将主要对舆论安全产生三方面影响。
从坚持舆论的正向作用角度看,该技术的大规模使用将“便利化”有心之人破坏社会共识,侵蚀社会主流价值体系。在生成式人工智能研发与应用方面占据优势的主体将进一步强化对舆论的影响力,夺取话语权,对舆论的操弄变得更加频繁。意识形态安全的保障与完备的舆论安全密不可分。作为社会群体共识基础的主流价值观倘若受到嘈杂信息冲击,个体乃至群体原有立场的“地基”将被侵蚀甚至瓦解。而各个社会群体对原有共识的差异化接受将弱化对其他群体的认同,弱化对原有价值观的认同。社会个体面对群体间共有知识的损耗,将在社会交往中认知到未经现实检验,极易被影响的价值观。不同社会群体间认同差异将会更显著,公众立场将呈现出“沙拉盘”现象,社会整体共识趋于破碎。同时,信息技术革命将导致国际舆论格局变化。从当前生成式人工智能的研发进度看,当前美国仍然牢牢把握着领先地位,自然能够借助该优势进一步强化对舆论的影响力:面对全球流动的数据网络,相关国家通过针对性输入某些富含政治倾向和政治态度的信息,改变此类人工智能的立场出发点,并搭配精准传播、定制化传播方案,就能影响到特定目标群体,构建信息茧房,舆论在维护意识形态中的引领作用将被瓦解。
从人机交互角度看,ChatGPT能够在人机交互过程中逐渐形成用户的用户画像,极大提升对目标用户的分析能力和认知攻心能力[15]。在算法判定下,拥有类似画像的用户会被生成式人工智能归为同类群体,并针对性的向其输出特定类型的信息。这部分群体将共享对某些事件或者主体的看法,并将在“信息筛网”的影响下持续固化想法,最终形成类似“思想钢印”般的思维立场,不同群体所持有的观点难以统一,由此甚至出现观点极化可能。这种对心理认知的刻意引导曾被用以干涉总统选举中[16]。同时众多使用者已经察觉到非针对情况下,ChatGPT回答过程中所蕴藏的歧视性言论,针对特定人群的种族主义偏见已经融入了ChatGPT本身[17]。恶意行为体会利用互联网和社交媒体的传播渠道和动员能力,在目标对象的社会中植入虚假信息,煽动族群矛盾、宗教倾轧和社会动荡,发酵成舆情事件甚至政治动乱[18]。因此在人机协同、人机交互成为信息生成与传播主流的当下,一旦在算法和数据库训练当中存在偏见,将直接影响舆论产生与传播的内容,偏见将会随着人工智能运转而不断发散,使用者在进行信息收集与深度思考时会遭受更立体的政治和思维立场攻击,由此带来对既有常识甚至是政治立场的侵蚀,进而产生个体意识形态立场松动、被侵蚀的危险。而受社会公众舆论影响的虚假民意将对政治决策具有消极作用[19],脱离现实的反馈将导致国家政府机关误判形式,进而对国家政治安全、社会稳定造成威胁。
从坚持舆论的传播有序特点看,ChatGPT赋能舆论场中的多主体影响公众意见的权力,将大幅提高舆论场中的信息熵,社会舆论变得更加污浊化、复杂化,传播主体、内容和行为都将趋向混乱,依托舆论产生的网络暴力、网络侵权行为发展无序化,舆论治理效能降低。在社会价值观多元的背景下,公共舆论将伴随传播过程的进行而不断自我革新、自我分化,其影响将被所依据的传播媒介不断放大。拥有话语霸权的信息传播者可以根据社会发展的需要进行有效的议题设置和舆论引导[20]。因而有学者将社交机器人形容为“腹语表演者手中的玩偶”[21]。传统意义上,舆论生产主体能够预先设置好社交机器人的工作模式,持续不断针对他国政府、公开言论进行舆论“染色”,并通过披上“公意”“大众意志”的外衣提高类似言论的感染力和传播效力,最终在舆论场中形成“多数人的暴政”。不同的是,ChatGPT赋能下的社交机器人能够在不断输出内容的同时,收集和分析目标用户的反馈及相关数据,实时性地调整生成内容,提升说服能力。考虑到社会群体大都存在偏好效应和路径依赖,对社交机器人的沟通内容存在片面采纳情况。这将形成负反馈效应,社会群体的舆论观点将在与此类人工智能的互动中趋于偏激乃至极化。政府意志在舆论场的缺失将导致公众舆论将逐步被技术权威掌握。这将导致舆论成为“私人物品”,舆论难以再被称为是大多数人意见的总和,反而成为各种社会恶劣事件的“发酵缸”,舆论安全乃至社会稳定自然无从保障。
同时,公众与ChatGPT的高频互动带来的“假亲密”可能致使公众丧失现实感,在万花筒般的舆论环绕当中原有认知被解构,致使负面舆论肆虐。一方面,ChatGPT在对话过程中能够根据用户需要,通过在高频交流中扮演角色、营造对话环境来增强人机交互的沉浸感,展现出在心理辅导、情绪疏导等方面的应用前景;但另一方面,此类对话环境将塑造产生脱离现实的信息,间接赋予此类人工智能干涉人类主体情绪发展的能力。随着人们越来越转向ChatGPT满足自身情感和知识诉求,对其依赖度将大幅上升,甚至一些人可能会以信仰宗教般的虔诚对待ChatGPT回答内容,这必然会降低人们与现实社会的连结度,人与人之间的交流空间被人机交互所挤占乃至替。而当人们认知依托网络信息后,负面舆论得以干扰认知。在算法技术的加持下,网络舆论暴力的生长空间会越来越大,在“链式反应”影响下,社会舆论环境将会处于更深混乱当中。算法逻辑会放大并加速网络舆论暴力的传播,持续刺激极化群体产生暴力倾向,推动网络暴力不断升温[22]。在此情形下网络暴力会借助“脱离”现实的公众扩散发酵,舆论管控难以维系。
从坚持舆论传播阵地的可控性角度看,类ChatGPT人工智能大规模使用后,传统信息技术难以处理的虚假信息将充斥国内外舆论空间,将大幅恶化数字鸿沟现象,社会主体对舆论客体的信息辨识能力要求提高,虚拟现实和现实之间的边界进一步模糊化,并将进一步衍生出更复杂的,难以规制的基于虚假舆论制造与传播开展的犯罪形态。倘若不及时预警与解决,虚假信息充斥的舆论生态将成为毁坏国家安全这座“大坝”的“蚁穴”。
客观来说,始终难以根除网络暴力与虚假信息,其根源就在于网络社会的多重交互特征与发散性传播特性。而在舆论信息生产方面,ChatGPT所搜集的信息真实性存疑,甚至会给编造的信息结果编造虚假信息来源来“欺骗用户”。而一旦误导性知识如果被没有鉴别其真假能力的用户接收,并无意传播甚至形成错误认识,则会造成难以预测的后果[23]。错误回答和立场偏向将不仅改变个体认知,这种潜在性的威胁有可能与现实介质发生“化学反应”,催生出不断地被放大与扩散的威胁。错误回答会与偏向立场一同重塑“社会事实”,由此发酵出的网络突发事件等舆情将难以扭转的借助各种物理介质进行弥散性乃至无规则扩散,在缺乏验证机制的条件下,最终结果难以预测。舆论因而成为“催化剂”,被错误引导的知识舆论成为推动更多灾祸发生的助推力,总体国家安全受到严重威胁。如俄罗斯团队曾利用人工智能生成虚假信息,顺利通过西方社交媒体审查,发布大量有关西方背叛乌克兰和乌克兰是失败国家的说法与证据,造成严重影响[24]。倘若该技术被用以攻击他国的信息传播平台,通过实时替换、深度伪造等方式不断传递错误信息,那么在舆论爆炸式发展的现在,将可能产生网络恐慌等“次生灾害”。
而基于GPT等大模型产出的生成式人工智能已经涵盖包括图像生成在内,几乎所有的网络信息生成路径,与真实世界的差别越来越小。结合此技术开展的舆论伪造、舆论操纵行为将会对“门外汉”产生近乎“降维打击”般的成效。同时内容即时校对体系模式仍在发展阶段,治理能力发展相较于问题发展的时空间隙留下巨大可操纵空间,舆论安全难以保障。ChatGPT获取和使用的开放性、便利性大幅降低虚假信息产出与传播的门槛,代码生成、网页制作等方式更加能够帮助犯罪分子影响公共意见。借助新媒体传播速率快特点,犯罪分子很容易制造难以验证的虚假舆论,并结合具体算法和区域推荐,具象化受害者群体,提高犯罪效率。当前已有犯罪分子通过向ChatGPT输入热点新闻事件内容,通过设定生成内容风格及其规模编造假新闻,通过上传至新闻传播平台进行流量变现牟利[25],更有甚者利用该技术进行图片和视频合成用以进行谣言传播、电信诈骗等[26]。此类犯罪成本低,信息来源难以追踪,危害性大幅提高,危害面大幅扩展。除此之外,生成式人工智能还能够在金融领域等依赖数据信息获得和处理的领域“大展神威”,伪造报表等企业运营信息,在舆论中塑造运营良好形象,干扰市场正常判断,进而实现非法集资等恶劣行为。缺乏信息透明度的领域将成为犯罪行为的滋生地。
从技术根源观察生成式人工智能能力,算法与训练模型的优劣直接决定了生成式人工智能的结果生成质量。因此,从根源上杜绝类似人工智能带来的舆情危险,多元共建内容监管格局,不仅要将人工智能“关进笼子”,更要关入合适“笼子”。为此,企业平台、政府与用户三方应共同建立监管格局。
从企业层面看,企业必须增强对内容的审查力度,开发内容审查算法,从根源上杜绝此类人工智能被用以规模性产出虚假信息和暴力信息。企业不仅要在生成内容上强制性打上“智能水印”,更要通过“多次把关、反复审查”的方式,规范化生成内容向舆论场的流入、发酵路径,细化链条,通过关键词检索与联想、人工智能深度学习人类语句习惯等方式,反复强化内容生产与传递中的检索机制,以AI对抗AI,尽可能杜绝虚假信息的产出、流传与扩散,并就舆情爆点进行时刻追踪,揭露存在的舆论操弄问题。从数据角度看,做好训练数据的归纳、净化与输入工作极为重要。为此,研发机构不仅应以高标准、严态度对既有训练数据进行数据清理,不同研发机构间应就训练数据进行共享和交叉清理,在规避技术泄密的前提下构建数据“白名单”、算力集群乃至模型训练集群,通过构建并行平台等方式来加速数据净化。此外亦可逐步探索以AI训练AI,即先训练优质的、专注训练和运作规则搭建的“小模型”,并在此基础上帮助大模型搭建基本构型,实现两者交互,提高训练效率。
而从政府层面看,把握并出台兼顾促进大模型发展和监管大模型规范使用的规范至关重要。当前,多种基于大模型研发出的人工智能已经步入对外开放测试阶段,多模态、多场景应用向政府既有治理手段提出挑战。为此,政府出台更加明晰的发展与审查规定,以政府力量确立人工智能的价值评价、能力评测、应用评定体系,设立研发透明、运用公正等基本原则,在继续促进国有大模型发展的同时,规范化大模型能力。对利用人工智能进行舆论操纵、虚假舆论生产与传播的主体,政府应依据情节严重程度拓宽刑罚标准,以严苛处罚震慑犯罪分子行为意愿,起到“杀一儆百”的效果。同时还要横纵向追责,对提供人工智能技术的企业、虚假舆论传播平台等主体进行调查、警告乃至处罚,倒逼其他行为方提高对虚假舆论监测重视程度,推动净化网络舆论。
而从用户角度看,用户在舆论传播当中发挥传递信息、转录信息、吸收信息的作用,因为也是推动构建舆论安全的重要群体。权责对等,为此就需要企业与政府给予渠道反馈:渠道反馈指的是企业和政府要相应成立问责部门,针对公众发现的有关大模型与舆论相关的使用问题和恶意使用情况,及时处理,避免影响外溢。当前中国已出台的《生成式人工智能服务管理暂行办法》中明确规定,允许使用者发现生成式人工智能服务不符合法律、行政法规和本办法规定的,有权向有关主管部门投诉、举报[27]。在此基础上,企业可围绕舆论安全主题向用户提供处理渠道,在相关应用当中设立明显标识,以供用户反馈情况。而政府则定期考察大模型应用运转,并通过问卷调查等量化方式,将群众民意作为衡量监管力度与方式的重要依据,补足舆论安全维护的最后一块拼图。
我们不仅要认识到生成式人工智能带来的复杂舆论生态变化和虚假舆论泛滥的风险,更要察觉其在价值观传递与舆论引导方面的契机。受制于监管手段与网络观点的匿名化特征,政府难以对网络舆情实行监管与有效治理,不同价值观在其中肆意生长,国家舆情治理难免滞后,舆情监管困难重重。而打造更合规的舆论生态将是实现舆论安全的长久之策。因此我们需要利用好生成式人工智能能力,以更加生动、易接受的方式传递优质价值观,杜绝“劣币驱逐良币”现象。
为此,一方面,政府可与企业进行充分合作,围绕优质价值观的传播,结合短视频等新媒体平台,改变现有价值观传递形式单一、大众对话语叙述接受度较低的情况,使得宣传更具亲和力。当前网络舆论存在众多消极舆论,导致这种现象的重要原因便是我们在争夺舆论高地、引领舆论话语时缺乏多样形式,“上价值”等宣传模式忽视了舆论接受方的差异性,部分人的价值需求并没有被得到满足,反而加深了部分人的偏见。因此我们应充分利用生成式人工智能的多模态应用方式,充分发挥这在舆论内容生产的积极一面,即政府可以依据践行优秀价值观的案例借助生成式人工智能的内容与视频生成能力,借助合适角色“说理”,将优质价值观融入生产内容中,并借助平台进行精准推送,建立积极“茧房”,进而催生积极舆情。而对用户画像的使用,将有助于消磨不同群体间的隔阂,推进多元价值观在更高层级上的融合。同时,针对大众反映良好的传播形式进行精准挖掘,政府可与主流媒体联合推而广之,实现不同优质价值观传播的互补性、相互连续性,织密织好传播网络。
另一方面,政府挖掘此类人工智能技术在社会调研方面的突出作用,以更贴近大众生活的方式展开舆论宣传。数字化时代中,数据成为政府展开治理的主要依据,但数字信息化水平的客观不平衡意味着数字难民存在被“代表”,社会问题存在被深埋的可能性,政府宣传的价值观与人们的客观认可出现错位。因而将此类人工智能技术应用到广泛调研、深度调研极为重要。此类人工智能在与用户交互过程中,通过其检索的问题逻辑、问题间联想等形式,可在不涉及个人隐私的情况下,查探基本心理发展情况。政府可依据此类人工智能提供的认知图像,精准化探寻不同社会群体的价值观变化与倾向,提早预警、提早研判,以更具针对性的宣传策略和工具辅助,来实现对消极价值观的纠偏,并实现优质价值观的广泛传播,从根本上提高人们对隐藏在舆论当中错误价值观的抵御能力,帮助优质价值观成为社会主流共识。
以ChatGPT为代表的生成式人工智能发展日新月异,舆论发展面临新态势、新形式,舆论安全保障同样岌岌可危。随着专精图像和视频生成、代码和文本产出方面的生成式人工智能能力的不断提高,舆论内容的生成与传播几乎难以规制,舆论生态复杂程度将呈现指数级攀升,舆论信息的可信度将受到剧烈冲击,信息社会将迎来新一轮的信息爆炸,并将结合现实发展酝酿更大灾祸。无数事件告诉我们,舆论的无序化、意识形态化的发展都将导致舆论不能发挥其正常作用,社会事实反而被传播中的社会“事实”所扭曲。因此我们应充分认知此项突破性技术对舆论发展带来的多方面影响,提前预警、提早布局,以技术工具化解技术风险,适应和扭转新形势下舆论发展导向,推动新技术服务于舆论安全的长久稳固。
致谢:在本文写作过程中感谢张爱军教授,谢磊副教授提出的修改意见。