类ChatGPT人工智能语境下网络舆情安全的风险样态及其规制*

2023-03-03 14:52张爱军
情报杂志 2023年12期
关键词:舆情受众人工智能

张爱军 贾 璐

(西北政法大学新闻传播学院 西安 710100)

0 引 言

人工智能时代改变了网络时代“权力+工厂”式的生产结构,是资本整合下“权力+智能化数字工具”式的生产结构。随着AI生成内容( AI-Generated Content,AIGC)的落地与应用,其通过学习从而不断创新与完善内容的智能生产,从而愈发接近人类创建内容。生成式人工智能ChatGPT作为现代科技的集合,是社会政治变革、经济发展、文化创新到一定阶段的必然结果,并作为一种社会生产力推动着社会生产关系的发展。在实际应用中,生成式人工智能ChatGPT作为先进数字技术的阶段性代表之一,其以超强的计算机推理能力和综合信息系统为主要运作核心,被认定为具有“人类智力独有能力”的高级功能。人工智能的核心价值是协调“人-机”关系,生成式人工智能ChatGPT的价值核心不仅注重协调“人-机”关系,还将可能影响社会价值变动。正因如此,不断发展着的类ChatGPT人工智能,在众多领域所产生的风险都具有一定的未知性。就舆情领域而言,未知性主要表现在舆情风险的不可控性、风险呈现的突发性以及风险样态的多样性,其中最为明显、最为重要也是最需警惕的是网络舆情风险样态的多样性。“自 1994 年我国接通国际互联网以来,舆情逐渐成为一种外在于统治权力的制衡力量”[1],并成为影响世界政治、经济、文化格局发展的重要变量。部分西方国家对类ChatGPT人工智能的逐步推广与深度应用将加速数字时代国家的发展节奏,同时也将加剧国际话语竞争、政治力量角逐以及国家安全维护的复杂性,在一定程度上致使全球数字化发展的无序性扩张。虽现阶段类ChatGPT人工智能还未能在我国普遍推广与使用,然而类ChatGPT人工智能作为数字时代发展的智慧产物,其属于社会发展到一定阶段且可能被推广的数字产物。在类ChatGPT人工智能语境下探究网络舆情安全,研判生成式人工智能ChatGPT可能引发的网络舆情安全风险样态,并对此提出针对性的措施,警惕类ChatGPT人工智能语境下的网络舆情异变风险,对促进网络舆情安全传播具有重要的理论意义和现实意义。

1 文献整理与分析

人工智能是指“包括机器学习,基于收集、处理和适应来自现实世界的数据的算法”[2]。AIGC的发展源于算法、数据和算力的综合提升,突破内容生成的数量与规模上限,使得内容生成趋向自动化和智能化发展,是人工智能迭代更新的产物。其中ChatGPT、ChatSonic、AI绘画、AI写作都是AIGC(AI Generated Content)的分支[3]。ChatGPT是美国人工智能实验室推出的一款智能人工技术,能以自然语言的方式模仿人类的思维方式与表达逻辑,其中ChatGPT所涉及的算法、算力以及数据系统都是对以往程序的范式性革新,是人工智能技术发展的现象级产品。2018年第一代 GPT语言模型诞生后,随着数据模型与数字科技的不断革新,其功能也在不断完善与优化,目前发展经历了GPT-2、GPT-3、GPT-3.5到现在的GPT-4,未来有到GPT-5发展阶段的可能性与现实性。2023年1月,生成式人工智能ChatGPT正式上线,仅五天时间ChatGPT活跃用户已突破1亿。随着数字技术的迭代升级,以 ChatGPT 为代表的大模型技术持续发展,有望颠覆既有范式,推动学术界和产业界进一步探索AIGC(AI Generated Content,人工智能内容生成)到 AIGD(AI Generated Decisions,人工智能决策生成)的可能性,使类ChatGPT人工智能全面推广成为可能。因此,类ChatGPT人工智能的出现,快速掀起了学界、业界对以ChatGPT为代表的生成式人工智能的使用和研究热潮。

目前对类ChatGPT人工智能的讨论跨涉30多种学科,主要涉及有教育、出版、法律、政府治理、经济、情报、工具价值、国家安全以及个人认知等领域,且多从类ChatGPT人工智能未来应用的积极效能和可能衍生的消极影响两方面来分析。类ChatGPT人工智能作为现代化智能技术的代表,部分学者对类ChatGPT人工智能技术未来应用的效能呈现出积极的肯定作用,提出ChatGPT的应用是教育系统拥抱技术变革的具体表现,是实现探究式教育的开端[4];ChatGPT具有较强的政治社会动能[5],可以“数字运营官”的身份促进政府运行优化发展[6];ChatGPT可促进我国经济新产品价值的货币化[7],是我国未来经济发展中的重要科技力量。也有部分学者从类ChatGPT人工智能可能衍生的消极影响考虑,认为当ChatGPT 定位为“智能搜索引擎 + 智能文本分析器 + 智能洗稿器”[8],不仅使知识产权维权困难,且还将对法律职业的未来发展带来诸多不确定性因素[9];ChatGPT技术的短板与缺陷将会在技术介入情报工作流程后,破坏情报保存的隐秘性与传播的严肃性[10];并提出技术将赋能教育,而技术驱动的教育变革存在“马太效应”与“鲶鱼效应”双重机制[11]。因此,当类ChatGPT人工智能技术在各领域的影响不断加深与扩散,未来类ChatGPT人工智能将可能成为舆情安全发展中的重要变量因素,将会对舆情安全发展带来未知风险。

一些学者对网络舆情的研究主要集中在网络舆情风险评估、网络舆情演化规律、网络舆情风险治理等视角。将网络舆情风险与区块链、元宇宙[12]以及新媒体环境等现代化技术结合,评估网络舆情与金融发展[13]、高校思政教育以及其他领域的系统性风险;从融合引爆点理论[14]出发,考虑多层渗透效果[15]对网络舆情演化的影响,以多元主体协同的大型体育赛事[16]、融媒体生态下高校网络舆情传播[17]为具体案例来探讨智能化大数据与网络舆情发展;并依据舆情事件本身的衍生性、多样性特点与网络空间匿名性、泛在性的舆情特征[18],将系统治理、依法治理、综合治理、源头治理视为理论基础[19],构建网络舆情的风险治理机制。可发现学者的研究大多以具体案例或已普及的数字技术为网络舆情风险论述视角,未能将新数字技术与网络舆情相结合,因此从类ChatGPT人工智能视角探究网络舆情风险样态具体前瞻性与现实性意义。

类ChatGPT人工智能的出现,意味着人工智能技术开始从量变走向质变,即从专用人工智能开始走向通用人工智能,其将会成为影响舆情发展的“工具性”变量因素。类ChatGPT通过“预训练+精调”新范式,能在更统一(标准化)、简单(模式化)的场景下实现规模化应用[20],帮助公众在反复的自我选择中获取舆情事件信息,进而通过类ChatGPT人工智能应用的交互传播模式,将其自身意见转化为舆情发展的信息基础。综上所述,可以看出学界对类ChatGPT人工智能与舆情安全领域的关注度较低,缺少对网络舆情传播的专门研究。本文重点讨论类ChatGPT人工智能技术介入网络舆情传播,分析其将可能引发的多样态风险,从而为促进舆情事件健康发展、为确保网络舆情安全提出针对性建议。

2 类ChatGPT人工智能语境下网络舆情传播的模式的变轨

2.1 生成式内容选择干扰网络舆情传播逻辑

类ChatGPT人工智能是一种基于与人类语言交互为基础的生成性工具,它使用无监督和半监督的机器学习方法,接受海量数据的训练,形成数据模型,再根据用户的输入选择或要求,由模型自动生成新的内容输出。正是基于此,可知类ChatGPT人工智能系统内部的传播逻辑不仅由受众不断、多次甚至重复的否定性选择而定,更是受系统设定者内嵌的否定逻辑的影响。系统设定者以“把关人”的身份对数据信息进行筛选,借助信息层层传播的方式,为设定者将其带有偏见的价值信息植入数据模型库的行为提供掩护,并作用于网络舆情的关键性节点,在潜移默化中将带有价值偏见的舆情观点渗入类ChatGPT内部信息输出数据库。这些关键性节点成为引爆受众情绪的触发点,成为挑起受众情绪激愤的重要量子,引发受众非理性言论和行为的产生。当事件信息与受众情感碰撞,而受众情感意愿又与现实状况相悖时,单一的事件就极有可能成为引发不稳定网络舆情出现的导火索,网络舆情稳定发展将会受到挑战。同时,OpenAI开发的ChatGPT属于大规模语言模型的一种,主要功能是依据受众要求生成符合语法和语义的自然语言文本,甚至是图像、照片、音频、视频等内容,是超越语言单模态功能的“多模态大模型”[21]。相比于传统媒体平台的单一性观点,身为“多模态大模型”的ChatGPT拥有无限量的内容生产能力[22],其不仅是技术生产信息“量”的突破,更是人类接收内容“限”的突破。而没有经过任何审查、筛选和验证的内容极易受新智能技术的强大生成能力的影响,从而被大批量地制造出来。当这些待验证信息从开始就被受众当成正确、客观、全面的网络舆情内容所生产出来时,这些大量无用信息便可能成为受众认识网络舆情的“累赘”与“包袱”,成为受众了解客观真相的阻碍,使受众对正确网络舆情事件的认识变得困难,导致舆情发展逻辑混乱,甚至还可能会使舆情发展中断。

2.2 数据储存模式促使网络舆情主体身份转变

作为数字技术的典型代表之一,类ChatGPT人工智能与其他传播媒介相比更具公共性、服务性,尤其是在信息对比分析之中,更能凸显类ChatGPT人工智能与受众交流的智能化、精准化与定制化。这主要是与类ChatGPT人工智能内部的数据储存模式相关。类ChatGPT人工智能系统内部强大的数据正是由庞大的、零散的个体受众信息组成,这些大多数观点汇集所形成的意见综合,便可能成为受众获取的相关信息的“标准答案”。因此,类ChatGPT人工智能与受众交互中所生成的“标准答案”正是源于多数的一般受众。当类ChatGPT人工智能生成的“标准答案”成为引导网络舆情发展的指引性观点,此时受众在网络舆情观点传播过程中就充当着受者的角色,成为网络舆情事件信息的接收者,为网络舆情的进一步传播提供了庞大的赞同基数。而这“庞大的赞同基数”所表达的网络舆情观点也将成为网络舆情继续传递过程中的源头信息观点,在类ChatGPT人工智能与受众对话中被视为成熟的、被选择过的综合信息,可以自然语言的形式与受众进行对话式“探讨”并成为类ChatGPT人工智能输出网络舆情事件的态度支点。在这个过程中,类ChatGPT人工智能原本的“类人化”聊天工具的身份被改变,其不再是一个信息传输介质的作用,而是成为了网络舆情传播主体的转化器。类ChatGPT人工智能与一般性质的媒介平台不同,一般性质的媒介平台不仅是单纯的信息流通站,还是网络舆情观点的交互地。无论是能被大多数人肯定的观点还是仅有零星几人支持的意见都可被有心受众看到,甚至都可成为网络舆情发展的支撑论据。类ChatGPT人工智能不同于此,类ChatGPT人工智能作为大型语言交互系统,其是从受众观点处提取、筛选信息之后经过层层问答,进行信息输出的智能对话应用。在网络舆情观点输出前,受众的层层否定式问答与自主搜索获取更易获得“集体式”舆情态度,且受众对网络舆情事件的掌握并不单单经过一种传播途径,当多种网络舆情观点同时被推送到受众前面,面对多个舆情观点甚至是相反的意见,更易使受众在舆情波动中失去自我,更易使受众在舆情对立中徘徊不定,成为网络舆情安全发展的变量因素。

2.3 评价系统为虚假网络舆情生发提供繁衍空间

正如柏拉图所说“那些知道如何提问和回答的人叫做辩证法家”[23]。而类ChatGPT人工智能的自我革新与自我学习并不仅是在与受众进行反复提问与回答的辩证式对话中完成的,“辩论”后的评价也是类ChatGPT人工智能数据模型与时俱进、不断完善的依据。类ChatGPT人工智能与受众信息交互的评价系统,将对类ChatGPT人工智能数据模型的建构产生直接影响,从而影响类ChatGPT人工智能内部数据信息的客观判断与价值偏向,为网络舆情发展带来潜在安全隐患。ChatGPT作为通用人工智能(AGI)和通用目的技术(GPT)发展的里程碑,从反馈模式上看,其颠覆了以内容为中心的传统大众传播模式和以用户为中心的社交媒体传播模式,采取的是数字智能化评价模式。ChatGPT内部数据的微调依据正是源于受众的打分评价体系。目前ChatGPT语言模型的评价体系多以人工评价为主,以自动评价为辅,然而无论是哪种评价都未能做到绝对意义上的客观公正。人工评价主要是使用者通过与ChatGPT交流对话后所获得体验感受,在综合自身需求后对ChatGPT的对话服务质量进行打分,打分高低也就成为ChatGPT内部数据库模型微调与补充的依据。使用者对ChatGPT打分依据主要是以自身经验和认知为主,然而单一受众的认知本就是带有一定盲区和偏见。当这些局限性视角成为评价准则,将会促使虚假、滞后、片面甚至是带有一定目的性的网络舆情观点泛滥,借助微调的形式快速隐入ChatGPT的数据库中,进而在大量、多变舆情观点之间交织和演化,打通与自身相似舆情的交流通道,并在微调过程中改变少数舆情观点的劣势地位,将其主位与辅位互换,试图引导使用者将虚假、滞后、片面甚至是带有一定目的性的舆情视为正确、全面、客观、公正的舆情信息。同时自动评价系统主要是使用评价模型生成对话系统对上文回复进行评价,其有固定的评价指标或者评价模型。然而这种自动评价技术实际上并不能直接被作用于ChatGPT中的语言系统模型运行上,而是会经过后台程序“把关者”的筛选,也只有经过筛选的意见才会被纳入模型数据库中。而把关者的人选都常被资本方垄断,致使公众与ChatGPT沟通过程中所表述的公共意见与情感价值偏向仅停留在对话阶段,并未真正实现对社会性事件态度或观点的有效传播,甚至在某些公共事件上,资本将会将其观点提前预设成输出答案,这也就给网络舆情安全发展带来了直接的影响。

3 类ChatGPT人工智能致使网络舆情安全风险多样态

3.1 循环式反转舆情多发

舆情反转即网络舆情在传播过程中,网民通过互联网表达和传播意见、态度和情绪过程中出现向相反方向转化的现象和趋势[24]。网络舆情的演化与发展通常与互联网空间的信息传播逻辑相一致,可以将网络舆情反转看作为网络技术发展的产物。类ChatGPT人工智能以其独特的数据筛选逻辑、数据储存结构、数据输出模式快速收获了大批体验者,并依靠独有的对话式传播赢得了广大网络受众的信赖,具有持续扩散与流行的趋势。舆情反转是网络媒体背景下舆情传播中的一类特殊现象。而当网络舆情发展与类ChatGPT人工智能结合,类ChatGPT人工智能持续更新的数据库与可选择的问答式信息提取方式将无法完成对网络舆情事件的一次性输出,反而在持续更新与连续问答中将舆情事件复杂化,在事件多次未定性的解答或多次相对价值观的输出中,有可能会过早的使受众对舆情事件产生价值判断。同时易促使受众在未知事件全貌的状况下做出非理性的行为与结论,盲目发布与客观事实相反的过激言论,影响网络舆情发展的客观性与稳定性。因此,类ChatGPT人工智能以自然对话的形式表达所传播的“持续性”观点是影响舆情反转的关键性误导性信息。“误导性信息”指故意制造或散布的各种真假混杂的信息形成的一种信息混合体,用以误导大众, 使之得出有悖于事物真相的认知或判断”。不同受众所受误导性信息的影响程度不尽相同,因为“每个人各自是事物的尺度”[25],且误导性信息所产生的误导性舆情并不能代表与反映真实的民情民意。虽然受众可能在多次获取信息中会对事件形成正确认知,但在形成正确认知过程中受众的心理活动与观点表达将会促使舆情反复、多次、循环反转,这也与类ChatGPT人工智能的信息输出过程密切相关。

3.2 弥散性复合舆情泛传

舆情是公众对社会环境变化的反映,是社会心理、社会态度的外在表现,也是社会运行状况的体温计与社会心理倾向的风向标。由单一社会事件所产生的网络舆情其发展必定不会拘泥于事件本身。与以往的媒体传播不同,生成式人工智能的信息运算逻辑是多种意见与观点的综合。以往传统媒体中的信息传播是事件信息的简单收集与叠加,类ChatGPT人工智能系统内部的信息综合是思想的归类与筛选。当多方意见在类ChatGPT人工智能内部汇集时,汇集的信息在与受众对话中是“有思考”的选择性输出,这种选择性输出与受众本身观点相联系,且会对受众观点进行启发与拓展,并引导甚至是助推受众将单一的社会事件嵌入国家政治安全、经济发展、文化传播、贸易往来等领域。此时所发酵的网络舆情也将会跳脱出原本的事件模型,并向相关方向细化与延伸,促使舆情由点变面、由一变多,不断弥散化。类ChatGPT人工智能使得网络舆情事件在舆情观点交互传播中逐步产生“乘数效应”,即不仅在风险内容上由单一的意识形态风险外溢为经济、政治以及社会等复合型风险,而且网络舆情风险传播速度的“迭代升级”反向弱化着主流意识形态的地位[26]。由于类ChatGPT人工智能技术的使用者呈分布式的、无规律的散落在多个国家内,当不同政治、文化背景的国家成员对事件的理解程度或接受视角不同,不同国家、地区之间的意识形态冲突,多元舆情观点的碰撞将会加剧舆情发展的弥散化,多元且不可调和的价值原则将使原本简单的社会舆情问题被迫上升至国家发展问题的层面。

3.3 框架化议题舆情不断涌现

类ChatGPT人工智能技术具有超强的文本分析和内容自主生成能力,可借助通用式的语言逻辑与共情传播影响网络舆情议题的建构,进而成为国家政治发展、意识形态传播过程的重要推动力量。类ChatGPT人工智能技术的信息输出逻辑是建构“框架化”议题的有效途径。议题“框架化”的过程,通常是指传播源对一个特定的社会议题进行界定,从而框定了哪些事项与该议题相关[27]。这与类ChatGPT人工智能生产的舆情发展模式相一致,循序渐进的舆情传播模式使受众在自我否定的信息选择中完成舆情议题的建构,进而推动特定舆情问题的价值定性、逻辑解释、因果评价以及态度判定等,确保框架式舆情议题的顺利建构。由于类ChatGPT人工智能内部系统的数据微调程序,使得类ChatGPT人工智能与其他社交媒体更具专业性优势。例如,GPT-4从发布至今已经过两次数据微调,自我微调的过程是生成式人工智能ChatGPT内部数据库自我修复与革新的过程,系统内部的自我革新是经由受众反馈的观点被数据化整合、研判后所形成的新数据再次进行系统数据调整的过程,这能够使ChatGPT系统数据库更具科学性、专业性,成为受众视角“类人化”的意见领袖。基于人对专业信源更易信任的“思维定势”,被生成式人工智能ChatGPT所塑造的“框架化”议题将会在受众无意识的状态下改变其对舆情发展的态度,可能引发受众某些舆情反应,进而推动议题设置者所建构的框架化议题舆情的实现。

3.4 间断爆发式舆情不断生成

ChatGPT技术搭载AIGC的模型,成为新一代人工智能技术的代表,其拥有强大的信息整合与转译流通能力,可以迅速收集整理繁杂的数据,并将源源不断的输入性数据转化成自身发展的学习资料,进而以问答式对话的形式传输给受众,可以将ChatGPT看作网络舆情发展的中转站。与ChatGPT相同,正是由于类ChatGPT人工智能具有舆情中转站的作用,其才更易促成间断爆发式舆情的出现。这主要是因为类ChatGPT人工智能作为社会信息的整合器,是连接传者与受者的中间系统,二者并不是一种直接传输的关系,而是被系统内部综合、选择后进行观点传递。作为接收者的受众个人却是独立的、异质化的个体,正是受个体独特性的约束,相同的网络舆情事件并不能在不同个体之间引起相同舆情反应,而不是所有受众都被舆情事件所影响而做出舆情反应并生成舆情。部分受众的反应痛点可能在舆情事件发生的初始,也可能存在舆情事件发生的过程中。不同阶段的痛点反应存在舆情爆发的时间差,造成舆情发展呈现间断式、连续性爆发,这主要和受众与类ChatGPT人工智能进行舆情信息交互过程中的个人否定性选择相关。类ChatGPT人工智能与元宇宙不同,元宇宙同样为现代数字技术的先进代表,以数字孪生的形式对社会进行一比一复刻,是现实社会的镜像存在,而类ChatGPT人工智能对内容的智慧编辑,打通了现实世界与虚拟世界交互的通道,而不是对现实世界的是实时复刻。因此,开发者对类ChatGPT人工智能数据的节点性控制也将会导致舆情发展的间断式爆发。

4 以规制类ChatGPT人工智能促进网络舆情安全

4.1 健全类ChatGPT人工智能事后把关体系

健全类ChatGPT人工智能事后把关体系,以减少虚假舆情流通。类ChatGPT人工智能技术作为现代新智能技术的集合体,以生成式技术为运转核心,虽在内容生产中注重减少虚假、欺骗性和有害信息传播,但是由于类ChatGPT人工智能内部的复杂数据资源过于庞大,在某些问题的输出传播中仍存在虚假信息大肆繁衍的现状。目前,类ChatGPT人工智能的核心生成数据还并未能掌控在国人手中,无法从数据库根源处严控数据传播内容,做好数据源头把关。对此,为进一步确保网络舆情安全,防范国外对中国带来的潜在风险和现实风险,要对类ChatGPT人工智能数据进行生产后把关,通过“二次把关”的形式,明确类ChatGPT人工智能信息输出后的数据输入、归类、综合、细化程序,从而尽量杜绝虚假舆情观点进入大众流通圈,减少舆情发展的安全隐患。为促进网络舆情安全,完善ChatGPT数据把关需要从两个方面入手。一是加强数据接口处的“把关”。重点提升数据接口处的“把关”,主要是由于我国目前还没有对类ChatGPT人工智能核心数据的控制权,而国内对类ChatGPT人工智能的使用多为转换后的“中式类ChatGPT人工智能”。为此,重视接口处的数据把关建设,将“西式类ChatGPT人工智能”输出信息进行反复甄别与确认,以确保转化后的“西方数字化内容”符合客观事实,符合中国大众化信息需求,使其具有在中国传播的可行性。能够做到从数据接口处掐断虚假网络舆情的传播渠道,以“二次把关”的形式,解决舆情混乱将会引发的安全问题。二是提高受众对类ChatGPT人工智能中的信息分辨能力与把关能力。类ChatGPT人工智能作为数字劳动的新智能工具更具“鲜活”性,而受众正是类ChatGPT人工智能技术发展中的体验者与推广者。由于类ChatGPT人工智能对新智能技术的运用,其内部蕴含着大量的现代化数字科技,这些现代化的数字科技在使用者进行舆情观点获取的“矛盾凸显期”,将会凸显其强大的协调与调动能力,受众将会把类ChatGPT人工智能视为数据资源的“活动库”。面对多数、多样、多形态的舆情数据,提升受众对类ChatGPT人工智能输出信息的辨别力与判断力,可帮助其对舆情事件产生最为真实与全面的判断,最终形成对网络舆情事件客观认知。在与类ChatGPT人工智能的不断交互中将其正确的认知信息输入到类ChatGPT人工智能的信息数据库中,促进舆情数据与实际相符,也促进舆情健康、平稳的发展。

4.2 发展类ChatGPT人工智能传播预警技术

发展对类ChatGPT人工智能传播预警技术,以增强网络舆情安全。以“技”治“技”,以“数”治“数”,是将类ChatGPT人工智能关进笼子里的最优方式,也是确保网络舆情安全的重要步骤。而如何将现代科技的工具理性转化为中国社会发展的价值理性,并借助扩散的价值理性捍卫网络舆情发展的正当性,是现阶段数字技术的快速革新与生成式人工智能大环境中需要优先考虑的迫切问题。提升类ChatGPT人工智能网络舆情传播的准确性,以技术手段打造网络舆情全方位预警机制是现阶段遏制类ChatGPT人工智能可能引发舆情问题的有效手段。打造全方位的预警机制主要从“技术联结-信息驱动-舆情再造”三个阶段来实现,这与技术赋能本身内含着的组织、技术和流程再造的制度逻辑相符[28]。技术联结是建设全效网络舆情预警机制的技术基础。技术联结具体指将受众对类ChatGPT人工智能使用转化与使用后所衍生的信息进行“再技术化”循环,将被类ChatGPT人工智能影响的舆情观点与元宇宙虚拟体系结合,将元宇宙虚实结合、全天在线、镜像传递的特征与类ChatGPT人工智能技术对受众传播进行不间断性的结合监测,将受众所接受到的综合性意见与否定式回答信息转化成“镜面效果”的元宇宙舆情呈现,从技术维度监测网络舆情事件的实时传播;信息驱动是建设全效网络舆情预警机制的数据保障。信息驱动注重对类ChatGPT人工智能输出数据的运转与驱动。类ChatGPT人工智能数据库被视为受众了解网络舆情观点的数据源头,受众对其输出信息的理解与传播决定着舆情的发展。对类ChatGPT人工智能输出数据信息的驱动,即是对网络舆情传播渠道内数据信息流通的鉴别与审查,从而确保受众成为“观点转换器”逻辑中真实舆情观点的传播者,为网络舆情发展奠定信息安全基础;网络舆情再造是建设全效舆情预警机制的现实目的。通过发展网络舆情观点审查技术,健全网络舆情传播体系,化解类ChatGPT人工智能内部微调过程暗藏的虚假舆情危机,逐步厘清虚假舆情传播逻辑,并通过网络舆情预警机制对舆情进行再造,能够将舆情事件发展拉回正常的运行轨迹,发挥舆情预警技术在类ChatGPT人工智能传播“价值理性”中的润滑剂作用,推动网络主流意识形态的“智能渗透”[29]。发展网络舆情预警技术不仅是确保舆情安全的关键一步,也是我国生成式人工智能作为“类人类”与人结合进行政治参与,推动国家治理体系和治理能力现代化的具体表现。

4.3 重视类ChatGPT人工智能价值输出

重视类ChatGPT人工智能价值输出,以警惕网络舆情西化。新一轮科技革命和产业变革深入发展,国际力量对比深刻调整。ChatGPT技术及其背后的 OpenAI 即是这场变革调整的深度表现。类ChatGPT人工智能应用发布后多次被商业、政界、学界落地应用,然而在诸多特定问题的自主生成的解决方案中,类ChatGPT人工智能可能会促使其成为谣言制造者或舆论引导者的辅助工具,尤其是在一些具有目的性、误导性、充斥阴谋论的提问下开始进行大量改编信息,引导社会舆情观点向片面、极端甚至是西化方向发展。对此重视类ChatGPT人工智能与受众交互中的价值输出,将类ChatGPT人工智能应用内部的数据感知模式、收集过程、分析定势、共享逻辑全部纳入中国主流价值发展的框架内,将其发展中的数字“不确定性”转化为价值“确定性”,深刻把握类ChatGPT人工智能应用数据循环的逻辑,并重复利用舆情群落性的特点,使多维舆情观点推向输出前端,将人工智能时代的信息数据化。这能够实现从过往的静态数据向动态、系统的海量数据过渡,以此剔除带有西方价值偏向的意识观念,并通过海量数据的挖掘捕捉到社会舆情的发生规律和潜在影响因素[30],针对中国社会舆情发展生成分析报告与调研结论,使类ChatGPT人工智能技术成为舆情发展的辅助性工具[31]。同时,这也能实现在关键问题上维护国家主权形象安全与网络信息安全的效果,打通类ChatGPT人工智能技术与数字政府建设的边界,实现数字政府主流价值观与受众的“智能涉身对话”的技术连接,做到人机双方价值共存与共融的现代化国家治理,进而推进中国价值宣传与扩散的国际进程,发挥出舆情附加效能的最大价值。

4.4 完善类ChatGPT人工智能法理规制

完善类ChatGPT人工智能法理规制,以稳定网络舆情安全。在网络舆情发展初期,类ChatGPT人工智能技术可利用庞大的数据反馈系统,将受众普遍关注的舆情事件吸纳进数据海,这就如“雨点滴入大海”,数据巨浪将反应现实的舆情态度吞并,大多成为资本权力专享的舆情服务器,这正是由于类ChatGPT人工智能技术缺少相关法制规范的约束。尤其是在目前AI 实验室可能陷入了一个无法控制的竞赛的情况下,试图开发和部署更加强大的数字化智能,甚至包括他们的创造者都无法理解、预测或控制的风险,导致类ChatGPT人工智能技术在网络舆情传播中出现部分无底线、无边界、无规则现状,使得国家主权信息泄露的风险增加、企业专项维权困难、个人隐私泄露频发。关于对ChatGPT发展进一步规制,现阶段已被国际众多国家所关注,其中美国、英国、雅典都做出了明确的限制发展条例。2023年3 月 31,意大利宣布已就涉嫌违反欧盟通用数据保护条例(GDPR)的行为对 ChatGPT 展开调查,并出台政策禁止使用 ChatGPT 。同年4月,我国国家互联网信息办公室根据《中华人民共和国网络安全法》等法律法规,起草了共二十一条的《生成式人工智能服务管理办法(征求意见稿)》,从研发、利用、推广等发展过程对生成式人工智能产品进行了法制约束,更是从商业发展的视角对生成式人工智能产品与服务进行了范围划定。然生成式人工智能作为现代化智能技术发展的焦点,正处于稳步上升、持续性发展的阶段。现阶段法制建设并不能一劳永逸的将其进行规制。面对未知性技术的发展,法制建设应发挥其前瞻性视角,进一步细化法律法规,从全方位、多层次、长效性的视角约束发展型数字技术。其中目前可参考西方对类ChatGPT人工智能技术的现实规制,并结合中国科技发展模式,根据现有的基础法律提出规范类ChatGPT人工智能的国家框架下的中国特色专项法规,从实践中参考西方已有立法并与坚守中国特色立法相结合,最终确保国家网络舆情安全。

5 结 语

ChatGPT 作为大型自然语言数据模型,是人的智慧与“机器智慧”叠加的集合体,其以“机器语言”的形式改变了受众对网络舆情事件的观点、态度,将可能促使舆情传播机械化、模式化甚至单一化。类ChatGPT人工智能作为不断迭代革新的智能型数字技术,在未来的发展中与网络舆情结合,介入信息安全领域是不可避免的现实问题。虽然万物皆显出自发偶然之态[32],但也可从现实条件出发,对已发生问题、已出现状况、已产生矛盾进行分析,通过现有数据对未知风险提出预防措施。谨防类ChatGPT人工智能使得网络舆情安全问题持续性发酵,针对其多样化的风险样态,建构“类ChatGPT人工智能+元宇宙”的全程、全息、全员、全效的舆情技术化传播体系[33],并将类ChatGPT人工智能数据把关逻辑与群体传播特征相结合,减少虚假舆情观点传播的频率与圈层范围,能够保障舆情安全。要警惕在人与类ChatGPT人工智能交互沟通中的价值传播转向,尽可能的缩减或杜绝西方价值拥有者试图通过类ChatGPT人工智能同化我国受众价值的风险。在发展技术的同时也要重视法律制度的配套与完善。法律是将技术装进笼子里的手段与途径,加强法制建设不仅是类ChatGPT人工智能技术长远发展的制度保障,更是规制ChatGPT从而促进网络舆情安全的强有效约束。只有厘清类ChatGPT人工智能技术发展中的网络舆情安全风险,并针对性对其突出问题采取措施,将风险源头扼杀在等待爆发的摇篮里,才能够促进类ChatGPT人工智能与网络舆情的共生、共存、共进的良性发展。

猜你喜欢
舆情受众人工智能
2019:人工智能
人工智能与就业
用创新表达“连接”受众
数读人工智能
下一幕,人工智能!
舆情
用心感动受众
媒体叙事需要受众认同
电视节目如何做才能更好地吸引受众
舆情