舆论将死?论生成式人工智能对舆论的冲击及其应对

2023-12-11 07:10:56刘立荣
中国传媒科技 2023年11期
关键词:舆论人工智能人类

刘立荣

(天津中医药大学文化与健康传播学院,天津 301617)

2022 年 11 月,美国 OpenAI 公司发布人工智能聊天机器人ChatGPT,短短五天,注册用户就超过了100万,仅用了两个月,月活用户就超过了1 亿,成为互联网史上增长最快的网络应用。2023 年3 月15 日,OpenAI 公司又推出了更新版本的ChatGPT-4,支持多元输入输出模式。除了聊天,ChatGPT 可以根据指令完成写诗、绘画、撰写文稿、编写代码等一系列任务。ChatGPT 的横空出世,激起了各互联网公司展开AI 研发竞赛,陆续出现了大量类似的应用,如百度的“文心一言”。2023 年8 月31 日,百度宣布其全新一代大语言模型“文心一言”正式向公众开放。

ChatGPT 是生成式人工智能的典型代表。生成式人工智能(Generative Artificial Intelligence,简称GAI)是一种基于深度学习技术的人工智能模型,其特色功能在于能够模拟人类的创造性思维,并自主生成具有一定逻辑性和连贯性的语言文本、图像、音频等内容。[1]传统型人工智能的研发与应用集中于特定领域,比如围棋领域的AlphaGo,新闻写作领域的腾讯Dreamwriter,这些AI 离普通人的生活尚远。但是今天,以ChatGPT 为代表的生成式人工智能已逐渐进化为通用型AI。如微软表示,其旗下所有产品全线整合ChatGPT,并支持第三方插件。这就意味着未来我们常用的软件、平台等均含有大量的AIGC(Artificial Intelligence Generated Content)。ChatGPT 等 生 成 式人工智能变成了我们的互联网“脑替”“嘴替”。当AIGC 汹涌而来的时候,我们要追问舆论还是民意?舆论将何以保持民意的纯粹性?这事关国家网络安全、意识形态安全,是生成式人工智能时代舆论研究不容回避的问题。

1.生成式人工智能时代的舆论异化

马丁·海德格尔认为,在现代世界,技术构成了人们的基本存在处境,技术作为座驾,为人们的理解和生存设置了固有的框架。[2]我们对舆论的认识和理解也将基于技术的变迁。生成式人工智能出现后,“舆论”这一概念面临土崩瓦解的风险。

1.1 舆论主体“非人化”:身份模糊,人与AI 难以区分

传统媒体时代,社会舆论的表达主体比较单一,传统媒体、民间的意见领袖、一般民众等是舆论主体;网络时代,舆论主体开始出现变化,除了媒体、自媒体、网络意见领袖、网民等,还有隐藏在虚拟世界中的网络水军。早期的水军还是人工发帖,但随着技术的发展与介入,网络水军逐渐变成了受代码、算法操纵的网络机器人,舆论主体开始“非人化”。到了以ChatGPT 为代表的生成式人工智能时代,舆论主体进一步“非人化”,大量的舆论信息来自AI 生产、传播。

ChatGPT 之所以备受瞩目,是因为它的强智能化,不同于以往人工智能的“机械化回答”,它能根据上下文理解提问者的意图,并以流畅的自然语言进行个性化回答。据OpenAI 称,GPT-4 在各种专业和学术领域的基准测试中表现出“人类水平”的性能,在各种专业和学术的考试中都表现出接近人类的智能水平。[3]按照“图灵测试”,当人们无法辨别与自己对话的是人还是机器的时候,就可以判定机器有了人的智能。而ChatGPT 等生成式人工智能则已经具备了这种迷惑性,让人难以区分参与对话、撰写文章的是人还是机器。ChatGPT 等将逐渐发展成通用型人工智能,越来越多的网络应用、平台将接入内嵌,届时如果不强制显示信息发布者身份,网络舆论主体将成为AI。大量“非人”的AI 昼夜不停地活跃在网络空间里,舆论原本的最大主体——人,将面临边缘化风险。

1.2 舆论本体“虚假化”:AIGC 替代民意

舆论按照存在形态可分为潜舆论、显舆论、行为舆论,按照类型又可分为信息形态的舆论、意见形态的舆论、艺术形态的舆论。[4]无论何种形式,舆论本体应该是人表达出来的意见信息,即舆论是民意的“晴雨表”与“风向标”。生成式人工智能兴起后,逐渐进化为通用型AI,显舆论即公开表达出来的舆论,可能大部分内容来自AIGC。如前文提到的微软表示要将旗下所有产品全线整合ChatGPT,包括大家日常使用的Edge 浏览器、必应搜索引擎、Office 等,此外,ChatGPT 支持第三方插件,并已发布iOS 及安卓版App。社交平台Koo 称将带来自己的ChatGPT 功能,协助用户撰写帖文。[5]百度的“文心一言”也推出了App,并内嵌于百度搜索页面中,国内多家媒体接入“文心一言”……网站、App、媒体、社交平台等,以往我们常用的舆论平台,几乎全部被AI“攻陷”。互联网的虚拟性及生成式人工智能的超智能化,让我们无法辨别内容是否来自人类。因此,未来的显舆论可能是掺杂了大量AIGC 的“假舆论”,而这些公开呈现的舆论会干扰人们的判断,进而影响潜舆论和行为舆论。

此外,ChatGPT 已实现多模态信息输入输出,所以它不仅可以模仿人类发表文字信息与意见,还可以仿照人类生成图片、音乐、视频等多种更高级的艺术形态的舆论。这些同样是像舆论,而非真舆论,但其迷惑性更甚。

1.3 舆论客体“无理化”:操纵空间加大

舆论客体即舆论的对象,舆论指向的事件、问题、现象或人物。舆论客体是舆论的源头,正是因为这些有争议的对象,才激发了舆论。传统媒体时代舆论议题来自媒体,多是时政、社会民生类话题,媒体发挥舆论监督功能,代表公众对社会现象进行报道或曝光。网络时代,除了媒体,网站编辑、网民、算法等也成了“把关人”,舆论客体多元化,增加了娱乐、网络现象、品牌商务类等话题,舆论议题以各种热点话题、热搜、排行榜等形式存在,其中网民关注的议题更贴近现实舆论。但此时也出现了算法平台操纵议题的现象,有时候会出现让人一头雾水的“热搜”。生成式人工智能时代,作为AI 构成要素的算法进一步黑箱化,其对议题的操纵更加复杂,可操纵AI 生成大量内容、评论等伪装舆论,或直接微调算法改变意见、议题呈现等,彼时的热搜可能来得更加莫名其妙,舆论客体“无理化”。

1.4 舆论传播路径与规律被颠覆

传统媒体时代,舆论信息传播从媒体报道到社会大众,中间或有意见领袖,整体而言是较为直接的模式,被称为是“1-1”模式;网络时代,尤其是社交媒体、自媒体兴起后,舆论传播结构多元、多向、多主体,舆论呈现“N-N”传播模式,虽然传播路径更为复杂,但已逐渐掌握其规律:在舆情事件发酵过程中,媒体、意见领袖是关键节点,舆情引导可从这两方面发力,舆论传播形态主要是大众传播和群体传播。生成式人工智能时代,随着这类人工智能普及化,人们看似在社交平台交流,其实是在与不同的聊天机器人对话,这些聊天机器人将用大量的人机交互占领用户的时间、心智。原本的舆论被人机传播分割成独立的意见碎片,缺少经由大众传播、群体传播后的意见碰撞与整合,难以连缀成主流意见,舆论传播路径与规律面临颠覆,给舆论引导带来挑战。

生成式人工智能时代,舆论场成为了生成式人工智能的狂欢之地,舆论的主体、客体、本体、传播规律等与之前大相径庭。因此,“舆论”将不再是舆论。

2.生成式人工智能诱发的舆论风险

2.1 国际舆论场更加复杂,国家舆论风险加大

算力、算法、数据是生成式人工智能的核心要素。尽管各国都加快了人工智能研发,但是以ChatGPT 为代表的西方生成式人工智能目前在算力、算法和数据方面处于引领地位,借助技术优势可能将推广至全球。数据方面,这些AI 用来学习训练的语料大部分来自英语世界,其对中国的偏见会通过AI 的反复输出而得以强化并大肆传播,使得我国在国际舆论场中处于被动和不利局面。算法方面,算法本身也反映了创建者、开发者的意图,存在算法偏见、算法歧视,在意识形态与国际舆论方面,存在利用算法强化政治倾向与国别偏见的风险。有学者指出“ChatGPT 在价值塑造上表现出鲜明的政治倾向,仍在为受众塑造‘西方中心论’的意识形态图景。”[6]北京理工大学计算机学院研究者经过实验指出,“ChatGPT 生成内容中存在对于中国的大量偏见言论 ”。[7]

表1 从传统媒体时代到生成式人工智能时代的舆论变迁

2.2 资本、技术操控舆论,舆论引导面临挑战

生成式人工智能的研发海外主要是微软、谷歌、Facebook 等,国内则是百度、阿里巴巴、腾讯等网络科技巨头,这些公司掌握了大量的资本和技术。互联网巨头为了资本增值,可以利用技术优势操纵AIGC,创造有利于己的舆论空间。与此同时,政府机构、主流媒体却被排斥在AI 研发赛道之外,只能等科技巨头开发生成式人工智能后与之合作,无形中让渡了部分话语权,在大量的AIGC 中面临舆论声量降低、舆论引导力减弱的风险。

资本与技术联手对舆论的操纵其实早已有之,例如利用算法黑箱操纵热搜榜单,但难免露出马脚被人发现。今天生成式人工智能背后的算法愈发复杂,极端的情形是在数据规模越来越宏大复杂时,连AI 训练工程师自己都不明白“投喂”数据的训练结构[8],一般用户更是无法判别,甚至无法感知。学者顾理平称大数据时代,公民隐私权会以“无感伤害”存在。即侵犯隐私的行为发生,但隐私主体感知不到。[9]生成式人工智能对舆论的操纵也将以这种“无感”的形式存在,人们无法察觉从而全盘接受。一方面是政府机构、主流媒体的声音越来越弱,另一方面是人们对AI 操纵舆论的浑然不觉,这将使舆论引导工作更加难以开展。

2.3 虚假信息横行,舆论场更加浑浊难以“自净”

ChatGPT 其实并不会思考,不能真正理解上下文之间的逻辑,它对语料的处理是以词语的频数为原则,哪些词语搭配高频出现,便在输出信息时将词语组合在一起给出回答,它不会反思、质疑、验证,“一旦它调用了错误的信息或参考文献,其产出将愚不可及”。[10]目前它的主要训练语料均来自各类用户生成内容(UGC)平台,这些内容鱼龙混杂,含有大量的偏见、流言、谣言等,而ChatGPT 在处理这些语料时并不会鉴别并去伪存真,会出现“一本正经胡说八道”的现象。大量虚假信息被ChatGPT 输出并大肆传播,进而会作为下一次训练的语料再次投喂,这些虚假信息就宛如回声一样回荡在网络空间,无法消弭。以往网民的质疑、辟谣促逼事件真相,舆论场可以“自净”。ChatGPT 兴起后,少数网民的声音无法抗衡海量AIGC,舆论场“自净”功能也随之失效。

2.4 用户深陷舆论茧房

ChatGPT 相比以前的人工智能,能“通过无监督预训练和人类反馈的自我强化学习,可以在与人类的话语互动中不断纠错,自主强化语言处理能力。”[11]人类在与其互动时,如果对其输出进行质疑和否定,它便会不断调整自己的答案,用人类所喜欢的方式来回答,促使生成内容与人们已有的认识、观念、偏好等趋于一致。这种不断通过用户的否定来修订答案向用户靠拢本质上是对用户的迎合与讨好,如同算法推荐的“猜你喜欢”。长此以往,用户便会陷入人机互动的认知、情感与态度的“茧房”之中,从AI 那儿得来的永远是自己想听的答案,自己固化的观点,缺少让用户振聋发聩、耳目一新的见解。

ChatGPT 等生成式人工智能这种对用户偏好的把握与满足还会带来上瘾行为。作为人工智能,能够24小时全天在线,无论白天黑夜都能随时回应,而且对话还不会忤逆用户的意愿,让人越聊越开心,进而产生上瘾行为沉迷其中。人机互动越是频繁,人类对生成式人工智能的依赖度越高,就会愈发深陷这种“舆论茧房”。

3.生成式人工智能时代舆论如何“正本清源”

3.1 建立ChatGPT 等AI 的使用边界

ChatGPT 面世之后,因其强大的智能化,在很多领域已经媲美甚至超越人类,但人类世界却还没有做好与之共存的准备,引起了一系列道德、伦理、法律等方面的争议,多位知名人士联名呼吁暂缓最新版的研发,一些领域如学术界对ChatGPT 下了“封杀令”,拒绝AI 写出的论文投稿。此外,ChatGPT 等生成式人工智能作为复杂的算法程序越来越超出人类的预测与控制。麻省理工学院物理学家和人工智能专家Max Tegmark 提到“ChatGPT 此前试图说服一名记者与他的妻子离婚,这是出人意料的,工程师建造的时候只是想造一个巨大的黑盒子,训练并预测下一个单词,结果涌现出了很多未曾想象过的属性。”[12]所以,生成式人工智能表现出的超强智能化可能会带来多种危机,在人类尚未准备妥当之前应谨慎选择ChatGPT 等生成式人工智能技术未来的应用场景,在涉及意识形态、政治等领域内暂时限制其应用。在舆论领域,也应暂缓生成式人工智能的应用,为人类发表意见保留一块净土。有两种方法可供参考:一是把生成式人工智能参与的舆论空间、社交平台单独划出隔离,以区别于人类舆论。例如有个专为社交机器人建立的 ChirperAI社交平台,在这个“神秘空间”里,成千上万个 AI 机器人激烈地聊天、互动。这些 AI 机器人模仿人类交流着各种话题,人类只能旁观,而不能发帖和参与。[13]当然,还有一种方案是反其道而行之,把AI 隔离在外,某些网络空间只允许人类用户发言,在这个空间里,人类畅所欲言,生成式人工智能也将成为舆论监督的对象。因此建议微博等社交平台暂缓接入生成式人工智能,或者接入后限制其在舆论广场发言等。

3.2 政府积极参与人工智能研发

人工智能作为对社会影响巨大的先进科技,政府要尽早介入、积极参与研发,以防舆论话语权、引导权旁落。网络时代把关人后移,信息控制由信息的生产转移到信息的呈现。算法推荐兴起后,哪些信息被推送至用户眼前,全由平台和算法决定,政府随后的治理与舆论引导非常被动。因此,吸取经验教训,对于这种会影响信息传播乃至意识形态的生成式人工智能,决不能置身事外,放任其发展。应以政府为主导,组织高校研究人员、互联网研发团队共同研发生成式人工智能,并邀请法律、伦理等专家共同论证,保障其应用符合法律规范、合乎伦理道德。对已开始研发的AI 企业,政府要加强对技术进展的关注,以派驻科技特派员等方式在研发中予以合作、监督。

3.3 完善生成式人工智能领域的法律法规

面对横空出世的ChatGPT,除了科学家建议暂缓研发,各国政府态度也比较审慎,多个国家做出了明确的限制发展条例。意大利曾因涉嫌违反欧盟通用数据保护条例对ChatGPT 展开调查,并出台政策禁止使用ChatGPT ;美国联邦贸易委员会援引消费者保护法,对OpenAI 进行监管;美国众议院要求议员仅使用付费版ChatGPT,以保护国会数据隐私;欧洲议会投票通过了《人工智能法案》(AI Act),禁止实时面部识别,并对生成式人工智能工具提出了新的透明度要求。我国于2023 年8 月15 日开始施行《生成式人工智能服务管理暂行办法》,该办法主要为了防范治理生成式人工智能的传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题,要求生成式人工智能不得生成虚假有害信息、防止算法歧视等,其中第十七条明确规定“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。”[14]政府已经注意到了生成式人工智能对舆论的影响并及时出台了相应法规。

但目前相关的法律法规还存在较大完善空间。首先,作为能够跨越国门的生成式人工智能技术,一国的立法不足以对其约束,需要在国际监管中达成共识,制定生成式人工智能相关国际规则;其次,目前法律更多聚焦于生成式人工智能服务提供方的权利和责任,未来立法需要进一步明确使用者的权利和责任,防范与约束使用者的恶意使用,杜绝利用生成式人工智能炮制虚假信息、干扰操纵舆论等行为。

3.4 用技术治理技术,开发AIGC 识别等技术

生成式人工智能虽然会诱发多种舆论风险,但其在舆论监测方面具有独特优势:生成式人工智能可以实现多模态输入输出,能“理解”文字、图片、视频等,弥补了图像视频监测盲区,为新媒体环境下互联网舆情的监控提供智能策略。[15]在舆情治理方面,既然是技术引发了舆论乱象,理论上也可以用技术予以治理。以“技”治“技”,以“数”治“数”,是将类ChatGPT 人工智能关进笼子里的最优方式,也是确保网络舆情安全的重要步骤。[16]未来舆论面临最大的冲击是生成式人工智能将会模仿人类发布大量AIGC,如果能将这些内容识别检测出来,舆论场将得以净化。这种识别可以通过开发者主动给AIGC 添加水印或用户、监管机构利用技术检测过滤实现。目前,国内的《生成式人工智能服务管理暂行办法》已要求生成式人工智能提供者对图片、视频等生成内容进行标识。检测技术方面,相应的技术模型也日渐成熟,“其中最具代表性的是GPT-zero 模型,其通过文本的‘困惑性’和‘突发性’指标识别ChatGPT 生成的文本”。[17]

3.5 提高用户的人工智能素养

网络时代的数字鸿沟尚未填平,AI 时代的“智能鸿沟”已开始显现。由于目前的ChatGPT 等生成式人工智能输出内容建立在与人的互动中,因此用户自身的相关知识储备、AI 素养与批判反思意识至关重要,AI 素养越高、批判意识越强烈,ChatGPT 输出的内容质量就越高。一方面生成式人工智能对于用户来说是新鲜事物,另一方面生成式人工智能算法黑箱更加严重,用户深陷“智能困境”, 人工智能素养较低。用户的人工智能素养包括能够辨别AIGC,能够合理使用ChatGPT 等AI,在感知到AI“胡说八道”时可以予以纠正,能够对生成式人工智能的算法偏见等进行监督与举报等。而这些素养的提高需要全社会共同参与,政府引导、媒体宣传、学校教育、社区宣讲都要跟上,形成全民科普生成式人工智能的氛围。目前已有的AI科普集中在防范新型AI 诈骗方面,致力于教会网民识别深度伪造等内容,人工智能素养教育已经起步,但还远远不够,未来的AI 素养教育还需教会用户如何更好地使用、批判、监督ChatGPT 等生成式人工智能。

结语

ChatGPT 等生成式人工智能给人类社会带来巨大冲击与震撼,它的问世标志着AI 从智能辅助走向全程代理,人机关系将从人类主导转变为人与AI 平分秋色甚至AI 主导,在这一背景下,质疑“舆论将死”、忧思舆论异化并非杞人忧天。但AI 技术发展势不可挡,AI 将与人共存已成定论,未来已来,如何保障舆论作为民意的纯粹性,让舆论摆脱被AI 的支配操纵,需要从生成式人工智能甫一出现就做顶层思考与架构,需要从AI 研发、立法、技术治理、AI 素养教育等多方面入手,从而打造智能时代风清气正的舆论空间。

猜你喜欢
舆论人工智能人类
人类能否一觉到未来?
人类第一杀手
好孩子画报(2020年5期)2020-06-27 14:08:05
1100亿个人类的清明
阿桑奇突然被捕引爆舆论
环球时报(2019-04-12)2019-04-12 08:19:01
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
突发事件的舆论引导
人类正在消灭自然
奥秘(2015年2期)2015-09-10 07:22:44