ChatGPT的传播特征及伦理困境

2023-09-06 05:16赵红勋班苗苗
视听界 2023年3期
关键词:人工智能人类文本

赵红勋 班苗苗

ChatGPT 作为一款聊天机器人程序,自2022 年11 月30 日发布以来就以不可阻挡之势席卷全球。它的面世,一方面,使学界从对元宇宙建构的虚拟空间的研究转向了对现实世界的关注;另一方面,在“泛媒介观”视野下,ChatGPT 引发的全球狂欢式浪潮也席卷至新闻与传播行业,“生成式人工智能+”的新型传播模式悄然萌芽,或将改变新闻传播业的现有惯习,对新闻传播的全流程进行颠覆式再造。

一、拟人化加持:ChatGPT 的传播特征

与分析式人工智能相比,ChatGPT 依托大语言模型和预训练技术,告别了原人工智能生成文本的“机器话”弊端,具有强化学习、多轮问答、情景记忆等功能,能为用户提供更加人性化的互动体验,让用户感觉仿佛在和有情感的真人进行交流。基于此创新点,ChatGPT 上线仅两个月,月活用户就破亿。用户积极在ChatGPT 平台上探索实践,ChatGPT 对输入的问题进行消化反馈,在一问一答中昭示了催生问答式新闻的可能。此外,ChatGPT 拥有的庞大用户群展现了巨大的商业价值,微软“加仓”,BuzzFeed“押注”。未来, ChatGPT 也将作为传播的重要中介资源,重塑媒体间的竞争格局。

(一)类人化传播:反馈和强化模拟“类人化”体验

在原始的弱人工智能阶段,人工智能技术一直因“有能无智”问题而备受诟病。学者张悦在研究对话机器人后指出“对话的形式凌驾于功能之上,答案的不精准、不稳定感逾越于获得感之上”[1],输出的语言机械化、程式化,在模拟人类这件事上仍大有可为。然而,ChatGPT 的问世极大克服了这一不足。ChatGPT 是生成式预训练模型GPT-3.5 微调后的产品,科学家在GPT-3.5 的基础上引入了基于人类反馈的强化学习技术对模型进行微调,使ChatGPT 能够有效对齐预训练模型和人类意图[2],从对话风格、逻辑架构、文本表达等层面都能对真实存在的人的表达思维和表达惯性进行高度模拟,并在多轮强化学习中优化输出答案的质量,生成高质量的超真实类人文本。

随着ChatGPT 生成的答案在与人类的多轮对话中愈发精确,提供个性化和人性化服务的能力持续深化,用户可借助ChatGPT 高效高质地完成日常工作任务,还能享受ChatGPT 提供的24 小时全天候待命的智能陪伴和情感咨询服务,以此强化用户与人工智能之间的情感羁绊和价值连接。用户对ChatGPT 产生的情感和价值依赖会促使其转变现有传播语境下的信息获取方式和接收惯习,转而将ChatGPT 等生成式人工智能作为重要的新闻获取和传播平台。此外,与具有真情实感的媒体从业者相比,ChatGPT 在面对各种数据植入的道德感戏谑中仍能坚守道德正义,注重政治正确和道德伦理尊严,甚至直接坦率地拒绝回答某些伦理上有偏差的问题[3]的行为,使其很好地避免了媒体从业者直接接触新闻主体时个人情感和主观偏见对新闻客观性的影响。

但仍需注意的是,尽管ChatGPT 通过强化训练使聊天机器人看起来“像人一样”,仿佛昭示着人类进入了真正有自我意识和独立思考能力的强人工智能时代。但是,ChatGPT 仅在回答问题时表现出的道德警觉和语言人性化并不代表其具有真正意义上可以独立进行情感认知的自我意识,而只是数字共同体中被程序化了的数字化人格。ChatGPT 回答问题时说的“我”,是数字空间中人类设定的数字化代码,是从人类语料库中提取的人类对自我称呼的借用,并不具备对世间万物真正的情感感知。

(二)问答式新闻:智能与对话拓宽新闻传播样态

与人类相比,ChatGPT 作为人工智能聊天系统,不但可以完成各种自然语言处理任务,而且处理速度远超人工,一旦接入实际应用领域成为辅助人类工作的机器助手后,简单底层的工作任务就会被价格低廉但效率更高的ChatGPT 代替,人类就能预留出更充沛的精力应对更复杂的高级任务,提升工作中的价值感和满足感,并在对更高阶问题的处理中提高自身技能,深化个体对世界的见解和认知。

借助ChatGPT,媒体机构也能转变传统的新闻采编惯习,简化工作流程,提升新闻报道的质量和深度。在新闻采编环节,ChatGPT 等生成式人工智能能通过对网络舆情的监控和对公民意见的整合快速提炼和归纳海量信息,捕捉具有价值的新闻动态,形成报道框架,甚至还能依托固有的预训练模型和巨量数据库分析新闻事件的来龙去脉,生成整合式新闻。未来,记者收集整理资料,产出整合新闻、快讯等讲求全和快的新闻报道形式,将逐渐被ChatGPT 等生成式人工智能生成新闻的模式所取代,加剧媒体机构在深度报道和调查性报道等需调动主体更大能动性的新闻报道形态上的竞争。

此外,用户向生成式人工智能提问,人工智能通过智能化搜索和整合功能生成文本,告知事件最新进展的“问答式新闻”等新闻样态,也将蓬勃涌现。基于大数据和大算力以及在“中央厨房”式云计算的加持下,ChatGPT 等生成式人工智能能从新闻事件筛选推送、事件节点描述、媒体态度整合、文本输出风格等多方面全方位个性化地生成真正意义上为用户所需、所想、所愿的问答式新闻,实现针对海量需求的文本定制化生成,降低传统社会信息定制所需的高昂成本,使社会边缘需求连接边缘价值所需的边际成本降至无穷小,从而创造出更加广阔的连接可供性。[4]

(三)中介型媒体:技术加资本重塑行业竞争模式

ChatGPT 作为生成式人工智能,在信息收集、文本整合、新闻输出等领域都充当了连接用户和媒体的中介角色。通过议程设置,ChatGPT 能左右人们对事实和意见的关注,占据用户对某一领域的全部认知,塑造受众的价值观念和认知模式,充当受众感知世界的重要新闻聚合平台。

一方面,伴随用户对ChatGPT 等生成式人工智能的情感依赖和价值连接逐渐深化,用户将主动选择沉浸于ChatGPT 等生成式人工智能的环境中,生成式人工智能平台的用户规模持续扩大,用户黏性也将不断增强。各媒体为了抢夺用户,必须加速进军ChatGPT 等生成式人工智能平台,加快对以ChatGPT 为代表的生成式人工智能的基础资源争夺和布局。目前,媒体接入生成式人工智能,打造“集成各类APP,形成个人化智能APP”的创新设想已在尝试应用,这一新型新闻聚合和分发平台的打造,将改变传媒业现有的以内容和人才为依据的竞争模式,驱动传媒业从劳动密集型产业转向技术密集型和资本密集型产业。在不久的将来,获得技术和资本支持的媒体平台将借助生成式人工智能激活新的传播竞争力,弥合原本因传播人才匮乏或用户基础薄弱而形成的竞争鸿沟,带动传媒业发生深刻嬗变。

另一方面,伴随ChatGPT 等生成式人工智能成为下一代网络入口和重要的基础传播资源,我们或将迎来数字平权时代,即所有个人和社区都能获得他们需要的工具和资源,以全面地参与数字世界。[5]换言之,人人都能借助人工智能有效调动海量的外部资源,按照个人意愿和想法生成原个人能力所无法生成的高质量文本,大众在内容创新、传播表达以及参与对话中将拥有更多平等的机会和权利。在算法普及化及数字接入平权化的未来,人机协同能力将成为意见领袖的重要划分依据和区隔标识,观点独特的信息内容将成为用户连接内外的核心竞争力。有想法但文化素质低的技术擅用者或能借助新技术生成为我们所忽视的边缘和深层信息,并通过算法分发精准对接符合其口味的受众群体,最终依靠创造力和想象力赢得广泛关注,以掌握话语权。

二、智能化危机:ChatGPT 面临的多重伦理困境

ChatGPT 的创造者OpenAI 在成立之初是一家非营利公司,无须考虑持股人的利益,所有研究成果对外分享,有效回避了商业竞争的问题。OpenAI 在公司纲领中提到,为避免通用人工智能在发展后期演变成激烈竞争,导致缺乏充足的时间进行安全防范,如果一个与人类价值观相符、注重安全的项目领先于OpenAI 达成通用人工智能,那OpenAI 会主动终止竞争并协助该项目。由此可见,OpenAI 的初心是致力于为人类的最佳利益和整个社会向前迈进服务。然而,不以营利为目的的OpenAI 在经营时陷入了融资困难和人才流失的困境。

该境况直至OpenAI 创始人之一Y Combinator的总裁山姆·阿尔特曼(Sam Altman)成为OpenAI的首任CEO 后才得到改善。山姆·阿尔特曼上任后,一方面,将OpenAI 从非营利公司转型成了“上限利润”公司;另一方面,使OpenAI 获得了微软100 亿美元的投资。虽然这两大动作帮助OpenAI 迅速摆脱困境,推动了GPT-3 的成功研发,但也使OpenAI开启了极具争议的新时代。其中,有关OpenAI 的争议主要表现在其研发的新产品ChatGPT 上。

(一)算法黑箱难解

由于技术的复杂性和研发公司的立场不同,用户无法获知算法的具体意图,也无从获悉程序设计者和实际控制者之间的责任归属,更谈不上对其进行评判和监督,这在一定程度上加重了大众对ChatGPT 可能引发的伦理问题的担忧。

首先,尽管GPT-3 的设计者在编程时有意避免人类主观意识的渗入,将ChatGPT 打造成维护相对公平的全人类友好型聊天工具,使其回答刨除了社会偏见。但对一款需要使用者持续喂养语料的人工智能而言,ChatGPT 无法能动地对人工输入的语料进行选择和过滤,更没有判断价值正误的能力,对使用者有意或无意输入的隐含偏见、错误和虚假的信息,无论好坏,只能照单全收。如此一来,ChatGPT 输出的语料也可能会掺入杂质,而且ChatGPT 生成的内容不会显示信息来源,这大大增加了受众鉴别信息真伪的难度。观照到新闻行业,如果ChatGPT 的语料库中含有大量的偏见和虚假信息,那么其最终产出新闻的真实性和质量就难以保证,舆情监测和分析的全流程都存在因算法偏见导致收集舆情有误、生成舆情报告的数据存疑等风险,新闻生产后期徒增的人工纠错成本不仅无助于新闻生产效率的提高,还得不偿失,无益于新闻媒体的长远发展。

其次,谷歌人工智能伦理团队的联合主管蒂姆尼特·格布鲁(Timnit Gebru)曾与其他学者撰写了一篇论文,强调与大语言模型相关的潜在危害,但是该话题不仅没有引起重视,蒂姆尼特·格布鲁反而于2020 年12 月遭到了开除。[6]加之OpenAI 目前作为半营利机构,其为了商业利益极有可能陷入加紧投入、简化流程、以速度为最优,忽视不能产出利益的安全问题的窠臼。而且,目前在OpenAI 公开的关于GPT-4 的技术报告中不包含任何关于模型架构、硬件、算力等方面的信息。[7]由此我们不禁忧虑OpenAI 和微软是否会为了商业竞争而一再降低底线,让渡用户的个人利益,泄露用户隐私。

最后,尽管目前一些学术机构已对ChatGPT 代写学术文章、被列为作者等一系列问题给了定性。例如,Nature 在作者投稿指南中列出两项原则:任何大型语言模型工具都不能成为论文作者;如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。[8]然而,以ChatGPT 为代表的生成式人工智能在进行文本整合时极有可能会适当引用受著作权保护的文字、代码等内容,而现有的技术尚无法对其所引的原文本进行跟踪溯源,也尚未对ChatGPT 涉嫌侵权的责任归属问题进行明晰划分,这既导致ChatGPT 用户在面对知识产权侵犯或数据剽窃等伦理问题时难以追责,又使用户在使用ChatGPT 生成的文本内容时因版权争议而险象迭生。

(二)带来人类思维惰化

麦克卢汉曾提出了“媒介即人的延伸”的概念,他认为,媒介是人的感觉能力的延伸或扩展。[9]然而,当下需对此概念进行重新审视,拓展为“媒介是人的感觉能力和思维的延伸”。ChatGPT 虽是机器人聊天程序,但其所涵盖的功能远远超过了智能聊天对话,人类输入请求后,ChatGPT 不仅能与人类进行超真实“类人体验”的智能对话,还能在分析用户需求后自动生成论文、编写代码、撰写报告等,其出色的超智能和类人化功能已经部分代替了人类的主观思考。

短期来看,ChatGPT 自动分析和生成文本的能力一定程度上的确简化了工作任务和工作流程,提高了工作效率。但长期来看,ChatGPT 作为“人的思维的延伸”,用户长期使用生成式人工智能直接生成文本、完成任务、代替个人主观思考的习惯,很大程度上会因“机器思考”代替人类思考的长期存在而使人的思维惰化,并丧失独立思考的能力。

(三)AI 文明出现的可能

与人类缓慢的进化历程相比,加速进化的人工智能在某个节点上是否存在进化程度远超人类,最终激活人工智能的“自我意识”并联合起来开启AI 文明的可能也尚未可知。

尽管部分学者认为人工智能的发展是可控的,当其进化程度趋向超出人类的掌控能力时,人类可以发挥主观能动性或依靠道德和法律约束暂停对人工智能的研究。[10]然而,人工智能的自我进化是一个巨大盲盒,人类无法精确把控人工智能的进化速度和程度,确定何时终止对人工智能的研发已远超人类的可控范围。我们只能被动接受“AI 文明”的到来。

(四)固化结构壁垒

20 世纪60 年代,美国政府提出要通过大众传播手段改变贫困儿童的受教育条件,《芝麻街》就是其中的一项重要节目。后来发现尽管该节目对贫富儿童都产生了良好的教育效果,但富裕家庭的儿童对节目的接触和使用最多,即使收看频率相同,高收入家庭的孩子从中获得的知识也较高。它不但没有缩小不平等,反而扩大了差异。[11]与此类似,学者赵汀阳认为,人工智能的出现使技术被垄断在少数“绝对强者”手中,产生了严重的阶级固化和技术壁垒。[12]

ChatGPT 等生成式人工智能将引发传媒业从劳动密集型产业向技术和资本密集型产业转型的深刻变局,拥有强大资本和技术支撑的媒体机构将掌握竞争主导权。有研究估测,对ChatGPT 等生成式人工智能平台的搭建需要依托庞大的经济实力,训练1750亿参数的大型语言模型GPT-3 需要有上万个CPU/GPU 24 小时不间断地输入数据,所需能耗相当于开车往返地球和月球,而且一次运算需要花费450 万美元,[13]其巨额耗资足以将一部分小型企业拒之门外。这意味着小型媒体机构或底层民众在生成式人工智能渗透的时代会更为缄默,产业寡头将依靠掌握的头部技术统辖强大的传播话语权,传媒业的新型竞争方式将绘制“资本掌握传播话语权”的新式传播图景。

三、能动性干预:ChatGPT 的伦理问题规训

当发明家造出第一辆汽车的时候,我们就应该想到《交通法》。面对ChatGPT 等生成式人工智能同样如此,在ChatGPT 所引发的一系列争议面前,人类并非束手无策。第一,人工智能的研究并非闭门造车,其长久发展离不开国家资金和政策的支持,法律规范和道德约束一定程度上能保证ChatGPT 等生成式人工智能研究的总体方向不跑偏。在可预见的未来,AI 立法一定会逐渐补位,解决商业利益追逐造成的个人隐私泄露等安全问题。[14]此外,ChatGPT 生成的错误数据和偏见性信息有赖于人类的语料输入,通过引入算法纠偏机制,刻意加入对矫正偏见语料的喂养,也能在一次次的强化训练中筛除错误信息,纠正ChatGPT 的算法偏见。

第二,新技术的诞生相应地也会催生新的工作岗位和工作机会。例如,目前人工智能训练师等新型岗位已然出现。这说明ChatGPT 等生成式人工智能的出现或将改变世界未来的竞争模式,人机协同能力将成为评估个人竞争力的重要依据,人类借助生成式人工智能将创造新型的、更大的文本和经济价值。

第三,讨论ChatGPT 的进化不能脱离现实发展,ChatGPT 建构的宏大数字空间依托于有限的现实资源。2022 年2 月23 日谷歌母公司Alphabet 的董事长约翰·亨尼斯(John Hennessy)表示,基于大型语言模型的搜索成本可能是标准关键词搜索的10倍。专注芯片技术研究的SemiAnalysis 公司表示,将类似 ChatGPT 的人工智能添加到搜索引擎中预计会花费Alphabet 30 亿美元。[15]由此可见,ChatGPT等生成式人工智能技术对有限现实资源的依赖限制了其无限扩张。此外,商业竞争一定程度上也保证了ChatGPT 不可能一家独大,谷歌Bard、百度文心一言等其他ChatGPT 竞品的涌现也为社会各种人群提供了多元化的文本自动化生成服务。而且,各媒体机构除了搭建自有的生成式人工智能平台外,通过与各生成式人工智能服务供应商合作,打造“生成式人工智能+APP”的新型新闻聚合和分发平台也能满足媒体的智能传播需求。例如,截至2023 年2 月25 日,已有117 家媒体宣布接入百度文心一言生态,各数字化平台将以更具前瞻性的理念和行动为用户提供高质量的商业信息服务。[16]

OpenAI 的联合创始人埃隆· 马斯克(Elon Musk)曾表示“我们离强大到危险的人工智能不远了”[17],但ChatGPT 在内的生成式人工智能的浮现是生产关系进步和人类文明进化的必经阶段,我们不能因为人类对人工智能的不当使用就否定技术演化本身的存在合理性。积极的态度应是正视技术的进步性及其带来的便利并趋利避害,借用合理的手段约束矫正人类的技术滥用实践。未来,随着人类对人工智能的认识逐渐深化,我们对该技术的使用和掌控能力也会愈发自如,ChatGPT 等生成式人工智能与人类的关系也将会朝着人机耦合等人与机器共生的良性图景演化,那时的世界一定会在人机的共同协作中变得愈发精彩。

猜你喜欢
人工智能人类文本
人类能否一觉到未来?
人类第一杀手
在808DA上文本显示的改善
1100亿个人类的清明
2019:人工智能
基于doc2vec和TF-IDF的相似文本识别
人工智能与就业
数读人工智能
下一幕,人工智能!
文本之中·文本之外·文本之上——童话故事《坐井观天》的教学隐喻