丁 红 菊
(浙江传媒学院 媒体工程学院,杭州 310018)
回顾人类社会发展的传播史,从大众传播到社交传播再到智能传播,技术推动时代的巨轮滚滚向前,在人类社会掀起一次又一次的传播革命,也不断重塑着新闻业的发展格局与生产链条。2022年11月30日,美国公司OpenAI推出全新聊天机器人ChatGPT(Generative Pre-trained Transformer,生成型预训练语言转换器),引起举世关注。该款软件上线4天下载量便破百万,2个月内注册用户便达到了1亿。而要达到此用户量级,Netflix用了120个月,Twitter耗时60个月,连近年新兴的TikTok也花费了9个月。可见ChatGPT以极其迅猛之势远超其他程序,成为震荡全球的现象级应用。比尔·盖茨甚至将之与PC、互联网革命等量齐观,表示ChatGPT“将改变我们的世界”。根据“大数据+大算力+大算法=智能模型”的逻辑,ChatGPT以巨量互联网信息作为数据源,凭借高核能AI算力[1],通过使用其Transformer神经网络架构下的语言处理技术[2],运用RLHF(Reinforcement Learning from Human Feedback,人类反馈的强化学习)的训练方式来进行人类语言的深度学习(Deep Learning)[3],由此产出与人类认知、需求和价值观等较为契合的文本,最终实现与人类的交往和对话。背靠强大的技术支撑,ChatGPT4.0具备了图像识别、文本生成、文字生成图片以及文档自动编辑等多项功能[4],无疑会成为现实人类社会的一个巨型冲击波。
凭借强大的功能,ChatGPT可迅速完成高复杂度文本的写作,被广泛应用于多行业、多领域之中,也渗透进新闻传播领域。回溯历史,自人工智能技术融入新闻业以来,经历了新闻写作机器人、智能算法推送、元宇宙新闻和AIGC新闻四个阶段[5]。而ChatGPT作为AIGC新闻生产的新晋技术代表,相较于以往的智能机器人,它可适用于信息检索、内容生成和情感互动等更为广泛的场景,所生成的内容更加智能化、拟人化,并且能与用户进行多轮对话,具备与之构建情感化社交关系的潜力。此外,如果说社交媒体实现了“所有人对所有人传播”的梦想,那么ChatGPT则形塑了一个全新的信息传播生态,有望开启一个“所有信息对所有人传播”[6]的时代。面对如此强劲的技术,英国《卫报》的新闻评论员表示教授、程序员和记者可能会在短短几年内全部失业。为此,新闻业需要警钟长鸣,新闻工作者却无需过分忧虑,落入“机进人退”的思维窠臼,我们需要做的便是从技术出发,迎击技术浪潮,审视技术带来的利处与弊端,在未来谋求人机协作的发展进路。
自ChatGPT面世以来,学界对其展开了热烈的讨论,相关文献涌现,呈“井喷”之态。从关注重点来看,关于ChatGPT的已有研究主要集中在以下三个方面:
ChatGPT被认为是继互联网、智能手机之后,带给人类的第三次革命性产品。以往AIphaGo凭借在特定领域的“专”让AI火出圈,此次ChatGPT则展现出AI在广泛应用场景的“通”:这个“通”以正常人都会、都懂、都能体验的对话形式呈现,让AI——特别是自然语言处理技术进入主流用户群,孕育出这一现象级产品。究其背后的运行模式和技术原因,ChatGPT“无比强大”的能力主要得益于其依托的大型语言模型——LLM(Large Language Model)。当模型规模足够大时,LLM本身则具备相应的推理能力,同时ChatGPT采用了大算法、大算力和大数据等关键技术,方能在技术加持之下取得令人惊艳的效果[7]。但是,在使用过程中,ChatGPT已被发现存在诸多问题:如数学计算、未来预测、时空物理现实推理等方面能力的局限,以及事实错误(幻觉)、生成毒害内容等方面的不可控。桑基韬、于剑从可信AI的安全性、公平性、可解释性和数据隐私等四个维度对ChatGPT存在的问题展开了讨论[8]。
智媒时代人工智能技术的快速发展不断丰富着人们对世界的认知,也强化着人们改造世界的能力。但是,当我们兴致盎然地拥抱新技术之时,必须对可能存在的问题保持警觉。顾理平指出ChatGPT可能存在着失当信息传播、权利争议和科学精神减弱等伦理问题,其中科学精神减弱是人类进步中的终极隐忧,包括无限重复消费既有文明成果易形成惰性心理、工具依赖导致创新激情减弱,以及信息投喂习惯下理性思维能力下降等问题[9]。而就权利争议这一角度,丛立先等人以ChatGPT的作品应用场景为例,深入分析了人工智能生成内容的作品认定、版权内容和版权归属等问题,认为在清晰界定现阶段的人工智能还是人类创作工具的前提下,认可并保护人工智能创作的符合法律要件的作品[10]。尹帮文等人则提出以ChatGPT为代表的人工智能存在着将人推向“异化深渊”的隐忧。他们认为在资本逻辑的操控下,生成式人工智能可能蜕变为一种新兴的异己力量,使得社会交往活动形成严重的“技术性依赖”,引发技术性失业潮,导致日常生活异化,同时指出扬弃智能时代异化现象的可能路径[11]。此外,ChatGPT还存在着算法歧视(性别、种族歧视)、弱化人类主体性、裹胁受众价值观以及冲击教育与学术伦理规范等伦理风险[12]。
立足于人工智能应用至人类工作和生活的历程,比尔·盖茨坚信,人工智能会让人类社会受益。数百年来的人类实践亦揭示出科学技术是推动人类社会发展的关键力量。蒲清平等详细说明ChatGPT可能引起的生产方式、科研范式、教育形式和生活方式等方面的变革,同时也存在着滋生法律风险、思想风险、社会风险[13]。与此同时,谢新水重点讨论了人工智能所引发的对话风险、政治风险、信用风险和“存在”风险,认为这是人工智能内容生产的“反社会功能”,而其“社会功能”则体现在提升数字生产力、增强决策能力、加速社会组织化、扩大社会动员能力等方面[14]。张夏恒认为ChatGPT重塑了人类的生产关系,成为新的生产力,带来了新的生产工具和内容生产模式,重构了人与人劳动关系,同时,ChatGPT是发展趋势,需要进一步探讨它是否会引发科技革命、是否会淘汰人类、是否会作恶等问题[1]。
而在新闻传播领域,目前也有不少关于ChatGPT的研究。例如,郑满宁从新闻生产者、新闻消费者和新闻管理者这三个主体出发,指出了职业边界消解导致的行业主体性和功能指向模糊、生产主体不确定性造成的新闻真实乱局和虚假新闻传播、新闻著作权模糊归属引发的信息传播失序等问题,并从宏观、中观和微观三个层面探讨AIGC新闻生产带来的新闻业新趋势、新转向[5]。当然,ChatGPT与传媒业的结合也为传媒业的发展带来了颠覆。周玉兰等认为ChatGPT是媒体深度融合的突破口、内容优化生产的智慧脑、对外交流宣传的新桥梁。在外宣上,ChatGPT可以成为对外交流翻译的理想工具,作为传媒业跨语言沟通的桥梁[15]。同时,何天平等基于信息检索、内容生产和情感陪伴三个场景,进一步探讨了ChatGPT对跨国传播交往模式的重塑,并思考了ChatGPT介入国际传播的风险隐忧[16]。
在现有的研究基础上,笔者着眼于ChatGPT在新闻业中的渗入,研究ChatGPT技术赋能下新闻业版图的重塑,以及ChatGPT给新闻业所带来的风险隐忧,进而展望人工智能时代下人机共生的发展模式,以期为学界贡献己力。
在本文中,笔者主要采用了半结构式访谈法。所谓半结构式访谈法,即按照一个粗线条式的访谈提纲进行的访谈方法,有着相对具体的访谈目标和内容,并允许访谈者在访谈过程中根据实际情况进行灵活调整。该访谈法介于结构式访谈法和无结构式访谈法之间,既无需像结构式访谈法那般拟定完全成型的访谈问卷或提纲,也比无结构式访谈法更具方向性。
为了解网友对ChatGPT的看法和观点,笔者就新浪微博、小红书、豆瓣等平台对关于ChatGPT的讨论进行了非参与式观察,并据此拟定了采访提纲,与ChatGPT的用户进行了半结构式访谈。访谈内容主要围绕网友对ChatGPT的使用缘由、使用感受和整体评价等方面,以此了解真实的用户体验,挖掘ChatGPT在新闻受众中推广的潜力以及新闻业利用ChatGPT维系与新闻受众良好关系的可能性。
表1 受访者基本情况
本次访谈在5月1日—5月8日之间开展,笔者总共对20名ChatGPT的用户进行了半结构式访谈,访谈方式主要为线上访谈,所涉及的访谈对象包括学生和上班族,年龄范围为20-35岁之间,以下为访谈对象(User)的基本信息:
经访谈发现,90%的受访者对ChatGPT持肯定态度,认为ChatGPT有利于学习和工作,是“一个帮助性极大的工具”“类似于一本百科全书”,10%的受访者对ChatGPT持忧虑态度,认为ChatGPT具有取代自身工作岗位的可能性,或是认为ChatGPT的内容欠缺深度和创造性。总体上,多数受访者表示ChatGPT的面世于己有利,未来仍旧会坚持使用该技术来辅助自身的工作和学习。
纵观技术和新闻业的发展史,人工智能技术不断融入新闻业的过程,就是新闻生产流程不断智能化的过程。以往,传感器拓展了新闻信息采集的时空维度,写作机器人加速了新闻生产的效率,算法推荐实现了新闻的精准分发,如今面世的ChatGPT可进一步延展新闻生产链条,实现大数据、高时效和多语种的齐头并进。一方面,素来追求“指数力量”的OpenAI所使用的是公共爬虫数据集,该数据集拥有超万亿单词的人类语言数据,赋予ChatGPT“百科全书”般的知识能力。由此,基于强大的数据库资源,ChatGPT能为新闻工作者在海量信息中迅速检索出对应的信息,并且突破传统写作机器人模式化、范围有限的写作局限,在保持高效率新闻生产之际,还可以生产具备一定思考性的新闻评论。另一方面,ChatGPT可支持英语、中文等多种语言的交互以及多语种文本的互译,能够帮助新闻工作者进行跨语言翻译,减少获取国外资讯的障碍。同时,在国际新闻生产方面,ChatGPT能以极高效率生成质量较高的多语种新闻文本,面向多国受众进行跨语种传播。总体而言,在ChatGPT的加持下,新闻内容生产的效率将极大地提升,同时凭借ChatGPT的多语种属性可生产出多语种新闻文本,能有效降低国际传播的阻力,为新闻生产提质增效。
自GPT1.0开始,OpenAI就将LLM(Large Language Model,大型语言模型)当作通向通用人工智能的必要途径。而ChatGPT较好地实现了LLM的接口层,让LLM适配人类习惯的命令表达方式,极大地增强了LLM的易用性和用户体验[7]。在新闻传播领域,ChatGPT的用户包括新闻生产者(职业新闻人)和新闻消费者(新闻受众),两者均得到了ChatGPT的助力。对于新闻生产者而言,如上文所述ChatGPT应用于新闻生产,可使新闻生产者的工作效率和生产效能大幅提升,同时也可以让新闻生产者从简单重复性劳动中解放出来,将精力集中于具有一定深度和思辨性的内容创作上,如调查性报道、解释性报道和社论等等,推动更多高质量新闻精品的产出。而对于新闻消费者来说,ChatGPT可谓“有求必应”,运用其核心功能AIGC(Artificial Intelligence generates content,人工智能生成内容)在几秒内便可完成指令,生成新闻消费者所需的新闻文本,极大地降低了信息检索成本。例如,在半结构式访谈中,U02受访者表示“使用ChatGPT可以在短时间内搜索到我想要的信息,我已经把它当作百度来使用了。”此外,凭借上下文理解功能,ChatGPT可以与新闻消费者进行多轮对话,在动态问答中为新闻消费者提供新闻资讯和与新闻相关的人物、背景等信息,并与之分享对新闻的观点、看法,提升新闻消费者的新闻认知,增进价值认同,强化新闻消费者的参与感。例如,U19受访者表示“通过提问ChatGPT,我快速、全面地了解了史航事件的来龙去脉,并且和ChatGPT‘交流’了看法。”
未来人机关系的旨归是人机良性互动,而情感计算恰恰可以强化人机互动,增进人机关系。情感计算这一名词,最先是由美国麻省理工学院媒体实验室的罗莎琳德·皮卡德提出,他将之定义为针对人的外在表现,能够进行测量和分析,并能对情感施加影响的计算。相较于传统新闻业向受众提供真实客观的新闻,可以消除信息的不确定性,ChatGPT能够通过情感计算技术感知、识别、分析和反馈情感,对受众进行情感回应。恰如保罗·莱文森所述,媒介进化的趋势指向越来越符合人类需求和便于人类使用的规律[17]43。ChatGPT作为新一代人工智能技术的代表,是具有类人情感的智能媒介,能够更加精准地识别和回应用户需求,实现特定场景的情感补偿。例如,U12受访者表示“最近工作压力很大”时,ChatGPT会回应“很抱歉听到这样的消息”“记得照顾好自己的身心健康”等温暖话语,提供人文关怀,并提供具有一定逻辑性、可行性的具体解决方案。因此,ChatGPT可以作为“虚拟伙伴”帮助用户纾解压力、缓解孤独感和提供情感问题咨询等等,与用户搭建“准社会交往”[18]的亲密伙伴关系。
传统媒体时代,职业新闻人掌控着新闻资源,与受众处于“我写你看”的传受分化关系;自媒体时代,随着各类新兴媒体的异军突起,职业新闻人与非职业写手之间的界限日渐模糊;而在人工智能时代,ChatGPT等聊天机器人进入了新闻生产的行列,极大地冲击了职业新闻人的新闻生产主体性。相较于真人记者,ChatGPT背靠巨型数据库,能在短时间内迅速生产出一份颇为规范的新闻稿,还可用多种风格生产、呈现体育、财经等多样类型的新闻报道。而专攻于体育、财经报道等特定领域且写作风格固化单一的真人记者,极可能面临“机进人退”的危机。并且,对于使用ChatGPT生成的新闻文本,ChatGPT能否成为作者尚且还具有极大的争议。从表面上看,ChatGPT是自动生产内容,是“创造性”的,但本质上,ChatGPT是通过预训练模式进行深度学习,对数据库现有数据进行调用,生成全新形式的文本。从这个逻辑上看,ChatGPT的内容是基于他人作品而生成的,应当征得原作者的知情同意,否则极易构成侵权。同时,区别于搜索引擎使用中原作者和作品的同时呈现,以及写作机器人对他人作品相对纯粹的“数据式”使用[9],ChatGPT的数据原作者可谓无迹可寻,加大了无形侵权的可能性和侵权成本。当ChatGPT应用于新闻生产,其生成的新闻文本能否直接发表?能否直接冠以ChatGPT的署名?在数据调用过程中是否会侵犯他人的隐私?诸如此类的问题都有待学界和业界的进一步研究。
真实性是新闻的生命,是衡量新闻媒体权威性的重要尺度,也是新闻业得以长期发展的压舱石。诚然,ChatGPT能以高速度在短时间内生成高质量的新闻文本,但也能以迅捷之速生成大量虚假信息,侵蚀新闻的真实性。一方面,作为一个机器学习模型,ChatGPT运用算法对数据进行深度学习,然而其算法和数据具有鲁棒性、透明性和可解释性弱的缺陷,难以保证信息内容的真实性和客观性[19]。并且,当ChatGPT无法从数据库搜寻到用户需求信息时,它便可能自动生成虚假内容,通过技术手段绕过内容过滤器传播给用户[20]。另一方面,凭借“高智力”,ChatGPT能够生成看起来富有逻辑性、思辨性的文本内容,“一本正经地胡说八道”,使得内容的“虚假性”被形式的“规范性”所掩盖,加剧了深度伪造的风险。一旦ChatGPT生成的虚假信息越过监管、审核的红线,充斥于信息空间,则会污染信息环境、干扰舆论生态,甚至会引发一些社会问题。此忧虑不是空穴来风、危言耸听,在2022年2月,恰是因为聊天机器人在关于新冠疫苗有效性和安全性的不实信息传播中推波助澜,加拿大卡车车队和抗议者组成“自由车队”,在首都渥太华进行了长达三周的抗议示威活动。在新闻传播领域,面对ChatGPT生成信息真实性的不确定,新闻内容品质难以把控。并且,如若由专业新闻媒体背书的ChatGPT生成的虚假信息传至新闻受众,新闻受众再不加思索地轻易接收,不仅可能会诱发社会问题,干扰社会稳定,还可能会削减公众对新闻媒体的信任,使得新闻媒体在多年新闻实践中积攒的公信力毁于一旦。
法国哲学家、思想家米歇尔·福柯曾提出一个著名的哲学命题:话语即权力。这一命题将话语视作“纸上苍生”,对社会实践主体有着强大的支配性力量。实际上,新闻报道不只是对事实性信息的传播,还暗含着观念话语的生产。着眼于国际传播的视角,知识和观念话语生产则呈现为议题叙事、国家叙事或者国际体系叙事的建构过程[21]。包括ChatGPT在内的人工智能技术本身不具有认知与判断的能力,其文本内容与价值观念均源于历史训练数据。有学者发现,这些历史训练数据存在着种族歧视、性别歧视等失当信息,背后实则为算法歧视[22]。与此同时,OpenAI所选择的数据集以美国域名的网站占据主导地位,且以西方用户为主体。由此,标榜“客观中立”的ChatGPT实则服务于西方利益,其所生成的内容必然受到西方价值观念的影响。在与用户进行一对一“交流”的过程中,ChatGPT极可能用看似客观的话语来掩盖背后的意识形态,潜移默化地将西方观念传输给用户,影响用户认知与价值立场。我国主流新闻媒体作为党和国家的传声筒,肩担传播中国观点和彰显中国立场的重任,但在ChatGPT等暗含技术所有国意识形态的人工智能技术冲击下,面临着传播阵地失守与“西方中心主义”话语霸权等风险,需要严加防范ChatGPT成为输送西方价值观念乃至控制我国人民思想的意识形态工具。
美国媒介理论家保罗·莱文森曾提出“媒介补偿性理论”,认为每一种后继的媒介都是对过去的某一种媒介或某一种先天不足的功能的补救和补偿。人们通过不断创造新媒介来拓展传播,以超越耳闻目睹的身体阈值,满足幻想中的渴求。ChatGPT正是人工智能实现技术迭代飞跃的一大产物,在加速新闻生产、提高内容质量和对新闻受众进行情感补偿等方面大有裨益,推动新闻业智能化转型。然而,当技术一路高歌猛进,我们在惊艳于技术之妙时,也应理性认识到技术是一柄利弊交织的双刃剑。ChatGPT同样可能在使人类记者面临职业危机、引发版权纠纷、传播虚假、偏见性信息和控制意识形态等方面暗藏风险,需要政府、科技企业、新闻媒体以及公众等多元主体合力把关,协同治理。
总体而言,ChatGPT应用于新闻业,将进一步重塑业态版图和传播格局,推动新闻业迈进一个新的发展阶段,开启新闻传播全面智能化的进程。未来,随着AI在新闻业深度落地,AICG新闻有望成为新主流,大量简单、重复性信息生产和传播的工作将由智能机器接班,人工智能时代的内容生产将是OGC、PGC、UGC、MGC和AIGC等多元内容生产者共存的时代。面对迅猛发展的技术,一方面用技术之长弥补人类不足,另一方面也用人类的智慧纠正技术的偏狭,用科技伦理规则引导技术向善。而新闻业也应当始终保持专业性,以昂首之姿积极迎接技术的挑战,谋求人机协同并进之策。我们也期待人工智能技术能描绘出一幅新的充满生命力的传播图景,为实现人的全面发展添砖加瓦。