郝雨 文希
【摘要】作为依靠大数据、强算法、超算力快速生成文本的大语言模型,人工智能顶流产品ChatGPT真的会颠覆人工新闻生产吗?文章分析了未来新闻业将被大模型全面再造及其天然存在的技术局限,首先肯定了ChatGPT的新闻内容生产确有超越人工的极大优势,但由于其基础逻辑还是依赖被驯化的语料库,必须在人类的指令下才能进行辅助性工作,所以ChatGPT做不到完全取代记者甚至淘汰新闻业的人工生产。在未来新闻生产的人机关系主场博弈中,人、机主体性及主导地位问题,人工智能与新闻生产的硅基体与碳基体本质关系等,仍将引发持续的讨论。
【关键词】人工智能 新闻生产 新闻记者 新闻职业 ChatGPT
【中图分类号】G210 【文献标识码】A 【文章编号】1003-6687(2023)11-052-07
【DOI】 10.13786/j.cnki.cn14-1066/g2.2023.11.007
ChatGPT一夜火爆,热度持续不减,喻国明认为,大模型是一个“出道即巅峰”的现象级媒介,对人类社会的影响越来越深刻和全面。[1]美国国家工程院外籍院士张宏江认为,ChatGPT迎来AI的大爆炸时期,且将持续最少十年。[2]2023年7月召开的2023年世界人工智能大会指出,大模型作为今年大会的核心概念,显然是未来人工智能发展的风向标,也是学界研究的现实基点。2023年5月14日,北京师范大学举办“ChatGPT启示会”,聚焦大语言模型的信息生产、伦理、文化等领域,提出66个传播学研究新问题,表明关于人工智能的学术探索任重而道远。以ChatGPT为代表的大数据驱动的大模型已不仅仅是一个纯算法问题,更是一个系统性工程问题。技术会造成人类的分化,甚至一些职业的消失,人与人工智能的矛盾将持续存在,人—机关系更是不可绕开的话题。其实ChatGPT的爆火在很大程度上可以说是一次恐慌营销的成功,因当时信息发布刻意加装了其取代人类十大职业的技术神话,放大了各行各业人士对人工智能的恐慌。尤其在新闻行业,更是一度产生了未来人工智能会取代人类记者的担忧和恐惧。
学界关于ChatGPT的讨论,多着眼它能干什么,或者应该干什么以及从伦理层面不可以干什么。本文则讨论ChatGPT完全不能干什么,从学理上分析其无法做到的事情,尤其是在新闻传播方面,对技术的原生性局限进行了分析,推翻了其可取代记者等夸大说法。社会学家米尔斯认为,想象力是一个视角转换为另一个视角的能力。美国哲学家约翰·杜威认为,每一次科学的进步都源自大胆、崭新的想象。传播学家芭比·泽利泽在《想象未来的新闻业》中提出,无论是理论还是实践的新闻业,核心都是想象力。史安斌教授在为该书撰序时谈及,芭比·泽利泽试图在新闻业激变的理想愿景和现实状况之间搭建起一座阐释之桥,回答新闻业未来可能会怎样的问题。这一角度是本研究的源起和立足点。笔者试图沿用想象未来新闻业的理念,站在智能技术发展的视角,從根本上回答未来人工智能与新闻生产的硅基体与碳基体本质关系的问题。
一、ChatGPT嵌入新闻生产的结构性优势和强势
2023年7月13日,澎湃援引路透社报道:美联社与ChatGPT的开发公司OpenAI达成协议,授权OpenAI使用美联社部分新闻存档,以探索生成式人工智能在新闻领域的应用。这一举措成为新闻业与生成式人工智能合作的标志性事件。ChatGPT确实有许多超人的能力,使得未来新闻在很多方面都离不开它,必须掌握充分利用但又不依赖甚至放纵它的度,与其协同共生。
1. 高效整合数据与同步直播
人类的新闻传播活动最基本的功能就是传播信息,在网络社会,数据是信息的基本构成单元,内嵌到新闻生产活动全流程中,在智能新闻传播中担任着愈发关键的角色。采集阶段,数据是新闻生产的基础要素和资源;加工阶段,数据转换为文本作为精准阐释社会变动趋势的科学依据;反馈阶段,数据成为评判什么会成为新闻的价值标准。大模型的出现更是奠定了大数据在智能新闻传播中举足轻重的地位,建构起未来新闻业中人与数据、机器、社会之间广泛的联结关系。
在人工智能与新闻进行技术对话的前ChatGPT时代,智能新闻生产已出现在人们视野中,财经新闻、体育报道、地震资讯发布等信息处理体现出人工智能在数据挖掘、整合、分析方面的独特潜力。ChatGPT时代标志着多模态自然语言识别技术和机器深度学习的新跃进:ChatGPT根据传感器传回的数据自动生成文本、视频,最快速地固定、捕捉新闻现场的信息,实现新闻的同步直播,极大地增强了记者生产传播新闻的时效性;ChatGPT的全能代理、多场景应用、对话交互的特征全面渗透到数据采集、处理、整合、润色、校对等环节,全面赋能新闻内容生产与传播格局;相对于传统新闻生产流程效率延宕的问题,ChatGPT的庞大文本体量运算将新闻人从重复、冗杂、海量的基础性工作中解放出来,有效提升整个新闻行业生产流通的效率;对于一些危险性的现场,人工智能也能代替记者采集信息,保障新闻从业人员的生命安全等。
大数据作为现下可媲美资本、劳动力的一类新型资源,被认为是网络社会中的重要信息生产力,是社会运行不可或缺的燃料。ChatGPT由大数据驱动加上自然语言处理技术输出内容,再通过机器学习不断更新迭代,因此,AIGC的底层逻辑是巨型大数据结构,体现了大模型搜集、分析大数据能力前所未有的提升。智能新闻业的显著特征——人、非人、物、非物四者作为行动者交织在新闻生产运作中,给新闻业带来巨大的结构性变革。对现有数据的高效整合处理是ChatGPT生成内容的一大优势,不仅体现出其强大的新闻生产效能,且ChatGPT与用户交互能力及塑造认知能力,将对整个国际生态产生不可估量的影响。如在国际综合性报道供给方面,生成式人工智能可以减少国际信息检索的难度和广度,尤其是国际关系中的一些重要数据、用户真实的观点立场以及因各种复杂因素不便获取的数据,都无差别地纳入了ChatGPT的数据库中,为综合性报道提供了广泛丰富的素材;同步语音识别翻译系统可以实现不同国家语言的自由切换,打破跨文化传播中受众解读异质文化信息的障碍,完善了国际传播中跨语言服务的业务体系,实现同步直播等。
2. 激活时间维度与扩展延续性叙事
芭比·泽利泽在《想象未来的新闻业》中将新闻业视作阐释共同体,认为记者与双重时间的关系扩展了新闻共同体边界,而双重时间的叙事阐釋模式又分为在地性和延续性。[3](181)在地性是记者身处事发地、亲身在场目击真相,以此加固新闻人职业的专业框架,维护记者报道新闻话语的权威性。相较依附移动端和计算机界面窗口的ChatGPT,在地性被认为是人类记者不可取代的独特优势,但不排除未来给ChatGPT装上眼睛、耳朵、嘴巴、四肢,研发人形机器人的可能性。
如果说在地性是正在发生事件的初始阐释,那么延续性就是补偿“未在那里”的再次阐释。人们需要在延续性话语中标记关键事件并将之纳入集体记忆,记者作为“历史学家”将前后其他事件联系起来,进行比单个代表性事件更具普遍意义的阐释,弥补未在场造成的文化权威缺失。大模型可以说将延续性发挥到了极致,它充分利用过去海量的数据库生产具有现代价值的作品,显示生成式AI建立阐释权威的深远能力。一方面,智能驱动新闻被期望提供源源不断的新闻敏感,ChatGPT作为贯穿古今的远距离观察者,与不同关键事件联系,再结合当前的语境从不同的角度勾勒新闻线索,呈现解读新闻的不同方式,延展了新闻生产的宽度,为整个新闻业迈向分析启发式新闻打下基础;另一方面,ChatGPT利用算法系统性裁剪有关联的时间和事件,计算“可能性的穷尽”,洞察大数据的发展趋势,延伸新闻生产的长度,这也标志着AI“第六感”预测性新闻的强势崛起。
3.打造多维交互模式与深度绑定用户
新闻作为公众参与公共事务的平台,在数智时代已成为共识。正如芭比·泽利泽所言,新闻生产者就像探寻平常人们不能接触到的世界并带回关键见解的萨满巫师,新闻的本质就是创造公众平常不能接触事件的想象性参与。[3](2)新闻能容纳受众与他人共享信息,同时受众参与也可以帮助新闻机构建立长期目标受众与新闻分众服务间的连接。ChatGPT应用于新闻,有助于提升公众的参与度,更好地为公众服务。
在交互传播层面,身为聊天机器人的ChatGPT可用对话的方式激发受众深度参与到ChatGPT构建的信息交互的模拟情景中,ChatGPT、媒体与受众之间形成了多维的自然语言交互模式。ChatGPT是连接媒体和用户的桥梁,ChatGPT在回答用户提问的同时,用户实际上也在协同帮助新闻生产机构完成对算法程序的训练。碍于当前人工智能技术的水平,机器算法模型尚不能实现完全独立和全自动化。“人在回路”交互系统在ChatGPT中占据重要地位,主要体现在两个方面:其一,ChatGPT的预训练模型所用到的数据需要人工标注,人工标注越精确,ChatGPT输出的答案越接近人的预期;其二,ChatGPT的算法只是构成输出结果的一部分,其中用户的输入和反馈也会直接作用于机器深度学习与决策过程。因此,ChatGPT的人机情境对话是对用户回馈的数据信息进行实时更新、精准分析,这为私人信息定制服务和知识付费墙的应用提供了发展前景。定制化、分众化的信息服务与用户深度捆绑,为智能新闻提供了新的创收模式。再者,ChatGPT多元场景应用服务和持续人机聊天的功能使人工智能从工具型产品演化为交互对话的人格化参与角色。换言之,未来以ChatGPT为代表的自然语言处理系统深度融入新闻生产传播的不同环节和场景,依据场景变换及时优化用语,对受众的提问迅速作出反馈,不但起着传递信息的作用,而且其类人属性还满足了受众的陪伴需求。同时,通过对ChatGPT的深度机器学习驯化,能够掌握媒体机构和新闻人的特点,生产出更具个性化的新闻作品。
二、ChatGPT应用于新闻生产的原生性限度
ChatGPT不是人,它不具有人可以自由行动的身体,尤其是可以抵达任意物质空间和位置的四肢,而新闻的采访和生产,往往需要在各种场合和不同空间之间移动。不能独立思考,无法深入第一现场,判断第一时间获取的一手材料,只进行数据、算法、算力的概率组合,不可能生产出有价值的新闻。因此,ChatGPT在与新闻人争夺职业主场中存在着不可避免的原生性限度。
1.“以历史为初稿”,大数据内爆
按照新闻理论的最权威定义,“新闻是最新发生的事实的报道”,而ChatGPT生产的基础全凭已知的输入。如美联社与OpenAI公司合作,将之前产出的大量新闻提供给ChatGPT充当训练数据,但新闻应用研发依旧进程缓慢,主要原因是其不符合新闻时新性的要求。此外,事实错误、人类知识与AIGC内容混杂,也是美联社探究大模型应用新闻的困扰。如果说社交媒体实现了所有人对所有人的传播,那么生成型人工智能则实现了所有信息对所有人的传播。人们从与媒介生活在一起到完全生活在媒介中,媒介的影响之所以如此深刻,恰恰是因为另一种媒介逆转成了它的内容。ChatGPT作为生成式AI的突出成果,能够将之前所有媒介生产的内容结构化处理为自己生成内容的基础,[4]只能算作“以历史为初稿”。换言之,ChatGPT的生成是集合的生成、已知的生成、从前的生成,从已有到再有的生成,“昨日历史,今日新闻”,新闻最基本的特征——时效性,需要的恰恰是记者创造的生成、未知的生成、现在的生成,从无到有的生成。对既有信息进行转译后重新排列组合的文档,是初级人工智能就能完成的任务,还未达到能够进行思维革命的强人工智能时期,取代新闻人更是危言耸听。
ChatGPT的生成从技术上而言是经验主义或归纳逻辑的认识论在机器学习算法中运用的体现,是按部就班的纯理性统计计算过程,而记者的写作却是充满灵韵与人文关怀的非纯理性的思考过程。根据智能生产的演绎逻辑,人工智能可以分为分析式人工智能和生成式人工智能:分析式人工智能依靠已存在的信息推算出在前提中已包含的结论,遵循的是从一般到个别的演进推理;生成式人工智能更多的是对数据库中已有的信息进行归纳概括,生成来自已有又不等同于已有的新的自然语言表达模式,遵循的是从个别到一般再到个别的演进模式,即从海量数据中驯化出模型,再用模型指导新的个别。[5]充分利用生成式人工智能的这种归纳功能,千亿级别数据的投喂才成就了ChatGPT,但从严格意义上讲,ChatGPT只能算作信息的加工者,其生成的文本既非被验证过的事实,又非原创性的真知灼见,还常常出现“一本正经胡说八道”的现象,究其原因是归纳逻辑和数据差异造成的。不似分析式人工智能基于演绎推理的输出结果具有唯一性,生成式人工智能会因材料的变化导致输出结果存在不确定性,输入同样的问题会出现不同的回答。现实世界分秒变幻,记者每时每刻都面临着突发的新情况,需要及时作出反应,ChatGPT只能应对数据库里意料之中的情况,对于意料之外的情况则束手无策。物理力学中将物体向内的爆炸称为内爆,引申到生成性AI上变异为大数据的内爆,背靠大数据和网络资源的ChatGPT看似无所不知,其实对正在发生变化的现实世界一无所知。因此,对于ChatGPT制造的替代人类创造性工作的担忧是不必要的。
2. 现场的身体缺席,独家新闻陨落
依据传播的层级,人工智能运用到新闻传播领域目前大致可分为人际传播AI和大众传播AI。[6]聊天机器人、语音问答助手是人际传播AI的代表,此时的技术充当的不再是生产传播的媒介,而是一种具有拟人化身份的平等对话者。大众传播AI作为嵌入新闻生产—分发环节用来提升效率的工具,具体可分为生产端和分发端两大类:写稿机器人、虚拟智能主播是生产端—大众传播AI应用的代表,算法推荐则是分发端—大众传播AI的代表。ChatGPT与个人用户单独展开微观语境对话,是点对点的传播,归属于人际传播AI;但ChatGPT同时与多个用户展开对话,并将对话内容作为人类反馈重新纳入语料库中进行强化训练学习,是点对面的传播,又应归属于大众传播AI。因此,套用传统传播层级理论难以解释ChatGPT的特殊传播类型,应从人机传播的视角将其视为融合大众传播和人际传播的复合式传播。从1950年图灵提出图灵测试以来,AI的拟人化程度成为判定机器是否具备智能的公认标准,然而,机器具备人脑智慧目前还处于人类的主观想象,ChatGPT模拟人类语言产生的拟人主体性并不等同于人类的主体性,不能代替记者独立进入现实世界的新闻生产实践领域,且共用一个网络数据库,决定了其无法生产出独家新闻。
首先,ChatGPT作为人际传播AI,对新闻当事人的采访难以达成,主要有三方面的原因。其一,采访者與被采访者之间的交往建立在平等对话的基础之上,但是ChatGPT服务人类的设计初衷就决定了人机不平等的主客关系,平等对话只是对技术努力方向的一种美好期待。ChatGPT内嵌的服务用户属性使其不会对使用者产生论辩行为,而是带有讨好和服从的特点。人对机的绝对控制助长了个人中心主义的滋生,在ChatGPT与个体用户持续对话的过程中,二者形成互相强化偏见观念和态度极化的共轭效应。其二,ChatGPT能作为被采访者回答问题,但不能作为采访者提出问题。ChatGPT的生成行为可被分解为刺激—反应两部分,ChatGPT需要用户给出提示指令,继而才会做出与提示相关联的反应,与其将之称为对话模型,不如称为问答模型。其三,采访者与被采访者的个人隐私在网络公共领域“裸奔”。为了保护被采访者的个人隐私,在报道中记者通常会进行匿名、化名的人性化处理,有机选择、使用采访素材。当人际交流关系变成人机交流关系,任何向ChatGPT的自我披露都存在着被泄露的风险。美国人工智能的发展由互联网巨头和初创科技公司主导,OpenAI是初创型科技公司,2019年跨国科技巨头微软强势加入,反观主流媒体和通讯社则在人工智能发展上存在明显短板,记者、编辑、通讯员等新闻从业人员缺乏专业的技术教育背景,采集的用户数据最终流向生产人工智能的公司或重新进入语料库进行再生产,用户不但处在透明化的“全景监狱”中,而且其自我表达、倾诉有可能从虚拟世界蔓延到现实世界,对用户的实际生活产生负面影响。总而言之,ChatGPT无论是作为采访者还是被采访者都是不可靠的,面临着最基本的人机信任问题。
其次,ChatGPT作为大众传播AI,在新闻生产端,第一时间赶赴现场获取一手资料难以达成;在新闻分发端,人工智能鸿沟和人工智能霸权风险逐渐显现。从生产方面而言,一方面,ChatGPT的拟人主体性仅存在于语言符号层面,不具有身体的物质属性,不能成为独立的生产者直击新闻现场。虽然数字化媒介让数据新闻可以脱离身体在场的束缚,但并不能因此否认身体对新闻生产传播的重要意义,具身性是确保新闻真实的关键途径。纵观人类发展史,先有身体后有语言,但以ChatGPT为代表的无物质实体的计算机程序,仅依靠移动智能终端呈现在屏幕上的对话输入窗口与人展开交流,是很明显的先有内容后有载体的发展路径。另一方面,尽管ChatGPT不受物质身体的制约,漂浮在虚拟网络世界中,但也因为缺乏身体等物质存在导致其无法感知真实的世界。新闻从根本上说是一项社会生产实践活动,包含着对现实世界的基本关怀,在新闻生产中坚守人是媒介的尺度和具身传播的理念是新闻被社会需要的前提,ChatGPT的自然语言模型并不能触达语言的含义层,不能作为单独的社会行动者生产新闻被社会需要的价值。此外,计算机程序本身不具有社会职务、权力、地位、公民身份,一旦发生侵权行为,无法承担相应的道歉赔偿义务。
从分发层面而言,传统的大众传播是一次性生产、批量复制的传播,ChatGPT同时和海量用户对话生成不同内容,属于批量生产、一次性传播。但人工智能打破了传统金字塔式的信息传播秩序,编织了一个高度原子化的传播网络,每个用户都是网络上的一个节点。历经77年的数字化(1946年世界上第一台计算机诞生),54年的网络化(1969年美国阿帕网诞生),30年的移动化(1993年世界第一部智能手机IBMSimon诞生),7年的智能化(2016年AlphaGo击败人类围棋冠军),人类传播范式从大众主流媒体主导的自上而下、集中控制的大教堂模式转变为智能数字媒体主导的自下而上、开放分布的大集市模式,但这种智能媒体生态下权力下沉形成的去中心化、私人化、反权威化,并不意味着会带来更大程度上的公共性、多元化,反而可能导致人工智能霸权。从互联网和人工智能崛起的那一刻,主导社会信息环境的技术逻辑便朝着信息私人化的方向发展,无论是社交媒体平台的用户个人信息界面的优化,还是智能算法的个性分发,无不指向海量信息私人化的聚合与离散。[7]人工智能造就的私人化格局压缩了信息传播的公共性,形成了新的社会区隔,用户在人机对话中完成了对信息的获取、分享和观点的输出,用户与用户之间的连接实际上变成了弱关系的、形式上的、有名无实的,人工智能抢占社会公共领域的讨论空间,由其他代理媒介向全能媒介转型,形成新的霸权结构,而用户的认知则局限于智能算法的分发。在人工智能现象热的背后存在着多种话语权的争夺,正如澳大利亚社会科学院院士狄波拉·勒普顿所言:“技术非中立的客体,他们被赋予性别、社会阶层、种族、年龄相关的意义。”[8]国家层面,人工智能创造越发精准、隐蔽的数字利维坦,需要警惕技术所有国隐性的意识形态霸权;社会层面,先进智能传播技术背后的科技研发公司和使用接口的互联网公司存在资本的博弈,抢夺用户的注意力;个人层面,了解、掌握和熟练使用人工智能的人群拥有更大的话语权,个体间使用信息能源和智能技术存在显性能力沟,人工智能鸿沟造就的不平等将成为新的社会问题。
3. 数据容器,深度造假的迷思
新闻最基本的原则就是报道事实。李普曼将新闻业想象为充分调查、仔细辨别、接受检验的科学,认为一个出色的记者应该做耐心无畏的科学家,呈现真实的世界。然而曾经历尽千辛建立的新闻事实原则,被大到不可知的网络数据所替代。[9]需要记者具身验证的事实采集如今外包给了大模型程序,而大模型运算的数据是经过多层转译的结果,并不等于事实,更不是真实世界的代表,大语言模型代表ChatGPT的技术特性决定了其生成假新闻的必然性。人工智能的三大技术要素是大数据、强算法、超算力。算力是机器处理数据的能力,算法是解决问题的指令或策略机制,数据则居于基础性地位,互联网是实时海量数据的供应商。[10]ChatGPT生成虚假信息与此三大技术要素互为因果,这与真实是新闻的生命形成悖论。
(1)大数据失实,引起事实错误。大规模的网络公开文本是ChatGPT的训练数据,初代版本GPT-1使用的训练文本为5GB、1.17亿参数量,GPT-2的训练文本为40GB、15亿参数量,GPT-3的训练文本为45TB、
1 750亿参数量,虽然GPT-4未公开训练文本和参数量,保守估计为GPT-3的6倍,照此速度投喂数据,有研究预测,到2026年,ChatGPT将穷尽互联网可用的人类原创数据资源。[11]在大数据海啸中,人类已经无法就如何获取信息来源达成一致,网络中的每一个数据事实都有被撕裂切割成碎片的可能以及与事实方向相反的作用力,彼时,人工智能合成数据加入ChatGPT预训练中,“劣币驱逐良币”,导致ChatGPT生成的内容质量直线下降。被实践检验过的事实本是为解决分歧而存在,人人都拿着不知来源且奉为真理的网络事实,正是开启分歧的钥匙。ChatGPT被誉为生成式AI的一次革命,联合机器人公司首席营销官塞西莉亚·坎贝尔将生成式AI分为数据生成文本模型和文本生成文本模型。[12]数据生成文本模型最关键的特征就是生成的文本是基于数据的事实,排除了数据之外的文本信息,保证了事实的正确性,如美联社的写稿机器人Wordsmith、英国天气预测系统Arria。而文本生成文本模型,又名大型语言模型(LLM),它的运作模式是利用深度机器学习现有文本创作新的文本,这意味着它会引用所有来自互联网可访问的文本,这些海量的无标注文本数据构成ChatGPT自监督预训练的语料体系,当中不可避免地会包含虚假信息。ChatGPT是典型的文本生成文本模型,所有回答都是对人类语言逻辑的模拟,看似有理有据,实则不具真实性。ChatGPT编造与现实无关的内容又用极其自信的陈述输出,用在新闻自動化生产上,极易出现扭曲真相、传播错误信息的现象。目前聊天机器人尚停留在人—机的一级传播交互之中,当大语言模型深入人类生活场景,引发人—机—人的多级传播,反而加剧了破解后真相时代迷局的危机。
(2)数据为真,算法黑箱运算成假消息。跟一般预设任务型AI不同的是,ChatGPT构建的是模拟神经网络从海量数据库中进行深度机器学习的大型语言模型,整体的技术架构遵循的是“语料体系+预训练+微调模式”。[13]语料体系来自OpenAI公司从各渠道搜罗而来的巨量无标注数据,ChatGPT无监督完成预训练,形成原始模型。在ChatGPT自主学习基础上,采用人工标注数据的方式进行有监督的微调,标注人员会根据人类偏好对原始模型生成的答案进行排序打分,如此循环强化,直至原始模型变成掌握人类偏好的智能模型。在算法方面,ChatGPT的优胜之处在于引入自注意力机制,相对于传统逐字识别处理的神经网络,其能快速计算出一个序列中单词与下一个单词出现的概率,单词之间乘积越大说明关联度越高,越符合人类语言表达。也正是因为此独特的算法公式,导致ChatGPT的输入输出不是已有信息的复制粘贴,而是由词预测算法无监督自动生成后续文本的数据库信息结构重组。基于语义相关性拼接而成的文本底层逻辑是统计方法,并非源自现实观察和实践的语言表达,算法程序也并不理解词句组合的真正含义,ChatGPT输出的是概率信息。因此,即便保证预训练数据库中的所有信息为真,也无法排除ChatGPT生成符合算法运算逻辑但存在事实性错误的假新闻。
(3)超高算力系统GPGPU是虚假合成数据的最强辅助。GPGPU(图形处理器)是比CPU(中央处理器)具有更高精度算力、超强可编程性和并行处理能力的计算机芯片,在航空航天和防务信号处理中均有应用,为ChatGPT的飞速进化提供了不可或缺的硬件基础。超高算力同样映射着超高能源损耗,以GPT-3的1 750亿参数为例,需要上万个GPGPU连续不断输入数据,一次运算费用高达450万美元,[14]如此巨大的资源消耗让大部分企业和机构望而却步,只有极少有足够资金技术支持的龙头集团才能进行大模型的研发,一定程度上造成了算力垄断,在国际竞争中,算力技术领先的国家抢占战略布局先机,形成人工智能界国际传播的“马太效应”。古希腊哲学家亚里士多德认为,每个系统中存在一个既不能被违背又不能被删除的最基本命题,换言之,对技术化的认识必须在多变的现象中抓住不变的本质。技术化的本质在于拓展人类身体和感官的能力,帮助人类改善生活和促进文明进程。ChatGPT需要资本能源、算力技术的持续投入,这直接关系到投入产出比的现实问题。再者,在高精度算力系统GPGPU的加持下,ChatGPT生成数据的数量和效率呈几何倍数增长。形式规范、真假难辨的再生成数据重新回归网络空间,被无差别地纳入人工智能预训练的数据库中,如此循环往复,导致合成数据的真实性愈来愈小,人类终将湮没在人工智能制造的虚假信息世界中。
三、走向新闻业未来
记者报道的新闻之所以具有价值,是因为他们带来了常人接触不到又无人分享的知识和信息,这些未知性、不确定性构成公众想象力的源头,新闻本质也是公众的一种想象力参与。在急剧变化的媒介生态环境中,将新闻业发展的关键要素且正占据越来越重要位置的技术引入未来新闻业的想象之中,无论是满足研究者的旨趣、解决新闻从业人员的基本生存问题,还是寻找新闻业前进的方向都是大有裨益的。因此,以更加自省、透明、主动的方式参与未来新闻业的大讨论,才能让新闻人更有自信、更从容、更有效地驾驭、引领、走向新闻业的未来。
法国思想家米歇尔·福柯在《词与物》中曾说,人终将被抹去,如同沙滩上的一张脸。人工智能对人类主体性的冲刷随着ChatGPT入侵自然语言系统进入新的临界点,面临技术带来的巨大未知性和不确定性,一个“剔除人”的未来智能图景浮现在人们的想象之中。纵观每一次科技进步,都有被视为对现有社会职业结构体系造成威胁的一段时间,关于人工智能究竟是潘多拉魔盒还是阿拉丁神灯的讨论从未停止。想象未来的新闻业究竟是智能替代人工还是人工替代智能?目前主要有三种主流观点,分别是人取代机、机战胜人、人机协作。其实这个问题的实质不是在探讨谁最终会被取代,而是在辨析智能与人工谁能长久占据职业主场的问题,因为人作为智能的造物者,不会停止追求美好幸福生活的科技探索,技术作为“机之为人”的服务者,不会停止提高生产能效和无止境的更新迭代。正如麦克卢汉在《理解媒介:论人的延伸》中所言,技术转换具有有机体进化的性质,技术延伸人体,具有替代性的生殖机能,人体透过技术增长的速度与力量作出反应,产生新的延伸。[15]智能机器与人共生共存于数智时代,谁都不会被取代甚至离奇消失,这是一个生生不息的宇宙演化进程。只能说在一次次的技术革新中,人类还能不能时时保持人是万物尺度的主导地位,处处掌控技术的应用场景。如果非要用ChatGPT取代新闻人,首先需要解决的问题是人工智能生成内容的真实性、时新性、具身性、创造性以及对现实世界的感知、思考能力,目前看来,完全依赖大数据、算法、算力的计算程序还有很长的路要走,也许能到达,也许永远不能到达。
参考文献:
[1] 张尔坤,张一潇. ChatGPT启示:大语言模型时代传播学研究新问题[EB/OL].[2023-07-08].https://mp.weixin.qq.com/s/HPFxE30uhgzmhvb_CziZnA.
[2]程潇熠. 对话张宏江:AI大爆炸至少将持续十年[EB/OL].[2023-07-05].https://mp.weixin.qq.com/s/3AHFPVhYHJmpStCjs7KslQ.
[3] 芭比·泽利泽. 想象未来的新闻业[M]. 赵如涵,译. 北京:中国人民大学出版社,2022.
[4] 方兴东,顾烨烨,钟祥铭. ChatGPT的传播革命是如何发生的?——解析社交媒体主导权的终结与智能媒体的崛起[J]. 现代出版,2023(2):33-50.
[5] 肖峰. 何种生成,能否创造——ChatGPT的附魅与祛魅[N]. 中国社会科学报,2023-03-06(5).
[6] 姜泽玮. 功能局限、关系嬗变与本体反思:人机传播视域下ChatGPT的应用探讨[J]. 新疆社会科学,2023(4):146-153.
[7] 常江,王雅韵. 审美茧房:数字时代的大众品位与社会区隔[J]. 现代传播,2023(1):102-109.
[8] 曾一果. 人工智能迷思与数字技术伦理的现实建构[J]. 新闻与写作,2023(4):24-30.
[9] 胡泳. 论事实:美丽、谎言与ChatGPT[J]. 新闻大学,2023(4):38-58,121.
[10] 方兴东,钟祥铭. 智能媒体和智能传播概念辨析——路径依赖和技术迷思双重困境下的传播学范式转变[J]. 现代出版,2022(3):42-56.
[11] 舒洪水,彭鹏. ChatGPT场景下虚假信息的法律风险与对策[J].新疆师范大学学报(哲学社会科学版),2023(5):124-129.
[12] 张建中,西莉亚·坎贝尔. 面对ChatGPT,新闻记者不应该有身份危机[J]. 青年记者,2023(5):97-98.
[13] 钱力,刘熠,张智雄,等. ChatGPT的技术基础分析[J]. 数据分析与知识发现,2023(3):6-15.
[14] 朱光辉,王喜文. ChatGPT的运行模式、关键技术及未来图景[J]. 新疆师范大学学报(哲学社会科学版),2023(4):113-122.
[15] 马歇尔·麦克卢汉. 理解媒介:论人的延伸[M]. 何道宽,译. 南京:译林出版社,2019:248-249.
作者信息:郝雨(1957— ),男,上海人,上海大学新闻传播学院教授、博士生导师,主要研究方向:新闻传播理论、新媒体研究;文希(1994— ),女,四川廣安人,上海大学新闻传播学院博士研究生,主要研究方向:智能媒体。