蒋雪颖 刘欣 许静
【摘要】生成式人工智能深刻影響当下的新闻生产模式和媒介可信度。首先梳理了生成式人工智能应用于新闻生产的演进历程;其次分析人机协同下的新闻实践,实现了从替代模式到共生模式的主体协同、从PGC到AIGC的文本协同、从单向线性趋向多元网状的流程协同;最后探讨人机协同下的新闻规制,以构筑信任机制为核心,将技术信任、人机信任和制度信任三维协同,以责任链调动多元主体共同参与规制。为我国新闻生产实践打开人机协同的可能性,同时为建构可持续的人机共生生态提供规制进路。
【关键词】生成式人工智能;ChatGPT;新闻生产;人机协同;智能传播
生成式人工智能(Generative Artificial Intelligence,简称GAI)正在重构着当下新闻生产模式和产业链结构,为新闻生产者的主体地位、新闻生产的内容、传播形式、受众对新闻的接收与反馈等带来全方位变革,并倒逼着“人机关系”的观念从敌对论转向协同论[1]。本研究从人机协同理论出发,对国际新闻业的前沿实践案例进行分析,旨在弥合现有研究在经验材料上的不足,一方面为我国新闻生产实践探寻人机关系新的可能性,另一方面为建构可持续的人机协同新闻生态提供规制进路。
一、演进历程:生成式AI与新闻生产的结合
以ChatGPT为代表的生成式人工智能技术问世以来,它在提升工作流程效率、文本创建、更正、搜索、研究、翻译等方面展现了巨大的潜力。世界新闻出版商协会调查显示,全流程效率提升、翻译、个性化新闻是当前人工智能技术应用于新闻生产实践中最具潜力的三大领域[2]。学者Diakopoulos总结了GAI工具在新闻生产实践中的主要功能:(1)针对文本的处理与生成,例如评估文本的新闻价值;分析文档并进行分类和标记;处理多语言文本的原始数据并进行翻译;审核并分类评论,如“仇恨言论”或“高质量评论”;根据不同社交媒体创造不同风格的推文;基于非结构化或者结构化数据的自动写作;基于用户模型构建或重写精选内容的标题或摘要。(2)针对可视化信息的编辑与处理,例如编辑多格式的照片和视频,根据内容主题生成图表。(3)针对以算法为基础的工作流程进行优化,例如针对不同的受众群体进行个性化推送;自动审查并删除不当言论等。[3]
随着人工智能技术的不断演进,特别是自然语言处理(natural language processing,简称NLP)和大型预训练模型的突破性进展,按自动化程度进行划分,人工智能融入新闻生产实践大致经历了三个阶段:在自动化的第一阶段,人工智能承担辅助工具的职能,为记者和编辑从海量信息中推荐新闻选题;发挥信息收集与新闻发现的功能;通过监控社交媒体热点、分析流行话题或扫描数据集,利用算法参照预定义标准识别有新闻价值的事件。第二阶段,人工智能以主体身份逐渐参与到新闻内容生产等人类智力活动中,将结构化的数据转化为叙述性文本。具体而言,GAI通过使用特定类型新闻(如体育或财经新闻)的模板和自然语言生成技术实现对新闻报道的文本编写。第三阶段,人工智能逐渐渗透到“把关”环节,实现与把关权的融合。在新闻内容发布方面,GAI可自动撰写和发布某些类型的新闻报道,无需人工审核,并可选择在发布后通知编辑。在当前的实践中,这种情况通常仅限于由数据驱动的新闻报道。
在未来,新闻业需要在GAI辅助人类任务与GAI自动化日常任务之间取得微妙的平衡。技术不仅仅是被新闻生产主体强制吸纳到新闻生产中的一种外部性工具,更是一种由新闻实践、人类需求和行业规范不断塑造的手段。
二、实践探索:人机协同下生成式AI新闻前沿应用
以物联网、大数据、云计算和人工智能为代表的数字智能技术已经渗透到个体日常生活的结构之中,因此“人—机”关系的主流观念也从以友好、敌对为特征的范式转向更为当代的协同范式。人机协同强调了人类与GAI为代表的智能机器在社会技术景观中的相互依存、相互作用和共同进化。对于人机协同在新闻生产实践中的研究,则更关注人类与GAI之间复杂的相互作用和共同的进化协同模式。
(一)主体协同:从替代模式到共生模式
新闻信息采集是新闻生产的基础,编辑部以此对选题进行策划和决策。在信息采集和选题策划阶段,GAI与人类主体的协同方式共有三种:替代式、补充式和共生式。(1)替代式多应用于记者、编辑日常工作中重复性高、细节繁琐的任务,如自动收集和准备背景信息、推荐消息来源和线人、消息源验证和事实核查等。特别是信息采集阶段,传统新闻生产是记者按需在新闻专业主义指导下主动收集信息,GAI可通过基于NLP实现特定类型的常规信息自动化收集。以路透社使用的News Tracer信息采集系统为例,它可实现从社交媒体的信息流中收集数据,并使用NLP和机器学习检测新闻事件,帮助记者在报道重大新闻时比其他全球新闻机构抢先8到60分钟[4]。(2)补充式是利用GAI弥补专业新闻生产者人力或效率的不足。例如,在新闻事件的跟踪报道中,GAI的模式匹配机制可用于识别更新的信息,通过持续追踪为正在发生的事件带来新的启示或意想不到的报道角度。(3)共生式以可持续协同发展为价值导向,不断在实践中校准人类价值与技术工具之间的关系。共生式最典型的实践是新闻从业者对GAI进行“新闻价值”的训练。GAI可通过大型预训练模型对“新闻价值”进行机器学习,帮助记者和编辑发现具有新闻价值的事件。
GAI成为记者与社会现实之间的“传感器”,一方面将新闻生产主体从繁琐的验证和事实核查等日常任务中解放出来,但另一方面也需警惕,利用GAI自动发现新闻也有可能过于依赖有限范围的消息源,从而忽略可能更具新闻价值的边缘事件。
(二)文本协同:PGC与AIGC的融合
1.自动内容创作,变革生产模式
GAI可以自动生成标准化的文本,帮助记者和编辑创建新闻大纲、优化标题、生成新闻导语、生成采访问题、解释概念和总结旧报道。国外AI生成的新闻网站已经多达125家[5]。新闻网站NewsGPT和Generative Press都是完全由GAI驱动生成新闻,完全没有编辑团队介入和人工干预。谷歌开发的新闻AI工具Genesis已被《纽约时报》《华盛顿邮报》和《华尔街日报》等报纸采纳作为记者的补充工具。路透社还使用GAI快速定位视频素材库中的人物和音频,自动进行音频的时间编码、转录和翻译,自动生成文本,提升写作效率[6]。
2.多元叙事风格,差异话语策略
GAI可以根据出版机构的风格定位来改编新闻,创作多元叙事形态、修辞风格、新闻体例、新闻框架的报道,在语言建构和语义表达方面实现差异化改编。全球媒体Semafor执行主编吉娜·蔡(Gina Chua)使用聊天机器人Claude,要求它以《纽约时报》《纽约邮报》《中国日报》和《福克斯新闻》的风格,改编一则中国努力扭转人口出生率下降的新闻,她发现《纽约时报》的版本偏向于古板,并且加入了很多背景描述;《纽约邮报》则倾向使用激烈的措辞,如“随着出生率的下降,中国陷入恐慌”;《中国日报》多引用政府观点,例如“官方落实育儿假制度减轻家庭养育负担”等;而《福克斯新闻》多为严厉的批判口吻,带有强烈的主观偏见[7]。
3.数据跨链接互证,信息多维深度呈现
新闻生产平台NewsCube利用GAI实现增强新闻报道。它将验证过的信息来源,与现有的内容单元进行关联,从而提高新闻报道的可信度。该平台将经过认证且自成一体的小型语义单元进行重组,以综合叙述的方式重新生成新内容,包括文章、链接、图像、视频剪辑、动画等。NewsCube可以在互联网中提取来自不同政治、宗教、种族等价值取向的信息,从而对同一事件呈现出不同观点。这种多元性有助于提高新闻报道的可信度。它还可以对强调不同事实、提出不同解释和表达不同情感的内容进行识别。具体而言,GAI可以在海量信息中定位支持弱势群体的言论或带有错误价值观导向的观点,这对于建构多元向善的舆论环境至关重要。记者和编辑等专业主体可通过标注相关主题、来源、信息的原始上下文等方式,防止易产生混淆的拼贴和挪用,提升信息的丰富性和准确性[8]。
(三)流程协同:从单向线性趋向多元网状
传统新闻生产是从记者、编辑等专业主体出发,经过采、写、编、发等环节,将新闻送达受众的单向线性结构。GAI通过流程挖掘、算法资源优化、立体交互式分发等,使新闻生产中间的任一环节都可产生跳跃性互联,流程协同中的新闻生产走向多元网状生产结构。
1.挖掘行为模式,实现流程再造
GAI可利用流程挖掘(process mining)来分析记者和编辑的信息搜索等工作行为,帮助其建立自动化的信息收集和分析流程。例如,编辑部中的某位记者反复搜索某在线社区论坛,在里面浏览和收集足球比赛评论,GAI可以利用事件日志从记者的行为模式中挖掘出“流程描述”[9]。挖掘出的流程描述可用于基于规则或机器学习的流程自动化工具,这些工具可模仿重复性的人类任务,如数据录入、表格填写和数据验证等。之后,每当记者开始撰写新的评论文章时,界面会自动搜索指定的足球社区论坛。除此之外,GAI还可以应用于现有的工作流程和业务流程管理系统,将挖掘到的流程描述调整到类似的情境中,改善新闻生产者的创作和生产体验,实现流程的智能化。
2.基于算法的资源优化,提高组织效率
新闻生产不仅是个体的创造性劳动,更是集体的协商性活动。如何选择合适的记者跟踪特定类型的报道,是新闻编辑室中的重要工作。GAI可以学习记者及其过往报道并建立资料库,从而针对某类新闻选题推荐最匹配的记者,组建具有互补背景和能力的记者团队,进一步提高效率。但是,我们也必须保持警惕,坚持健全的商业模式和编辑独立性,以确保这些提高新闻和组织效率的新机遇被充分用于提升新闻报道的质量,而非滥用于削减新闻工作者的队伍。
3.立体交互式分发机制,推动信息个性化重组与再收集
围绕GAI技术搭建数字新闻平台已成为一大趋势。以NewsCube为例,用户可以将文字、图片、视频、超链接、文章、档案等各种元素组合在一起,将故事、想法、人物或公司等信息“打包”成虚拟的3D信息立方体。这些立方体作为技术驱动的叙事手段,将多媒体元素、时间、地点、声音、事件和不同视角的报道结合在一起,创造沉浸式、可视化新闻体验。NewsCube的互动设计一方面保证用户可以对正在浏览的故事进行主线阅读,与此同时也允许其进入支线链接中,浏览不同媒体和新闻来源,以实现对主线新闻故事的补充,克服在庞大的超文本空间中对信息的迷失感。而用户对信息做了何种选择,又会积累成痕迹数据,存入NewsCube中,为未来的新闻生产和个性化分发提供数据决策依据。
三、规制进路:人机协同下生成式AI新闻信任机制
媒体信任有多个层次,从对媒体内容的信任,到对记者、单个媒体品牌和媒体类型的信任,再到对整个新闻业的信任。新闻媒体的可信度可以从公平性、偏见性、完整性、准确性和事实性等方面進行描述。随着GAI在新闻实践中的使用越来越广泛,信任危机日益凸显。根据Morning Consult的调查,70%的美国成年人担心AIGC传播错误信息;68%的美国成年人担心使用AI搜索引擎获得的结果中包含错误信息;63%的美国成年人对AI搜索结果的准确性、AIGC内容中的偏见和歧视表示担忧[10]。我们需从构筑信任机制着手,加强对GAI新闻业的规制。具体而言,将技术信任、人机信任和制度信任三维协同,以“责任链”范式调动记者、编辑、技术研发者、新闻出版机构、行业协会、政府机构等多元主体共同参与。
(一)技术信任:优化技术设计,实现技术善治
在数字时代,新闻容易遭到篡改或断章取义,其目的可能是吸引注意、影响行为、操纵舆论,或者进行欺骗和误导。信息评估的范围包括检测文本、语音、音频、视频与来自传感器的结构化数据流,以及结构化或非结构化参考数据中的有意和无意的错误信息[11]。在这一背景下,我们面对两种主要形式的媒体伪造:低级伪造(cheap fakes)和深度伪造(deepfakes)。
低级伪造涉及对媒体内容的滥用,例如轻微扭曲图片或断章取义地反复使用图片。应对低级伪造的核心技术包括以下四点:(1)深度图像分析(deep
image analysis),该技术使用深度学习和计算机视觉方法,对潜在伪造的图像进行分析,以识别其中可能的不一致或异常。(2)反向图像搜索(reverse image search),利用待识别图像作为参照系,在互联网上寻找相似或相同的图像来源,以确定待识别图像在何种程度上以怎样的方式被伪造。(3)确定内容来源,追溯特定图像的元数据、水印、版权信息等,以确保它没有被篡改或滥用,以此验证图像的真实性。(4)评估原始语境与使用语境的相似性,比较图像在原始环境中的使用和在怀疑伪造的上下文中的使用之间的差异。[12]与此不同的是深度伪造,它利用深度学习技术,尤其是生成式对抗网络来创建合成媒体。例如将人脸特征叠加在他人身上,或仅伪造声音,形成如同真人的体验。为了应对深度伪造,一种方法是通过训练判别器网络来识别生成的内容与真实内容之间的差异。判别器网络可以被用来检测潜在的伪造,因为生成的内容通常在细节、噪音、纹理等方面与真实内容有所不同。另一种方法是训练生成式对抗网络来生成具有反伪造特征的媒体内容。这种生成对抗训练的目标是生成媒体内容,其中包含了一些隐含的特征,可以帮助其他检测工具更容易地识别伪造。这些特征可能包括水印、数字签名、元数据等。[13]
国际新闻业还采取了多媒体取证(multimedia forensics)的方式。多媒体取证涉及对图像、音频和视频等各类多媒体内容进行分析和认证,验证数字多媒体文件是否被篡改。该技术的主要目标和任务包括:(1)真实性验证:确定多媒体文件是原始文件还是被篡改或伪造的文件。(2)源识别:追踪多媒体内容的来源,以确定其来源、创建者或位置。(3)完整性评估:评估内容自创建以来是否被修改、编辑或篡改。(4)伪造检测:检测数字篡改迹象,如图像拼接、修饰或音频篡改。(5)图像出处分析:分析图像的历史,以确定其真实性并识别任何更改。(6)内容分析:检查多媒体文件的内容,提取有助于验证的信息或背景。[14]
综合来看,低级伪造和深度伪造带来的挑战表明,仅靠目前被动的事实核查和媒体验证方法还远远不够。主动验证是一种替代方法,它利用哈希(hashing)和区块链等技术发放带有可验证、防篡改签名的内容证书。这些证书可以应用于元数据、原子内容单元以及复合内容。因为内容单元的可信度取决于情境,这将需要新的AI解决方案来挖掘和评估情境信息。此外,我们需要更好地理解情境和可信度之间的关系,以便根据不同的情境评估可信来源。需要指出的是,积极验证可能会过度依赖易于在捕获点验证的主流来源信息,这可能会损害不寻常、非主流来源的可信度验证。
(二)人机信任:可信度评估,多主体责任链
在人机交互技术中呈现出了新的信任形式,即“电子信任”(e-trust)。人机交互过程中的机器能动性不断增强,直接影响了人机之间的信任问题。人机新闻的良性发展最重要的是受众与GAI之间的信任问题,国际新闻业提出了从来源、合成到评估等环节的可信度操作步骤。(1)提高来源可信度:通过元数据(数据的附加信息)来追溯信息提供者的各种指标,包括历史声誉、社交网络连接、知识背景、职位、赞助组织等,还可以评估开放和专有数据库以及档案中的背景信息,并了解提供信息的人员和组织。(2)保证可信度合成(trustworthy composition):新闻报道不仅需要由可信的内容单元和元数据构成,还需要可信的呈现方式和叙述方式。新闻从业者需要关注内容单元的细化程度、来源、提取方式、与语境的契合度,确保报道的内部一致性,使信息更容易理解和验证,从而增加读者对报道的可信度感知[15]。(3)提供可信度报告:需要将可信度的评估结果、推理和证据及时开放给受众,并且确保受众能够理解人工智能方法的输出结果。这些报告通过介绍内容单元的来源,解释它们是如何以及为什么被组合在一起的,从而提供了问责机制。当信息已经得到新闻机构的证实后,可信度报告可以有针对性地根据受众个人需求来提供,减少信息冗余。(4)监测受众反馈:监测受众对新闻内容的感知,包括通过受众研究、用户评级、NLP分析和新闻分享行为来评估可信度,利用这些信息来改进新闻的来源选择、内容呈现和叙述,以优化可信度。
除了受众信任以外,新闻业各主体之间的信任也至关重要,单纯依靠编辑和记者的努力无法建构全局性的信任格局,需要以“责任链”范式实现新闻信任机制构建主体的关联与协同。这不仅涉及编辑、记者、新闻机构、技术开发者等责任主体,还涉及立法机构、执法机构、司法机构、行业协会等治理性机构。在责任链上游,技术研发者应该协助新闻共同体理解算法,还需要避免算法中的偏见、歧视和侵权行为,确保数据隐私和安全,以及遵守隐私政策和用户协议。可解释人工智能(Explainable Artificial Intelligence)是人工智能的一个子领域,其重点是以系统和可解释的方式向人类展示复杂的人工智能模型,通过透明度、解释方法和自然语言生成技术等来阐释人工智能决策。在责任链中游,编辑和记者需要明确GAI应用的义务与责任边界,充分评估技术与使用场景的适配性,保证新闻的可信度,避免人工智能幻觉(AI Hallucination)。在责任链下游,新闻机构需要加强把关责任,应在审核环节从“事后审核”扩展到“事前审核+事后审核”,对审核方式进行技术化和协同化升级,同时保留人类审核的决策地位,还应该允许受众监督和反馈,保证受众对其中的技术参与程度与具体工作的知晓权。
(三)制度信任:健全技术原则,引入贡献链机制
世界新闻出版商协会(World Association of
News Publishers)与德国SCHICKLER咨询公司合作开展的全球调查中发现,只有20%的新闻编辑室对何时以及如何使用GAI工具制定了管理指南[16]。新闻编辑室缺乏明确的指导方针可能会导致不确定性和潜在的控制不足。因此,围绕负责任地使用GAI工具,制定明确的指导准则是极其迫切的。制度信任本质上是硬性的“他律”,其根本目的是将外在约束内化为人类的“自律”意识,使制度信任与技术信任、人机信任相融合[17]。规范化与模式化的外在性制度使各方行为具有更大的可预测性,强化新闻业共同体的“本体安全感”,保障技术信任的有效实施。
全球出版和新闻组织(Global Publishing and
Journalism Organizations)联合代表全球数千名创意专业人士的26个組织,在2023年9月6日发布了《人工智能全球原则》(Global Principles for Artificial Intelligence)。该文件涉及知识产权、透明度、问责制、质量和完整性、公平性、安全性、设计和可持续发展等重要方面[18]。《人工智能全球原则》主要有12条核心原则:第一,AI系统的开发者、运营者和部署者必须尊重知识产权。第二,出版商有权就使用其知识产权进行谈判并获得适当报酬。第三,版权和相关权利保护内容创作者和所有者免受其内容未经许可使用的侵权行为。第四,应该承认为创作者和权利持有人的内容提供现有的授权市场。第五,AI系统应该向创作者、权利持有人和用户提供细粒度的透明度(granular transparency)。第六,AI系统的提供者和部署者应该合作,以确保对系统产出的责任。第七,确保质量和完整性是建立对人工智能工具和服务应用的信任的基础。第八,AI系统不应该创造或存在创造不公平市场或竞争结果的风险。第九,AI系统应该值得信赖。第十,AI系统应该保证安全并应对隐私风险。第十一,这些原则应在设计中纳入所有人工智能系统,包括通用AI系统、基础模型和GAI系统。第十二,AI系统必须符合人类价值观,并按照全球法律运行。
新聞业还可以引入“贡献链”(contribution chains)机制,以建立更加严格的问责制度。贡献链记录了内容的衍生和来源,详细记录了信息是如何从其他内容中衍生出来以及由谁(或何者)进行了衍生。这一机制提供了责任追踪,允许准确记录信息的来源和贡献者身份。贡献链的应用有助于避免重复的整合、验证或其他评估过程,同时可以用于检测那些具有特定利益关系的消息来源所散布的错误信息。贡献链可以在媒体制作工作流的一部分自动创建,也可以通过反向内容搜索、自然语言推理技术和深度图像分析等方法进行重新建构。此外,贡献链还可以被用于深入了解不同类型信息和错误信息是如何通过社交媒体产生和传播的,特别是当这些信息本身所包含的内容和上下文十分有限,难以用于验证的情况下。这种综合方法有助于确保新闻媒体的责任追踪,维护信息的准确性和可信度,同时防止虚假信息的传播。
四、结语
国际新闻业对GAI应用已经积累了初步的探索经验,为我国新闻业的媒介融合和技术创新提供诸多发展启示。然而,未来的发展远不止此。我们在考虑GAI相关的新闻实践和规制问题的同时,还应正视GAI引发的政治经济不平等、数据信息安全、意识形态价值观等挑战。我们也应当关注全球范围内不同的文化和区域环境,特别要正视全球南方国家,如非洲等地区如何跨越资源、语言和技术方面的鸿沟,以便更有意义地参与到GAI技术的发展中。中国需要提高GAI的自主创新能力,加强核心技术攻关,争取技术标准话语权,防范“数字霸权主义”带来的信息安全风险和意识形态风险,为世界提供中国方案。
[基金项目:国家社会科学基金重点项目“突发公共事件舆论引导的机制、路径与方法研究”(23AXW008)]
参考文献:
[1]刘永谋,王春丽.智能时代的人机关系:走向技术控制的选择论[J].全球传媒学刊,2023(3).
[2]Monojoy Bhattacharjee. Almost 50% of news publishers
use Generative AI tools, but “quality of content” is the
#1 concern[EB/OL].2023-01-23[2023-07-14].https://whatsnewinpublishing.com/almost-50-of-news-publishers-use-generative-ai-tools-but-quality-of-content-is-the-1-concern/.
[3]Nick Diakopoulos. What Could ChatGPT Do for News
Production?[EB/OL].2023-01-15[2023-07-15].https://generative-ai-newsroom.com/what-could-chatgpt-do-for-news-production-2b2a3b704
7d9.
[4]Liu X, Nourbakhsh A, Li Q, et al. Reuters tracer:Toward automated news production using large scale social
media data[C]//2017 IEEE International Conference onBig Data (Big Data).IEEE,2017:1483-1493.
[5]Joe Mandese.AI-Generated News Sites More Than Double In Two Weeks[EB/OL].2023-05-19[2023-07-25].https://www.mediapost.com/publications/article/385557/ai-generated-news-sites
-more-than-doubles-in-two-w.html.
[6]Marcela Kunova. How Reuters uses AI to speed up
discoverability of video news content[EB/OL].2023-07-25[2023-07-27].https://www.journalism.co.uk/news/how-reuters-uses-ai-to-speed-up-discoverability-of-video-news-content/s2/a1055917/.
[7]Gina Chua.How chatbots can change journalism.Or not.[EB/OL].2023-02-19[2023-07-19].https://www.semafor.com/article/02/17/2023/how-chatbots-can-change-journalism-or-not?utm_source=pocket_saves.
[8]NewsCube.NewsCubed project archive[EB/OL].[2023-10-23].http://newscubed.com/.
[9]Van Der Aalst W.Process mining[J].Communications of the ACM,2012,55(8):76-83.
[10]AJ Dellinger.AI-Powered Search Engines Driving Concerns Over Accuracy,Bias[EB/OL].2023-01-22[2023-07-12].https://pro.morningconsult.com/instant-intel/ai-powered-search-concerns-bing-chatgpt.
[11]Seo H,Blomberg M,Altschwager D,et al.Vulnerable populations and misinformation:A mixed-methods approach to underserved older adults online information assessment[J].NewMedia & Society,2021,23(7):2012-2033.
[12]Paris B,Donovan J.Deepfakes and cheap fakes[J].2019.
[13]Verdoliva L.Media forensics and deepfakes:an overview[J]. IEEE Journal of Selected Topics in Signal Processing,2020,14(5):910-932.
[14]Khan S A,Sheikhi G,Opdahl A L,et al.Visual User-Generated Content Verification in Journalism:An Overview[J].IEEE Access,2023.
[15]Opdahl A L,Tessem B,Dang-Nguyen D T,et al.Trustworthy journalism through AI[J].Data & Knowledge Engineering,2023,146:102-182.
[16]Roper D.Gauging Generative AIs Impact in Newsrooms[R].1:WAN-IFRA,2023-05-24.
[17]王鵬涛,徐润婕.AIGC介入知识生产下学术出版信任机制的重构研究[J].图书情报知识,2023,40(05):87-96.DOI:10.13366/j.dik.2023.05.087.
[18]WAN-IFRA Staff.Global Publishing and Journalism
Organizations Unite to Release Comprehensive Global Principles for Artificial Intelligence[EB/OL].2023-09-06[2023-10-23].https://wan-ifra.org/2023/09/global-principles-for-artificial-intelligence-ai/.
作者简介:蒋雪颖,北京大学新闻与传播学院博士生(北京 100089);刘欣(通讯作者),北京大学新闻与传播学院博士生(北京 100089);许静,北京大学新闻与传播学院教授(北京 100089)。
编校:董方晓