蒋雪颖,许 静
(北京大学 新闻与传播学院,北京 100089)
生成式人工智能(Generative Artificial Intelligence,缩写为GAI)能够采用不同的技术和架构来学习数据中的潜在模式和依赖关系,并在此基础上生成新的内容,通过人机交互的方式在新闻生产和传播过程中发挥着关键作用。人机交互新闻从本质上来说是一种技术媒介的社会参与(Technology-Mediated Social Participation),涵盖了社会参与、技术调整和创新的复杂过程[1]。通过人对算法的主动调整和修改,人机交互新闻实现了一种独特的协同工作方式,旨在最大化人类的创造力和洞察力,同时借助GAI的高效计算能力,实现新闻生产和传播的“自动化”。在早期阶段,AI主要用于实现数据收集和基本报道等常规任务的自动化,随着AI技术的发展,其在新闻业中的作用也在不断扩大,出现了机器人写作、大数据算法推荐、人工合成AI主播等多种应用。从机器学习到自然语言处理,新闻机构可以利用AI 将构成新闻生产链的大量任务自动化,包括检测、提取和验证数据、制作报道和图表、发布以及自动标记文章。如今,GAI不仅可以直接生成新闻文本、图像和声视频,还能分析大型数据集、识别趋势。尽管取得了这些进步,但将GAI融入新闻业也引发了伦理和技术问题,其中包括新闻准确性、真实性、独立性等问题,因此确保在新闻业中负责任地使用人工智能至关重要。
在智能时代,人机关系的研究已经超越了纯粹的“人与物”的关系范畴,而成为“复合概念”,既包括作为客观的“人机关系”的历史和时代嬗变,也包括“人与机器”相互连接、彼此触发的生产力和生产关系之间相互交合和循环维度[2]。人机关系既包括人与机器之间的具体交互行为,也包括人类对技术的认知和理解,二者相互作用,共同构成了人机关系的本质。在人机交互的视角下,新闻实践中涌现多元主体,包括传播主体(新闻工作者)、接受主体(新闻用户)、实现主体(计算机工程师)、源主体(提供新闻信息源的主体)、影响主体(受新闻影响的个体和组织)和高位主体(企业管理者)[1]。这些主体之间相互交织,共同构建了一个复杂而丰富的新闻生态系统,其中传播主体和接受主体是受到GAI 直接影响的关键主体。
本文旨在从人机交互的视角深入探讨GAI对关键主体的赋能如何变革了新闻业的面貌,探讨GAI引发的主体性危机,提出不同主体应对危机的路径,并进一步思考人机关系的走向。理解人机关系的深层次内涵,有助于我们更好地把握GAI 技术在新闻业中的应用,确保技术的发展更好地服务于人类的需求和社会的利益,更有效地规划未来新闻工作中技术与人的合作方式,以推动新闻业的可持续发展。
GAI在新闻领域的融合已经成为媒体创新的前沿,智能化和自动化作为这一趋势的两个核心方向,不仅改变了新闻生产的模式,也重新定义了人机关系。这意味着人类和计算机之间的交互不再是单向的,而是双向的,计算机不仅能够响应人类的指令,还能够根据人类的需求和反馈进行智能化处理和自动化执行,从而更好地满足人类的需求并提高工作效率。图1展示了不同自动化程度下人机新闻生产的融合阶段,强调了不同新闻编辑室在采取策略时的灵活性与差异性。从最初的新闻选题推荐到机器人编写新闻报道草稿,再到机器人在高度自动化阶段能够自动生成发布新闻报道,整个过程呈现出复杂的非线性发展。这取决于不同新闻编辑室的资源、能力和战略目标,以及其在不同时间采取的策略。
图1 不同自动化程度下人机新闻生产的融合
GAI在新闻领域为编辑、记者、用户等关键主体赋能,发挥了结构性优势:数据驱动采集与自动内容生产、多重视角新闻与创新叙事形式、量身定制新闻与多维交互模式。笔者将通过对这些方面的深入分析,揭示GAI如何为新闻行业带来更高效、多样化、个性化的生产方式,推动媒体从传统到创新的转变。
GAI 通过利用算法分析大型数据集,识别数据并得出有意义的新闻见解,通过自动数据处理、可视化和解释来深度挖掘数据驱动的新闻报道。人机交互改变了信息采集的传统思维模式,机器的升级和人机交互方式的迭代,拓展了信息采集的维度与层面,降低了信息采集的人力成本,改变了信息采集的行为方式,促使新闻工作者形成新的信息获取思维[3]。这一技术可以帮助记者观察数据趋势,在海量数据中找到线索和故事,并在异常情况发生时及时通知记者。微软的Copilot 和谷歌的Bard 能够从整个互联网生态系统的实时数据中获取回复,从而分析突发新闻。
GAI可以提供新闻背景知识与关联性知识的自动生产,生成符合新闻标准和风格的连贯、准确的文本。它还可以协助完成转录、翻译和日常新闻更新等任务,使记者能够专注于更复杂的调查工作。人机交互不仅根据人类指令生成相应内容,提升内容创作者的效率和创造力,而且影响媒体内容的质量和可访问性。美联社使用名为“Wordsmith”的生成系统每季度生成数千份收益报告,《华盛顿邮报》则采用名为“Heliograf”的系统报道地方选举和高中体育新闻。
GAI 可以为用户过滤不必要的信息,提供多重视角并凸显重要内容,优化新闻的社会性拓展。数字媒体“The Newsroom”首先从多个出版商处收集数据,旨在了解当前讨论的新闻事件及参与者,其后通过预先建立的模型分析文章,依据存在的事实和偏见等标准评估报道质量,随后确定共识要素以总结出主要内容的基本事实。同时,该平台凸显不同观点,提供各种新闻源的链接,使用户能够从多个视角审视同一主题。英国广播公司则采用名为“果汁机”(Juicer)的系统为其在线用户生成量身定制的新闻源,该系统能够筛选多个数据源并生成新闻文章的初稿。这契合了信息盈余时代用户新闻消费的演变。
GAI 能为记者和编辑创造新型叙事形式,将文本、图像、声频和视频结合起来,并充分利用想象力、情感和交互性的力量。通过运用深度学习和生成式对抗网络技术,GAI能够合成逼真且多样的媒体内容,包括照片、声音、面孔或动画等,从而提升新闻报道的叙事性和视觉冲击力。路透社使用名为Wav2Lip的系统生成新闻主播说不同语言的唇语视频,打破语言障碍,为用户呈现多样化的全球视角。
GAI可以分析新闻文章的内容和元数据以及用户资料和反馈,并生成符合每个读者需求和口味的定制摘要、标题、推荐和通知。人机交互的深化推动了机器对个性化行为数据的收集,形成了基于个人偏好的信息分发机制,新闻消费已成为一种更具互动性和个性化的体验。新闻业的个性化发展促进用户更多地参与新闻事务,并丰富整体新闻话语。《福布斯》的“Adelaide”通过学习和适应用户的偏好,为用户提供个性化的推荐服务。《纽约时报》利用名为“编辑器”(Editor)的系统为其订阅者制作个性化的新闻简报和推送提醒。
GAI还为用户提供多维交互模式。新闻聊天机器人在模拟信息交互的场景中构建了一种多维自然语言交互模式,为私人信息定制服务和知识付费墙提供了发展机会。目前已有多个数字媒体平台集成了GAI,比如“Bytes”为每篇文章生成情感和情感指标,使用户能够辨别新闻的总体情绪和基调。“OneSub”推出的新闻聊天机器人“Charlie”致力于支持情绪健康,避免耸人听闻或负面内容,减轻用户的压力和焦虑,使信息获取的过程更加简单且互动性更强。在未来,配置不同人格属性的新闻聊天机器人将根据不同情境优化语言表达,快速响应用户提问,不仅能传递信息,也能满足用户对情感陪伴的需求。
GAI 在新闻领域的广泛应用为记者、编辑和用户等主体带来了诸多优势,然而,这种技术的发展也伴随着一系列主体危机,如削弱了新闻传统和专业价值、冲击了新闻业务模式;减少了记者的职业岗位、贬低了新闻工作价值、侵占了记者和编辑的知识产权;科技公司的垄断加剧新闻传播权力的不平等,还在内容中植入特定的霸权价值观;污染了信息生态系统、损害了用户与新闻机构之间的信任。
GAI 可能包含多种风险,从虚假信息到偏见再现,再到AI 幻觉、泄露隐私、缺乏透明度等,削弱了新闻领域长期以来坚守的价值观。新闻业的核心职能之一是促进新闻读者参与民主活动,这种紧密参与有赖于用户对新闻机构的信任,包括对新闻准确性、真实性和及时性的信任。如果新闻业因为广泛使用GAI 降低了专业标准,将会破坏用户与新闻机构之间的“社会契约”,进一步损害新闻机构在社会中的合法性和权威性。这一连锁反应还将导致更广泛的负面影响,例如降低公众辩论的知情程度,从而削弱公众对公共问题的参与。拥有十一家媒体品牌的美国公司G/O Media发布了人工智能生成内容(AI generated content,简称AIGC),引起了用户的强烈批评,因为这些文章存在许多事实错误,缺乏人工编辑监督,而且整体写作质量不达标[4]。
GAI 的技术垄断可能损害新闻机构的独立性。许多新闻机构的资金已经十分紧张,无法配置专属GAI 新闻工具,只能使用现有工具。大多数研发GAI 的科技公司不会分享工作细节,也不允许新闻机构加入审查机制,它们所采用的众多技术都缺乏可解释性,因此所构建的“黑匣子”系统甚至令专业人士也难以对其进行准确解释。这为新闻机构带来了挑战,使其难以全面理解所使用的工具,难以准确解释系统的工作方式、为何以及如何生成特定输出,也难以对底层的训练数据、模型或算法进行审查和谈判,这可能会损害新闻行业的独立运作能力。
GAI还有可能冲击传统新闻业务模式。搜索引擎可能采用GAI 回答用户查询,这将减少外部新闻网站的网络流量。一旦用户降低通过谷歌点击进入新闻网站的频率,数字新闻机构就有可能降低在线知名度和用户参与度并减少广告收入的主要来源。如果数字新闻网站不能长期可靠地依赖搜索引擎流量,网站可能越来越依赖用户订阅付费来获得独立于大型技术公司的收入,但是订阅资金的规模不足以支撑所有新闻网站,较小规模的新闻网站容易面临关闭。新闻付费业务的日益盛行可能造成“收入而非地理上的新闻荒漠”,无力订阅多份报纸的人可能更容易相信他们在社交媒体或搜索引擎上免费看到的错误信息和低质量内容。在一个更加碎片化的互联网中,人们更有可能存在于信息茧房[5]。大量AIGC 还抢走了原本属于新闻机构的数字广告费用,新闻检测工具NewsGuard 检测到大量网站充斥着AI生成的广告,这些广告资金原本可以用来支持合法的新闻机构[6]。
GAI在新闻业的应用引发了人们对记者工作保障的担忧。随着GAI越来越有能力完成传统上由人类完成的任务,可能对工作岗位的可用性和性质产生影响,同时也可能重新定义我们对与新闻业相关的人类劳动的估值方式。实际上,这一变革是否会带来问题,是否会给记者和新闻业带来不理想的结果,取决于新闻机构如何管理这一过程,包括在资源分配、质量保证以及新闻制作的编辑和伦理方向等方面优先考虑哪些价值观和结果[7]。与此同时,人们目睹新闻编辑室不断关闭、工作岗位日趋减少。美国西北大学梅迪尔新闻学院发布的报告显示,2023年美国已有130多家报纸关闭或合并,倒闭速度将加快到每周2.5 家,到2024 年年底美国将失去自2005年以来三分之一的报纸[8]。在价值链的更上游,即内容标签、过滤和审核方面,工作人员处于被剥削的状态,这将损害新闻机构的声誉。《时代》周刊的一份调查报告发现,OpenAI 与旧金山公司Sama合作标记数据集,后者将任务以每小时2美元的报酬外包给肯尼亚的一个团队,来训练聊天机器人标记攻击性的内容[9]。这种低报酬和高强度的工作不仅削弱了新闻行业工作者的职业价值,同时也加剧了他们的身心压力,损害了新闻行业的整体声誉和可持续性。
目前从技术角度来看,人工通用智能仍无法与人类作家和编辑相媲美。类似于ChatGPT的大型语言模型更适用于自动执行特定任务,例如文件总结,却欠缺高级编辑技能,例如建立与信息来源的深层联系、进行原创分析思考、理解上下文或从事长篇创意写作。尽管存在多方面的缺陷,一些新闻高管可能利用GAI 在短期内削减开支,或者在短期内证明裁员是合理的,而非仅仅是为了提升生产力或创造长期的新价值。AI 的问题并非在于是否真的能够取代人类,而在于它是否会被用来为灾难性的 商 业 决 策 辩 护。2023 年3 月,OpenAI、OpenResearch 和宾夕法尼亚大学的研究人员估计,ChatGPT的学习、转化、创意能力可以取代19%的工作岗位及其吸纳的80%的劳动力,其中作家、记者和新闻工作者最容易受到影响[10]。
GAI还侵占了大量编辑和记者的知识产权。《华盛顿邮报》和艾伦人工智能研究所的研究发现,在GAI 系统所训练的信息来源中,数字媒体排名第三。在排名前十的网站中,至少有一半是新闻机构。而美国新闻/媒体联盟(News/Media Alliance)发布的研究报告显示,AI开发人员不仅在未经授权的情况下使用其成员新闻机构的内容来训练其系统,而且使用范围更广,程度超过其他来源。大多数开发者没有获得使用此类内容所需的许可,技术平台也没有向新闻媒体提供任何补偿。越来越多的网站从严肃的媒体上获取新闻内容,使用ChatGPT 洗稿为新文章,而不注明原作者。拉丁美洲媒体协会同意采取严厉措施,防止新闻内容被GAI 平台免费使用[11]。
GAI会加剧新闻业已存在的权力不平等。由于部署GAI 需要巨额投资和丰富的资源,如大规模计算基础设施和训练数据,这将导致资源和力量的集中更加不均衡,可能进一步造成某些科技公司的垄断。而且,GAI在创建过程中,谁的世界观被纳入模型并被优先考虑,谁能使用和利用这些技术,谁能决定如何监管这些技术,这些决定都离不开权力发挥作用。当下大型科技公司正在进行激烈的竞次(Race to the Bottom)游戏,以谋求主导地位和市场优势。这种竞争环境可能导致过分夸大自身优势、匆忙推出产品,而忽视了审慎考虑、平衡不同利益的重要性。GAI会反映开发者的价值观以及训练数据中潜藏的偏见、偏差和预设,可能导致歧视、偏见、种族主义和极端主义等问题,或者进一步强化某些社群的刻板印象,贬低其他社群。尤其是ChatGPT 偏向西方自由主义价值观,无法在不同的背景下提供足够的社会文化敏感性和特殊性,可能模糊和低估了非西方文化观点的重要性。
GAI 可能被植入特定价值观,影响用户认知与态度。新西兰的数据科学家David Rozado创建了一个名为“RightWingGPT”的GAI 模型,以表达美国政治右翼观点,他还计划创建表达美国政治左翼观点的模型“LeftWingGPT”和一个旨在减少政治极端化的模型“DepolarizingGPT”。研究表明,语言模型可以微妙地影响用户的价值观,因此它们的任何政治偏差都可能产生严重后果[12]。大型语言模型(Large Language Model,LLM)数据往往是从极少数人的声音中收集而来的,而且是按照技术专家的要求收集的,因此,只有极少数人有能力塑造全球使用的模型。牛津互联网研究所专家Kirk指出,这些模型在不同人群中具有同质性,缺乏多样性和民主性,这种情况之所以会造成严重后果,是因为人们错误地假定了这些模型的普遍性,即认为根据50多名审核员的喜好和反馈训练出的模型能适用于使用该技术的人类的多样性,这种模型蕴含了偏见和文化霸权[13]。这些偏见并不是架构本身的产物,而是由对其进行训练的数据造成的。LLM 中的偏差反映了社会本身已经存在的偏差,甚至这些模型可能放大这些偏差。因此,在整理和预训练数据时,关键是要思考我们希望赋予LLM 模型以什么样的世界观(即包括谁的声音并优先考虑谁的声音),以及如何通过人类偏好学习等方法对模型进行微调,需将更多不同的声音和世界观纳入模型。
GAI可能污染信息生态系统。随着GAI日益容易获取,AIGC 的大规模传播变得前所未有的便捷。这种便利也催生了一种令人担忧的可能性,即某些广告制造网站或者流量驱动型营销号可能滥用GAI,将其用于针对特定用户,散布未经核实的虚假信息,从而提高页面浏览量和广告收入。截至2023年11 月,NewsGuard 发现至少有557 家网站利用GAI 制造出大量虚构文章,涉及政治、技术、娱乐和旅游等一系列主题,其中许多文章包含未经证实的阴谋论、不可靠的健康建议或虚构的产品评论[6]。在过去二十年里,社交媒体平台使出版民主化,允许任何人在国际上获得病毒式传播,将内容排名算法转变为关注度和相关性的新把关人。如今,社交媒体平台正在使用AI对帖子进行自动排序,这使得合法新闻媒体的优先级被大量取消,而转向虚假、垃圾或操纵性的内容。欧盟执法机构“欧洲刑警组织”(Europol)的一份报告预测,到2026年,互联网上多达90%的内容可能是AIGC[14]。这些大量制作的廉价且质量低劣的信息争夺着用户的注意力,扭曲了真实新闻市场,掩盖了合法新闻编辑室作为信息集中来源的作用。当互联网信息生态系统充斥着机器人时,人类记者传播可信信息的难度将成倍增加。
GAI还有可能削弱用户对媒体的信任,引发“真实性危机”,扩大“智能鸿沟”。用户对新闻的期望是在没有AI的时代发展起来的,因此对真实性和新闻完整性的理解在很大程度上是基于人类对新闻工作者的观念。然而,新闻机构在使用GAI时,缺乏透明度可能破坏用户的期望,从而损害用户的信任。如果各新闻机构没有及时披露GAI 的使用情况、解释其在新闻制作中的作用以及特定的使用案例,也会引发用户对新闻机构的质疑和不信任。这种信任危机可能对公众评估和理解新闻的能力造成损害,同时还可能深化现存的数字鸿沟等不平等现象。GAI 在英语方面的效果明显优于其他语言,同时也在满足不同社群、文化和社会需求上表现不一。由于GAI更适用于那些拥有计算资源和相关技能的人,那些无法获得这些资源或技术的人将会面临更大的劣势,这将进一步加剧社会的不平等现象,有可能扩大能够获取高质量和可信新闻的人与那些无法获得的人之间的差距。
为了应对当前新闻行业所面临的主体危机,新闻编辑部应制定使用指南和规范伦理原则,以维护新闻专业主义和用户信任;新闻工作者需转向深度创作,建立严格审核制度以确保合法性和准确性,并持续开展GAI职业培训,及时更新技术知识;用户应强化数字媒体素养,承担相应责任。在人机关系的演变中,我们应将关系由简单的辅助关系转变为相互激发、共同进化的伙伴关系,从共存、协作向“共情和共同进化”发展。
GAI的引入为新闻业带来了创新与效率,然而,随之而来的伦理挑战也不可忽视。当我们拥抱新闻制作的未来时,维护媒体的用户信任仍然至关重要。新闻编辑部需要负责任地使用GAI,保持行业长期以来的诚信、透明度和问责价值观。新闻编辑部应该确保采用的工具符合新闻编辑部和用户的最佳利益,而非加大偏见、增加错误信息或威胁新闻编辑室的公信力。
在全球范围内,多国媒体已经开始制定GAI 使用指南,为新闻编辑部提供资源、示例和指导,以应对挑战。由学术界、民间社会、工业界和非营利组织的100 多个合作伙伴联合成立的非营利性联盟“人工智能伙伴关系”(Partnership on AI),于2023年8月发布了《新闻编辑室人工智能购买和使用指南》(The AI Procurement and Use Guidebook for Newsrooms)[15]。该指南旨在为无法自主开发AI 系统的新闻编辑部特别是规模较小的地方新闻编辑部提供详细措施,以有效解决人工智能带来的挑战。该项目包括十个步骤:第一,明确添加AI 工具的目标和预期结果;第二,规划新闻制作周期,考虑AI工具与现有系统的集成点;第三,明确工具类别,评估潜在的优势和风险;第四,检索AI工具数据库,并对新闻编辑室在该领域的绩效水平进行基准测试;第五,列出三到五个潜在的AI工具,同时明确向开发人员提出的问题;第六,选择一到两种欲购买的AI 工具;第七,概述实施所选工具的潜在优势和不足之处;第八,建立适当的管理体系并确定合理的衡量标准,例如准确性、精准度、召回率、效率、用户满意度、成本效益、受众参与度和转换率;第九,了解AI 工具的生命周期;第十,明确何时应淘汰选择的AI工具。
新闻业还应该建立一个代表不同背景的全行业委员会,为GAI 新闻规范伦理原则,包括治理性、可靠性、公平性、责任性、可追溯性、隐私性、合法性、自主性等原则。(1)治理性:新闻机构需要制定明确的指导方针来监控GAI 系统,以发现潜在的错误,以及通过进行交互来减少失误。(2)可靠性:新闻机构需要制定可靠性标准,制定全面的评估和测试协议,确保开发出弹性和稳健的GAI 系统。(3)公平性:新闻机构采纳的GAI不应加剧边缘化、代表性不足、社会经济地位低下、受教育程度低或健康状况差等群体的这种不公平现象。(4)问责性:新闻机构需要合乎道德地使用GAI,并确保实施、部署和运行中都有人类的监督与参与,建立人类问责制。(5)可追溯性:新闻机构需要帮助工作人员了解GAI 的能力、工作原理和操作流程,包括其开发方法、数据来源、相关文档、训练机制等,了解系统的能力和局限性,从而优化人机信任问题。(6)隐私性:新闻机构需要定期开展GAI 的隐私泄露风险评估,防止数据泄露和网络攻击。(7)合法性:新闻领域的GAI 系统面临着安全与有效性、网络安全和知识产权法等方面的法律挑战。(8)自主性:新闻机构不能让GAI完全取代记者和编辑,应尊重人类控制信息系统和决策的能力。
新闻工作者应该调整角色定位,将工作重心从追求规范性和时效性转向深度和真实性的新闻创作以及舆论引导。计算机在当前的编程逻辑中只能执行单一目标的逻辑,然而,新闻的生产并非仅限于数据和信息的传达,舆论引导同样十分重要,而这些是计算机无法自动完成的。即使在信息收集和消息类新闻的自动化生成过程中,也需要人类来完善收集逻辑、审核数据的真实性与准确性[1]。新闻工作者不仅需要在传统的新闻生产流程中把关,还需要在审核端建立更为严谨和审慎的新闻审核制度。这种制度旨在确保GAI生成的新闻内容的合法性和社会效益,同时也需要对其准确性进行审核,避免基于概率计算而导致的事实错误[16]。
新闻工作者需要培养跨界整合能力,从发现新闻转向整合新闻、配置新闻,促成内容生产领域“以生产为中心”到“以用户为中心”的转变。这包括整合品牌塑造、互动管理、关系建构、文化社交、线下活动等多元化的活动。基于人类经验的策划、组织和协调能力,依然是未来新闻工作者的核心能力素养。新闻工作者需要发挥其独特的价值,人类特有的直觉、适应性、创造力和批判性思维等都是机器所不具备的。
新闻工作者还需要开展全面且持续的GAI教育和职业培训。新闻工作者需要为人工智能提供的数据分析和知识生成进行“把关”与设置“边界”,主动调适专业实践的惯例和默会知识,也需要对技术入侵的边界进行集体保护,例如为智能技术设置“标签”与“准入领域”,以此巩固共同体的权威与知识权力[17]。新闻工作者必须了解系统的能力和局限性,建立起对系统的适度信任,过于信任GAI系统会导致滥用,而信任度不足则会导致无法充分利用其潜力。
信息社会通过数字反馈行动可能将人类置于算法机器的控制之下,使社会陷入一种大规模监控的状态。当系统担任数据持有者的角色,吸收并应用人类的经验以预测未来行为时,可能导致社会动态和人类决策过程对算法预测的过度依赖,有可能削弱人类的独立思考和自主性。因此对于数字用户媒介素养教育的需求十分迫切,必须发展出在日益数字化的时代生存或至少共存所需的一切合适的技能。隶属于盖茨基金会的全球非营利性组织“直面历史和自己”(Facing History and Ourselves)已经开设了微课程“学习浏览GAI 内容:媒体素养策略”,向用户介绍GAI 可能给媒体环境带来的变化,帮助他们了解GAI 传播虚假信息的可能性,指导他们采取步骤核实他们在网上看到的信息,并帮助他们了解GAI模型是如何创建图像的[18]。麻省理工学院高级虚拟中心还推出了“深度伪造时代的媒体素养”课程,教育用户识别虚假信息,解构基于事实的断言,并辨识可信来源以应对错误信息和虚假信息,课程涵盖从政策到技术干预等多个方面,专注于提升公众的认知和理解水平[19]。
GAI 与传统的互联网信息服务不同,其输出结果不仅由算法生成,更依赖用户的积极参与。在这一过程中,用户的作用愈发重要,他们的提问方式、引入关键元素以及对生成内容的迭代与选择,直接塑造着最终的生成结果。GAI 与传统搜索引擎不同,它更像是一个与用户进行互动交流的系统,用户的请求和行为直接影响着系统生成的内容,这就凸显了用户治理的重要性。在使用GAI驱动的新闻平台时,用户需要承担相应的义务,例如学习新闻领域的提示词规范,这有助于引导用户的请求,并规范GAI的使用过程。这种治理方式能够更好地指导用户行为,使用户在互动中更明智地引导和影响GAI的输出结果。
随着连续不断的工业革命,人机关系实际上正在发生演变,被称为5C模式:共存(Coexistence)、合作(Cooperation)、协作(Collaboration)、共情与共同进化(Compassion and Coevolution)[20]。在第一次和第二次工业革命期间,机器是工厂的设备,它们和人类形成了一种“共存”的关系,在这种关系中,机器是人类的简单工具。在第三次工业革命期间,人类和机器处于“合作”关系,根据不同的流程暂时共享一个工作空间,并共享部分物理、认知和计算资源。在第四次工业革命中,智能机器与人类在共享的工作空间中进行“协作”,其具体目标是通过各方在共同的团队身份下同步互动的联合行动来完成任务[21]。在第五次工业革命中,人类与机器人组成团队,共同完成任务。这种关系的核心是人类在这种环境中的感受、如何决策、由谁决策以及如何组建这种团队,尤其是培养人机信任,由此让人类感受到目标的一致性,消除机器取代自身的威胁感,并了解与机器合作时的决策过程,保证人类的最终决策权。
当前新闻业的人机关系还处于协作阶段,因此一个极其重要的问题是,人机关系将朝着哪个方向变化。人们已不再单纯视AI 为人类智能的辅助工具,而是意识到机器认知也在发展,它们不再只是执行预定程序,而是学会了通过试错进行创新性探索,包括提出人类不曾想象的问题、目标、假设、分析。在认知发展的四个环节——信息获取、信息加工、认知形成和认知影响中,机器认知与人类认知已不是并存式的“共生”,更不再是简单的辅助合作,而是相互激发与演进,进而构成两者之间的“互生”——当下社会已从“人机共生”迈入“人机互生”阶段[22]。人类(生物智能)和机器(计算智能)以根本不同的方式工作,可以抵消彼此的缺陷,这使得它们不是在用户-工具动态中兼容,而是在更先进和动态的伙伴关系中兼容。人机“共情和共同进化”超越了单一目的的服务,而是作为不断变化的人类和机器生态系统的一部分。在未来的新闻业,以人为本的人机关系需要具备双向共情、主动沟通和协作智能的特点,以建立可靠的人机共同进化关系,从而建立高性能的人机团队。亲密的人机交互最终将促进人类和机器能力的增长,在未来实现持续的人机共同进化。这种共同进化的发展使得新形式的关系不再以竞争为重点,而是为机器和人类创造更美好的新未来[21]。
生成式人工智能所带来的变革力量显现在个体、工作组织和社会结构的演变中,需要对数字技术、人类和组织等主体之间的相互联系进行研究,以深刻反思可持续性和社会价值。新闻行业的健康和可持续发展需要超越技术解决方案,更需要建立多元主体之间可持续的信息生态系统。不同主体间的关联可能重新定义信息传播和消费的方式,而这些主体如何塑造自身角色将极大地影响新闻业未来的发展轨迹。对于GAI,我们需进行全面而有机的治理,通过适当的界定和监管,消除其潜在负面影响,朝着人机“共情和共同进化”的方向发展。