生成式AI驱动的新闻个性化与公共性平衡的探索

2024-01-18 00:00:00刘泓成张国伟
新闻爱好者 2024年12期
关键词:生成式人工智能

【摘要】生成式AI通过数据赋能创作、智能推荐革新和交互体验升级,为新闻个性化提供了强有力的技术支撑。但新闻个性化亦可能引发“信息茧房”效应和过滤泡沫现象等,削弱新闻的多样性和公共性价值。因此,剖析新闻个性化对公共性的影响,包括“信息茧房”效应、议程设置的重构以及伦理责任的考量,并提出平衡个性化与公共性的策略性建议,还有提升算法透明度、实施内容多元策略和强化公众参与,对构建有效的反馈机制具有重要意义。

【关键词】生成式人工智能;新闻个性化;新闻公共性

生成式AI是指基于算法、模型、规则,在没有人为直接参与的情况下生成图文、音视频、代码等内容的技术,从2022年OpenAI推出的ChatGPT,到2024年春节期间震撼发布的Sora,一系列技术突破不仅见证了生成式AI在文本、图像、视频等多模态内容生成上的飞跃,更深刻地影响着新闻生产、信息传播及人类实践的方方面面。生成式AI既能根据用户的偏好和兴趣提供高度个性化的新闻内容,增强用户体验和黏性。亦可能引发“信息茧房”效应与过滤泡沫现象,对新闻内容的公共性价值构成潜在威胁,进而挑战新闻传播的公共责任与社会功能。因此,在探索生成式AI技术在新闻领域的应用时,必须充分考虑其对新闻公共性的影响,努力寻求个性化与公共性之间的平衡。

一、生成式AI驱动的新闻个性化机制

(一)数据赋能创作:跨越数据洪流,精准塑造个性化内容

数字化转型显著压缩了用户从产生需求到获得满足的过程,而生成式AI技术的兴起,则进一步加速了用户需求向满足端的渗透,催生了新闻内容生产模式的深刻转变。这一转变的关键在于AI系统能够高效处理并深度分析庞大数据集的能力。以ChatGPT为例,它融合了多种信息资源,诸如维基百科的内容、网络爬虫所获取的数据、学术期刊的论文成果、新闻媒体的报道、百科全书的丰富知识等。这些资源共同构成了一个数据量接近45TB的庞大集合,为构建一个强大而稳固的基础模型提供了有力的支撑。借助这一模型,ChatGPT能够深入挖掘用户的兴趣偏好、阅读习惯及关注点等关键信息,进而生成高度个性化的新闻内容。ChatGPT在长篇文本摘要和主题提取方面也展现出卓越的能力。在特朗普被起诉的事件中,《内幕》总编辑卡尔森将购得的长篇文件输入ChatGPT,由其快速生成了一个300字的摘要,这一功能极大地辅助了《内幕》在新闻报道上的迅速决策。[1]生成式AI凭借其强大的自然语言处理能力,将收集到的数据转化为高质量的新闻内容。通过算法模型对新闻素材进行智能筛选、整合与创作,AI系统确保了生成的新闻内容既符合用户的兴趣偏好,又兼具高可读性和可信度。

(二)智能推荐革新:个性化新闻推荐的算法逻辑与用户体验优化

随着人机交互领域的持续进步,个人行为数据的收集日益广泛,这一趋势促成了一种以个体偏好为核心的信息分配机制,极大地增强了新闻消费的互动性和个性化体验。众多新闻机构已着手利用生成式AI技术来提供定制化服务。以ChatGPT为例,它能通过智能对话功能,拓展新闻的信息价值,提升用户的参与度与积极性,为“公民新闻”“对话式新闻”以及“开放式新闻”的发展注入新动力。在新闻分发领域,ChatGPT同样表现出色,其多标签文本分类能力,结合实体识别和关键词提取技术,极大提升了信息分发的效率和推送的精准性。同时,专用型插件的引入使得媒介能够读取场景数据,通过开发插件实现媒介与用户场景的直接匹配,获取更为精细的数据。ChatGPT-4已支持购物、餐饮、学习等多种场景的插件,而百度推出的文心一言大模型也在积极构建插件生态,提供直观的可视化界面和API接口,方便开发者自定义模型和插件的开发。这些插件的加入,使用户在使用过程中能更精确地定位自身场景,并通过行为数据反映对话语境,助力媒介更快、更准确地理解用户环境,从而进一步优化个性化新闻推荐服务,提升用户体验。

(三)交互体验升级:对话式新闻开启个性化叙事新篇章

“对话”作为意义构建的核心环节,已跨越人际界限深入人机交互领域。在生成式AI的赋能下,“对话”成为数字新闻叙事的核心机制。[2]互动机制的增强使生成式智能能够与用户进行即时对话,提供个性化的新闻更新,并快速收集反馈信息,从而不断改进用户体验。[3]例如,ChatGPT能够借助诸如VoiceOver一类的插件实现高水平的语音交互与高度仿真的对话体验。在与用户进行连续对话的过程中,它能够有效识别、逐步学习并综合用户的个性化偏好,进而将这些信息元素进行有序的组织与整理,最终以更加贴合用户需求的形式进行展现。如为新闻报道提供情感分析及相应的指标,使读者能够轻松把握新闻的整体情绪色彩和基调,通过筛选内容来避免传播夸大其词或负面的信息,旨在为用户创造一个更为轻松、低压力的信息获取环境,同时增强信息交互的便捷性与趣味性。个性化故事线的引入将新闻交互体验推向了一个新的高度。这些故事线不仅涵盖了新闻事件的核心内容,还通过丰富的细节和多元的视角,为读者提供了更加全面、深入的新闻解读。用户可以根据自己的兴趣和需求,选择不同的故事线进行探索,从而获得更加个性化、定制化的新闻阅读体验。

二、新闻个性化对公共性的影响剖析

(一)“信息茧房”效应:个性化机制下的认知与视野局限

ChatGPT作为一种基于概率模型和统计估算的工具,虽坐拥庞大的先验知识体系,但在对外部领域适应性上存在局限性,对于新颖见解与创意构想的接纳能力不足,这一特性在一定程度上催化了“AI茧房”现象的形成。[4]随着AI生成内容的广泛传播,富含人文关怀的新闻报道日渐稀缺。ChatGPT凭借其“无所不知、无所不能”的形象,在塑造公众认知现实方面占据了主导地位,这种认知不仅削弱了新闻媒体的公信力,还诱发了结构性的认知难题,加剧了新闻业面临的信任危机。用户认知被AI引导,局限于由AI构建的现实中,可能引发“认知收敛”,削弱人类创造性思维与人文关怀。AI能生成逼真的视觉影像,营造临场感、沉浸式的视觉文化氛围。如Sora能够快速打造出宛如现实“镜像”般的视觉场景。然而,这种高度逼真的模拟技术却模糊了客观实在与机器创作、真实世界与虚拟领域之间的界限,使得个体难以分辨。这一现象不仅动摇了人的认知基准,导致个体的认知框架陷入一种不确定和混乱的状态,更潜藏着将人们从现实生活“拉入”虚拟梦境的危险。

(二)伦理责任的深度考量:新闻个性化推荐系统下的真实性、公正性与透明度隐忧

伴随着人工智能的崛起,新闻传播领域越发警觉于算法黑箱背后潜藏的隐私风险、社会管控隐忧以及舆论导向难题。生成式AI从数据和模式中学习,创建模仿人类行为和创造力的新内容,但存在系统性偏见、价值观对抗、刻板印象、虚假信息等问题。由于用以训练的数据集可能内含倾向性,所生成的新视频内容可能非但未消弭偏见,反而加深了既有的刻板印象,加剧社会的不平等现象,甚至触发了新的文化矛盾与冲突。以ChatGPT和Sora为代表的生成式AI,能根据用户提供的文本和关键词自动生成逼真的图片或视频,甚至能创造出看似“真实”且符合现实物理的动态模拟影像,生成式AI幻象如“AI幻觉”“模拟影像”和“深度伪造”等开始出现,但这些影像并非真实的再现,而是“真实的虚假”或“真实的幻象”。[5]这种技术使得自媒体创作者可能在利益或某种时效性驱使下制作并传播虚假新闻,用于误导公众、操纵舆论或进行非法活动,导致公众对新闻媒体的信任度下降。此外,多模态转换还可能带来意义损害和歪曲的问题。生成式AI为数字新闻叙事创建了过程性的内容界面,试图以“透明性”代替“客观性”建构新闻叙事的价值规范。然而这一技术愿景目前仍停留在理论构想阶段,实际应用中,这种动态界面能在何种程度上真正实现“透明度”,尚需时间与实践的进一步检验。

三、个性化与公共性平衡的策略性探讨

(一)提升算法透明度:强化可解释性与用户信任

当前许多新闻算法推荐系统采用的黑箱算法,使得用户无法洞悉其工作机制和决策流程,进而对推荐结果产生了不信任感。为了打破这一困境,提升算法的透明度和可解释性成为建立用户信任的关键。以Sora为例,其叙事算法的不透明性使得用户在区分虚拟与现实影像、识别文化偏见以及评估伦理平衡方面遭遇挑战。为了应对这一挑战,首要任务是提升算法决策流程的透明度,清晰揭示“输入—输出”的运作机理及其背后的权力结构和价值评判准则。[6]这样,用户便能及时了解Sora即时叙事背后的价值导向,从而更加理智地审视和接纳其推荐内容。其次,需加强视觉数据处理流程的透明度。Sora如何识别、解读并转化视觉训练数据中的场景、情感等元素,以及这些因素如何塑造新的内容生成逻辑,都应向用户明确展示。通过回溯和审视视觉数据的处理过程,用户可以直观地看到视觉元素如何被组合并赋予新意,从而穿透视觉表象,更深入地理解叙事逻辑,提高对内容真实性的判断能力。最后,要确保Sora在视觉影像输出上的逻辑具有高度的透明性。Sora应当公开其算法逻辑和数据处理的机制,包括它是如何选择特定的镜头、画面主体等视觉内容的内在标准。这样个体能够更清晰地洞察Sora在创造视觉奇观时所依据的价值取向和文化意图,这不仅可以促进用户对推荐结果的深入理解,还可以提升他们对这些内容的接受度。

(二)内容多元策略的实施:从单一走向多元

为了规避“信息茧房”效应并维护新闻的公共性,需要采取内容多元化策略,推动生成内容从单一向多元转变。首要措施是引入多样化的算法模型和推荐策略,并结合“算法+用户”的协同把关模式。借助生成式AI的力量不仅能更精确地满足用户的个性化需求,还能有力保障信息的多样性和公正性。此外,利用生成式AI来激励用户主动探索多样化的新闻内容也至关重要。系统可以运用AI技术深入分析用户的历史阅读行为和兴趣偏好,进而为其提供个性化的探索路径和智能推荐策略。这种方法不仅可以有效激发用户的好奇心和求知欲,还能够引导他们主动接触并了解不同的新闻观点和立场。这一举措不仅大幅提升了用户的满意度和忠诚度,还进一步促进了新闻的传播和讨论,从而显著增强了新闻的公共性和社会影响力。

(三)公众参与的强化:构建有效的反馈机制

公众参与是新闻个性化推荐系统中不可或缺的一环。通过构建有效的反馈机制,可以促进新闻个性化中的公共参与,增强用户对推荐系统的认同感和满意度。以北京冬奥会为例,央视频利用其先进的AI内容创作系统,针对冬奥会冰雪赛事新闻,实现了从视频素材自动抓取、智能剪辑到内容合成的全流程自动化,从而迅速生成大量符合用户需求的视频新闻。该系统不仅高效,而且注重学习与进化,将用户反馈视为宝贵的训练资源,据此不断优化其新闻叙事的构建逻辑,确保后续作品更加贴合用户偏好。为了加强内容呈现与多元新闻主体间的紧密联系,需要开拓多样化的互动途径,以此提升生成式AI在打造个性化、高贴合度新闻叙事方面的能力。在Sora的运行框架下,图像的生成并非单纯由程序指令所主导,而是植根于人与机器间的协同工作模式之中。传统图像的魅力在于人们能从其中辨识并提炼出富含象征意义的概念,这是一种“由图像触及概念”的修辞艺术。相对地,生成式AI在图像创造上所展现的想象力侧重于在“概念的形式化”层面上的创新与解释,它实现了“由概念孕育图像”的创造性转化。[7]人们通过不断输入和调整提示语,积极地“摸索”大型模型的反馈机制,寻找人类认知与模型输出之间最恰当的对应关系和优化匹配模式。通过强化公众参与和构建有效的反馈机制,能够在个性化与公共性之间找到最佳的平衡点,实现用户满意度和社会责任的双重提升。

四、结语

当前,生成式AI技术的应用引发了广泛的对新闻公共性、多元性和公正性的深刻思考。算法偏见、数据隐私泄露以及内容质量良莠不齐等问题逐渐显现,成为技术发展过程中不容忽视的挑战。然而,新闻传播的核心始终应以人为本,而非以机器为主导。因此,无论是追求速度、效率还是便捷性,都应服务于人的需求,在致力于提升用户体验的同时,坚守新闻的公共性、多元性和公正性原则。在积极拥抱人工智能所带来的大模型革命的同时,构建以人为本的人工智能大模型发展战略。这包括为生成式AI大模型注入正确的价值观,以及在易产生沉浸感的智能产品中嵌入干预和提醒机制,确保其发展轨迹始终朝向有益于“以人为本”的方向前进。

参考文献:

[1]Manjoo F.ChatGPT is already changing how I do my job [EB/OL].https://www.nytimes.com/2023/04/21/opinion/chatgpt-journalism.html.

[2]何天平.从文本构造到界面连接:生成式人工智能对数字新闻叙事的重塑[J].新闻界,2023(6):13-21+61.

[3]陈昌凤.生成式人工智能与新闻传播:实务赋能、理念挑战与角色重塑[J].新闻界,2023(6):4-12.

[4]陈昌凤,袁雨晴.智能新闻业:生成式人工智能成为基础设施[J].内蒙古社会科学,2024,45(1):40-48.

[5]经羽伦,张殿元.生成式AI幻象的制造逻辑及其超真实建构的文化后果[J].山东师范大学学报(社会科学版),2024,69(5):113-126.

[6]赵红勋,王佳慧.拟造的“真实”:Sora的叙事逻辑及其伦理边界[J].新闻爱好者,2024(7):22-26.

[7]刘涛.失联的“踪迹”:生成式AI图像与图像阐释学的知识框架重构[J].南京社会科学,2024(8):86-100.

作者简介:刘泓成,广西艺术学院广播电视专业硕士生(南宁 530022);张国伟,河南大学新闻与传播学院副教授(开封 475001)。

编校:董方晓

猜你喜欢
生成式人工智能
机器创造时代的人类创造危机与教育应对
生成式人工智能背景下教师的主体性危机与破局
生成式人工智能给图书馆带来的机遇、挑战及应对策略
图书与情报(2023年2期)2023-06-23 09:03:03
生成式人工智能在国际传播领域的应用、风险及防范
新闻世界(2023年6期)2023-06-19 20:43:46
生成式人工智能与教育创新:机遇、挑战与应对
生成式人工智能ChatGPT的数字经济风险及应对路径
江淮论坛(2023年2期)2023-06-08 14:22:52
生成式人工智能的教育启示:让每个人成为他自己
挑战·融合·变革:“ChatGPT与未来教育”会议综述
生成式人工智能时代的政治传播走向
党政研究(2023年3期)2023-05-29 01:10:39
生成式人工智能重塑教育及教师应对之道