邓秀军?别明蔚
【摘要】大模型的强势崛起打破了传统视听新闻行业的操作流程和生产惯习,加速了视听内容生产的智能化升级,能够促进视听新闻生产方式和流程的创新,推动信息采集自动化、内容生成多元化、分发场景全知化和审查方式智能化。但在给视听新闻行业带来便捷和提升的同时,大模型也引发了知识产权、隐私安全和信息伦理等方面的挑战。媒体机构应通过规制重构、技术重构和人才重构,利用智能技术赋能视听新闻生产,增强人机协同关系的耦合度,实现技术善用,以更好地完成人机协同之下智能化生产路径重构。
【关 键 词】大模型;视听新闻;智能生产;流程再造;人机协同
【作者单位】邓秀军,北京外国语大学国际新闻与传播学院;别明蔚,北京外国语大学国际新闻与传播学院。
【基金项目】国家社科基金重大项目“新时代媒体融合推进北京冬奥精神传播研究”(22&ZD314)。
【中图分类号】G206【文献标识码】A【DOI】10.16491/j.cnki.cn45-1216/g2.2024.08.008
自2022年底OpenAI公司发布ChatGPT以来,以多模态大模型为底层技术逻辑的产品相继出现,引起了各行各业的高度关注。随后发布的视频生成模型Sora更是成为大模型发展史上的重要里程碑。截至2024年3月,我国10亿参数规模以上的大模型已超过100个,行业大模型深度赋能多个领域[1]。在视听新闻行业,以央视听大模型为代表的大模型视听新闻生产应用改变了新闻内容生产方式,丰富了内容供给渠道,提升了新闻生产效率。在用户需求和技术迭代交织的场景中,视听新闻行业正面临前所未有的机遇和挑战。本文将探索大模型技术可供逻辑如何作用于视听新闻生产实现流程再造,分析大模型嵌入新闻生产的风险与挑战,以及如何更好地规避风险,实现人机协同下智能化生产路径重构。
一、视听新闻智能生产的大模型技术采纳
美国学者尼古拉斯·尼葛洛庞帝认为:“数字化生存天然具有赋权的本质,这一特质将引发积极的社会变迁。”[2]我国新闻业态经历了从传统报刊和广播电视到新媒体的转型,如今短视频等新媒体成为主要的媒介形态,新闻内容的生产呈现视觉化转向,随之出现了生产效率低下、分发策略不精准等问题。在这样的大背景下,大模型技术应运而生,全方位赋能视听新闻生产,助推视听新闻行业实现数智化转型。
1.我国视听新闻生产的智能化转向
我国视听新闻行业的演进分为三个阶段:单向传播的“广播阶段”、有线电视和卫星电视的“窄播阶段”、互联网和各移动终端的个性化传播阶段[3]。传统广播电视以时间资源为主要追求目标的线性传播方式被互联网以空间资源为主要目标的非线性传播方式取代,既有的媒介形态和文本样态被不断颠覆和革新,以移动短视频等为代表的新兴视听传播媒介逐步占据主导地位,视听传播成为当前主流的信息领域和传播方式。
无论是电视媒体、视频网站还是社交媒体都在进行云终端的建设,接收和存储大量的信息已不成问题[4]。然而面对海量信息,视听新闻生产依旧存在难以跨越的技术桎梏。一方面,相较于文本新闻,视听新闻的制作成本高、制作周期长,从选题策划到内容生产每个环节都需要专业生产者参与,生产效率大大降低,新闻内容更新滞后。另一方面,现阶段视听新闻在分发环节存在分发场景单一、用户需求把握不精准及数据分析能力滞后等问题。要想更科学地策划、更高效地生产、更精准地传播,优化视听新闻生产逻辑,重构视听新闻生产流程是其中的关键。
2.大模型技术的进化逻辑与媒介赋能
大模型是指基于深度学习算法进行训练的自然语言处理模型,主要应用于自然语言理解和生成等领域,包括机器视觉大模型、多模态大模型和科学计算大模型等[5]。大模型经历了从早期统计学习方法到深度学习模型,再到近年来大规模预训练模型的演进过程。近年来,GPT、BERT、Sora等大规模预训练模型的出现,实现了参数规模的指数级增长和能力涌现,标志着信息社会进入大模型主导的新阶段。
与其他技术相比,大模型在大数据、大算力、大算法等方面具有天然优势,能够通过大规模数据的预训练进行无监督学习,模拟人的思维方式,在各种任务上取得优异成效。尤其是Sora这一大型视觉模型,能够根据多模态的提示生成跨越不同持续时间、宽高比和分辨率的动态视频或图像。大模型技术的演进标志着多模态数据处理能力的颠覆性提升,使其能够按需自动采集和生成视听内容,并模拟人的思维方式与用户进行互动。基于大模型技术的底层逻辑,媒介变革、生产范式和大众日常“观看”行为的边界也逐渐被扩展,为视听新闻生产和分发效率的提升提供了有力支撑。
3.大模型技术支撑视听新闻的智能生产
随着媒介技术与视听新闻行业的持续交融,新闻业长久以来形成的标准化生产流程不断被冲击、消解。按照参与新闻生产的卷入程度,有学者将新闻业中的人工智能技术分为辅助增强、初步自动化和自动化内容生产三个阶段[6]。据此,本文将视听新闻生产中的大模型应用分为辅助阶段、协作阶段和独立生产阶段。在辅助阶段,大模型作为辅助性工具,帮助新闻工作者完成资料整理、素材搜集等基础工作,或者自动生成视听集锦和简短的视听新闻概要。在协作阶段,大模型深度参与新闻生产,帮助新闻工作者完成选题策划、深度视听内容生产等复杂工作。在独立生产阶段,大模型通过深度学习和反复优化,自主生成高质量多模态内容,甚至超越人类创作者的水平。在这前后相继的三个不同阶段,大模型技术扮演着不同的角色,并随着技术的更迭實现不同角色间的平滑过渡。
当下的大模型应用尚处在协作视听新闻生产的中间阶段。媒体机构的大模型应用主要有通用工具型、平台接入型和专有系统型[7] 三种类型。越来越多的视听媒体开始转向大模型的嵌入和运用,纷纷与业界学界开展合作,共建专有视听传播大模型。如,浙江日报报业集团、浙江广播电视集团与传播大脑科技(浙江)股份有限公司合作打造了“天目蓝云”融媒体平台,每日经济新闻推出“雨燕智宣AI短视频自动生成平台”等,都体现了视听新闻生产呈现高度智能化转向。随着大模型技术在视听新闻行业的深入应用,技术逻辑必然影响新闻生产逻辑,推动视听新闻的智能化转型。
二、大模型技术嵌入视听新闻智能生产的流程再造
大模型技术具备支撑生成式人工智能处理包含图像、文字、音视频等形态的融媒体新闻内容的能力[8]。基于深度学习和人机互动,大模型系统能够精准识别和理解复杂的视听信息,促进视听新闻生产方式和流程的创新,推动信息采集自动化、内容生成多元化、分发场景全知化和审查方式智能化。
1.信息采集:高效开启自动化信息处理
信息采集即新闻素材的获取,是新闻生产和分发的基础环节。在大模型嵌入新闻采集流程前,已存在Dreamwriter等新闻采集人工智能技术应用,主要用于简单的文本类新闻编写。相较于以往以写作机器人为主的智能化信息采集辅助应用,大模型能够利用强大的信息处理能力实现自动化信息采集,并且通过自然语言处理和机器学习对海量数据进行筛选、分类和提取,生成智能标题和智能摘要,极大地提高了信息采集的效率,更精准地把握报道角度和重点。
此外,大模型技术还具备图像识别能力和语音识别能力,可以自动分析和标注模态文件,提取视听信息中的关键元素,为新闻报道提供更加丰富的素材。路透社推出的Reuters News Tracer能自动吸纳社交媒体数据流,并使用聚类算法对事件进行追踪分析,实现对新闻事件的实时监测。同时,使用大模型快速定位视听新闻事件中的人物、事件等关键要素,自动进行时间编码,将音视频进行识别、翻译和文本转化,能够在一定程度上提升信息采集效率[9]。
2.内容生产:一键生成多模态视听内容
随着大模型技术逐渐被新闻业采纳,ChatGPT、Sora等大模型应用逐渐参与视听新闻生产,作为非人行动者赋能多模态视听内容的生成。具体来说,大模型技术具备智能创作能力。一是智能化内容加工。ChatGPT能结合新闻的背景信息,帮助生产者完成常规视听新闻解说词和分镜头脚本设计等。Sora则可以根据新闻文本内容,完成自动化字幕生成和内容剪辑,生成高质量多模态视听内容。二是智能化新闻集锦生成。大模型技术具备丰富的视频编辑和处理能力,可以对生成的视频素材进行剪辑、配音、添加特效等,并且可以根据关键词自动生成精选视频集锦,大大提升视听新闻内容的观赏性。三是智能化内容形态创新。大模型应用及终端设备的迅速发展使得虚拟数字人焕发生机,能够代替真实的主持人在各种现实场景中与人互动,促进节目样态的创新升级。
美国的ReelFramer内容生成工具将大模型技术嵌入视听新闻生产,能够以新闻卷轴的形式将短视频内容呈现给观众[10]。我国主流媒体也开启“大模型+新闻”的探索。中央广播电视总台联合上海人工智能实验室发布了央视听媒体大模型,能够根据新闻素材自动生成内容并将其以视觉形式呈现。新华社推出大型语言模型MediaGPT,用以处理视听新闻素材,高效生成多模态新闻内容。
3.分发场景:多维构建全知化传播场景
罗伯特·斯考伯与谢尔·伊斯雷尔在《即将到来的场景时代》一书中断言:“互联网在未来25年内将进入新时代——场景时代。”[11]在场景时代,视听新闻的传播将呈现场景多样化、用户个性化、信息伴随化和需求智能化等特征,而大模型的发展加速了场景时代的来临。
在传播场景建构方面,大模型技术能够在海量数据的基础上进行深度学习和分析,模拟新闻事件的现场环境,结合AR、VR、生成三维立体的场景呈现内容,为用户提供更加真实和鲜活的视听体验。同时,大模型产品还能嵌入智能音箱、智能手表等载体来拓展传播场景,真正实现跨时空多元化传播。
在内容分发机制上,“算法+用户”的协同推荐模式将取代原有的“算法推荐”机制。系统能够根据人类的反馈强化学习和训练,在人类的主题图谱控制和系统的自主语义分析双轨运行机制下,通过持续的人机互动明确用户的偏好与需求。同时,系统能够对新闻图片和视频进行智能识别和标注,为用户提供更便捷的搜索和浏览体验,实现个性化、精准化传播。如英国生成式人工智能新闻机器人查理从多个渠道抓取和分析某个新闻事件的不同信息和观点,根据用户的聊天记录分析用户的诉求和偏好,实现精准适配的新闻推荐。
4.事实核查:深度聚焦智能化审核流程
事实核查是新闻生产中的一个重要环节,是指对报道对象的事实性进行核实、确认的行为[12]。在大模型与视听新闻业深度融合的情境下,技术对事实核查的支撑作用日渐凸显。大模型技术通过强大的数据处理能力,显著提升新闻审查效率。一是语义分析和情感识别。利用大模型深入分析新闻内容,识别潜在的误导性信息或带有偏见的内容,有助于新闻审查人员进行内容纠偏。二是跨模态智能分析和辅助决策。大模型能够审核融合文本、听觉、视觉等多模态信息和跨语种内容,支持多语言处理,确保内容在不同文化和語言环境下的合规性。
此外,大模型能够通过学习了解审查标准和规则,为审核人员提供跨模态智能推荐和辅助决策,这意味着传统人工审核机制将转化为人机结合、人机互动的审核方式。在2023AI+智媒科技大会上,封面科技发布的“小封智作”提供了敏感审核、智能纠错等智能化工具,有效提升了事实核查的效率。
三、大模型技术嵌入视听新闻智能生产的风险与挑战
大模型技术的持续发展和广泛应用推动了视听新闻的生产流程结构性重塑,同时也带来了风险和挑战。新技术语境下的人机关系变得复杂化,技术赋能与技术异化共存。大模型在给视听新闻行业带来便捷和提升的同时,也引发了知识产权、隐私安全和信息伦理等方面的问题。
1.知识产权风险:人机共存之下视听内容治理考量
在人机互构的传播环境下,大模型技术可能导致内容原创性、准确性和合规性被弱化,传统的新闻把关制度遭受冲击。首先,大模型过度依赖机器学习和入库数据,生成的内容主要依靠先验性经验和既定程序,新闻内容生产的创新性和独特性不够,容易形成AI信息茧房。其次,文生视频模型的技术局限性导致生成的视频内容存在整体荒谬、运动主体的临界状态、互动联系画面逻辑错误等问题[13],使得它生成的视听内容可能出现不准确甚至误导用户的情况。再次,大模型的数据挖掘与训练中使用的数据内容是否被授权尚不清晰,可能存在内容搬运现象,极易侵犯版权。最后,大模型嵌入视听新闻生产后,单纯的界面内容把关不再适用于当前情境,把关模式应转化为人机协同下全流程全要素的把关,把关行为的成本和难度越来越高。为此,视听新闻业需要构建完善的视听内容治理规制,加大内容审核和监管力度,确保传播内容的独特性、合规性和可靠性。
2.隐私安全隐患:精准互动之下用户数据安全问题
大模型技术在传受主体有机互动的同时,也可能引发用户数据泄漏等隐私问题。为了训练和优化大模型,实现更精准的推送与互动,平台需要收集大量的用户数据,包括观看历史、搜索记录和互动行为等,普通用户的数据在未授权的状况下被暴露在特定信息环境中,其知情权和所有权都可能会受到侵犯。同时,用户与平台的互动看似是正常的沟通,实则是一种毫不知情情况下的辅助训练过程,个人的日常互动行为数据极大可能被平臺利用,成为平台数字资源的一部分。此外,大模型在处理用户数据时难免存在算法歧视和算法偏见。因此,技术人员需要提高大模型技术的算法透明度,厘清数据的归属权和使用权,并采用加密、脱敏等技术手段,确保用户数据的安全性和隐私性。
3.信息伦理挑战:技术祛魅之下新闻人文关怀缺失
在工具理性思维的驱动下,视听新闻生产可能会出现过于追求效率和效果而忽视新闻内容的人文关怀和社会责任的问题。大模型技术在人伦敏感性题材的视听新闻报道中是否适用还有待考证,大模型视听新闻生成系统虽然能识别基础的情感取向,如“积极”或“消极”,但其受社群文化差异、情感的复杂性等因素的影响,难以捕捉新闻背后更深层次的价值意蕴,新闻内容缺乏“灵韵”,很难与大众产生情感上的共鸣。因此,对于与生命议题相关的报道,大众更希望是只由人类亲自参与编写的无中介化报道[7]。
此外,由于大模型训练数据的不均衡和偏差以及大模型在训练过程中对偏差数据的“学习”,导致其在后期工作中存在算法偏见。算法偏见可能会导致系统倾向于推荐主流社会群体的观点,一些弱势群体的声音因算法的过滤和排序机制而被淹没,缺失应有的人文关怀。大模型时代视听新闻生产的逻辑起点应回到技术、人与社会的良性互动[14],遵循人的主体地位,注重人文精神的传承和弘扬,确保视听新闻在追求技术创新的同时不失其本质价值。
四、大模型技术与视听新闻智能生产协同的路径重构
综观人类社会发展和技术工具迭代的历史,每一次技术的更迭和工具的升级必然引起社会实践活动的边界拓展与重塑。大模型的发展和应用让媒体机构在拥抱新技术的同时,也需要考量如何规避人或技术的“盲目意志”,通过规制重构、技术重构和人才重构,利用智能技术赋能视听新闻生产,增强人机协同关系的耦合度,实现技术善用。
1.规制重构:建立内容治理标准和监管体系,保障视听新闻内容质量
大模型技术已经以一种不可逆的趋势深度融入新闻生产的各个环节,在促进全流程再造的同时也带来了风险和挑战。目前新闻行业大模型技术的使用规制还处在摸索和酝酿阶段,世界新闻出版商协会与德国SCHICKLER咨询公司合作开展的全球调查发现,只有20%的新闻编辑室对如何使用GAI工具制订了管理指南[15]。针对“大模型+视听新闻”的生产模式带来的新挑战和新问题,视听新闻业需要重建新闻生产的制度性规范,明确技术标准、操作流程和审核机制等。
一方面,需要建立大模型应用的质量标准和评估体系,对大模型生成或辅助生成的新闻内容的真实性、客观性等进行内容质量评估,同时监测和评估大模型及其相关产品的使用情况,防止其被误用或者滥用,降低大模型嵌入下视听新闻产生“幻觉新闻”的可能性。另一方面,需要建立健全数据安全保护制度,谨防数字侵权等问题出现。我国的《中华人民共和国数据安全法》和《中华人民共和国个人信息保护法》均强调第三方获取数据的方式和目的的合法性,其中,《中华人民共和国数据安全法》强调建立数字分类分级保护制度。为了规避大模型技术的应用造成内容侵权,视听新闻业可对多模态信息数据按照重要程度分为一般数据、公共数据、国家核心数据,进行制度性保护和差异化管控[16]。
2.技术重构:打造人性化技术图景,实现用户隐私与个性体验共存
在技术不断更迭的当下,新闻工作者需要在理解技术逻辑和用户需求的基础上积极探索大模型与视听新闻交融的契合点,构建人性化的视听传播格局。首先,视听新闻业应打造人性化技术图景。大模型技术的核心特点和优势是具备强大的语义理解和知识整合能力。通过不断优化语义理解能力,新闻工作者能够使大模型产品更加准确地理解视听素材,生成更加类人化和符合语境的新闻内容,并通过深度学习和自然语言处理技术,更加准确理地解用户兴趣和偏好,提供个性化的内容推荐服务。其次,视听新闻业应建立用户隐私保护机制,如数据加密、匿名化处理等,降低用户隐私泄露风险,构筑用户隐私安全防线。最后,视听新闻业建立行业协作机制,促进技术与经验共享,增强算法的透明度和可解释性,让用户了解算法是如何选择内容的,有助于用户判断信息的真实性和多样性,实现用户隐私与个性体验共存。
3.人才重构:发挥新闻生产者主体性功能,彰显视听新闻人文关怀
技术哲学家刘易斯·芒福德在《技术与文明》一书中指出,技术只是人类文化中的一个元素,其作用的好坏,取决于社会集团对其利用的好坏[17]。在大模型与视听新闻智能生产的协同过程中,人才是关键要素。因此,顺应媒介融合趋势,发挥新闻生产者的主体性功能,培养具备新型专业技能和综合素养的视听传播人才至关重要。
专业技能是指在特定领域必须具备的精专技术和把关能力等。具体来说,新的技术生态对视听新闻工作者有了更高层次的要求。一是需要对大模型技术有更准确的理解和更强的应用能力,彰显其独有的创新精神。新闻工作者应合理利用大模型技术探索新的视听新闻报道方式,挖掘社会热点议题和民生问题,关注边缘群体的声音,生产具有深度和温度的视听新闻内容。二是需要承担新的把关责任,批判性思考和评估AI生成的内容,在保证内容新闻价值的基础上增强新闻的人文关怀。
综合素养是融合职业素养、AI媒介素养等为一体的综合能力。在未来,新闻工作者需要深刻理解大模型技术嵌入下视听新闻内容的生产逻辑和伦理风险,坚守新闻伦理和道德底线,为用户提供真实、准确、客观的新闻内容。同时,培养AI媒介素养,能洞察市场和用户需求,快速提取有价值的新闻信息,挖掘其背后的普遍情感和价值,实现人机耦合下的共情传播。
|参考文献|
[1]中国10亿参数规模以上大模型数量已超100个[EB/OL]. (2024-03-25)[2024-04-10]. https://www.chinanews.com.cn/gn/2024/03-25/10186743.shtml.
[2]尼古拉斯·尼葛洛龐帝. 数字化生存[M]. 胡泳,范海燕,译. 海口:海南出版社,1997.
[3]周勇. 视听新闻报道[M]. 北京:中国人民大学出版社,2021.
[4]冶进海. 变革中的视听媒体发展格局与传播形态[D]. 西安:陕西师范大学,2016.
[5]迎接大模型时代(上):大模型发展简史[EB/OL]. (2023-05-14)[2024-04-10]. https://mp.weixin.qq.com/s/hl7y2-Fy_o1_ZHZc_7slpg.
[6]史安斌,刘勇亮. 从媒介融合到人机协同:AI赋能新闻生产的历史、现状与愿景[J]. 传媒观察,2023(6): 36-43.
[7]陈莎. 生成式AI在新闻生产中的应用、现实问题及其应对[J]. 青年记者,2023(19): 57-59.
[8]刘海明,张铭麟. 想象AIGC:生成式人工智能浪潮下融媒体内容生产的思维特征与操作关键[J]. 中国记者,2024(2): 4-8.
[9]MARCELA KUNOVA. How Reuters uses AI to speed up discoverability of video news content[EB/OL]. (2023-07-25)[2024-04-10]. https://www.journalism.co.uk/news/how-reuters-uses-ai-tospeed-up-discoverability-of-video-news-content/s2/a1055917/.
[10]AIGC周报|“印度比尔盖茨”称人脑永远优于[EB/OL]. (2023-04-23)[2024-04-10]. https://
new. qq. com/rain/a/20230423A05PU900.
[11]罗伯特·斯考伯,谢尔·伊斯雷尔. 即将到来的场景时代[M]. 赵乾坤,周宝曜,译. 北京:北京联合出版公司,2014.
[12]林嘉琳,师文. 主流媒体事实核查应对AIGC的问题分析与路径探索[J]. 青年记者,2023(23): 19-22.
[13]郭全中,张金熠. 作为视频世界模拟器的Sora:通向AGI的重要里程碑[J]. 新闻爱好者,2024(4):9-14.
[14]唐铮,林子璐. 生成式人工智能与新闻业:赋能、风险与前瞻[J]. 新闻与写作,2023(11): 97-104.
[15]青记观察丨生成式人工智能对新闻机构的影响[EB/OL]. (2023-07-23)[2024-04-10]. https://new.qq.com/rain/a/20230723A0124900.
[16]何伟光,李均. ChatGPT何以变革教育研究范式[J]. 深圳大学学报(人文社会科学版),2023(5): 15-25.
[17]刘易斯·芒福德. 技术与文明[M]. 陈允明,王克仁,李华山,译. 北京:中国建筑工业出版社,2009.