【内容提要】随着人工智能技术的不断发展,AIGC成为新闻传播领域的一个创造性实践,它的出现带来了新闻生产模式和传播方式的变革,但是由于它目前相对不太完善,无法规避一些新闻伦理方面的问题,带来技术、内容和法律层面的冲击。基于美国、欧盟和中国对于AIGC治理的现状,思考在AIGC不断发展的智媒时代,如何对人工智能生成内容进行新闻规范的引导,使其更好地发挥自身价值,不断完善传媒业的治理框架,实现AIGC的破局之路。
【关键词】AIGC 新闻伦理 新闻业 新闻治理
在中国共产党第二十次全国代表大会上,习近平总书记强调,在建设现代化产业体系中要“推动战略性新兴产业融合集群发展,构建新一代信息技术、人工智能……等一批新的增长引擎”[1]。随着技术的不断发展进步,智能化成为人类社会的主要特征,以ChatGPT为代表的AIGC(人工智能生成内容)越来越成熟并被广泛应用,成为人们日益关注的焦点。保罗·莱文森的媒介进化论指出随着技术传播媒介的发展,它们更倾向于复制真实世界中的“前技术”或是“人性化”的传播环境,不断地接近人性需求是媒介进化的原动力。[2]在技术理性营造的媒介环境中,AIGC模式的出现对新闻传播领域产生了深刻影响,再造新闻生产流程、丰富新闻报道形式、提高新闻传播速率的同时,也带来了深层次的新闻伦理失范问题。为了更好地把握AIGC在智媒时代的发展,需要新闻伦理规范的引导。
一、伦理危机:以新闻伦理审视AIGC发展
智能传播时代,新媒体技术的深入发展使得舆论格局和媒介生态发生了深刻的变化,媒体传播内容、方式、渠道、范围也随之发生变化,由此引发的新闻伦理失范问题越来越受到关注。ChatGPT的问世掀起了人工智能生成内容新一轮的浪潮,“文心一言”“盘古”“通义”等AIGC相关产品应运而生,颠覆了传统的内容生产模式,给新闻传播领域带来新的发展机遇。AIGC在生成文本方面得以应用,通过运用深度学习来理解人类语言,不但能够进行类人化交流,而且在创作文章、翻译文本、编写代码等内容方面发挥着重要作用。然而,技术的变革总能引发新的挑战,技术红利往往与技术缺陷是相伴而生的,AIGC蓬勃发展的同时必然会引发潜在的技术风险、内容危机和法律隐忧,对新闻伦理造成冲击。
(一)媒介依赖与数据偏见的技术风险
TEY3ktlpNx1LYCcshetQ6EvemuEH7x89Ketz08E7IRE=AIGC拥有强大的内容生产能力和数据分析能力,以其深度神经网络和大规模文本训练技术,能够快速生成传播内容,实现内容的跨模态融合,为新闻从业者带来便捷、高效的服务,降低采编成本,提高工作质量和效率。但是每一种技术的出现,都既是恩赐,又是包袱,AIGC也不例外。与传统的人工智能技术相比,AIGC更能够准确把握使用者需求,做到“有问必答”,但在一定程度上削弱了人的思考能力和判断能力,陷入盲目的算法崇拜,这使得使用者极易对AIGC表现出过于乐观的态度,加深使用者对其的依赖。美国科技新闻网站Cnet就是一个典型的例子,由于过度依赖AIGC,借助ChatGPT自动生成了众多新闻报道,然而他们不知道的是这些报道的内容破绽百出,有的甚至能够引发“新闻灾难”,这种由新闻从业者的自我惰性心理造成对AIGC的高度依赖严重损害了新闻的客观性。
人工智能技术的不断深入发展,致使传统新闻报道的“客观”“公正”“中立”已然得不到保证。众所周知,AIGC的前提和基础是数据,机器通过从这些数据中学习,生成模仿人类行为和创造力的新内容。其理论可以追溯到图灵时代,图灵把人的大脑看作离散态的机器,心灵实质上是信息处理过程,其后关于计算机科学、认知科学领域的相关论述成为21世纪人工智能的理论基础。[3]以ChatGPT为例,基于传统机器学习算法的行为,拥有一定的自主性,使用者的生活环境和知识背景不同,对AIGC的使用也会带有价值倾向,会注入个人的主观态度认知,如果数据不够全面、多样,那么其生成的内容也很容易出现偏差,可能会生成暗含政治偏见或带有意识形态色彩的信息,导致舆论操纵行为的发生,影响公众的认知判断。ChatGPT诞生于美国,暗藏算法黑箱的人类反馈强化学习系统必然会更加强化美国的价值标准,体现美国的价值观。ChatGPT不仅可以模拟人的思维,改变人类的学习方式和思维模式,而且可以直接进行信息生产和话语建构,容易产生意识形态方面的风险。例如它在回答使用者提出的问题时,首先对该问题中所包含的信息进行识别,借助算法程序进行信息的过滤筛选,对于符合意识形态的问题能以极快的速度予以回答,反之则会拒绝回答。这实际上是一种潜在的意识形态渗透方式,假如用户缺乏正确的政治判断力和政治敏锐力,多次使用ChatGPT就很容易被其所左右,进而产生意识形态上的风险。
(二)真实存疑与机械报道的内容危机
新闻真实性是新闻工作者进行新闻报道的一个基本原则,也是最重要的新闻伦理之一。新媒体时代,传播主体的增多促进信息的海量传播,信息来源复杂,基于人类反馈强化学习的AIGC以其信息生产速度快、信息生成自动化的特点,导致虚假信息难以识别并在网络中快速传播,公众识别困难使得新闻真实性得不到保障。2023年2月,由ChatGPT自动生成的假新闻“杭州市政府将取消机动车尾号限行政策”在网络上出现并被大量转发,AIGC强大的内容生成能力使得信息伪造成本低下,传播范围极其广泛,损害新闻真实性。此外,专业把关的缺失和事实核查能力的缺乏容易使AIGC传播的信息存在事实错误或数据偏差等行为,专业媒体背书的新闻信息出现失误,监管体系的不完善模糊了新闻真实的边界,加大新闻伦理风险。2023年3月,广州的一名女子在网上发布自己在地铁上的照片,后被网友拿去用AIGC“一键脱衣”,虚假照片的广泛传播对当事人造成巨大伤害,人们对AIGC自动生成的信息难以分辨真伪,使得新闻真实性存疑。
由人工智能生成的内容通常是依靠人们原本设定好的程序和数据库资源进行写作,模式化程度较高,而且只是基于新闻报道的表面现象单纯陈述新闻事实,缺乏深度思考和创新的能力,这也就导致生成的新闻内容难以揭示事件的本质,颠覆了新闻内涵的深度挖掘。再者,它们缺少新闻工作者所具备的专业能力以及文化素养,无法突破专业壁垒,也没有办法拥有人类的真情实感,这样看来,人工智能生成的内容缺乏“情感温度”,很难让受众产生情感共鸣,传播效果受限。正如麦加所言:“人工智能的创作便利性越来越强,但令人担忧的是,人似乎因此而变得依赖于机械化。”以AI虚拟主播为例,它的表情、神态、动作表达较真人主播显得很生硬,在声音表达上机械感较重,无法与用户建立真实的情感连接,同时缺乏与用户的实时沟通和双向互动,一定程度上会降低用户的参与度,这也就导致它们的适用范围受到一定的限制。
(三)数据泄露与权力侵犯的法律隐忧
数据泄露是个人、组织或群体的私人信息或未经授权而公开的重要信息被暴露在危险空间之中。当前人类数字化生存成为现实,数据泄露是AIGC面临的一大难题。AIGC需要依靠海量的数据库来训练和优化,以便能为使用者更好地提供服务,这个数据库将用户使用行为自动储存并被纳入其中,用户通过输入关键词,小到个人的身份信息,大到国家的政治机密都能够被记录下来。基于人工智能技术的局限性,AIGC使得数据安全遭到威胁,带来个人信息、国家机密等数据泄露的风险,进而给个人和国家安全带来巨大危机。AI换脸、AI作画、克隆合成数字人等可以迅速对个人信息进行搜集、抓取并进行分析,人们在互联网上留下的“数字痕迹”加快了AIGC提供个人隐私的速度,信息的公开传播使得用户隐私暴露在网络空间中,数据安全面临严重的法律风险。
AIGC在内容生成方面对权利归属造成威胁,如著作权、隐私权、肖像权等。首先,AI合成产品是运用算法、人工智能等技术来对网络信息素材进行抓取、合成的产品,在这个过程中所用的信息素材来源于互联网中的数据库,这些信息素材可能存在着版权风险,而计算机缺乏自主意识,它们不能对这些素材进行及时识别。当用户输入指令时,数据库就会对该指令的相关内容进行搜索与编码,进而生成内容,这极易侵犯他人版权,造成新闻伦理的失范。其次,网络上流行的AI算命,用户上传自己的照片,并输入自己的名字、生日等个人基本信息,系统提取面部信息并在后台随机组合,在识别过程中存在着隐私泄露的风险。还有网上爆火的AI孙燕姿,也恰恰说明AI变声可以做到以假乱真。最后,隐私权的让渡和非法采集给数据安全保护带来一系列挑战,一些不法分子极有可能利用用户上传的照片冒充照片本人进行一些非法活动。AI换脸被广泛应用到短视频的二次创作中,如将电视剧中主角的脸换成自己的脸并在短视频等平台大量传播,还有一些主播利用AI技术换成明星脸进行直播带货等,这些行为都是侵犯肖像权的体现。由此可见,数据泄露和权利侵犯使得AIGC在法律层面面临严峻挑战。
二、探索创新:各国AIGC治理现状分析
由于各国AIGC技术在发展过程、制度体系、文化背景和价值导向等方面存在显著差异,对于AIGC的治理也呈现出鲜明的地域性特点,这导致了不同国家在具体治理原则和模式上都各有定论,尚未达成共识。联合国教科文组织发布的《人工智能伦理问题建议书》中要求各成员国根据自愿原则建立本国人工智能伦理框架,确保人工智能技术不被用于大规模监控。针对AIGC带来的新闻伦理风险,美国、欧盟、中国等都在积极探索适合本国的治理路径。
(一)美国:先发展后监管的宽松型治理
美国是全球人工智能技术领域的开拓者,它奉行的是先发展后监管的治理原则,即优先鼓励人工智能技术的发展,而后对人工智能技术所带来的危机进行监管。美国十分注重AIGC的商业发展,2020年,美国发布的《行政部门和机构负责人备忘录:人工智能应用监管指南》中指出联邦机构必须避免不必要的监管,以免阻碍人工智能产业的创新。直至去年,美国又提出用1.4亿美元来推动人工智能研究所的建设,以此来实现更多新兴领域的突破,然而在AIGC技术发展过程中,美国对于其在国家安全方面的问题较为重视,认为它可能威胁本国利益,因此还成立了首席数字和人工智能办公室,出台了相关法律来确保自身在全球人工智能技术产业中的领先地位。美国出台对AIGC监管的法律较为迟缓,而且主要采取分散化的监管模式。美国国会研究服务部(CRS)发布的报告显示,建议立法明确生成式人工智能必须设置通知和披露机制、用户退出机制、设立个人数据收集底线等。[4]美国颁布的《人工智能权利法案蓝图》《人工智能风险框架》形成了对人工智能系统的管理问责体系。此外,美国还对谷歌、OpenAI、Stability等多家人工智能生产商的AI产品进行评估,避免出现数据泄露的问题,使得人工智能生成内容更能符合法律法规,更好地促进商业发展。拜登发布e73fdf27f68d73db6ce70616ebcf70ee的“关于安全、可靠、值得信赖地发展人工智能的行政命令”,为人工智能的安全提供了保障,以便能够更好地促进AIGC对商业的发展。由此可见,美国对于AIGC的治理模式相对来说比较大胆,更加侧重于人工智能技术对商业的发展以及技术发展进程中如何能够稳定自己的领先地位,从而满足国家安全需求。
(二)欧盟:先监管后发展的强制型治理
与美国不同,欧盟国家更重视AIGC所带来的数据安全问题,奉行的是先监管后发展的治理原则,高度重视AIGC在个人数据采集、隐私保护方面存在的问题。欧盟在全球推广其人工智能伦理道德和法律框架,并敦促成员国出台本国人工智能国家战略,以欧盟价值观捍卫欧洲在人工智能领域的领导地位。[5]在对AIGC治理时坚持“以人为本”的原则,遵循技术怀疑的前置逻辑,始终保持着较为审慎的态度。意大利对Open AI提供的ChatGPT服务是否侵犯用户隐私展开调查,限制处理用户的个人信息;加拿大数据保护机构也启动对Open AI的联合调查。欧盟早在2020年《关于人工智能:欧洲追求卓越和信任的方法》中就表达了对新人工智能技术的担忧,并开始考虑立法问题。2023年6月,欧盟通过了《人工智能法案》,对人工智能采取分级分类监管原则,明确指出对ChatGPT此类生成式人工智能实行特别监管,力求“保证AIGC的安全性”和“促进AIGC进一步发展”两方面的平衡。同时,欧盟还制定了高风险人工智能禁令,对其进行强制性治理,减少了数据泄露的问题,保障了数据安全。但是,AIGC的快速发展不断冲击着现有的监管框架,过分强调监管限制了AIGC的进一步发展,引发了部分行业的深度担忧。
(三)中国:“软”引导“硬”监管的谨慎型治理
相较于欧盟、美国的治理方式,我国对AIGC的治理一直抱有十分谨慎的态度,强调“软”引导和“硬”监管相结合。一方面,对AIGC应用范围与领域进行规范,通过制定合理的法律法规和政策监管AIGC的开发和应用;另一方面,为了应对AIGC带来的新兴挑战,中国发布了《生成式人工智能服务管理暂行办法》,对AIGC模型训练、数据标注、模型输出、用户使用等关键环节进行了规范。该法规是中国首次对生成式人工智能研发与服务作出明确规定,也是全球首部针对生成式人工智能进行监管的法律文件。同时,中国还发布了《全球人工智能治理倡议》《新一代人工智能发展规划》《新一代人工智能治理原则:发展负责任的人工智能》等文件,呼吁要加强对于人工智能的治理,引导人工智能技术应用向善发展,同时也要做好风险防范,不断提升人工智能技术的安全性和可控性,力求实现AIGC发展和治理二者的统一。
放眼全球,各国在AIGC治理上普遍倾向于将法律法规作为主要手段,为人工智能生成内容的进一步发展提供了法律基础,使其在合法和合规的轨道上得以广泛应用。[6]但是法律法规一般存在着滞后性,不能完全应对技术日新月异发展所带来的潜在危机与挑战。AIGC的治理面临着严峻的“科林格里奇困境”,也就是说,技术后果在最初阶段难以预见,而消极后果逐渐明朗之时,技术已深度融入社会经济的各个层面,因而管控变得十分困难。[7]基于这种情况,如何在保证AIGC伦理安全的同时又促进其稳定发展,是目前我们面临的重要问题之一。
三、智媒向善:AIGC规范新闻伦理的破局策略
通过分析美国、欧盟、中国对于AIGC治理的现状特点,我们可以看到,无论是美国的“宽松型”治理、欧盟的“强制型”管控,抑或中国的“谨慎型”规制,都无法避免AIGC在“技术发展”与“警惕风险”中不断地纠偏。海勒等指出,“机器和人类共同成为一个二元体系,使得他们成为彼此的衡量尺度”[8]。AIGC的发展引发了其在新闻传播领域中的伦理思考,应对AIGC对新闻伦理的冲击,是促进AIGC在新闻传播领域可持续发展的重要保障,也是使其更好地适应新时代媒体环境的重要举措。我们要确保AIGC技术得以广泛应用的同时,也要意识到其是否符合新闻伦理的基本要求。针对智能媒体时代AIGC的破局策略,我们需要从多角度进行分析,实现AIGC的创新发展。
(一)以主流价值体系为导向,加强AIGC风险防范
防范AIGC应用中的数据偏见和意识形态风险问题,最重要的是要符合当今社会的主流价值观,这不但是技术应用必须遵循的价值原则,也是保障意识形态安全的重中之重。技术为善服务还是为恶服务,关键在于其使用者的价值偏好,因此,要把重视使用者的价值建设摆在首位。一方面,要提升使用者自身的媒介素养和技术素养,在利用AIGC提高新闻生产效率的同时,还要充分发挥创造力和主动性,以“人的智慧”牵引“人工智能”,提高自身的专业性。只有实现自身对AIGC的掌控,才能确保不被技术异化,使技术更好地服务于新闻内容生产的需要。另一方面,要增强使用者的技术风险防范能力,加强技术安全教育培训,自觉提高自身的鉴别能力、判断能力和把关能力,坚守算法透明性、可追责性等原则来使用AIGC。只有这样,才能防范人工智能生成内容过程中产生数据偏见和意识形态风险问题的发生。
AIGC的治理面临着严峻的“科林格里奇困境”,它必须符合为社会所公认的价值体系,这是因为AIGC所依靠的算法存在某些倾向,这些倾向直接影响了我们对于它的使用态度。我们不能仅仅因为AIGC具有数据偏见和意识形态风险就否定并拒绝使用它,相反,我们也不能因为AIGC在全球范围内的广泛应用就完全认同并应用它。因此,除了要重视AIGC使用者的价值建设外,还要加强对AIGC的伦理规范,对其算法进行优化,在这个过程中,要全面渗入“公正”“民主”的社会导向,提高算法透明度和准确性,能够避免出现极端化的内容表达,通过建立可靠的数据保障防御机制来减少数据偏见的发生,使AIGC能够真正为人类服务,而且能够使他们享受技术优势所带来的便利和好处。
(二)以多方管理主体为依托,加强AIGC危机治理
信息的选择与筛选是AIGC在内容生产方面对新闻伦理造成冲击的主要原因,对于AIGC的危机治理,可以从技术、行业、新闻工作者三个角度来探讨。
首先,从技术层面看,要明确AIGC在新闻传播领域的应用范围,借助技术手段对有害信息、敏感词汇进行有效过滤,最大可能减少AIGC加持下虚假信息的传播。技术供应商也要促进技术创新,适当公开算法的操作流程,及时对AIGC产品进行技术维护,不断完善技术解决方案,避免出现技术落后于新闻生产的现象,如开发AIGC实时翻译、AIGC信息标注等系统满足用户多样化新闻需求。作为AIGC技术应用的服务对象——用户,要树立辩证思维,正确看待人工智能生成内容,重点关注内容的新闻价值层面,避免陷于技术构建的信息茧房而无法自拔。
其次,企业作为AIGC的开发者,需要做好对技术标准的制定,并对AIGC带来的伦理风险问题进行严格审查,谨慎处理新闻信息收集过程的各个环节,始终坚守新闻专业性原则。如果技术出现问题,要对企业予以追责,并且要求企业对AIGC出现的错误和疏漏进行弥补,建立多维度的智能计算系统,优化算法模型,使其在处理过程中更加真实、客观。除企业外,相关行业监管部门也要承担起重要的角色,要完善管理运营模式,避免技术滥用造成更大的社会伦理危机。推动AIGC合理保障新闻业的发展,需要在推动技术应用的基础上建立相应的技术规范,释放技术活力,推动新闻传媒业高质量发展。
最后,新闻工作者作为新闻活动的主体,要加强自律,秉持新闻真实性的原则,自觉对自身行为进行约束,在新闻报道时注入人文关怀,避免出现机械化报道。还要积极合理地将智能技术应用于新闻工作当中,可通过打造智能识别虚假内容的工具,例如运用anti-deepfake技术减少虚假信息传播,加强在新闻内容的生成、审核、完善、发布这一过程的把关,使新闻内容经过人工和技术的双重把关,以保证AIGC生成内容传播的真实性和准确性。建立以新闻工作者为主体,与技术良性互动的共生协作关系,确保AIGC在遵循新闻伦理的基础上得以应用。
(三)以伦理规范准则为核心,加强AIGC法律规制
技术发展总是先行于法律,随着AIGC技术的应用与发展,以数据库作为主要内容来源的AIGC能够在潜移默化中引发新闻侵权现象的发生,目前我国关于规范AIGC的法律法规还不是很完善,AIGC生产的新闻产品归属权是归谁所有,是否受著作权保护以及当其生产的新闻内容出现问题时又由谁来承担责任,这类问题需要运用法律加以界定。《新一代人工智能发展规划》将如何促进人工智能发展的法律法规和伦理规范视为核心问题,对于AIGC的规制需要法律的约束。针对AIGC应用于新闻内容生产的归属、场景、范围以及追责机制等出台相关法律,对已经出台的相关法律进行细化,厘清相关主体责任,明确规定使用者利用AIGC创作的内容一经发布,必须对其侵犯著作权、隐私权、肖像权等行为承担法律责任,最大程度上规制AIGC带来的法律危机,推进新闻业责任意识的树立和健康内容生态的建立,维护新闻专业性。例如在《中华人民共和国著作权法》中完善有关AIGC内容版权保护的法规,根据当前应用现状在已有的法律基础上进一步完善法律规范,为AIGC的进一步发展提供法律支撑。针对AIGC的数据采集,应健全预防算法偏见的法规体系,设置偏见评估系统,在内容输出前对其进行偏见评估,从源头上对内容进行规范。新闻伦理是法律法规制定的基础,AIGC必须遵循为社会所认可的伦理规范,因此要促进伦理道德规范的建设,参照《人工智能伦理问题建议书》中的意见,坚持以社会主义核心价值观为核心,坚持以人为本,智能向善作为基本准则,并将其渗透至AIGC的应用环节中,[9]使得AIGC最大限度回应使用者的基本诉求,促进良性发展。
Gartner曾预测,“到2025年,生成式AI产生的内容将从目前的1%提升到10%”[10],也就是说未来的AIGC拥有广泛的发展前景。新闻业的发展离不开技术的推动,也离不开对新闻伦理的坚守。因此新闻业要坚持“工具理性”和“价值理性”二者相辅相成,既要强调AIGC的发展创新,也要重视对于AIGC的新闻伦理规范,更好地利用AIGC促进新闻业转型升级。
【本文系国家民委共同发展司专项课题“构建现代传播矩阵推动共同现代化”(项目编号:20231016000)的阶段性成果】
参考文献:
[1]习近平.高举中国特色社会主义伟大旗帜为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告[Z].北京:人民出版社,2022.
[2]唐俊.对媒介进化论的再认识:基于感知和权力的双重维度——兼论Web3.0媒介的平权结构[J].新闻界,2023(01):47-56.
[3]陈昌凤,张梦.由数据决定?AIGC的价值观和伦理问题[J].新闻与写作,2023(04):15-23.
[4][5] 朱新梅,周菁.全球主要国家和地区人工智能治理研究报告[J].声屏世界,2023(24):14-21+32.
[6]胡兵,钟思悦.荷兰预判性技术伦理思潮对AIGC治理的启示[J].青年记者,2024(02):48-54.
[7]文成伟,汪姿君.预知性技术伦理消解AI科林格里奇困境的路径分析[J].自然辩证法通讯,2021,43(04):9-15.
[8]凯瑟琳·海勒,黄斐.计算人类[J].全球传媒学刊,2019(01):28-46.
[9]周鸿,熊青霞.AIGC赋能媒介生产的机遇、隐忧与应对[J].传播与版权,2024(02):35-38.
[10]郑满宁.人工智能技术下的新闻业:嬗变、转向与应对——基于ChatGPT带来的新思考[J].中国编辑,2023(04):35-40.
作者简介:孟艳芳,博士,北京印刷学院副教授;刘伊茗,北京印刷学院硕士研究生;范涛,扬州大学硕士研究生
编辑:徐 峰