摘 要:ChatGPT 等生成式人工智能是新一代人工智能的代表性技术,它由于算法设计与数据选择的意识形态倾向、自主学习与计算生成新内容的意识形态性以及对社会舆论和意识形态环境的影响等因素,使其具有意识形态属性。在网络公共话语空间,生成式人工智能可能因为数据偏见与算法歧视,增加意识形态渗透风险;产生劳动主客体异位,导致意识形态撕裂风险;带来工具理性僭越价值理性,引发意识形态退化风险。因此,要着重从自主研发利用生成式人工智能技术入手,坚持伦理先行,内嵌主流价值观念,以“中国话语”破解“西方话语”。
关键词:生成式人工智能;ChatGPT;网络公共话语空间;技术异化;算法治理
中图分类号:TP18;C912.63 文献标志码:A 文章编号:1674-5094(2025)01-0018-09
意识形态作为一种观念上层建筑,不仅是关于价值观的理论体系,也是人们对事物的理解、认知和感观思想的集合。意识形态实质是一种集体话语,需要理论来论证其所代表利益的合理性。西方意识形态话语一直在用形式上的虚幻的利益普遍性来掩盖其实质内容的利益特殊性[1]10。在网络公共空间,西方资本主义国家总是试图制造一种假象,即网络空间处于意识形态“真空”之外,是人民普遍可以充分享受的“自由王国”[2]。在西方国家不断发出种种论调的复杂背景下,生成式人工智能作为引领新一轮科技革命和产业变革的关键技术,其重要性不言而喻。故而,针对其嵌入网络公共空间意识形态治理展开相关研究,已经成为无法回避的重要课题。
生成式人工智能(Generative Artificial Intelligence,简称GAI)是一种新兴的人工智能技术。它通过复杂的算法、模型和规则,从大量的数据中学习并模仿人类的创造力和想象力,能够生成文字、图片、声音、视频以及代码等多种类型内容。当前,这种技术实现了对传统软件数据处理和分析能力的全面超越,极大扩展了人工智能的应用范围。生成式人工智能在深度学习技术、多任务处理能力、数据驱动与知识整合等方面展现出了有别于传统人工智能的新特点和新属性,呈现出其特有的质的规定性。2022 年底,OpenAI 推出的ChatGPT 标志着生成式人工智能在文本生成领域取得了显著进展。紧接着,谷歌和百度等科技巨头也不甘落后,分别推出了Bard 和文心一言等类似ChatGPT 的媒体应用,展现了它们在人工智能领域的快速响应能力。不仅如此,苹果、Anthropic、京东、腾讯等公司也都表示正在开发类似的智能系统。作为一项极具变革性的技术,生成式人工智能在形塑人机共生和虚实相生的人类社会的同时,也带来了疏离主流意识形态理论体系和挤占网络公共话语传播空间等危机。在生成式人工智能时代背景下,审视生成式人工智能在网络公共话语空间给意识形态工作带来的新变化,探索分析应对这一变化的可能路径,是一项具有时代特色的重要理论和实践问题。
一、 生成式人工智能的意识形态属性
霍克海默曾说过,“科学技术之所以是意识形态,是因为它保留着一种阻碍它发现社会危机真正原因的形式。说它是意识形态的,并不是说它的参与者们不关心纯粹的真理,任何一种掩盖是非真实本性的人类行为方式,即便是建立在相互争执的基础上,皆为意识形态的东西”[3]5。 按照哈贝马斯等西方马克思主义学者的观点,科学技术之所以被视为意识形态,并非是因为科学技术本身就是意识形态,而是由于科学技术在社会发展中扮演着至关重要的角色,导致人们将其视为崇拜的对象或权威的象征。人工智能虽然在某些方面具有远超人类的能力,但它并未摆脱技术的身份,而是人类创造物的一种。随着生成式人工智能的快速发展和广泛应用,生成式人工智能能够为广大使用者提供内容处理相关支持,无论是普通用户还是企业、组织,都可以从中受益,获得语言生成、问答、翻译等方面的服务。也就是说,生成式人工智能技术不仅是技术创新的产物,也是社会性和公共性的体现,紧密关联着网络公共话语的发展和应用。久而久之,人们对生成式人工智能产生了高度的信任和依赖,形成了所谓的“算法崇拜”。这种算法崇拜在一定程度上加剧了人们对科学技术的盲目崇拜和信任,进而可能使科学技术成为新的意识形态工具。
生成式人工智能的意识形态属性主要体现在以下三个方面。第一,算法设计与数据选择的意识形态倾向。生成式人工智能技术的背后,实际上蕴含着设计者的各种价值观念和诉求。从最初的构思到最终的实际应用过程中,设计者的个人偏好、政治立场、宗教信仰等因素,都会在不同程度上对人工智能设计产生影响。当生成式人工智能的数据输入中带有某种特定的意识形态倾向时,它的输出结果也会自然而然地反映出这种意识形态的特点。以ChatGPT为例,由于它在学习阶段主要接触的是英语资料和反映西方意识形态的材料,所以在它生成内容的过程中,就可能不自觉地融入了一些西方的价值观和思想倾向。这表明,生成式人工智能的输出结果并不是完全客观和中立的,而是会受到其训练数据和设计者背景的影响。因此,在发展和应用生成式人工智能时,需要更加重视其背后的价值观和意识形态的因素。第二,自主学习与计算生成新内容的意识形态性。生成式人工智能拥有强大的自我学习和计算能力,能够创造出全新的内容,而这些内容的质量有时甚至超越了人类的平均水平。这些文本内容在形式上类似于人类的话语。谷歌大脑的研究科学家伊恩·古德费洛等曾提出生成对抗网络(Generative Adversarial Networks,GANs)的概念。在他看来,通过两个神经网络的竞争,生成逼真的数据,这在一定程度上可以理解为生成了一种“话语”的视觉或文本表现。这些文本表现并非预设好的模板或脚本,而是源于与用户之间持续、动态的交互过程。这种由算法自主产生的内容,我们称之为“算法意识形态”,它揭示了算法在某种程度上仿佛拥有了自己的思维方式、规则和逻辑体系,就像是一种独特的“想法”[4]。尽管“算法意识形态”的概念可能受到了一些哲学思想的影响,比如,马尔库塞和海德格尔等人关于技术与社会关系的讨论,但它并非直接建立在这些理论框架之上。相反,它是基于生成式人工智能在现实世界中的广泛应用和实践,通过观察和分析这些应用如何影响信息的产生、传播和理解而逐步形成的。简言之,算法意识形态是生成式人工智能技术发展到一定阶段的产物,它反映了算法在自主生成内容时所展现出的独特性和影响力。第三,对社会舆论和意识形态环境的影响。生成式人工智能借助深度学习的强大能力,不仅能够深入理解并生成自然流畅的语言文本,还能模拟出类似人类的语言交流方式。这种技术使得人工智能能够在多个领域创造出丰富多样的信息内容。其中,生成式人工智能在新闻传播、社交媒体等领域的应用,使其能够对社会舆论和意识形态环境产生深远影响。也就是说,生成式人工智能可能通过算法优化实现对舆论的引导,从而塑造特定的意识形态氛围,影响人们意识形态的选择和判断。同时,生成式人工智能也可能被用于制造虚假新闻或误导性信息,进一步加剧社会冲突和矛盾。
基于上述情况,仅仅将生成式人工智能视为一种单纯的技术工具是远远不够的。我们必须认识到,这种技术的每一步发展,都深深根植于人类的意识之中,受到设计者、开发者以及使用者的价值观、信仰、偏好等多重因素的影响。如果忽视了这一点,仅仅从技术层面去审视生成式人工智能,那么就无法全面把握其作为话语传播者的特性,更无法准确评估它给意识形态领域带来的深远影响。因此,我们需要更加全面地理解生成式人工智能,既要看到其技术层面的先进性,也要深刻认识到其背后所蕴含的人类意识和社会因素。只有这样,我们才能更好地利用这一技术,推动社会的进步和发展,同时避免其可能带来的负面影响。
二、 生成式人工智能诱发网络公共话语空间意识形态风险
“每一种技术都既是包袱又是恩赐,不是非此即彼的结果,而是利弊同在的产物。”[5]3。以ChatGPT 为代表的生成式人工智能,正引领着人工智能领域迈向一个全新的发展阶段。它不仅改变了人们生产信息和表达观点的方式,重塑意识形态话语生产,还悄然间在各国意识形态的舞台上开辟了新的战场,预示着未来意识形态斗争的新趋势和前沿阵地。生成式人工智能由于其内在的意识形态属性,不可避免地会卷入到各种思想观念和价值体系的碰撞中。这种特性使得它有可能成为意识形态风险的温床,特别是当这些信息生产和传播过程被特定利益或价值观所操控之时。对于我国而言,这种意识形态风险尤为值得警惕。因为一旦生成式人工智能被用于在网络公共话语空间传播与我国主流意识形态相悖的观点或信息,就可能对我国社会的思想稳定、价值观念乃至国家安全构成严重威胁。具体来说,生成式人工智能诱发网络公共话语空间意识形态风险主要表现在以下几个方面。
(一) 数据偏见与算法歧视,增加意识形态渗透风险
联合国教科文组织于2021 年11 月通过的《人工智能伦理问题建议书》对科技创新引发的伦理问题表示关切,包括歧视、刻板印象、虚假信息、隐私权、个人数据保护等[6]。相较于传统人工智能,生成式人工智能在创新能力、数据处理方式、应用领域、灵活性和泛化能力等方面都展现出了显著的优势和进步。它能够模拟人类的创造力和想象力,生成全新的数据样本,有效强化了用户的个体感知能力,告别了传统人工智能只能以单一的文字形式回应的短板。但是,生成式人工智能的核心目标是利用计算机算法和数据生成新的内容,这些算法和模型依赖于大规模的数据集进行训练。如果这些数据集本身就存在偏见(如种族、性别、地域等方面的偏见),那么生成的内容也会受到这些偏见的影响,从而传播错误或片面的信息。大数据和算法创设的传播模式可以实现对特定话题的强化或弱化,从而影响公众对某一议题的看法。生成式人工智能本质上剥夺了数字用户对信息的自主选择权。在算法推荐下,用户不可避免地陷入智能算法逻辑的控制。长此以往,用户的思维和眼界将会被固定在一个狭小封闭的信息场域,并逐渐形成一道道“信息壁垒”,只能接触到与自身观点相似的信息,导致认知窄化和价值偏化[7],对于主流意识形态的传播则可能产生抵触情绪,难以接受与认同主流意识形态。比如,从ChatGPT 爆红,再到文本转视频模型Sora,不可避免地被适应资本增殖的意识形态所渗透,其背后的算法和数据可能带有某种价值偏见。尤其是当这些数据主要来源于西方国家时,其生成的内容可能更倾向于反映西方“普世价值”和思维方式,成为一部“ 意识形态生产机器”。例如,在西方选举期间,有人利用Sora 生成具有特定政治立场或文化偏见的视频内容,或生成虚假视频来抹黑竞争对手或夸大自己的政绩,进而诱导公众的认知和态度,甚至引发社会动荡。虽然现在的生成式人工智能在训练时会融入多种语言,即采用多种语言数据集,但英文文本数据因其广泛性和丰富性,仍然是其主要的语言来源,扮演着最重要的角色。这种受到资本主义意识形态浸染的人工智能,可能会针对世界各国受众的心理弱点,提供那些能隐形渗透到我国意识形态安全的内容产品,“助力美西方构建高维度、全方位、多视角对华意识形态渗透和攻击舆论战场,剥夺、涣散、冲垮党和政府在国内国际意识形态领域的主导权、主动权”[8]。
(二) 劳动主客体发生异位,导致意识形态撕裂风险
生成式人工智能的迅猛发展,正在悄然改变人们的工作与生活面貌,其中一个显著的影响就是促进了劳动主体与劳动客体之间关系的异位。这种异位关系表现在三个方面。第一,生成式人工智能带来知识生产者的角色转变。在传统劳动模式中,人类是知识的主要生产者,通过教育、实践和经验积累来创造新的知识和技能。然而,随着生成式人工智能的发展,人工智能系统开始具备自我学习和生成新知识的能力。例如,ChatGPT能够根据用户提问,生成看似由人类专家撰写的回答。这些回答背后凝聚了海量的信息和复杂的算法逻辑,而非单一人类的直接劳动成果。人工智能在知识生产过程中的角色已经从辅助工具逐渐转变为重要的创意贡献者。第二,生成式人工智能带来劳动工具的智能化超越。马克思认为,劳动是人通过与自然之间的物质变换获取物质生活资料的过程,是“人以自身的活动来中介、调整和控制人和自然之间的物质变换的过程”[9]207-208。马克思强调劳动工具具有客体性。传统的劳动工具是人类肢体的延伸,如锤子、机器等,它们增强了人类改造自然的能力,但始终是人类控制下的被动工具。生成式人工智能则不同,它们不仅能够执行复杂的任务,还能在特定领域展现出超越人类的创造力和理解力。这种超越使得人工智能在某种程度上成了劳动过程中的“主体”之一,与人类共同作用于劳动客体。第三,生成式人工智能带来对劳动价值的重新定义。随着生成式人工智能的普及,一些传统上由人类完成的工作被AI 取代,这引发了关于劳动价值和社会分工的重新思考。在人工智能主导或辅助的生产过程中,人类的角色逐渐从直接的生产者转变为监督者、设计师和决策者,而人工智能则承担了大量重复性、低创造性的工作。这种变化促使人们重新审视劳动的价值所在,即从体力劳动或简单脑力劳动向创造性、策略性和情感性劳动的转变。这深刻地影响了我们对劳动本质和人类社会发展的理解。
由此可见,人工智能技术在为人们的社会交往活动提供便捷的同时,也进一步增强了对人的社会属性的消解。人工智能技术通过资本逻辑与技术逻辑的“联姻”,形成了贯通“ 本体世界—生活世界—个体世界”精神链[7]131。生成式人工智能带来传统的主客体关系异位,这种异位呈现出人的客体化和人工智能的主体化趋势。原本由人类主导的信息传播活动,现在很大程度上被编程好的计算机代码所中介和操控。这种中介作用不仅简化了信息传递的过程,也无形中在人们与信息之间筑起了一道由代码构成的“墙”。信息传播主体和客体被冰冷的计算机代码所阻隔,不仅易使人形成对人工智能的工具性依赖,而且容易导致主流意识形态的声音在海量信息中被淹没或扭曲,进而削弱公众对主流价值观的信任和认同。因此,需要警惕生成式人工智能所带来的这种主客体关系变化,在享受技术便利的同时,保持人自身对信息的独立思考和批判性判断,维护主流意识形态的权威性和影响力,确保技术在为人类服务的过程中不偏离正确的价值轨道。
(三) 工具理性僭越价值理性,引发意识形态退化风险
工具理性一般指人们通过使用工具和技术来达到特定目标的理性行为,强调效率和实用性。不可否认,在现代社会中,工具理性是推动科技进步和经济发展的重要力量。价值理性也称为实质理性,强调行为本身所能代表的价值,如社会的公平、正义、荣誉等,而不仅仅关注行为的结果。价值理性更多关注的是从伦理、政治、美学等角度审视行为的合理性。在不同行业中,生成式人工智能的应用带来了显著的成本降低和效益提升。但是,生成式人工智能在处理信息和生成内容时往往遵循工具理性的原则。生成式人工智能特别是基于深度学习的模型(如神经网络),被设计用来学习和模拟数据中的模式和结构。这些模型通过大量数据的训练,能够生成与输入数据相似或相关的新内容。在这一过程中,它们主要关注于数据的输入、处理和输出,即如何实现从一种形式到另一种形式的转换,体现了工具理性的特点。然而,生成式人工智能在价值判断方面存在局限性。由于它们主要基于数据和算法进行工作,很难像人类一样具备复杂的道德和价值观念,因此,在生成的内容中,工具理性话语可能占据主导地位,而价值理性话语则相对缺失,导致忽视人文关怀、道德责任和社会正义等。随着生成式人工智能技术的不断发展,人们可能会对其产生过度依赖的崇拜心理,即工具崇拜现象。届时,人们或许会认为生成式人工智能无所不能,甚至在某些方面超越了人类的智慧和创造力。人们一旦习惯了使用生成式人工智能来处理信息和生成内容,就可能产生强烈的依赖性,推动社会信仰向非人类的智能权威迁移,挤压价值理性话语的空间,导致人们意识形态辨识能力的退化,失去对现实进行深刻思考、反思、批判和超越的理性自觉,渐渐变成生成式人工智能的附属或信徒[10],消解人们对主流意识形态的价值信仰。
三、 自主研发和利用生成式人工智能技术
如何应对生成式人工智能带来的各种挑战?显然,简单封堵生成式人工智能发展的做法是不科学的,也是不可取的。这种做法不仅无法有效应对人工智能带来的挑战和风险,反而可能阻碍技术进步和社会发展。可见,要避免生成式人工智能在网络公共话语空间意识形态领域带来的潜在风险,关键在于掌握并引领这一领域的核心技术。“通过有目的设计来使技术具有调节人的道德选择和行动的功能,即让技术具有道德性”[11]113。只有当我们拥有了最新、最强大的生成式人工智能技术,用社会主义主流价值导向驾驭“算法”,化解与消除生成式人工智能技术性植入带来的意识形态安全隐患,才能确保自己在人工智能发展道路上的主导权,从而牢牢占据意识形态的高地。这意味着我们必须不遗余力地提升生成式人工智能的自主研发能力,确保我国技术的独立性和话语权。
(一) 自主研发利用生成式人工智能技术具有重要意义
在意识形态研究领域,生成式人工智能和意识形态的关系已经从一个边缘话题逐渐崭露头角,成为学术探讨中不可或缺的组成部分。2023 年8 月31 日,百度公司基于文心大模型,自主研发并正式发布了其全新生成式人工智能产品“文心一言”。“文心一言”具备强大的自然语言处理能力、广泛的知识储备、多样化的应用场景。“文心一言”的推出不仅是国内企业自主研发能力的体现,也是中国人工智能产业发展趋势的一个缩影。由此可见,中国完全具有自主研发、构建自主性的生成式人工智能的能力。
自主研发生成式人工智能对维护意识形态领域安全至关重要。第一,促进主流意识形态传播。生成式人工智能具备强大的文本生成和内容生产能力,可以成为传播主流意识形态的重要工具。通过自主研发和构建,可以确保数据源的可控性和安全性,使生成内容符合我国社会主义核心价值观和主流意识形态的要求,进而推动其在社会各领域的广泛传播。第二,增强国家文化软实力。生成式人工智能可应用于文化创作和传播领域,通过自动生成文本、图像、视频等内容,用于弘扬中华优秀传统文化。自主研发和构建生成式人工智能,可以更好地掌握这一技术工具,推动中华优秀传统文化在现代社会的传承和发展,增强国家文化软实力。第三,提升意识形态国际话语权。在全球科技竞争和文化交流中,拥有自主性的生成式人工智能意味着拥有更多的话语权和影响力。通过自主研发和构建,中国可以在国际舞台上更加自信地展示自己的科技实力和文化魅力,提升国际地位和影响力,有效防范外部意识形态的渗透。
(二) 坚持伦理先行,确保技术的研发应用符合伦理规范
如前文所述,随着技术的快速发展,ChatGPT 等生成式人工智能作为一种新兴的技术力量,在各个领域展现出了巨大的潜力和价值,正在对经济发展、社会进步以及人民福祉产生深远的影响,同时生成式人工智能也带来了原数据偏见、人的主体性丧失等意识形态风险,也带来了人们对科技伦理问题的再度关注。中国现行立法已为生成式人工智能的发展划定了基本的安全保障底线:2023 年8 月15 日,国家互联网信息办公室等七部门颁布实施的《生成式人工智能服务管理暂行办法》;2023 年10 月18 日,中央网信办发布的《全球人工智能治理倡议》;2024 年3 月1 日,全国网络安全标准化技术委员会颁布的《生成式人工智能服务安全基本要求》等。这些办法或倡议涉及人工智能促进发展、规范应用、保护用户权益和数据安全等方面,为生成式人工智能技术的健康发展提供了相关的法律保障。但是,技术的发展方向和产业发展均处在高度不确定性当中。我国要自主研发切合自身特点的生成式人工智能,就要尽量减少不确定性,增加可控性,将伦理原则置于首位,坚持伦理先行,确保技术健康、可持续发展。
在探讨人机共存的新时代,我们首先需要从人本主义的角度出发,清晰地界定人类与机器在社会结构中的相对位置。首要的是要强调人类的核心地位,即人类相对于机器具有无可争议的优先性,认识到人机交互能够带来的协同效应和优势。另外,我们必须明确,机器的角色是辅助性的,人工智能作为人类智慧的产物,其根本使命是服务于人类的目标,辅助人类完成任务,而非取代人类或将人类在这一过程中被边缘化乃至沦为工具。进一步说,无论是古老的工具还是现代的人工智能技术,它们都是人类智慧和社会实践的结晶,体现了人类的价值追求。因此,这些技术或实践活动的本质属性——属人性,即它们服务于人类、体现人类意志和需求、捍卫人类权益的特性,是不可动摇的。
基于这样的人本主义伦理立场,在推动生成式人工智能的发展和应用时,应坚守三大原则:福祉原则、尊严原则和责任原则。福祉原则强调人工智能的发展必须以促进人类的幸福和福祉为根本目标;尊严原则要求我们在技术应用过程中尊重人类的尊严和价值,确保技术不侵犯人的基本权利和自由;责任原则是确保这些原则得以落实的关键,它要求技术开发者、使用者以及政策制定者都承担起相应的责任,共同维护人类的利益和福祉。这三者相辅相成,共同构成了确保生成式人工智能健康、可持续发展的重要伦理框架。
(三) 内嵌主流价值观念,以主流价值引领生成式人工智能
人工智能技术的输出结果有可能包含非主流意识形态的内容,这个问题并非新生事物,它在更早的人工智能算法中就已有显现。随着生成式人工智能技术的快速发展并广泛渗透到生产生活的各个角落,如果不对其进行妥善的规范和管理,那么由此产生的歧视性内容可能会在社会中广泛传播,严重背离我们所倡导的平等与公正原则。这种歧视的根源通常在于训练数据的选择和准备上。如果用来训练人工智能的数据本身就带有偏见或歧视性信息,那么机器学习的结果也会不可避免地反映出这些偏见,进而生成有问题的输出。因此,为了确保人工智能技术的公正性和无偏性,必须从源头上抓起,在数据的选择和处理阶段就实施严格的规范和标准,在技术应用的全过程中强化主流价值的引导作用,有效防范生成式人工智能在网络公共话语空间可能引发的意识形态风险。
为了实现这一目标,“除了提升科技硬实力和坚定主流价值导向外,还必须进一步讲好中国故事,以‘中国话语’破解当前生成式人工智能领域盘踞的‘西方话语’”[12]。首先,在技术应用的全过程中强化主流价值的引导作用,将主流价值原则内嵌于数据采集、模型训练、对话生成全过程[13]。这意味着从数据采集、模型训练到对话生成,每一个环节都需要融入主流价值的理念。实际上,我国的立法已经注意到了这一问题,《生成式人工智能服务管理暂行办法》规定“提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德……坚持社会主义核心价值观”[14]。具体来说,可以将主流价值观转化为数据化和算法化的形式,通过调整符号参数和指令,将其嵌入到语言模型中,以此来纠正可能存在的数据偏见和算法偏见。同时,为了确保对话模型能够真正反映民众的想法和需求,必须深入挖掘有价值的数据资源。这些数据不仅仅是数字或文字,它们是民众的声音、情感和期望的体现。通过细致地分析这些数据,可以更好地理解人们的真实需求,从而优化对话模型,使其输出内容更富有意义,更能贴近大家的日常生活。另外,应积极鼓励那些致力于生成式人工智能媒介产品研发的企业或团队,开发使用那些既反映当下社会现实又传递正能量的数据来训练其模型,确保对话输出内容不仅反映真实世界,更符合主流价值观,传递积极向上的数据信息。值得注意的是,技术产品是由人设计和运营的,因此其不可避免地会受到研发者和运营者个人价值观的影响。为了确保生成式人工智能的健康发展,必须加强对技术研发和产品运营团队的主流价值引导,强化其意识形态责任意识。只有在坚持正确价值导向的基础上,才能推动生成式人工智能更好地服务于社会,为构建和谐、稳定的意识形态环境贡献力量。
四、 结 语
生成式人工智能的快速发展虽然带来了技术上的飞跃,但同时也伴随着不容忽视的意识形态风险。为了有效应对这些风险并巩固我国在人工智能领域的意识形态主导地位,必须采取积极有效的措施。同时,也应认识到,生成式人工智能并非全然负面,它在提升意识形态治理效率等方面也展现出了积极潜力。鉴于生成式人工智能技术日新月异的特性,其对意识形态领域的影响也在不断演变之中。因此,持续加强对这一领域的深入研究显得尤为重要。通过研究,我们可以更好地理解生成式人工智能与意识形态之间的复杂关系,为我国的意识形态安全提供坚实的理论支撑,并为未来的政策制定提供更有价值的建议。这样的努力不仅有助于维护我国的意识形态稳定,还能推动我们在人工智能时代更好地发挥技术优势,促进现代社会的全面发展。
参考文献
[1] 陈锡喜. 意识形态:当代中国的理论和实践[M]. 北京:中国人民大学出版社,2022.
[2] 刘娜.自媒体意识形态之属性研究[J]. 华南师范大学学报(社会科学版),2017(04):56-59,190.
[3] 马克斯·霍克海默.批判理论[M]. 李小兵,译.重庆:重庆出版社,1989.
[4] 兰立山. 处理好生成式人工智能的意识形态风险[J].科学·经济·社会,2024,42 (02):47-53.
[5] 尼尔·波斯曼.技术垄断:文化向技术投降[M]. 何道宽,译.北京:中信出版社,2019.
[6] 联合国教科文组织呼吁尽快实施人工智能伦理标准[EB/OL].(2023-03-31)[2024-08-15].https://www.rmzxb.com.cn/c/2023-03-31/3322873.shtml.
[7] 王海威. 人工智能诱发隐性意识形态话语风险的逻辑机理及化解策略[J]. 马克思主义研究,2024(04):124-133,155.
[8] 谢波,曹亚男. 生成式人工智能意识形态安全风险探析[J]. 国家安全研究,2024(01):102-127,162.
[9] 马克思,恩格斯.马克思恩格斯文集:第5卷[M]. 北京:人民出版社,2009.
[10] 杜艳. 新时代人工智能赋能网络意识形态治理的理论基础、现实样态与实践要略[J]. 重庆社会科学,2023(12):115-127.
[11] 彼得·保罗·维贝克. 将技术道德化——理解与设计物的道德[M]. 闫宏秀,译. 上海:上海交通大学出版社,2016.
[12] 代金平,覃杨杨.ChatGPT等生成式人工智能的意识形态风险及其应对[J]. 重庆大学学报(社会科学版),2023(05):101-110.
[13] 唐庆鹏. 生成式人工智能媒介应用的意识形态风险及防范[J]. 南通大学学报(社会科学版),2023,39(06):13-22.
[14] 生成式人工智能服务管理暂行办法[EB/OL]. (2023-07-10) [2024-08-05]. https://www.gov. cn/zhengce/zhengceku/202307/content_6891752.htm.
责任编辑:杨春风
编辑部网址:http://sk.swpuxb.com