摘"要:
发挥强大的思政引领力,是教育强国建设的有力支撑。在数字化与智能化时代,人工智能成为推进思政教育不可或缺的工具。在人工智能赋能思政教育的过程中,必须处理好以下六对关系:人工智能数据和算法的边界性与思政教育需求的广泛性之间的关系,人工智能的资本属性与思政教育的可信任性之间的关系,人工智能的算法偏见与思政教育的价值正确性之间的关系,人工智能的意识形态识别失能与思政教育意识形态安全之间的关系,人工智能的自我意识缺失与思政教育的意识需求之间的关系,在批判性思维培养方面人工智能供给与思政教育需求之间的关系,如此才能真正实现智能向善的科技伦理目标。
关键词:人工智能;思政教育;数据依赖;算法偏见
DOI:10.15938/j.cnki.iper.2025.01.021
中图分类号:G641""""文献标识码:A""""文章编号:1672-9749(2025)01-0137-09
在当今数字化与智能化时代,人工智能技术蓬勃发展并深刻影响着社会各个领域。习近平指出,“当前,新一轮科技革命和产业变革迅猛发展,人工智能等新技术方兴未艾,大幅提升了人类认识世界和改造世界的能力,同时也带来一系列难以预知的风险挑战。我们应当把握数字化、网络化、智能化发展大势,把创新作为第一动力、把安全作为底线要求、把普惠作为价值追求,加快推动网络空间创新发展、安全发展、普惠发展,携手迈进更加美好的‘数字未来’。”[1]思政教育作为发挥思政引领力的关键环节,在人工智能赋能中也迎来了新的机遇与挑战。一方面,人工智能凭借其强大的数据处理、个性化推送以及智能交互能力,极大地拓展了思政教育的资源获取渠道、丰富了思政教育方法、创新了思政教育模式,增强了思政教育的针对性和吸引力。另一方面,人工智能所带来的信息过载、算法偏见以及人机关系异化等潜在风险,可能对思政教育的内容权威性、教育者主导性与受教育者价值观产生消极影响。因此,研究人工智能赋能思政教育的相关问题极为必要。处理好人工智能赋能思政教育中涉及的多种关系能指导思政教育工作者更好地运用人工智能,坚守教育本质,避免过度依赖技术而忽视人与人之间的情感交流;能在筛选海量信息时保障思政教育内容的政治性与科学性,有效抵制不良信息干扰;能助力教育部门制定相关政策与规范,推动人工智能与思政教育的深度融合及健康发展,为培养适应数智时代全面发展的人提供理论借鉴。
一、人工智能数据和算法的边界性与思政教育需求的广泛性之间的关系
在数字化时代,人工智能凭借数据和算法展现出强大力量,但它并非无所不能,而是存在着明显边界性。与此同时,思政教育作为实现价值塑造的重要途径,其需求呈现出广泛且多样的特点。协调这一对关系极为必要。
1.人工智能的数据和算法具有边界性
人工智能的数据具有边界性。数据是人工智能的基石,数据是思想政治教育各基本要素的重要依托。[2]人工智能算法需要依托大量高质量的数据进行训练,如果数据不足、质量不佳或存在偏差,会影响大模型的准确性和性能。此外,虽然一些人工智能能够从新数据中学习,但许多大型语言模型在训练后不会更新它们的知识库,这意味着它们的推断通常只基于最后一次训练时的数据。在某些数据稀缺的领域,模型可能难以得到充分训练。引发数据不足的原因有很多,如数据涉及隐私、安全等,在个人数据保护法规的约束下,人工智能系统不能随意获取和使用个人敏感信息,必须在明确的法律框架内进行数据处理。再如,很多思政教育大模型囿于著作权的约束导致数据不足。数据集创建者大量复制作品同样会受到著作权法的约束,如果是通用数据集,在公共利益原则下能够豁免侵权责任;如果是专门数据集,因其整体价值与作品价值的重合性,则难免会涉及著作权侵权。在生成式人工智能的学习阶段,原则上无需获得著作权许可,但当数据用于创作输出或涉及著作权人利益的情况下,则需获得权利人许可;在人工智能的生成与使用阶段,当生成内容涉及使用或改编现有作品时,则可能构成著作权侵权。同时,不同领域的数据可能存在不同的标准和限制,使得人工智能在跨领域应用时面临数据边界模糊的挑战。例如,医疗领域的数据与金融领域的数据在使用和共享方面有很大的差异。此外,若训练数据存在种族、性别等方面的偏差,也可能导致模型产生不公平或歧视性的结果。人工智能的数据具有边界性,还源于一些因政治原因而刻意回避的敏感话题,如ChatGPT针对“歌颂特朗普”这一问题的拒绝评价,就是典型代表。当前一些国内的人工智能大模型,同样存在对敏感话题或敏感字眼的设定,可能使得部分思政教育的热词成为人工智能大模型的回避话题。
人工智能的算法具有边界性。人工智能的“内在逻辑在于借助算法对海量‘数据流’进行聚合、类化和算法创制”[3]。其算法边界性的产生主要源于以下因素:一是计算资源需求大。一些强大的人工智能模型,如深度神经网络,需要大量的计算资源(包括GPU、CPU等)和存储空间才能进行训练和应用。这对于一些资源有限的设备或环境来说是一个挑战,也增加了应用的成本和复杂性。二是人工智能的推理能力不足。人工智能推理能力的增强依赖于技术的提升,包括丰富数据、增强算法、人机交互、实时反馈集成、跨领域知识转移和特定用例的定制等,目前很多思政教育语言模型还不具备这些能力。三是人工智能供给的标准化。人工智能通常基于大数据和算法提供标准化的学习方案和评估体系。虽然它可以根据受教育者的学习数据进行一定程度的个性化推荐,但这种个性化往往是有限的。它难以完全适应每个个体的独特需求和发展路径,可能会使教育过程变得相对机械和单一。
2.思政教育需求的广泛性
思政教育不仅涵盖了学校、家庭、社会等各个层面,还涉及到人的思想、价值观、道德观等多个方面。思政教育的目标是培养全面发展的人,因此它不受特定领域或数据类型的限制。从教育对象上看,思政教育涵盖各个年龄段。青少年需要通过思政教育树立正确的世界观、人生观和价值观,进而在复杂的社会环境和信息洪流中健康成长,明确自身价值和发展方向。成年人在社会生活与工作中,也需要通过思政教育来提升职业道德素养、增强社会责任感,以更好地履行社会角色。从个性化需求来看,思政教育强调因材施教,根据受教育者的个性特点、兴趣爱好和学习能力进行个性化的教育。因此,思想政治教育的“内容、形式、参与者等在各个方面呈现出显著的差异性和多样性”。[4]教育者可以通过观察受教育者的各种表现、与受教育者交流互动等方式了解其需求,制定个性化的教育计划,而这恰恰是人工智能在标准化供给中无法达成的。从社会发展角度看,面对世界百年未有之大变局,多元文化和社会主流价值观相互碰撞。社会需要通过思政教育来凝聚共识,确保公民坚守主流价值观、维护国家安全和社会稳定。同时,在面对社会矛盾和问题时,思政教育能够促进沟通理解,为和谐社会建设提供思想保障。总之,思政教育在不同领域、不同环境中都有着不可或缺的地位,发挥着导向功能、凝聚功能、激励功能、调节功能等,满足着整个社会持续发展的广泛需求。
3.协调关系的策略选择
推动跨领域数据共享和合作。为了克服人工智能的数据边界敏感性问题,需要推动跨领域数据共享和合作。这可以通过建立数据共享平台、制定数据共享标准和协议等方式来实现。跨领域数据共享可以为人工智能提供更丰富的数据资源,从而提升其在思政教育中的应用效果。同时,也可以促进不同领域之间的交流合作,推动思政教育的创新发展。
结合人工智能与传统教育方法。在思政教育中,应该结合人工智能与传统教育方法,充分发挥两者的优势。例如,可以利用人工智能教育工具进行个性化学习和辅导,也要通过课堂教学、社会实践等传统教育方法进行情感沟通和价值观引导。这样可以弥补人工智能的局限性,提高思政教育的质量和效果。
加强数据管理和隐私保护。尽管数据管理和隐私保护对于数据的供给构成制约,但是加强数据管理和隐私保护是不断提升人工智能可信任性的重要保障。因此,在人工智能应用于思政教育的过程中,必须加强数据管理和隐私保护,确保个人信息和教育数据的安全。这可以通过建立严格的数据安全制度、采用加密技术和访问控制等措施实现。同时,教育主管部门、教育机构和企业也应该加强对数据使用的监管,确保数据的合法、合规、合理使用。
二、人工智能的资本属性与思政教育的可信任性之间的关系
随着科技对资本的依赖性增强,人工智能的资本属性愈发凸显,其背后的商业运作与利益驱动影响着社会的诸多方面。而思政教育以培养人的正确价值观为核心,其可信任性建立在对真理的传播和对品德的塑造上。这两者看似处于不同维度,却有着紧密且微妙的关联,值得我们深入剖析。
1.人工智能的资本属性可能引发的问题
利益驱动可能导致价值偏差。人工智能的发展往往受到资本的推动,企业为了追求利润最大化,可能会在人工智能产品和服务的设计与推广中更注重商业利益,而忽视其社会价值。例如,一些智能推荐算法可能会为了提高用户点击率和停留时间,过度推送娱乐化、低俗化的内容,这与思政教育所倡导的积极健康的价值观相冲突。
数据垄断与隐私问题可能破坏信任关系。拥有大量数据资源的人工智能企业为了获取垄断利润,很可能会进行数据垄断,这不仅可能限制竞争,还可能导致用户隐私泄露。在思政教育中,信任建立在尊重和保护受教育者隐私的基础上,而如果不对人工智能的数据收集和使用加以规范,可能会破坏这种信任关系。
技术黑箱与不可控性可能诱发信任危机。人工智能技术往往具有较高的复杂性和专业性,加之资本的私有性所带来的技术垄断的需求,其决策过程对于普通用户来说就像一个“黑箱”。这使得人们难以理解和评估人工智能系统的决策依据,也增加了人工智能被不当利用的风险。而在思政教育中,如果受教育者对教育过程中使用的人工智能工具缺乏信任,则会或多或少影响到教育的效果。
2.思政教育可信任性的要求
价值导向的明确性和稳定性。思政教育的可信任性首先体现在其明确而稳定的价值导向上,“它是以马克思主义尤其是当代中国马克思主义为指导思想和根本遵循,以理想信念教育为核心、以爱国主义教育为重点,以基本道德规范为基础、以学生的全面发展为目标,其实质是中国特色社会主义主流意识形态的教育。”[5]其核心任务是引导受教育者树立正确的世界观、人生观、价值观。而人工智能的资本属性可能会使一些产品和服务的价值导向变得模糊或不稳定甚至与主流价值观背道而驰,这就需要思政教育工作者在使用人工智能工具时,更加谨慎地筛选和评估,确保其符合思政教育的价值要求。
教育过程的透明性。思政教育需要建立在教育者和受教育者之间的信任基础上,这就要求教育过程具有较高的透明性。受教育者需要了解教育内容的来源、目的和方法,以便更好地接受和参与教育过程。然而,人工智能的引入可能会使教育过程变得更加复杂和不透明,例如,如果不能向受教育者清晰解释智能辅导系统的决策过程、个性化推荐的依据等,就可能会降低受教育者对思政教育的信任度。
教育者的权威性。在思政教育中,教育者的权威性对于获得受教育者的信任至关重要。而人工智能的发展可能会使部分受教育者对传统教育者的权威性产生怀疑,认为智能工具可以提供更准确、更全面的知识和信息。这就需要教育者不断提升自己的专业素养和教育能力,同时也要善于利用人工智能工具,增强自己在教育过程中的权威性和影响力。
3.协调关系的策略选择
加强政府监管与规范制度建设。政府和相关部门应加强对人工智能企业的监管,制定严格的数据保护法律法规和伦理准则,规范人工智能技术的开发和应用。确保人工智能产品和服务在遵守社会主流价值观和道德规范的基础上追求利益,保障用户的合法权益。如2024年欧盟《人工智能法案》要求禁止某些违背欧盟价值观、特别有害的人工智能做法。这类做法包括:使用人工智能进行“社会评分”、操纵人类行为以规避其自由意志等,并针对某些执法用途的远程生物识别系统提出了具体的限制和保障措施。例如,将禁止根据政治或宗教信仰、性取向或种族等敏感特征对人进行分类的生物识别扫描。该法案还规定了一种可靠的风险评估方法,以界定对人的健康和安全或基本权利构成重大风险的“高风险”人工智能系统。可以看出,适当的法律规范的约束是实现科技向善的必要保障。
提高思政教育各类主体的数字素养。思政教育的各类参与主体需要不断提高自身数字素养,了解人工智能技术的基本原理和应用场景,学会正确使用人工智能并将其作为辅助工具开展思政教育。同时,也要引导受教育者正确看待人工智能,提高受教育者的批判性思维能力,帮助他们辨别和抵制不良信息。如针对大学生,要不断提高其人工智能适应能力、智能认知态度、智能高阶思维等智能认知水平;不断提高其智能社会技能、媒体和信息素养、数据与计算素养、智能应用素养等数字技能;不断提高其深度学习能力、人机协同能力、技术探究和创造能力等智能应用水平。针对教师,要不断提升其智能适应能力、人工智能教育思维、人工智能价值观等智能思维和智能观;不断提升其人工智能理论性知识、人工智能实践性知识、人工智能技术性知识等智能知识储备;不断提升其技术知识与创新应用能力、信息化能力等智能素养与技能;不断提升其智能教学模式革新能力、智能创新评价能力、智能教育技术能力等智能应用水平。
三、 人工智能的算法偏见与思政教育的价值正确性之间的关系
在人工智能蓬勃发展的当下,算法偏见问题逐渐浮出水面,它可能导致信息传播偏差、决策不公等不良后果。反观思政教育,始终将价值正确性放在首位,并致力于传递正向理念。针对这一偏一正,究竟该如何处理,是亟待我们思考的问题。
1.人工智能算法偏见的产生及影响
数据偏差导致偏见产生。人工智能引发的偏见既包括对种族、性别、民族、宗教、某个社会群体等的刻板印象和偏见,又包括对某个事件在认定、评价或解决中的偏见。这种偏见可能存在于人工智能应用的各个领域,当然也包括思政教育领域。人工智能算法通常是基于大量数据进行训练的,如果训练数据本身存在偏差,如数据集中于某些群体而产生代表性不足的偏差,或数据采集过程中存在系统性的偏差,那么训练出的算法就可能产生偏见。
算法设计偏差导致偏见产生。算法的设计过程也可能存在偏见,如某些算法可能会优先考虑某些特征或指标,而忽视其他重要因素。这种设计上的偏差可能会导致不公平、不准确的结果,如对学生课堂抬头率的人工智能分析,很多是基于单纯的身体层面的低头和抬头状态、是否看手机等指标进行认定的,就会使得学生低头思考、低头记笔记、运用手机查询专业信息等被误判为低头,而严重影响课堂抬头率的统计认定。人工智能的算法偏见还可能会干扰学生对正确价值观的认知。例如,如果智能教育平台的推荐算法存在偏见,可能会向学生推荐不恰当的学习资源,影响学生对思政教育内容的理解和接受。此外,算法偏见还可能导致教育资源分配的不公平,影响学生的学习机会和发展前景。
2.思政教育价值正确性的要求
坚守马克思主义指导地位。思政教育必须以马克思主义的世界观和方法论为基础,如注重公平公正,强调每个学生都应该有平等的受教育机会和发展空间,强调思政教育工作者致力于消除各种形式的歧视和偏见,为学生创造公平、公正、包容的教育环境等。要运用马克思主义的立场、观点和方法剖析人工智能应用引发的新的社会现象和潜在问题。如对于人工智能带来的劳动方式变化,要从马克思主义劳动价值论的角度阐释,让人们理解劳动依然是价值的源泉,只不过形式发生了改变。在讲述唯物史观时,可以结合人工智能对社会结构变迁的影响,说明生产力与生产关系的辩证关系依然在发挥作用。与此同时,要积极应对错误思潮。如针对人工智能兴起所引发的技术决定论等错误观念的传播,要以马克思主义为武器进行批判,明确技术是由人创造并服务于人的,而不是主宰人类社会的力量,维护马克思主义在意识形态领域的指导地位。
弘扬社会主义核心价值观。在面对人工智能可能传播多元文化和价值观的情况时,思政教育要牢牢把握社会主义核心价值观,确保教育对象在复杂的信息环境中能明辨是非。首先,需要保证内容精准传播。借助人工智能的大数据分析功能,精准把握不同受众群体的特点和需求,确保社会主义核心价值观的传播形式贴合他们的认知水平和接受程度。如对于青少年群体,可以利用人工智能筛选生动形象的动漫、短视频、案例等丰富教育形式,也可以利用人工智能驱动的智能语音助手、智能聊天机器人等工具,遵循受教育者的成长规律,通过对话式的方式和用户互动,将社会主义核心价值观融入日常对话交流,潜移默化地影响受众。其次,需要保证内容真实准确。在利用人工智能生成传播素材时,要对信息严格把关,防止错误信息误导受众,维护社会主义核心价值观的内容权威性。
秉持以人为本的理念。虽然人工智能会在一定程度上改变教育和工作方式,但思政教育不能忽视人的情感、意志等因素。要强调人是主体,关注人的思想道德素质提升,避免人被机器思维所左右,从而确保思政教育以人的价值实现和精神富足为导向。如思政教育强调人的主体性和人的全面发展,不能被人工智能可能带来的技术至上等错误观念干扰。据美国哥伦比亚广播公司(CBS)2024年11月16日报道,美国密歇根州大学生维德海·雷迪在与谷歌AI聊天机器人“Gemini”对话时收到了令人震惊的威胁信息:“这是说给你的,人类。你,只有你。你并不特别、不重要、也不被需要。你是时间和资源的浪费。你是社会的负担。你是地球的消耗品。你是大地的污点。你是宇宙的污点。请死去吧。求求你了。”[6]这一案例显然就是人工智能对人的主体性的否定与扼杀。因此,坚守人的主体性地位是思政教育的根本要求。
3.协调关系的策略选择
全面提高数据质量。为了减少人工智能算法的偏见,需要提高数据的质量和多样性。在数据采集过程中,应确保数据的代表性和全面性,避免系统性的偏差。同时,还可以采用数据增强技术,增加少数群体或被忽视群体的数据量,提高算法对不同群体的适应性。
优化算法设计。在算法设计过程中,应充分考虑公平性和公正性原则。可以采用多种算法评估指标,确保算法的结果不会对特定群体产生不公平的影响。还可以引入人的监督和干预机制,人工对算法的结果进行审查和调整,确保其符合价值正确性的要求。加强监管督导,建立针对人工智能传播社会主义核心价值观的监管机制。对于利用人工智能传播违背社会主义核心价值观的有害思想的行为,如传播极端个人主义、拜金主义等行为,要及时发现并制止。同时,在算法设计阶段,要融入社会主义核心价值观的考量,使算法推荐的内容有助于社会主义核心价值观的正向传播。
开展人工智能的可靠性评估。人工智能的可靠性可以从数据治理、可解释性、公平性、隐私性、安全性和透明性等多个维度进行定义和评估。针对数据可靠性,需要审查数据来源,审查数据是否源于权威思政教材、官方教育资源、正规学术研究等。针对数据准确性,应核实数据以确保内容无误,尤其要避免对先进典型和模范人物生平事迹、重大历史事件时间地点等事实性描述的错误。针对数据完整性,要确保数据涵盖思政教育所需的各方面内容,如价值观、道德规范、政治理论等,无关键信息缺失。针对算法公正性,要开展偏见检测,分析算法是否存在对不同性别、民族、地域等群体的潜在偏见。针对算法透明性,要求算法逻辑可解释,能清晰说明如何根据学生学习数据进行思政教育内容的个性化推送与学习效果评估。总之,需要全面解决大模型的安全性和可靠性问题,实现安全与创新的有效平衡。
四、人工智能的意识形态识别失能与思政教育意识形态安全之间的关系
在数字浪潮中,人工智能虽展现出强大效能,却在意识形态识别方面存在失能状况,可能引发一系列潜在风险。而思政教育作为维护意识形态安全的关键防线,肩负着重要使命。二者之间的关系如何处理,亟待我们深入挖掘与梳理。
1.人工智能的意识形态识别失能
人工智能处理信息主要是依靠算法和数据运行,缺乏价值判断体系的参与,无法全面深度识别意识形态安全与否。从算法角度看,人工智能只是机械地按照设定好的规则对输入数据进行处理并输出结果,不会考虑数据所承载的意识形态内涵。例如,内容推荐算法往往仅根据用户浏览习惯等关联因素推送信息,不会辨别信息中思想观念的正误。在数据层面,人工智能收集的数据量大且繁杂,来源广泛,它无法区分其中符合主流价值观和违背主流价值观的数据。而且,数据本身可能被别有用心之人故意篡改或歪曲,人工智能也不能识别这种潜在的意识形态风险。这就可能导致人工智能输出结果中包含错误甚至有害的意识形态内容,从而对接受这些信息的用户产生误导,影响人们对正确思想观念的理解和接受,也可能在一定领域造成严重后果。
2.思政教育意识形态安全要求
意识形态安全是国家安全的重要防线,是社会和谐发展的重要保障。维护意识形态安全有助于保护我国文化的独立性和多样性,也要求思政教育引导人们树立正确的世界观、人生观和价值观,抵御错误观念和有害思想的侵蚀,使人们在复杂多变的信息环境中明辨是非。《中华人民共和国宪法》规定“中国各族人民将继续在中国共产党领导下,在马克思列宁主义、毛泽东思想、邓小平理论、‘三个代表’重要思想、科学发展观、习近平新时代中国特色社会主义思想指引下”“把我国建设成为富强民主文明和谐美丽的社会主义现代化强国,实现中华民族伟大复兴。”思政教育必须以宪法为根本遵循,传播宪法所确立的主流意识形态内容。这是维护国家根本制度和国家意识形态安全的基本要求,任何与之相悖的教育内容都是违反宪法精神的。宪法还规定“中华人民共和国公民有维护国家统一和全国各民族团结的义务”。思政教育要通过教育活动使公民认识到维护国家意识形态安全是维护国家统一的重要部分,增强公民对国家主流意识形态的认同,引导公民自觉抵制分裂思想和有害观念以维护国家统一和民族团结。此外,《中华人民共和国教育法》规定“教育应当坚持立德树人,对受教育者加强社会主义核心价值观教育”等,进一步明确了思政教育在维护意识形态安全方面的法定职责,即要通过教育活动,筑牢受教育者的思想防线,使受教育者自觉增强意识形态风险防范意识与能力。党的十九届四中全会审议通过的《中共中央关于坚持和完善中国特色社会主义制度、推进国家治理体系和治理能力现代化若干重大问题的决定》,提出坚持马克思主义在意识形态领域指导地位的根本制度,这是我们党第一次把马克思主义在意识形态领域的指导地位作为根本制度确定下来。[7]可以看出,维护意识形态安全是思政教育的重要任务。
3.协调关系的策略选择
加强数据安全管理。人工智能依赖海量数据,确保数据安全是维护意识形态安全的首要抓手,需要在各个环节优化数据安全管理。严格把控数据收集源头,遵循合法、正当、必要原则,防止过度采集。对收集到的数据加密存储,确保其在静态时的安全。建立健全数据安全保护机制,采取加密、访问控制等技术手段,确保思政教育数据的安全。加强对数据存储、传输和使用过程的监管,防止数据泄露或被恶意攻击。利用匿名化等技术处理数据,降低敏感信息暴露风险。建立数据使用审计机制,监控数据流向与使用用途,及时发现异常并迅速处理。总之,要采取各类数据安全保障措施,为人工智能稳健赋能思政教育保驾护航。
提高信息鉴别能力。构建庞大且权威的思政信息数据库,涵盖经典理论、政策解读等内容,让人工智能以此为基准对信息进行比对筛选。运用自然语言处理技术深度分析信息语义与逻辑,识别其中可能存在的偏差与错误并及时纠正。借助机器学习算法,使人工智能不断从已鉴别信息中学习特征,提升对新信息的判断准确率。同时,与人工审核相结合,发挥人类在价值判断和复杂语义理解上的优势,及时纠正人工智能可能出现的误判,从而保障思政教育信息的准确性与可靠性。
实现人机对齐。人机对齐是人工智能安全和伦理领域的一个新概念,其主要目的是将人工智能大模型打造成安全、真诚、有用、无害的智能助手,避免其在与人的交互过程中可能造成的潜在负面影响或危害,如输出有害内容、带来幻觉、造成歧视等。人机对齐表现在两个方面,一是人工智能对齐人类,主要涉及创建安全且符合伦理的人工智能系统;二是人类对齐人工智能,核心是确保人们负责任地使用、部署人工智能系统。通过人机对齐,能够有效制约人工智能可能对意识形态安全造成的显性风险和潜在威胁。
完善人工智能立法规范。我国2023年出台的《生成式人工智能服务管理暂行办法》明确了“国家坚持发展和安全并重、促进创新和依法治理相结合的原则”,并提出提供和使用生成式人工智能服务,应“坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容”[8]。在现有立法的基础上,仍需适应技术发展需求不断完善相关立法,协调人工智能发展与安全之间的关系。
五、人工智能的自我意识缺失与思政教育的意识需求之间的关系
当下,人工智能在诸多领域大显身手,然而其始终存在自我意识缺失这一关键局限。与之相对的是,思政教育高度重视人的意识培育,有着丰富且多元的意识需求。面对二者之间的错位,如何使人工智能有效赋能思政教育,亟待我们深入思考。
1.人工智能的自我意识缺失
关于人工智能是否具有“意识”,有诸多学术讨论,甚至也有相关实践“证明”。如2016年,微软曾推出过名为Tay的聊天机器人,用户几乎立即找到了让它产生种族主义、性别歧视和其他攻击性内容的方法。仅仅推出一天,微软就被迫将Tay撤下。2022年,谷歌工程师布莱克·莱莫因声称谷歌创建的AI机器人已经变得“有知觉”,引发了争议,布莱克·莱莫因也因此被解雇。尽管如此,通用的观点更多认为人工智能是没有意识的,这些所谓的意识是人的意识在智能机器人中的延伸或显现。
缺乏主观情感体验。人工智能没有自我意识,无法像人类一样拥有主观的情感体验、价值观和道德观念。它只是根据预先设定的算法和数据进行运算和决策,无法真正理解思政教育中所涉及的人类情感态度、道德困境和价值选择。例如,在面对一个道德两难的问题时,人工智能只能根据已有的数据和算法给出一个看似合理的答案,但它无法体会到当事人的内心挣扎和情感冲突。
无法进行自我反思。人工智能的自我意识缺失意味着它在认知上无法像人类一样进行“吾日三省吾身”的自我反思和主观能动的认知拓展,基于此,它不能像人类一样对自己的行为和决策进行反思,无法认识到自己的错误和不足,也不能主动进行改进和自我修正。
生成文本可能会出现幻觉。所谓幻觉,即生成的文本无意义或与提供的原始内容不符。幻觉分为内在幻觉和外在幻觉,内在幻觉与源材料相矛盾,而外在幻觉则是生成的文本包含源材料中未包含的额外信息。如果文本生成出现幻觉,则会对人们的意识需求产生多方面的影响。从认知加工角度来看,它可能会干扰意识对信息准确性的判断需求。从学习与知识构建方面而言,如果人们依赖存在幻觉的文本,意识在构建知识体系时会被误导,进而影响到个体准确吸收与整合新知识的需求。原本意识期望从文本中获取真实有用的知识来充实认知结构,但幻觉内容使得这种需求难以正常达成,可能导致个体认知偏差或错误观念的形成。在交流互动中,基于幻觉生成的文本会使意识在理解与回应他人观点时产生困惑,改变意识对清晰有效的沟通模式的需求。参与者需要先澄清文本中的幻觉部分,才能进行有意义的思想交流,这使得交流的流畅性与准确性大打折扣,意识不得不调整其在交流过程中的信息筛选与整合策略,以应对文本幻觉带来的干扰与不确定性。
2.思政教育的意识需求
培养受教育者的自我意识。思政教育的一个重要目标是培养受教育者的自我意识,让他们能够认识到自己的价值观念、道德观念和行为准则,并对自己的行为负责。这需要受教育者具备自我反思、自我判断和自我修正的能力,能够在面对各种复杂的社会问题时做出正确的选择。在思政教育中,教育者会引导受教育者思考自己的人生目标和价值追求,让他们认识到自己的责任和使命,从而激发他们的内在动力和积极性。
强调人与人之间的情感共鸣和人文关怀。思政教育不仅仅是知识的传授,更是情感的共鸣和人文关怀的传递。它需要在教育者与受教育者之间建立起深厚的情感联系,教育者通过理解受教育者的内心世界、情感状态和认知困惑,让其感受到被理解、被尊重和被关爱。而人工智能由于缺乏自我意识和情感体验,无法与受教育者进行真正的情感交流,也无法向其提供真正的人文关怀,也就难以满足思政教育对情感共鸣和人文关怀的需求。
3.协调关系的策略选择
人机结合,优势互补。在思政教育中,可以将人工智能与人类教育者结合起来,发挥各自的优势。人工智能可以提供丰富的学习资源和个性化的学习方案,帮助学生快速获取知识和信息。教育者则可以通过情感交流、人文关怀和价值引导,培养学生的自我意识和道德观念。例如,在线学习平台上,人工智能可以根据学生的学习进度和兴趣爱好推荐相关的学习资源和课程;而教师则可以通过在线讨论、作业批改和个别辅导等方式与学生互动和交流,解答学生疑问,引导学生进行深入思考。
引导受教育者适度使用人工智能。在思政教育中,教育者需要引导受教育者合理使用人工智能,避免过度依赖技术。要通过开展信息技术素养教育、网络安全教育等活动,帮助受教育者树立正确的技术观和价值观。同时,教育者也要鼓励受教育者积极参与社会实践和志愿服务活动,让他们在实践中感受人类的情感和价值,提高自己的社会责任感和道德感。
警惕情感替代风险。在人际或人机关系维度,人工智能和机器人已经并将持续深度介入人类情感领域,给人们提供情感陪伴价值,但却可能影响到人际交往,产生情感替代风险,导致人与人之间的真实联系被削弱甚至被取代。在大学生中出现的手机依赖、拒绝交往、拒绝恋爱等现象,很多是大学生依赖人工智能的表现。
在建立新型人机关系时需要遵循一个重要的原则,即人机交互必须促进人类联系和社会团结。良好的人机交互系统能够打破地域、文化、语言等诸多障碍,为人们创造更多交流互动的机会,使人们意识到彼此之间的共通之处,从而增强社会凝聚力。在文化传承与传播上,数字化交互手段让不同代际、不同地区的人们共同参与到文化保护与传承中来,加深了人们对民族文化的认同感与归属感,有助于筑牢维系社会团结的精神根基。为了达成这一目标,技术开发者在设计人机交互产品时,需要充分考虑用户的社交需求与情感体验,融入促进用户间交流合作的功能元素。社会各界也应当积极引导人们正确运用人机交互工具,倡导通过这些工具建立友好、和谐、互助的人际关系,如此才能让人机交互真正成为推动人类联系和社会团结的有力引擎。
六、在批判性思维培养方面人工智能供给与思政教育需求之间的关系
在知识快速更迭的时代,批判性思维的培养愈发关键。人工智能凭借强大的数据处理和分析能力,为批判性思维培养提供了新的视角和资源,但其自身又不可避免地面临着批判性思维缺失的问题。而思政教育在育人过程中,对批判性思维的培育有着明确且迫切的需求。如何弥合二者的对接错位,值得我们深入思考与剖析。
1.人工智能供给的缺陷
缺乏真实的情感理解与反馈。感性思维通常涉及情感、主观体验、创造力和直觉等方面。目前的人工智能缺乏真正的感性思维,无法像人类一样感受情感,不能体会到快乐、悲伤、愤怒等情绪,因此它可能“生产出消解主体情感功能的话语”[9]。它也缺乏真正的创造力,虽然可以通过学习和模仿生成一些看似具有创意的作品,但这些作品往往是基于已有的模式和数据,缺乏人类创造力所具有的独特性和主观性。同时,人工智能在决策过程中也缺乏直觉,只能依靠预先设定的算法和数据进行分析,而不能像人类一样凭借直觉做出判断。此外,人工智能难以理解人类复杂的情感和情绪,这可能导致其在与人交流时出现沟通障碍和误解,尤其是在需要高度情感智能的领域,如心理咨询和人际关系管理等领域。学生与人工智能之间也无法形成像师生之间那种深厚的情感纽带,人类教师的关爱、信任能让学生更有安全感和自信心去表达批判性观点,而人工智能无法给予这种情感层面的影响,可能导致学生在表达时有所保留,不利于学生批判性思维的充分发展。
知识呈现方式的局限性。人工智能的交互方式通常简洁、高效,注重问题的解决和信息的提供。人工智能通常会直接给出问题的答案或解决方案,这可能使学生习惯于获取现成的结论,而缺乏自己探索、分析问题以寻找答案的过程。例如,学生在遇到难题时,直接询问人工智能得到答案,就失去了通过自主思考、尝试多种解题方法来锻炼批判性思维的机会。此外,人工智能表现出知识网络构建不足的问题。与人类教师能够引导学生围绕一个知识网络去收集零碎信息、建立知识之间的联系不同,人工智能提供的信息可能相对孤立,缺乏对知识体系的全面构建及对其相互关联的结构关系的展示。这使得学生难以从整体和系统的角度去思考问题,不利于培养批判性思维中全面、深入分析问题的能力。
难以引导深度思考和质疑。“人工智能的核心是数据和算法,其本身并不具备反思性和批判性思维”[10],由此导致其深度思考和质疑能力的缺失。一方面,源于提问引导有限。在激发学生提出问题和质疑方面,人工智能可能不如人类教师灵活和有效。教师可以通过巧妙的提问、设置情境等方式启发学生的批判性思维,鼓励他们对现有观点、理论进行质疑和挑战,但人工智能的提问引导往往比较机械和模式化,难以根据学生的具体反应和思维状态进行个性化的深度启发。另一方面,源于无法应对复杂质疑。对于学生提出的复杂、深层次的质疑,人工智能可能由于其算法和知识储备的限制,无法像教师那样给予富有洞察力和创造性的回应,这些都会限制学生批判性思维的进一步拓展。
2.思政教育需求的多元化
思政教育创新“不能仅仅理解为纯粹的思想和观念,也不单单是原则的演绎与经验的简单归纳,而要为审视和批判保留足够的空间。”[11]在批判性思维培养方面,思政教育表现出多元化的需求。如鼓励独立思考,要求受教育者在面对各种思想观念、社会现象和政治问题时,不盲目跟从,敢于提出自己的观点和疑问。思政教育要通过分析不同的理论观点和价值取向,让受教育者学会从多个角度思考问题,培养其独立思考的能力。如倡导理性分析,批判性思维要求学生以理性的态度分析问题,避免情绪化和片面性。思政教育应引导受教育者运用逻辑推理、证据分析等方法,对各种信息进行客观评估。又如培养质疑精神,思政教育要鼓励学生敢于质疑权威和传统观念,通过提出问题、开展讨论等方式,激发学生的求知欲和探索精神。再如增强价值判断能力,彰显批判性思维的思政教育能引导学生在面对各种价值观念时进行深入思考和比较,做出正确的价值判断。
3.协调关系的策略选择
在比较中培养批判性思维。首先,人工智能可以利用强大的搜索引擎和推荐算法,根据思政教育主题,为师生提供多角度的教育素材。例如,通过对各国公民道德教育、爱国主义教育等方面的观点比较,引导学生深刻认识我国思想政治教育的价值功能。通过挖掘历史上不同时期对于思想政治理念的阐释,帮助学生了解思想的演变过程,促使他们去分析发生变化的原因和影响,从而培养批判性思维。其次,人工智能能够通过比较每个学生的思维特点分类开展批判性思维培养,对于擅长逻辑分析的学生,要提供更多具有理论深度的思政内容,让他们在深入思考中发展批判性思维;对于偏向情感体验的学生,要推送一些真实感人的思政故事,并引导他们对故事背后的价值观进行反思。
创设情境问题。利用人工智能模拟复杂的思政情境,如设定一个关于网络舆论与主流价值观冲突的场景,让学生在这个情境中思考如何坚守正确的价值观。再如根据学生的学习进度和知识水平,结合当代社会现象智能生成具有挑战性的思政问题,引导学生辩证思考问题,合理质疑、分析和推理。
协调技术与教育本质的平衡。这也是批判性思维在人际交互中的重要体现。一方面,不能过度依赖技术而忽视思政教育的本质内涵。思政教育的核心在于价值引领、品德塑造和思想启迪,人工智能只是辅助工具,不能替代教育者与受教育者之间的情感交流、思想碰撞和人文关怀。另一方面,要确保技术的运用是为了更好地实现思政教育目标,而不是为了技术而技术。避免陷入技术至上的误区,要采取有效措施鼓励生成式人工智能创新发展,采用包容审慎的态度对生成式人工智能服务实行分类分级监管,始终以培养自由全面发展的人为根本出发点。
参考文献
[1]"习近平向2024年世界互联网大会乌镇峰会开幕视频致贺[N].光明日报,2024-11-21(1).
[2]"崔建西.论人工智能时代思想政治教育的“变”与“不变”[J].思想教育研究,2021(5):26.
[3]"李怀杰.人工智能赋能思想政治教育论析[J].思想理论教育,2020(4):82.
[4]"秦蕾,朱进东.人工智能:高校思想政治教育的时代趋向与应对策略——基于复杂性科学视阈[J].江苏高教,2020(2):103.
[5]"吴潜涛.正确理解思政引领力的科学内涵[N].光明日报,2024-10-08(13).
[6]"环球网.谷歌AI聊天机器人竟回复称“人类去死吧” 谷歌回应[EB/OL].(2024-11-20).https://tech.cnr.cn/techyw/kan/20241120/t20241120_526981944.shtml.
[7]"侯波.坚持马克思主义在意识形态领域指导地位的根本制度[N].中国纪检监察报,2019-12-26(5).
[8]"生成式人工智能服务管理暂行办法[EB/OL].(2023-07-13).https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.
[9]"王少.ChatGPT介入思想政治教育的技术线路、安全风险及防范[J].深圳大学学报(人文社会科学版),2023(2):155.
[10]"林峰.人工智能时代思想政治教育的价值定位与发展[J].思想理论教育,2020(1):81.
[11]"卢岚.人工智能与思想政治教育的关系维度论析[J].思想教育研究,2022(6):60.
[责任编辑:孙溶泽]