智能思政伦理风险的生成逻辑、表现形式及防控机制 *

2023-03-22 21:38米华全
中国电化教育 2023年2期
关键词:伦理人工智能思政

米华全

(1.电子科技大学 马克思主义学院,四川 成都 611731;2.电子科技大学 高校思想政治工作队伍培训研究研修中心,四川 成都 611731)

党的二十大明确提出了“推进教育数字化”的要求,作为教育中关键一环的思想政治教育与人工智能等数字技术的融合也在不断深化,并生成了智能思政这一思想政治教育新形态。所谓智能思政,是指人工智能时代的思想政治教育与人工智能、大数据等技术有机融合,衍生出的能够推动思想政治教育过程、步骤、要素等智能化发展的思想政治教育新形态[1]。当智能技术为思想政治教育创设新场景、提供新手段的同时,其有限性和伦理边界问题也引起了人们的关注和思考。由于智能技术的“双刃剑”效应,智能思政面临着教育主体弱化、“信息茧房”、算法歧视、隐私泄漏等技术、法律甚至道德层面的伦理风险问题。为促进智能技术赋能思想政治教育健康发展,需要将其置于伦理层面予以诠释,廓清风险的生成机理、表现形式,提出有效的应对举措。

一、智能思政伦理风险的生成逻辑

智能思政伦理风险是人工智能伦理风险在思想政治教育领域的特殊体现,它既承继了人工智能的一般性伦理问题,又具有思想政治教育的特殊性。“人工智能伦理是包含一套价值观、原则和技艺,并采用公认的对错标准来指导人工智能技术开发和部署中的道德行为”[2]。其风险主要是指智能技术的研发与应用对人与人工智能体、人与人和人与自然的伦理关系带来的不确定性伦理负效应,涉及从研究、设计、开发到配置和使用等各环节。智能思政是以大数据为驱动、以智能算法为内核、以思政应用为载体,其伦理风险也贯穿于其生命全周期,是内生性逻辑、功能性逻辑和应用性逻辑共同作用的结果。

(一)内生性逻辑:算法“黑箱”及机器学习的局限

马克思指出,科学技术有时也“表现为异己的、敌对的和统治的权力”[3]。机器学习、数据挖掘、算法“黑箱”等技术性根源是形成算法歧视、责任模糊等伦理风险的重要根源。一是智能算法的不可解释性。智能思政应用根植于算法,而算法本质上是一系列复杂的代码指令,难以转化为可解释、易理解的语言。这使得用户不能清楚掌握算法目标和意图,也会让人难以理解和评估智能技术背后的决策逻辑和责任归属,让算法犹如一个“黑箱”。算法“黑箱”不仅会引发责任伦理、算法偏见等问题,还会让伦理风险评估和监督难以开展。二是机器学习蕴含强化偏见因子。在数据训练中,智能思政算法会对特定学生群体给予优先或次要的对待,在信息推送、成绩评价等方面进行不公正的自动化决策,形成算法歧视,强化甚至加剧系统性和结构性的偏见。通常情况下,算法歧视并非算法设计人员的有意识选择,而是算法本身缺乏要素透明、程序透明和背景透明的无意识结果。三是智能算法具有不稳定性。智能思政涉及的学科众多,智能思政背后所依存的算法道德需要相关系统的紧密配合。人工智能的机器学习技术严重依赖数据样本和算法代码,如果出现数据缺损、算法代码出错不仅不能保证智能思政系统的稳定性,而且极有可能误导智能机器做出错误的决策。智能机器的错误决策将严重影响用户画像、信息推送等功能,带来诸多的伦理风险问题。

(二)功能性逻辑:工具理性对价值理性的僭越

功能性根源主要是指因智能技术工具理性扩张而产生的风险问题。马克思·韦伯将技术理性划分为工具理性和价值理性,其中工具理性强调目标导向和效果的最大化,追求功能性、合理性和规范性,在一定程度上漠视人的精神价值和伦理道德;而价值理性强调动机价值的纯正性和手段的正确性,追求技术发展和应用与人的价值理念和根本利益的契合。一方面,智能技术激发工具理性不断张扬。“伦理风险强调的是伦理、道德层面的风险与价值原则选择的优先性问题”[4]。如果工具理性不受价值理性的约束,形成对价值理性的僭越,就极可能引发伦理风险问题。特别是在伦理规约还不够完善的情况下,智能思政价值理性的优先性还缺乏有效的保障,对工具理性的规约功能有待加强。另一方面,价值理性对工具理性的统摄不足。智能思政不仅本身具有强烈的伦理观念和道德规范属性,而且也受到社会思想观念、意识形态建设状况等深刻影响,这与人工智能技术的工具理性之间存在较大的张力,如果协调不好容易造成伦理冲突,引发技术伦理风险问题。

(三)应用性逻辑:主体能力和配套机制的欠缺

智能思政伦理风险既具有客观因素,也有主观原因。如果说内生性逻辑、功能性逻辑是智能思政伦理风险生成的客观因素,强调的是技术本身存在的不确定性与复杂性等客观现实,那么主体自觉过程中对风险的认知心理、感知判断等则是智能思政伦理风险生成的主观元素[5]。智能思政实践中,教师、学生和运维人员等应用主体对伦理风险的认知和应对能力的有限性,也是伦理风险生成的重要因素。目前,人工智能应用场景的拓展速度远远超出了人们的预期,其在思想政治教育领域的潜力也正不断显现。然而囿于思想认识、现实基础的约束,教育教学相关主体对人工智能伦理风险认知和应对能力还存在不足。一方面,应用主体对人工智能技术的认识和理解能力还远远不够。作为当前最前沿的技术之一,人工智能技术具有高度复杂性,涉及大数据、机器学习、深度学习、神经网络和知识图谱等各种技术,智能系统庞大的数据库、复杂的算法模型常常超出人们的认知范畴,应用主体的认知水平和理解能力还不能有效应对算法本身的不确定性,也没有办法对伦理风险形成准确的判断。另一方面,智能思政相关的法规体系、资源建设、保障机制等还比较滞后。当前人工智能嵌入思想政治教育还处于起步阶段,在技术研发、数据共享、合作机制等方面还不完善,也缺少相应的规范和指引,缺乏技术成熟、应用面广、功能完备、成效显著的系统平台。在伦理风险防范的思想认识不强,相关工作机制也较为欠缺,不能做到事先预警,防患于未然。

二、智能思政伦理风险的表现形式

意识形态属性是思想政治教育的显著属性,人工智能应用导致的不仅仅是技术层面的伦理风险,它还可能对主流意识形态、教育价值和伦理体系等产生一系列潜在的、未知的风险问题。根据不同的视角或标准,风险的表现形式也呈现出不同的分类结果。具体而言,主要表现在伦理关系失衡、伦理价值失序、伦理行为失当和伦理规范失控等方面。

(一)伦理关系失衡风险:师生主体地位的消解与情感的遮蔽

“技术一旦生成并被广泛应用,就会依据其内在的结构和功能形成一种自主性力量”[6]。随着人工智能技术自主性力量的膨胀,人本身的主体性就有可能被削弱。人工智能在思想政治教育领域的应用,把原本由教师和学生组织和实施的知识传授活动交给智能机器,让智能算法替人做决定,必将使思想政治教育主体失去自主性与判断力。其一,教师和学生主体地位的消解。现代思想政治教育观点认为,思想政治教育是教育者和受教育者双向互动的过程,教育者与受教育者均为教育的主体。在人工智能的冲击下,无论是教师的主导地位,还是学生的主体地位都面临着解构的风险。从教师维度看,教师是思想政治教育的主导者,掌握着教育的方向、内容和途径方法。以算法赋能,智能思政应用可以承担更多教师角色,如可以自动生成课件、批改作业、诊断学习障碍和进行能力测评等;而且,智能算法的赋权,还会打破传统的教育模式和认同模式,激发和释放受教育者的主体性,甚至形成受教育者主导信息生产和传播的局面。受教育者主体地位的彰显,极有可能消解教师的信息主导优势,导致教师权威地位旁落。从学生维度看,学生的主体性主要体现为教育过程的参与和自我教育。虽然,智能算法有助于掌握受学生需求,并根据需求定制学习任务,进行信息推送,在一定意义上有助于彰显学生的主体地位。但大量智能教学系统、学伴机器人和智能搜索引擎的应用,长期的信息“投喂”在无形中也会侵蚀学生获取信息的主动性,导致信息渠道和信息内容的窄化,丧失接受更全面、更丰富信息的机会。对算法推荐的过度依赖,也容易产生思维和行为惰性,导致学生主体性被不断解构。其二,师生情感关系的遮蔽和冷漠。情感遮蔽就是师生的情绪、感受被技术屏蔽,既觉察不到自己的情感,也觉察不到其他人的情感[7]。思政政治教育不仅是一项政治性实践,也是一种情感养成。虚拟和现实深度的相融让师生具身在线上线下不断切换,导致人与人之间的地缘、业缘和类血缘关系面临着解构的风险。一方面,智能思政中,师生之间的交互需要凭借数字化中介系统来开展,成为一种“人—机—人”的虚拟交互模式。虚拟交互使师生交往变得愈发间接,弱化师生人际交往和情感交流的主动性和有效性,阻碍师生之间最珍贵的情感交流和感情培育。另一方面,在智能思政系统中,师生在本质上成为以数据为基础的虚拟仿真主体,成为算法视阈中“数字符号”,忽视了“现实的人”的情感需求,淡化了师生之间的关系纽带,让思想政治教育成为缺乏情感力量的信息传播。

(二)伦理价值失序风险:思政教育“精神空场”与公平性缺失

智能算法推荐功能在提升思想政治信息传播效率的同时,也可能导致算法权力的扩张,使智能算法成为引领网络思潮、塑造网络行为、形塑价值秩序的新型权力。如果缺乏有效的权力规制,那么算法权力就会冲击自由、平等、公平等价值观念,撕裂网络空间主流意识形态价值共识,侵蚀学生的政治认同。其一,“精神空场”与网络空间正能量的缺失。算法推荐是智能思政处理和传播信息的最主要手段,无论是协同过滤的算法还是基于内容的算法,都以数据化的用户信息偏好为导向,使得对用户有直接兴趣的信息进行挖掘和推送成为其关注重点[8]。而网络空间能够激发用户兴趣的信息常常是那些标题醒目、内容浅显、语言通俗的碎片化信息。这类信息在网络空间大行其道,必然压缩偏重思想理论阐释、话语风格严肃、富有思考深度的思想政治教育信息的生存空间,让其得不到应有的推送级别和关注度,传播覆盖率、到达率、影响力不高。在“流量至上”的作用下,还会形成信息传播强者愈强、弱者愈弱的“马太效应”,让网络空间充斥着浅表化、娱乐化、碎片化、低俗化的信息,导致思想政治教育内容供给不足,引发思想政治教育信息的“精神空场”。学生被这些良莠不齐的信息所误导,会产生精神缺失、信仰缺失和价值虚无等弊端。其二,“数字鸿沟”与思想政治教育公平性的丧失。“数字鸿沟”是指信息拥有富裕者与贫乏者之间的差距所形成的信息权利享有不对称现象。由于掌握和运用智能技术的差异,智能思政“很有可能导致教育者与受教育者在不同性质主体之间或者同一性质主体之间因运用技术差异产生数字鸿沟”[9]。“数字鸿沟”不仅会阻碍教育主体之间的信息交流和沟通,还可能破坏思想政治教育的公平性,使那些智能设备欠缺、智能素养不高的教育主体丧失话语权,成为边缘化的沉默群体。同时,智能思政系统通过机器学习的统计分类功能,还会给不同种族、性别、年龄和家庭的群体进行标记,形成算法偏见和刻板印象,影响思想政治教育公平。

(三)伦理行为失当风险:群体思想极化与与人文精神的失落

作为人类的技术发明,人工智能兼具自然属性和社会属性。在一定条件下,技术的自然属性不可避免会引发技术异化的潜在风险。智能思政在改变思想政治教育组织形式、教学方法和话语内容的同时,其内在的技术范式也成为重要的宰制力量,有可能导致“信息茧房”、技术依赖、人文精神失落等风险生成。其一,“信息茧房”与学生群体思想极化。“信息茧房”现象是智能算法精准推荐和分发的伴生物,是指算法根据用户的接受偏好或者设计者意图进行信息的推送,让用户长时间接受同质化信息,沉浸于封闭窄化的信息环境中的状态。因此,美国学者桑斯坦把“信息茧房”定义为“我们只听我们选择的东西和愉悦我们的东西的通讯领域”[10]。学生长期接受被智能遮蔽和过滤的同质化、个性化信息内容,学习兴趣和注意力就会被锁定在既定的范围内。从而助长学生排斥异质化声音和多元思想,固化知识结构、滋生小众文化,强化认知的偏差和思维的故步自封,带来群体极化现象。其二,技术依赖与学生反思和批判能力弱化。人工智能时代“社会控制的现行形式在新的意义上是技术的形式”[11],智能思政的自动化决策、用户画像、精准推送等功能优势,容易使师生迷失在算法所制造的有效性和合理性幻象中,产生技术崇拜、思维惰性和路径依赖。批判和反思精神的丧失,不仅会强化师生对智能思政系统的路径依赖,而且会阻碍伦理风险意识的养成,对风险防控产生不良影响。其三,工具理性的张扬与人文精神的失落。工具理性主导下,缺乏对思想政治教育人文精神的价值观照,算法规则和标准化流程限定了思想政治教育的对象、内容和方法,使思想政治教育内含的人文精神和价值理性受制于程序化、流程化的工具理性,“很难在数据交易过程彰显其人文精神的社会关系向度”[12]。在这样的背景下,学生很难通过冰冷的数据和算法代码来体验人文精神的温情和熏陶。

(四)伦理规范失控风险:责任伦理困境和隐私数据泄漏隐患

伦理规范失控风险是指由于相关的制度规范缺乏或执行不力引发的人工智能伦理失范问题。智能思政在伦理规范失控方面的风险主要表现为责任伦理风险和隐私泄漏风险。其一,责任伦理问题。传统责任伦理的判定是基于决策行为与行动后果之间相对清晰的因果逻辑,责任主体明确,追究责任便利。相较于传统责任伦理中明确的因果关系,人工智能具有自动化决策功能,如果出现决策失误,很难以追究智能思政技术主体或应用主体的责任。由于机器学习的自主性,也无法追究研发主体的责任,此时责任主体无法判定,追求相关责任以维护公共利益面临困境[13]。同时,思想政治教育的政治性属性要求教育者必须具有坚定的政治立场、敏锐的政治洞察力和鉴别力,而智能机器在思想状况方面的鉴别力、判断力还很难达到人类的水平,不能及时判断思想政治教育状况和发展趋势,甚至出现重大的判断失误。如果智能思政系统出现误判,由此引发的责任界定问题将会成为智能思政发展的重要障碍。其二,隐私伦理问题。占有大量数据是智能思政应用的前提和基础,随着数据挖掘、语音识别、人脸识别等技术的推广和应用,数据不当采集、数据收集方滥用、数据二次使用与扩散等正严重危及思想政治教育数据安全和个人隐私。在智能思政实践中,手机、电脑、一卡通、监控摄像机、智能穿戴等设备,以及视频会议、虚拟仿真教学等平台,已构成了多功能、立体化、全方位的智能感知系统。学生的生物信息、行程轨迹、关注内容、消费记录、身体位置,乃至心理状况、生理缺陷和家庭背景等数据很容易被获取和收集,成为数据“透明人”。如果师生数据安全意识不强、数据保护机制欠缺就会让其中的敏感信息、私密话题发生泄漏。隐私信息的泄漏,不仅会危害师生的人身财产安全和个人隐私信息,也会对智能思政的发展产生不可估量的负面影响。

三、智能思政伦理风险的防控机制

智能思政伦理风险防控是一个需要慎重选择和认真对待的复杂问题,不可能一蹴而就,需要准确把握人工智能和思想政治教育融合发展的规律和特点,树立整体性、关联性、动态性、层次性的理念思维,构建整体智治、高效协同的伦理风险防控机制。

(一)价值引领机制:树立以人为本的智能思政伦理价值导向

技术价值要与人的价值、文化价值统一起来,才能实现人的自由发展。智能思政伦理风险的防控,首先要从价值导向方面入手,突出思想政治教育的意识形态属性和发展规律,强化马克思主义的指导地位,坚持以人为本的价值立场,才能促进人工智能与思想政治教育的高质量发展与高水平互动,落实立德树人根本任务。第一,始终坚持以马克思主义为主导。思想政治教育旨在用科学的理论武装学生的头脑,引导他们坚定理想信念,树立正确的价值观,坚持以马克思主义为指导是其本质要求和基本路径。为此,在设计、开发智能思政算法时,要将马克思主义主流意识形态融入算法设计与应用全过程,筑牢算法主流价值基础。要“聚焦立德树人根本任务,为学生的成长成才而服务,将积极正能量的核心价值观融入算法‘推荐池’”[14],提高相关平台推送思想政治教育信息的比例,让正能量充盈网络空间和智能思政平台,使学生在网络行为中获得积极、阳光的正向激励。第二,实现从技术本位向人之本位的转变。在智能思政视阈中,思政是核心要义,智能技术是服务于思政的创新手段,要“坚持技术为‘用’,追求育人之‘本’”[15]。构建思想政治教育伦理的基本理念和原则是以人的发展为中心,关注其发展的未来性、生命性和社会性。人工智能在思想政治教育的任何应用,都不能改变服务于学生价值观塑造和全面发展这一根本宗旨。推进智能思政,要着力实现从技术本位向人之本位的转变,绝不能迷失在技术的浪潮中,丧失了促进人的主体性发展的立场方向。第三,遵循思想政治教育发展规律。规避智能思政伦理风险,既要遵循人工智能伦理的一般性原则,又要尊重和凸显思政政治教育的自身规律,顺应学生认知形成规律、层次需求规律和情感意志发展规律等。思想政治教育规律是“思想政治教育活动在其运动发展过程中内在的、本质的、必然的联系”[16],人的思想和行为变化规律是思想政治教育的基本规律之一。在智能思政实践中,要不断探索学生的思维习惯和网络行为规律,引导他们实现对智能技术外部依赖和被动接受的超越,克服“信息茧房”、过滤气泡、算法歧视等背后的算法逻辑,构建精神丰盈的主体世界。

(二)协同治理机制:增强智能思政伦理风险防控协同化能力

从系统科学的视角来看,智能思政伦理风险的防控是一个复杂系统,需要强化顶层设计,以系统性思维推动智能思政主体协同、技术协同和内容协同,切实提升密切配合和协调一致的协同防控能力。第一,构建智能思政伦理风险防控协同体。智能思政伦理风险的协同治理,重点是要构建起以政府为核心,高校、企业、师生等协同主体共同参与的自组织系统,打造伦理风险防控协同体,以整体、高效的风险管理联动机制克服分散的、单项的风险治理机制。教育主管部门和科技管理部门要加强战略规划、宏观统筹和整体协同,为智能思政提供政策依据、路线规划和条件保障,健全数据资源共享平台和运行监管机制。各高等学校要把智能思政作为智慧校园建设的重要内容,本着务实管用的原则,统筹推进教务处、马克思主义学院、信息网络中心、学生工作部、教师工作部等相关机构协同起来,打通条块壁垒,实现资源共建共享。要着力畅通社会参与机制,促进人工智能企业、新媒体平台等增强伦理风险防控协同意识,共同参与智能思政相关规则的制定,完善利益协调、内容分享、责任共担机制。第二,夯实智能思政伦理风险协同防控的技术基础。人工智能是智能思政伦理风险生成的技术因素,技术手段是风险规避的基础性手段。为此,要加快人工智能技术突破和新型基础设施建设,为智能思政发展和伦理风险防控提供坚实的物质保证。一方面要加强智能算法理论研究,掌握智能思政的核心技术,提升智能思政关键技术研发和数据共享能力,特别是要加强算法“黑箱”、数据泄漏、“信息茧房”等方面的规避技术研发,堵住伦理风险生成源头。另一方面,要以智慧校园建设为依托,通过信息网络升级、平台体系融合、数字资源汇聚等途径,构建可信、可靠、可控的思想政治教育课堂教学、实践教学和日常养成智能协作平台环境。与此同时,要深入推进思想政治教育传播主体的智能转型与合作,主流媒体要与其他媒体实现融合发展。积极发挥商业化媒体技术和平台优势,合作开设思想政治教育栏目,强化链接互通,形成立体化的智能思政生态系统。第三,推进优质思想政治教育资源供给。要加强议题设置,扩大优质内容供给,打造符合学生接受习惯的网络文化精品。要组织开发一批高质量课件、案例库、在线示范课程库等优质教学资源,打造一批思政“金课”。在主流媒体平台算法设计中适量增加思想政治教育信息比重,提高对学生成长具有重要价值的信息的推送比例,促进工具理性与价值理性的有机统一。

(三)法规约束机制:提高智能思政伦理风险防控制度化水平

伦理制度和法律法规是促进智能思政健康发展的前提和保障,也是规避智能思政伦理风险的强制性约束手段。要通过法律化解风险,通过法律吸纳风险,将风险社会置于法治社会的背景之中,即对智能革命时代的法律制度乃至整个社会规范进行新的建构[17],才能维护好智能思政应用的秩序。第一,准则约束:编制智能思政伦理规范准则。目前,世界上大部分人工智能强国都成立了人工智能伦理委员会,并制定了相应的伦理准则。我国也先后成立了新一代人工智能治理专业委员会、国家科技伦理委员会,并发布了《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》,分别提出了八条治理原则和六项基本伦理规范。这为智能思政伦理风险治理提供了行动指南和基本遵循。在现有伦理准则基础上,还需要结合思想政治教育的特殊性,针对智能思政应用过程中凸显出来的伦理风险问题,编制智能思政伦理规范指南。并围绕指南制定相应的法律法规、责任清单和问责机制,为智能思政主体提供行动引领和道德约束。第二,法治规范:健全智能思政健康发展的法律法规。只有通过有力的法律法规约束,将制度的力量贯穿与智能思政开发设计和运行维护全过程,才能有效降低智能思政的伦理风险。尽管我国已经先后出台了《中华人民共和国网络安全法》《互联网信息服务管理办法》《网络安全审查办法》《中华人民共和国个人信息保护法》和《关于加强科技伦理治理的意见》等法律法规,但关于智能教育、智能思政等方面的法律法规还比较缺乏,与智能思政法治化治理的要求还有较大差距。为此,一方面要着力完善相关政策和法规。通过立法,健全算法设计、市场准入、平台使用和过程监管等方面的法规制度,厘清智能思政相关主体的法律责任,规范智能平台研发、信息分发和网络行为,防止技术异化和价值扭曲。另一方面,要强化法规制度的贯彻执行。进一步增强智能算法监管的法治意识和法治思维,推动法规制度落实到位,加大对不法行为的惩罚力度,不断探索智能思政法治化治理的可行策略。

(四)素养培育机制:提升智能思政伦理风险认知和应对能力

智能思政伦理风险的防控成效,与作为技术主体的算法设计人员和应用主体的师生的智能素养密切相关。如果技术主体缺乏风险意识和责任意识,在设计研发环节就不能正确评估伦理风险,埋下风险隐患。如果应用主体缺乏相应的智能素养和技能,既不能有效发挥智能思政的功能,也不能有效规避智能思政面临的各种伦理风险。这要求广泛开展人工智能基础知识、数据素养和算法素养培训,贯通技能与人文、伦理和社会等知识领域,提升技术主体和应用主体智能化适应力、胜任力和创造力。第一,加强智能思政技术主体的教育引导。要推动应用主体与技术主体围绕人工智能伦理开展讨论交流,强化对技术主体的价值理性引导和责任意识培育,自觉接受思想政治教育和相关学科知识培训,增强专业性,强化算法研发和设计的道德自律性。第二,提升智能思政应用主体的智能素养。人工智能伦理风险不仅产生在研发设计环节,也生成于应用环节。提升师生的智能素养和应用技能,是规避智能思政伦理风险的必然要求。对于教师,要实施教师智能技术应用能力提升工程,在入职教育和在职培训等环节加强教育培训,做到熟知人工智能技术伦理风险,促进专业化发展。要引导教师在智能思政实践过程中,自觉遵守人工智能伦理原则和规范,做出合乎教育效益、伦理规范和技术效能的教学安排与决策,督促学生合理合法地使用技术,正确处理、看待自身与思想政治教育人工智能的协同关系。对于学生,要加强人工智能伦理知识普及教育,通过将人工智能伦理教育融入课程教学,以及组织专题讲座、案例分享、人工智能企业学习实践等方式,推动学生掌握人工智能基本原理,提高信息分辨能力,自觉抵制“信息茧房”、价值无序、泛娱乐化等危害,养成正确的科技观、伦理观和网络行为习惯。

(五)监测评估机制:推进智能思政伦理风险防控全周期监管

防范和化解智能思政伦理风险要依靠机制管长管远。在智能思政推进过程中,要建立健全智能思政伦理风险准入评估、过程评估和绩效评估机制,加强过程管控和结果评价,实现全面全程全员风险管理。第一,强化源头管控,探索智能思政研发和运维主体准入评估机制。在智能思政平台应用前,可以采取用户参与式、体验式等方式,在一定范围内进行适应性论证和风险评估。要充分利用大数据、自然语言处理、智能识别等技术手段,建立智能思政伦理风险评估模型,全面评估研发和应用中的潜在风险,明确模糊界限。要加强算法审查和数据监管,对参与智能思政平台建设的企业进行前置资格审查,建立柔性准入和强制退出机制,限制研发和使用具有潜在伦理风险的技术和功能,堵上智能思政应用的风险漏洞。第二,强化全程监管,探索智能思政伦理风险过程评估机制。智能思政研发和应用主体要充分发挥智能技术在伦理建设方面的优势,加快伦理风险监测技术研发,搭建伦理风险监督、监测和审计体系。要针对不同的风险类型制定解决预案,开发合乎伦理的风险预警系统,以此持续监测思想政治教育人工智能伦理风险情况。如发现风险隐患和苗头,要及时给教育部门、执法部门和师生发送预警信息,实现精准预警。第三,强化责任落实,探索智能思政伦理风险防控效果评估机制。围绕伦理风险防控目标及防范机制内容,依托层次分析法(AHP)建立层次结构模型,搭建指标清晰、结构完备、操作性强的评价体系,对智能思政伦理风险防控效果进行客观、科学的评价。并以行之有效的考核评价倒逼智能思政伦理风险防控责任落实,压实相关主体责任,确保伦理风险防控取得实效,推动智能思政健康发展。

猜你喜欢
伦理人工智能思政
《心之死》的趣味与伦理焦虑
思政课只不过是一门“副课”?
关于国企党建与思政宣传有效结合的探讨
护生眼中的伦理修养
思政课“需求侧”
思政课“进化”——西安交大:思政课是门艺术
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!