人工智能时代法治教育的挑战与应对

2021-12-06 11:54
关键词:公民法治人工智能

刘 敏

(忻州师范学院马克思主义学院 ,山西 忻州 034000)

“人工智能”(Artificial Intelligence,缩写为“AI”),在大英百科全书中被定义为“数字计算机或者被计算机控制的机器人执行与智能生物相关的任务之能力”[1],自1956年在达特矛斯会议开启元年,经过六十多年的演变,现已迈入新时代,呈现出“深度习得、跨界交融、人机协同、群智共享、自主控制等新特质”[2],普遍运用于社会各界。伴随自然语言处理(NLP)、面部表情识别、智能导师等智能技术的迅速进步和普遍运用,人工智能正改变并赋能教育。中国格外看重人工智能技术对教育的影响,习近平总书记于2019年5月16日的国际人工智能与教育大会上的贺信中表明,新时代的中国将极其看重人工智能对教育产生的深远影响,积极推动人工智能与教育进行深度融合,推动教育革新。同时,法治教育肩负着传播社会主义法治理念、新时代法治精神的重要使命,人工智能在法治教育中的应用不仅能够提高公民法治认同,更能助推2035年基本建成法治国家、法治政府、法治社会,实现全面依法治国和平安中国目标的实现。法治教育是指“经过对公民有目的、有组织、有计划地进行‘全面依法治国’方针的宣传和教育,培育与发展公民法治意识及其用法治意识指引自己行动的一类活动”。[3]

21世纪将是复杂性科学的世纪。复杂性科学在迅猛发展的同时,慢慢浸润到法学、哲学、政治学等学科,人工智能、大数据等诸如此类复杂性科学的详尽措施在这些学科内得到广泛运用。法治教育工作作为复杂社会系统的子系统,随着人工智能时代的来临,其复杂性特质逐渐凸显,其进一步完善进步将面临新的丰富局势与多重实际挑战。法治教育工作的巨型性、开放性、多元性等复杂性特质,需利用复杂性科学的视角以审视我国智能时代的法治教育宣传工作。

一 人工智能时代法治教育工作的复杂性

当前,随着人工智能技术在法治教育工作的融入逐渐深化,法治教育工作的复杂性特质日益昭彰,人工智能除给予法治教育工作了解其复杂性的对象外,还可给法治教育工作提供新的复杂性元素。概言之,智能时代的法治教育工作表现为如下复杂性特质。

(一)巨型性与系统性

我国作为一个“大杂居、小聚居”的国家,幅员辽阔,有56个民族,早在2019年,仅大陆人口就高达14亿,要想法治教育落实到每个角落,是一项规模庞大的任务,内在机理与演变规律特别复杂。“各项任务产生的信息也是庞杂的,大数据等科技的提升为其庞杂信息的分析与解决提供了可能。”[4]以图形化这一当今大数据的重要形式为例,它可以快速耦合异构数据,为各类教育主体提供决策支撑。图形化驱动数据的核心特征为实时互动、埋点采集、深度分析和循证决策。在教育领域,图形化数据存在直观性、全景性、交互性、智能性、可扩展性及叙事性等特质,在学习评价和智能管理等领域均可有效应用。从系统论的观点看,在法治教育这一复杂系统内部,家庭、学校、社会、政府各级组织均看成是存在自主决策和行动能力的智能体,这些智能体间除可相互作用外,还能与外部环境持续地发生着信息、物质以及能量交换,进而构成多智能体体系。

(二)开放性与动态性

法治教育工作智能体的决策与活动持续受系统外在各类能量、数据以及物质的作用,显露出复杂开放的特质。同时法治教育需求亦伴随社会经济的进步、公民法治认同层次的改变、个人偏好的变化而随之改变。公民之间的个人爱好与文化喜好之间存在差异,即使同一公民在不同时段,“限于经济、文化、政治以及社会等诸多因素的制约,其个人偏好、文化喜好也会随之改变,呈现出显著的个体差异”[5]。以中小学生为例,“从行为选择角度看,中小学生初步建立起法治认同,然而并不稳定,极易受到好朋友等社会关系以及社会上不法现象的侵扰与影响”[6]。在互联网上,各类积极消极信息以及网络言论的传播进程展现出小世界特质、幂律特质等复杂网络特质[7];各类外部元素对人类的思维看法的影响显露出随机、模糊等动力学演变法则[8]。再如,公民在不同时期、不同时间节点对法律信息存在不同需求。因此,法治教育工作务必可以相应实行动态调整。数据处理技术、模式识别以及自然语言处理技术的突破,能够助力法治教育工作的参与者把握工作中的动态复杂性规律。

(三)层次性与多元性

按照复杂性科学的说法,层次即系统孕育复杂性的主要源泉。法治教育主体需求的多元性主要体现在社会空间不同群体的需求不同。不同社会阶层因年龄、职业、性别以及受教育程度等因素存在显著不同,其法治需求层次与主动性也相应存在显著差距。比如“七五”普法的重点就是领导干部、青少年、企业经营管理人员和农民工。利用机器学习、自然语言处理等诸多智能技术将帮助增强各阶层的管理服务水平,还可帮助理解与掌握因层级跳跃而显露出的复杂性秩序。此外,法治教育任务的教育内容、教育形式以及教育参与者在诸多层面表现出明显不同。例如,从内容看,不但需要传授《中华人民共和国公职人员政务处分法》《中华人民共和国未成年人保护法》《中华人民共和国劳动法》《保障农民工工资支付条例》等法学知识,还需培育社会主义核心价值观、从业准则等人文素质。此类多元性,势必呈现整体执行方式、程序稽核、成效评估等层面的复杂性。多类智能技术的突破,为解决这类复杂性提供了有力工具。

(四)不确定性与不均衡性

法治教育充满着种种不确定性,体现出如下特征:法治教育过程“由程序性与预设性转向非线性,由灌输与死记硬背转向生成性,由枯燥传承转向创造性与语境性”[9]。具体来说,法治教育宣传工作的业务内容、形式、评价等都具有模糊性。法治类课程的设定和普法宣传的时间和地点均存在偶然性、随机性。因而,法治教育的方式也极具不确定性,需进行精准育人。机器学习、学习分析以及情感计算等技术为大规模进行精准育人提供了可行途径。再加上法治教育工作各要素间也经常存在不均衡。例如,发达地区的公民所获取的法治宣传资源远远高于贫困地区,就算是同一地区内部,各公民间的文化水平、接受知识水平、知识存储间也具有不平衡现象,由此使得公民个体呈现出的法治素养、法治认同差异较大,这便亟需利用人工智能技术进行定制化的法治教育,助力脱贫攻坚工作,把法治技能“扶贫”、法治思想“扶志”以及“扶法治教育之学”的“扶学”相结合,着力提高贫困地区公民法治素养,为打赢教育脱贫攻坚战、提供公平而有质量的教育提供良好法治保障。

二 人工智能对法治教育带来的挑战

(一)人工智能带来法治教育模式的改变

首先,人工智能法治教育利用数据挖掘、数据分析等技术手段达成“精准化普法”,由此与公民逐渐个性化、多元化的法治教育需要相适应。随着法治教育需要的扩大,造成过去由政府支配的“精英式自上而下”的法治教育传播模式不再符合智能时代发展的需求,法治教育传播呈现“供需不平衡”的现象,倒逼法治教育传播探求精准化宣传模式。我们可以一边以政府采集的公民行为大数据为基础,利用算法解析技术,深挖受众需要,为公众提供定制化的法治教育内容,完成定向精准法治教育。另外,凭借大数据分析,可动态计算公民个体对法律信息内容的需要,在恰当的时机进行精准推送相关信息,达成法治教育宣传时机的精准性。

其次,创建法治理论知识大数据平台,借助机器学习技术,对浩如烟海的“零碎化”的法律规章制度条文以及相关案例等实行细分,达到精准检索,让公民享受便捷的智能法律服务。针对法治教育需求对象和内容的差异性,进行精准供给。具体需进行如下操作:首先借助大数据技术来采集用户特征、信息特征和环境特征等数据,接下来借助算法对这三类数据实行概括提炼、数据化处理与匹配,最后进行精准用户画像,按照用户的个性偏好来推送与供给其感兴趣的消息,实现内容传播的“私人订制”。比如,大学生“作为未来法治国家建设的主力军,其法治素养和法治观念直接关系着我国法治国家建设的进程”[10],精商明法则是大学生创业者所必需的综合素养,对创业大学生进行《公司法》《税法》《产品质量法》《电子商务法》等相关法律法规的普及,帮助大学生创业者强化法治意识,在法律的框架内从事投资、生产、经营活动。再如,北大法宝的智能定罪与量刑平台可以凭借自动识别案件关键,对案件实行深度解析与智能化解读,精准界定罪名,最终给出量刑范围阈值以及量刑建议,进而帮助生成规范法律文书。公民通过相关查询就可对案件走向进行预测,有利于增强公民法治认同。

最后,以语境化的法治教育宣传推广为机会,运用“讲好中国法治故事”手段,强化法治教育宣传实效性。人工智能技术推动普法传播的深度互动,增强公众参与是提升法治宣传效果的重要着力点。随着VR/AR/MR、可穿戴装置的兴起,突破了先前以单纯的文字表达、视频图像等平面途径来传达信息的单一格局,通过VR/AR/MR技术来模拟生成虚拟世界,给用户带来视觉、听觉以及触觉等立体式的感官感受,即建构出信息传达的“语境感”,这种语境感的宣传从网上走到网下,实现了宣传路径的语境化,让公民获得“沉浸式”的教育。得益于此,法治教育的宣传模式也日益从“平面化”转向“立体化”,能帮助培育公民法治素养和增强法治认同。在针对农民开展法治教育的过程中,“利用寓教于乐的教育方法对农民传输大众化、趣味化的学习内容,进而有效巩固农民参加法治社会建设的意识,指引农民准确了解全面依法治国的必要性与法治建设对农村进步的意义”[11]。

(二)人工智能带来社会风险的挑战

首先是人权伦理风险。人权伦理风险具体包括机器人伦理、人机关系伦理和人文精神危机。机器人本身并无伦理问题,重点是,“当机器人把阿西莫夫的机器人学三定律应用到实践时,便立刻产生问题”[12]。再加上由于技术制约、操作难题以及商业利益考量的算法“善恶”问题,这些均对公民的自主性、自由、平等甚至生存产生显著的威迫,“怎样将人工智能可能对人造成的危害限定在事先可控的范围内,是法律工作者必须事先解决的首要难题”。[13]此外,我们是否应当给机器人以现实人应有的权利,机器人和人之间存在什么样的关系,更进一步,如果机器人拥有合法“现实人权”,我们又是否给予其“道德主体”地位,进而保证其充分具有“人权”。

其次是极化风险。智能时代,数据与算法变成关键的生产元素,其所带来的社会分层将远超过去任何形式的不公平,甚而会生成极化社会结构的社会风险。一方面由于人工智能技术的飞速发展可能进一步加深“数字鸿沟”的矛盾,应用于法治宣传教育领域可能演变为一种“普法鸿沟”。数字鸿沟往往是指“在有效利用互联网所需要的技能层级,与仅仅访问互联网相比,可能存在更深刻的阶级分层”[14]。基于我国人工智能技术存在资源分配不均衡问题,西部地区公民常常较少接触智能设备,“人财智”的不足成为限制法治教育宣传智能化进程的重要元素。再加上公民自身受教育程度、成长环境以及运用智能化媒介能力的差异,导致部分公民无法及时接受智能法治教育信息。另一方面是法治教育内容的智能化推送或许产生“信息茧房”结果,造成公民难以取得真实完备的法律服务信息,进而增强小我成见。美国学者桑斯坦(Sunstein)提出,“信息茧房”(Information Cocoons)是指:“在信息领域,公众对信息的择取存在显著的倾向性,只会关注那些感兴趣、令自己快乐的东西。长此以往,便会将自身局限在像蚕茧一般的‘茧房’内”[15]。“信息茧房”对“单向度的人”的出现进行了强化,加重了“信息茧房”效应的生成,形成了“回声室效应”,即在一个相对密闭的空间内,同类信息重复出现,并以与实际不符的形式展现,从而使在此空间内的大多数人误认为这类信息即全部事实。这种效应下,公民对真相的探寻或对法律的了解便会呈现管中窥豹。在法治宣传教育中,“若仅仅以公民个人偏好当作计算逻辑实行法律信息内容的推送,或使得公民浸润在同种信息编制的‘茧房’内,窄化公民获取信息的方式。”[16]在社交网络这一催化剂的催化作用下,会极化某类法律偏见。

最后是规制风险。随着智能技术的迅猛发展,社会秩序随之发生重大变革,代码和算法变成了新的规制方式,由此生成了一定的规制风险。具体来说,人工智能时代,社会舆论的引导权由传统主流新闻媒介引导转向了由智能“聚类算法”的引导。公民关心的也不再是由权威新闻媒体推荐的主流议题,而是算法根据用户偏好分析出的个人议题。此外,人工智能时代,网络信息的传播往往带有“刺激性”“夸张性”“痛点”内容以及“低俗性”的娱乐新闻常常能引发全民热议。然而,严肃性的“主流时政新闻”在互联网中却频频遭遇滑铁卢,由此造成“黑箱社会”逐渐加剧。“黑箱”存在信息操控隐含风险,或许会侵略腐蚀政府法治教育宣传主导权,国家层面意识形态议题的“冷遇”现状便愈演愈烈,国家层面意识形态的话语权也由盛转衰。这便为法治教育传播实效带来高度模糊性,万一编程者在算法深度学习过程中故意暗藏了价值成见、不公正元素等影响算法公平性的元素,则呈现公民数据采纳权的丧失,即将迎来信息被控制的危害。法治教育宣传作为国家控制的重要活动,或许存在技术被控制,弱化国家层级法治宣传教育的控制性与有效性。也就是说,当前人工智能已变成国家掌控意识形态领导权与话语权的关键技术,它“既是用来实行意识形态渗透的‘智慧机器’,又用来保护主流意识形态的‘安全卫士’”[17]。

三 人工智能时代法治教育工作的对策思考

伴随“八五”法治宣传活动的开展,法治教育作为法治中国建设的一项持久性的工作内容,必将与人工智能进一步深度融合,因此提高法治教育者的数据意识,协同法治教育供给制度,强化人工智能技术隐含风险的评价和防控,增强法治教育宣传实效性已迫在眉睫。

(一)大数据与人工智能联动,创新安全高效的“人机协同”的法治教育宣传模式

首先,应加强数据治理,提高法治教育工作者数据素养。数据治理预示着重新理解“数据”涵义。智能时代,大数据种类错综复杂,数据规模逐渐扩大,数据更新迅捷,数据形态变化无常。法治教育者要重新认识“数据”,深刻理解数据治理的内涵和特征,善于用数据察觉并解决问题。此外,法治教育者还需重新把握数据分析模式,善长凭借行为数据的归纳辨别,高效辨别其需求进而配备数据资源。要擅长发掘行为数据之间的关系,深挖细耕、精准鉴别其需求,进而准确配备数据资源。

其次,要深化供给合作,加强数据集成检测共享,确保法治教育供需匹配。实践证实,多主体间的合作互助能够更正主体参与的缺位以及碎片化的供给,存在比较优势。要建构智能法治教育,强化智能技术界、法律界间跨部门、跨层级、跨区域的供给同盟,打破数据割据和束缚,推动各种数据的集成与互通有无,建构多元供给主体协同与共治体制。此外,法治教育作为党的宣传工作的重要组成,务必掌握法治教育宣传控制权,确保法律人工智能规范化、合法化运转。法治教育宣传的特殊性决定无法拿公众喜好当作举荐算法的独一无二取的值准则,而是在精准掌握法治教育对象需求状况及其动态变化的前提下,联合法律之平等公平规则,择取公正、真实以及准确的数据输入计算程序,保证法治教育宣传途径安全信赖。

最后,应建构“人机协同”法治教育模式,巩固法治教育与立法、司法、执法间的良性互济。为避免单一“人工普法”的低效以及“机器普法”的片面性,需建构“人机协同”法治教育宣传模式。伴随人工智能的发展和运用上升至国家政策,我国各个地方的法治宣传单位陆续发布了机器普法产品,助力人工普法,给公民供应与时俱进的法律信息服务。这种法治教育宣传模式除可在一定程度上有效缓释前述“普法鸿沟”限度,还可强化法治教育与立法、司法、执法的良性互动。当前法治教育宣传已融合到科学立法、严格执法以及公正司法等各环节,包括但不限于社区矫正、行政执法以及法庭审判等各类任务。比如,由柏乡县人民法院引进的小笨普法机器人,能够解答5万个专业法律问题、10万余条法律法规规章、3万余个经典案例,涉及离婚、交通事故、民间借贷、刑事等诸多领域,这可有效提升公民参与度,潜移默化地培育公众法治思维、法治理念。再比如,北大法宝政法服务行业数字化解决方案针对智慧政法、智慧法院、智慧检务、智慧司法等用户场景,提供包括数据服务、类案检索、权威法规库、备案审查平台等一系列产品。

(二)建立多元互动的法治教育风险防控体系

首先是法律防控。此前,数个国家均开始从技术支持、政策应对逐渐走向制度防控,如欧盟于2018年出台了《通用数据保护条例(GDPR)》,成为了全球个人数据安全立法中极具标志性的一部法案。我国已制定了《反间谍法》《网络安全法》《新一代人工智能发展规划》《个人信息保护法(草案)》等相关立法也势在必行。我们需制定和论证新政策以防范各种新风险,尤其是对人工智能机器人的设计进行防范,对其中的程序实行一种事先审查,以防其被恶意修改程序,从而事先防控人工智能可能诱发的异化作用。[18]将法律人工智能的运用进行合规化管控,令法治教育宣传的自主性免遭侵扰。

其次是伦理防控。由于多数程序员都会忽视计算机技术所诱发的伦理问题,使人工智能产业中道德观略显匮乏,进而使得当前产品标准化运用规范的匮乏,在设计生产层面尤是这样。更有甚者,一些算法规则经由开源化处理被传输至互联网,程序员就能很便捷地加载并进行改编利用。由此看来,对人工智能法治教育的社会风险防控,除却法律防控,尚需令人信赖的科技伦理支撑,这便不仅需将道德算法嵌入在算法体系中,更需在人机互动语境内实行不可或缺的道德构建。唯有如此,方可更高效地阻止把不公平、不道德的元素渗透进算法与代码内,进而消除人工智能的社会风险。

最后要建构“过程—结果”防控路径。法律虽然自古便起着规范秩序以及防控风险的关键效用,但从未像现今这样面这般严峻挑战。我国《新一代人工智能发展规划》便清晰指出:“在大力发展人工智能的同期,务必特别关注可能引起的安全风险防范,强化事先防控以及规范指引,最大程度地降低风险,保证人工智能安全、可靠、可控进步。”[19]但是,对人工智能采用何种防控举措,则需要慎重考量。智能时代塑造出双层空间、虚实共构、人机交互的成长局势,人工智能的迅猛进步造就出智慧社会,进而在社会治理内实现了执法司法的智能化,数据以及算法起着关键作用。如此一来,“人类就人工智能的风险防控,便不宜再选择过去单一物理空间的习惯方式,特别是不能依照物理空间的规范逻辑来规制虚拟空间”[20],而应从外防(物理空间防控)转向内外并重的防控(双重空间防控)。具体来说,借由将法律规则转换为代码,进而以代码来制约代码的“法律技术化”,以及看重“代码即法律”这一行业准则的“技术法律化”[21], 从而完成代码制约、规范标准设定以及算法审计,进而镶嵌进系统化、轨制化、程序化的风险防控体制,从而为人工智能上好“法治保险”,使人工智能良性发展,安全建构智慧国家的法治秩序。

四 结束语

总的来说,任何新生事物的发展都不会一片坦途, 人类既不可在人工智能的时代浪潮中裹足不前,也不可盲目冒进,而应该稳扎稳打。人工智能技术的进步不可思议,如何实现人工智能与法治教育的深度融合,如何让人工智能更好地服务于法治教育教学,是未来能否进行全面依法治国、建设公平而高质量法治教育强国取得突破进展的关键,这便需要公民不得不以崭新的理念来看待人工智能时代语境下的法治教育宣传任务。既需以复杂性科学的视角辨明人工智能时代法治教育宣传任务的复杂性特点,也需严肃对待人工智能时代法治教育宣传工作遇到的挑战,进而主动改变思维模式、恰当运用人工智能技术寻求变革之道,对于这一问题的探究将永无止境。

猜你喜欢
公民法治人工智能
我是小小公民科学家
论公民美育
我是遵纪守法的好公民
送法进企“典”亮法治之路
人大战“疫” 法治为要
法治护航 守护生命之源
2019:人工智能
人工智能与就业
反家庭暴力必须厉行法治
数读人工智能