武晓潇
太原科技大学,山西 太原 030024
近几年来,人工智能的表现愈发耀眼,在全力打好新冠肺炎疫情防控阻击战的关键时刻,政府也将目光投向了人工智能。关于人工智能法律地位的确认,也再度引起了法律领域内的争议。
尽管在“官场+市场”[1]的双重驱动下,司法领域的AI应用貌似熙熙攘攘,但实际效果却不那么尽如人意。以案例自动推送系统为例,尽管自动化的案例推送提高了案件检索的效率,但是,由于案例匹配精准度不高,推送案例的范围过窄、来源不明、层级不清等原因,一些法官使用意愿不强等主客观因素,案例推送系统发挥的作用实为有限。[2]
然而,就像历史上所有给人类社会带来颠覆性影响的科技一样,人工智能的发展对现有的社会制度和规范也带来了严峻的挑战和冲击,特别是在法学领域。本文以人工智能的法律地位问题为中心,针对人工智能应用的法律和现实困境展开讨论。
在大数据时代,“直觉的判断被迫让位于精准的数据分析”[3]。“公共决策最重要的依据将是系统的数据。过去深入群众、实地考察的工作方法虽然仍然有效,但对决策而言,系统采集的数据、科学分析的结果更为重要”[4]。人工智能不仅仅可以辅助决策(supporting decision),还可以整合相关数据(assembling relevant data)进行分析。通过人工智能对数据的收集整合,可以更清楚、更有效率地发现政策制定中的变量。这种变量分析越细致,相关的政策制定越具有科学性[5],行政机关以及政府就可能形成更富有科学性和满足多数人需求的规则[6]。
然而,在大数据技术日臻成熟的今天,我们不再拘泥于传统的问题—原因—对策的逻辑顺序,而可以直接寻找数据间的关联,并根据这种关联来直接解决问题,这就要求立法者从传统的因果规律思维向盖然性的数据规律的观念上飞跃,具备数据思维[7]。然而,当前法律从业人员多数为法律科班出身,缺乏算法、大数据、统计学等方面的专业技能培训和能力,因此在法律制定和实施过程中可能对技术的不熟悉而导致最终呈现的效果与内心预期不一致。而真正掌握算法技术的企业能够借助技术优势对立法进程和结果施加影响,其中必定会掺杂特殊利益偏好,从而削减了法律的权威性和对社会秩序的一般约束力。
此外,法律人工智能的兴起促使大量平台纷纷涌现,打破了传统的行政中心主义。但这并非完全意义上的“去中心化”:中心依然存在,不过是由原来的“行政中心”转移到了“平台中心”,由原来的“政府-公民”二元结构转变为了“政府-平台-公民”三层话语体系。在实践中,政府授予了专业性平台准入审查权监督权等诸多“准公权力”,掌握大数据和算法的企业和个人正逐步利用自身的行业特性和专业技术把握信息和社会资源,并争取话语权。平台权力集群化将不可避免地引发“算法权力”(algorithmic power)与政府公权力在分配结构上的争议,这也使得人工智能的立法实现变得较为棘手。
人工智能技术促进了执法自动化的应用和普及,极大地提高了执法效率,但潜藏着对个人隐私侵犯的风险。一个民主与自由的国度中,执法行为是社会共同意志的延伸,必须来源于公民的授权。但是在自动化执法环境下,公民行为模式的改变是出于对管理者监视和报复的恐惧,而非对作为社会契约关键要素——法治的自发性尊重(self-generated respect)。政府监视所造成的寒蝉效应,“不仅通过创设一种无助感和无力感致使个人感到沮丧,而且通过改变人们与就其生活做重要决定的机构之间的关系,来影响社会结构”。[8]
人工智能执法的机械化会给公民和法律系统带来更加沉重的行政负担。例如,司机驾驶汽车通过颠簸路段时自觉把自动巡航控制器(Automatic Cruise Control)设在了限速范围内,但是路面的凹凸不平使得车速时而高于时而低于限速,如果严格遵循时速规定,他已经违章了很多次,可能会收到十几张罚单。正当程序(procedural due process)原则并没有得到体现:既没有对受处罚的行政相对人进行通知,也没有给予其陈词的机会。而且自动化执法无法识别需要犯罪意图(mens rea requirement)的犯罪/带有明知要件(scienter requirement)的犯罪,无法区别基于紧急避险(necessity defense)而造成的违章、违法与一般的违章、违法行为,如果没有适当的约束,自动化执法可能冒险创造一个若不大规模改变社会文化和规范则几乎不可能守法的环境。
人工智能裁判的内在特点决定了其无法取代人类法官的主体地位。1.符号式裁判。人工智能裁判包含两个核心步骤:语言转换和算法运行。人工智能裁判系统只能识别物理符号,而不能理解人类的自然语言。在运用人工智能时,其接触到的并非是原始证据,而是经技术转化后的“传来证据”,此过程中的“失真”将对证据的证明力提出疑问。2.封闭式裁判。智能司法裁判所倚仗的是预先编制的裁判系统,除了开发该系统的程序员,当事人和社会公众甚至是法官并不能准确掌握裁判系统运行的原理和规则,这极大地降低了当事人及其代理人参与法庭裁判的能力和意愿,传统的法庭审理环节如质证、辩论将不复存在。3.归纳式裁判。人工智能系统只是对与案件有关的历史数据进行处理,裁判过程中突发的情况和即时的信息未被纳入系统裁判范围内。而且由于部分词语语义并不明确等原因,智能裁判无法借助法官的经验实现司法裁判的意向性、亲历性和价值衡量[9],法官的自由裁量权和司法的弹性机制作用将被严重限缩。
如前所述,标准化的司法人工智能会改变法官的判断和决策模式。“标准化就意味着将审判权还给法官的同时,确保类似案件的裁判尺度尽量相同。”[10]因而,一些人乐观地认为在司法裁判过程中运用人工智能有助于实现同案同判,推动个案正义。然而,尽管我国拥有世界上最大的案例检索系统——中国裁判文书网,但无论是事实证据方面,还是裁判理由部分,都过于概括、泛化。在案件中真正值得借鉴的内容,往往只体现在法院内部的案件审理报告或审结报告中[11]。另外,早期的人类社会囿于信息成本只能对概率较大的事件制定一般性规范进行规制,但伴随着算法发展所带来的信息成本的急剧降低使规制重复博弈行为变得可能,诸多“无知之幕”也得以揭开,作为一般性规则约束对象的抽象的“人”逐步被还原为特定的“个人”,司法裁判过程和结果的“私人定制”属性日渐突出,这种个案的异质性给何为同案、如何同判的界定带来了挑战。
短视频APP发掘并迎合了大批年轻用户的娱乐消费观,造就了娱乐消遣的流量怪兽;基于数据分析的信用等级评估为这个“评分的社会”(Scored society)带来了更为直观、便利和高效的管理模式[12],这些在很大程度上都得益于算法基础上的“精准投食”。然而,屡被曝光的电商平台大数据杀熟等负面新闻引发了公众对人工智能的担忧:表面上中立的算法可以反映隐藏在背后的歧视。很显然,尽管开发者们一直强调数据中立和技术无罪,但人工智能已经不可避免地学会了“傲慢与偏见”。
造成算法歧视的原因产生在不同阶段。算法最初阶段的研发是由公司完成的,企业在研发时,首先考虑到的是经济效益和工作效率。使企业在选择中更加倾向于那些成本更低、经济效益更大的算法模型,基于这种局限性而不成熟地在社会普遍推广应用难免会导致不公平。另外,机器学习的训练数据本身可能带有现实世界中的歧视与偏见,基于这些数据分析产生的识别错误进一步内化了这些偏见,也可能无意识地侵害了被歧视群体的权利。当进入下一阶段,即在接收数据后、输出结果前,会有一个我们无法洞悉的黑箱,算法就是在这一黑箱进行自动化的数据处理、评估和行为分析。对算法歧视的担忧主要来源于这一阶段。尽管官方已经作出了相应努力,如欧盟最新发布的《数据保护通用条例》(GDPR)增加了数据的透明度要求,但其实际效果如何尚待进一步观察。
1.隐私
社交平台的相似内容推送、脑机技术(BCI)等都被认为给人们的工作、生活带来了极大的便利。然而,数据泄露的危害也日渐突出,因此对数据的保护愈发迫切。
“物联网”时代的每个人都是“量化的自我”(qualified myself)或“可测度的自我”(measurable self),个人的一举一动都将被转化为可供处理、分析和利用的数据。作为算法权利客体的公民在保护个人数据上将会产生深深的无力感。一方面,借助人工智能实现自动化行政的政府掌握着公民方方面面的数据,企业也借助网络平台地位和技术优势掌握着用户的个人信息,二者显然属于信息优势方;另一方面,处于算法专业槽外的公民专业技术水平和信息成本承受能力较低,隐私保护意识和能力较弱,加之在授权数据使用过程中存在的概括同意、格式化合同泛滥等情况,其“网络留痕”不可避免会被第三方利用,因此处于相对不利的地位。这种信息不对称(information asymmetry)将进一步扩大法律主体之间的鸿沟(justice gap)。
2.自主性:沉默权与同意
边境自动安检、“测谎机器人”等极大地提高了工作效率,但却忽视了一个重要环节:对象的同意。人工智能会对法律相对人的同意权带来极大的现实威胁。以《刑法》为例,《刑法》的功能之一在于保护犯罪嫌疑人、被告人和罪犯的合法权益,这一点在米兰达警告(Miranda Warnings)中体现得尤为明显。然而,在人工智能自动执法中,很可能会未经其同意而直接读出其内心思想,嫌疑人的沉默权将形同虚设。此外,被告“不得强迫自证其罪”(privilege against self-incrimination)的规则也将被打破。“如果说蒙上双眼的正义女神曾经是法律中公平正义最典型的象征符号的话,那么,借助人工智能的法律运作可能不仅摘下了蒙眼布,而且还带上了柏拉图在《理想国》开篇所讨论的‘古各斯的戒指’,其可以没有障碍地窥视一切人,以零成本获取信息。”在缺乏对人工智能进行有力法律规制的环境中,公民仿佛穿上了皇帝的新衣,隐私被窥探一尽却浑然不知。