张小宁
(武汉理工大学,湖北武汉430070)
人工智能时代的到来使社会发展走上了机器化、智能化道路。近年来,人工智能在知识处理、模式识别、自然语言处理、博弈、自动程序设计、知识库、智能机器人等多个领域取得了非凡成就并形成了多元化发展趋势。具体而言,随着信息技术的快速发展,人工智能在金融、计算机科学等领域智能化水平已经达到了相当高的程度,同时作为兼具理论性和实践性的法律行业也正在经历智能化的尝试与运用①例如:“双子星”“法律谷”“iCourt”等法律人工智能产品以及“科大讯飞”研发的“人工智能 +法院”系统等。。人工智能的发展具有渐进性,当前人工智能还没有实现理想中的完美状态。根据人工智能的发展程度不同,可将其划分为弱人工智能、强人工智能和超人工智能②弱人工智能(ANI)是指不真正拥有智能,也没有自由思考能力和意识;强人工智能(AGI)是指可以独立思考问题并制定解决问题的最优方案,同时拥有价值观和世界观体系;超人工智能(ASI)是指拥有超越人类认知和思考的能力。三个发展阶段。目前,人类已经掌握了弱人工智能,正在不断开发新技术新成果。每一项弱人工智能的创新,都是为向强人工智能、超人工智能迈进做出的铺垫,但是,每一次前进也会面临更多的新问题,出现更多的新矛盾。
法治不仅仅是考虑当下,也要考虑未来[1]。弱人工智能时代人类完全处于支配和控制地位,人工智能带来的风险和挑战可以在现有的技术和法治框架内予以规避。展望强人工智能时代,高度拟人形态机器人将拥有完全独立自主的意识从事社会活动、理性参与社会生活,此时,机器人是否能够被赋予独立的法律人格承担法律责任,是否能够参与国家管理、代表公权力履行行政职责值得思考。针对上述问题,法学理论界进行了较为激烈的讨论。法哲学、法理学学者注重从法律伦理、法律人格方面讨论人工智能是否具有法律主体资格等问题;民法、知识产权法学者注重从人工智能生成物的产权属性以及人工智能侵权问题方面展开论述;刑法学者则偏向于研究机器人能否作为承担刑事责任的主体,如何具体设置新的刑罚种类等问题。值得注意的是,上述的部门法学者在讨论人工智能法律问题时或多或少地将语境聚焦到偏强人工智能方向,将弱人工时代初现端倪的种种风险作为研究跳板,充分体现了法学研究的高度自觉性和创新性。相较于以上法学学科研究,行政法学者似乎对人工智能表现得较为慢热,尤其是对强人工智能时代机器人在行政治理和执法中的运用研究涉猎者寥寥,研究重心仍然停留在自动化行政、弱人工智能背景下具体行政行为等领域,未跳出弱人工智能的话语体系。
当前,尽管弱人工智能背景下执法机器人已经得到广泛运用,但是展望强人工智能时代,机器人将拥有类似于人的独立思考和判断能力,“技术有变,法理有常”,未来机器人将在行政执法中扮演重要角色。为了规范和控制政府权力,防止行政机关滥用行政权侵害公民权益,行政执法的权限和手段应当有明确的法律依据,特别是在机器人执法从“辅助”滑向“自主”的横轴上,更应当标出清晰、具体的刻度,否则可能使机器人执法陷入“不作为”或者“乱作为”的泥沼。故此,本文在总结和反思弱人工智能背景下机器人执法所面临的理论和现实桎梏,立足当下展望未来,兼顾强人工智能语境,探讨以下主要问题:一是强人工智能时代机器人是否有独立的行政执法权以及行政责任的承担方式;二是机器人执法在理论和现实上会面临哪些壁垒和阻滞,如何从法律上予以规制。
一般而言,人工智能在行政活动中的应用分为以下几个阶段:首先在行政活动中出现利用网络、电脑应用平台等电子政务新形式处理电子化审批、申请和许可等事项;然后进入自动化行政阶段,即人工智能能够根据数据和资料自动生成相关结果和决策;最后进入到真正意义上的智能化阶段,即人工智能在行政活动中能够独立执法,并且无需依靠人为控制便能选择最佳方案和形式[2]。从目前人工智能发展的阶段来看,智能化行政活动仍处于第一阶段向第二阶段的过渡时期,更确切地说尚处于过渡的初始阶段,远未能达到强人工智能化水平。
随着2018年11月底首个“智能动态交通违法审核机器人”在温州市公安局交警支队正式启用上线[3],全国各地开始普遍运用执法机器人从事行政执法活动。例如,近日河北省邯郸市机器人交警正式上岗作业,执法机器人通过24小时全天巡逻执法实现了车管咨询、事故警戒、交通指挥等多种功能[4]。当前执法机器人已经广泛运用于交通违法审查、商事登记、行政审批和检验检疫等领域,但是上述执法机器人虽然打着“智能”的概念,从实际情况来看仍属于“辅助系统”的范畴,不是 AI(人工智能),而是 IA(智能助理)。一方面,真正做出执法决策的是人而不是机器,机器提供的结果只起到参考作用,该结果既可以被完全采纳,也可以被部分采纳甚至不被采纳。另一方面,执法人员根据监管目的运用机器的相关功能获取分析结果,以此作为执法参考,而不是由机器自主调用、分析数据;系统提供的只是某一部分的决策信息,而不是全面的决策依据,更不是直接从事执法行为。
1.机器人执法的自动化属性
尽管当前机器人执法仍然停留在无裁量能力的自动化执法阶段,但是相较于人工执法而言,已经大异其趣。具体而言,其一,两者在适用领域和范围上存在实质差别。尽管机器人可以最大程度地模仿人脑的思考方式,但毕竟不具备主观能动性,不能在没有提前设定好程序和算法之前灵活处理特殊情形和突发状况,更不能与行政相对人实现即时沟通与信息交互,这些因素限定了机器人行政执法中的适用范围。由此,在涉及有关不确定的法律概念需要解释的问题上不能使用或者应当谨慎使用人工智能。立法者在制定法律时无法将全部社会现象纳入考虑范围之内,因此需要借助诸如公共利益、社会危害程度、情节严重程度等不确定因素的法律概念进行整体上的概括,以便行政主体在执法时能够根据具体情形进行裁量,将抽象的法律规定予以细化解释,从而实现个案正义。但是,智能化执法系统或机器不能包罗社会万象,只能在类型化明显、法律事实和权利义务关系明确的案件中根据事前设定的数据或者算法做出相应的执法行为。其二,两者对于行政执法结果的着重点不同。对于一般意义上行政执法而言,行政主体追求的最终目的在于通过执法行为匹配立法者的立法原意,保障相对人利益,兼顾行政执法的合法性与合理性。对于机器人执法行为来说,其追求的重点应该在于提高行政执法的效率,减轻行政主体工作量的同时节省相对人的时间成本。当然,两者追求的重点绝不是对立存在,而是相辅相成的矛盾统一体,前者也需要提高行政效率,后者更应该保持合理判断。其三,两者在使用程序上大相径庭。由于机器人执法自动化程度高而且在某些情形下排除了人工干预,使得某些程序被省略。例如有关调查、说明理由、听证等法定程序在执法过程中或多或少被淡化甚至被完全忽视,而一般执法行为却应当遵守法律一般规定,严格按照程序执行。
2.机器人执法的归责误区
如前所述,尽管弱人工智能时代机器人执法与人工执法存在一定的差异,但其并未脱离人类掌控,由其作出的行政行为的认定、性质和责任承担与人工执法没有本质上的差别,可能出现的执法安全风险和公民隐私保护风险均可在当前法治与技术框架内予以避免和解决。但是,关于机器人的法律性质及地位等问题在理论上概念不清,易陷入传统思维的窠臼,可能在强人工智能时代被进一步放大,因此亟需进一步说明。诚然,不管是人工执法行为还是机器人执法行为,其真正的执法主体仍是行政机关。公务员和机器人都只是行政活动的载体,载体的不同不会改变行政机关和行政相对人之间的法律关系,也即无论人工还是机器人在行政执法过程中因不当行为造成损害后果,行政机关都应该作为行政行为的法律主体,对相对人承担责任。进而言之,行政机关承担的责任是属于物产生的损害还是人产生的损害赔偿?大陆法系的行政赔偿制度将行政赔偿的原因分为“公物管理瑕疵责任”和“行为瑕疵责任”,两者适用的构成要件和责任形式不尽相同。前者属于民事侵权而非公法责任,以机器的设置或管理有欠缺造成相对人权益受损为责任要件;后者属于公法责任,以机器人执法行为的违法性和有责性为前提。应当注意到这一区分在我国审判实践中往往被忽视,审判机关只注重机器人“物”的属性,而忽略了其具有的职权属性。将两种责任形式混淆会导致责任承担主体认定错误,使得行政责任“遁入”私法范畴。
在当前弱人工智能的时代背景下,行政主体在行政执法过程中占据主导地位。展望强人工智能时代,机器人等人工智能设备将脱离人工控制,独立进行行政执法工作。从人工智能发展的速度与趋势来看,完全有理由假定这样一幅场景:在行政许可中,机器人根据行政相对人的申请材料自主审核、判断,并且在分析申请材料真实性的基础上,综合预测实施许可后的结果、模式,及时跟进监督检查;在行政处罚中,机器人能够根据案件事实、情节严重程度,是否有从轻、减轻或免予处罚情节等条件在法定幅度内选择罚责相当的处罚形式;在其他执法活动中,机器人也近乎成为一般意义上的行政主体,具有独立自主意识和自主判断能力[5]。行政执法的主体由人类过渡到机器人,社会治理结构发生根本性的变化,行政执法过程演变成人与机器人之间的交际。
IntelliJ IDEA,在业界被公认为最好的Java开发工具之一,尤其在智能代码助手、代码自动提示、重构、J2EE支持、各类版本工具(git、svn、github等)、JUnit、CVS整合、代码分析、创新的GUI设计等方面的功能强大。
不同于民事主体平等性和单一性的特质,行政主体在行政法律关系中占据主导地位,尤其在行政执法过程中行政主体相较于行政相对人具有管理与被管理的关系。正是基于这种不对等性,行政主体在行使公权力时应格外慎重,否则将产生危害极大的负面影响。此外,在行政执法实践中,公务人员或者执法人员承担具体的执法任务和职责,因此本文讨论的机器人是否具有行政执法主体资格即是讨论机器人能否成为“公务人员”的问题。由此,从行政法的角度而言,探讨机器人是否具有行政执法的主体地位需要回答三个方面的问题:一是机器人是否具备行政执法能力;二是机器人是否具备行政执法权力;三是机器人能否承担违法执法导致的法律责任。
其一,机器人具备了人类管理社会的大部分能力,能够通过自主学习快速便捷地读取、学习和应用相关信息,从而做出优秀的管理决策和规划,甚至可以超越大部分自然人管理者所具有的信息收集能力和决策判断能力。另外,机器人以其自身不同于人类生理特点的机械电子构造,可以精确适应不同的执法场景和环境,人工执法难以覆盖的地点、时间和难以胜任的工作强度,对机器人来讲都可以做到游刃有余。最后,基于强人工智能所具有的天然的无偏性和中立性,对于大部分被管理者而言,或许更能体现执法者的公平和公正,更能够体现行政法高效便民和诚实信用原则,也更有利于建设服务型政府。因此,在行政执法能力上,机器人无疑是胜任的。
其二,“法无明文规定不得为之”。行政法定原则作为现代法治国家行使行政权的基本准则之一,决定了行政执法活动必须符合法的形式正义。换言之,机器人能够参与行政执法的权力来源必须具有明确的法定依据,否则不仅行为无效还应当承担相应的法律责任。诚然,在当前弱人工智能背景下由立法来规定机器人具有独立执法权力是不合时宜的,但是,未来一旦条件成熟,通过立法将机器人纳入“智能公务员”序列,与人类公务员序列构成并行不悖的独立运行模式也不失为一种可行之道。在此运行模式下,国家和政府构成最高的公权力机关,通过法律等形式确认机器人的法律地位,使其以对等的地位与人类共同行使执法职责。聚焦其他部门法,已经开始承认机器人具备民事和刑事主体资格和地位,从本质上说已经将机器人视为人类的对等主体,放弃了此前狭义的“工具说”“代理说”等以人类为中心的方式,极大地缩短了将机器人纳入公法主体的路径;下一步只需要穿过公权力的保护屏障,获得法律的授权即可。因此,在行政执法权力上,机器人是有被授权的条件和可能性的。
其三,狭义的行政责任指行政机关及其公务人员违法行使职权侵犯行政相对人合法权益而应当承担的法律责任。行政责任分为外部责任和内部责任,就外部行政责任而言,倘若机器人的不当执法行为造成相对人利益受损,其责任承担方式是由其代表的行政机关承担相应的撤销、变更、履行其具体行政行为或确认其违法、无效,责令赔偿相对人损失等,此时机器人执法与人工执法产生的客观责任效果无异,不存在理论上的矛盾;就内部行政责任而言,行政机关在对外承担责任后,再根据«公务员法»等法律法规对相关责任人员给予相应的惩戒措施。对于机器人而言,传统的警告、记过、降职等处分手段仍然能够得到适用,原因在于行政法意义上的行政责任与刑事责任存在较大差别,后者基于刑法的谦抑性原则,强调即使对智能机器人苛以刑责也需严格按照犯罪构成要件予以判定。如果承认智能机器人具有超越人类的自主辨认能力和控制能力,必须符合«刑法»第17条规定的构成要件。内部行政责任只是在公务员体系内对相关人员给予的处分措施,其重心在于通过职位高低、福利多寡等要素的变化在有限范围内对公务人员予以惩处,不同于刑事责任必须以满足主客观条件为限的要求。故而,既然已经将执法机器人纳入“智能公务员”范畴,也势必会按照特定顺序划定其行政级别,所以上述惩戒措施仍得以适用。至于执法机器人触犯刑法的情形,则可通过增设删除数据、修改程序、永久销毁等刑罚种类予以解决[6]。因此,在法律责任上,机器人符合承担责任的要件。
在机器人具有执法能力、权力以及能够承担相应法律责任的前提下,如何将这些基础条件转化成未来可具体运作的实体制度需要我们进一步思考和落实。技术发展对法律制度的影响不能脱离体系化思维,现实和未来社会纷繁复杂,法律制度又存在着天然的滞后性,因此必须利用现有概念、原则、体系框架,透过现象之新把握本质之常,将未来可能发生的各情况纳入自己的解释框架内,尽量在现有制度构架内寻求解决之道[7]。由此,如何将机器人纳入行政执法队伍,又如何保证其能够秉公执法,保障和维护社会秩序,推进社会治理体系和治理能力现代化是现阶段需要解决的重要问题。
1.构建机器人执法的准入制度
所谓机器人准入制度类似于公务员选拔或者聘用制度,目的在于通过确立执法机器人的准入门槛和方式,形成一套规模化、类别化、要素化的智能机器人队伍建设模式。现代公务员制度起源于英国的文官制改革,其中一些制度经过移植与吸收仍然可以借鉴在机器人执法队伍的制度设计上,例如创设管理文官的事务部、区分智力工作和机械性工作、通过考试和功绩任用等[8]。但是,执法机器人的产生原理和方式与人类不同,决定了执法机器人的选拔不能依靠智力和能力因素来进行划分,必须对症下药寻找幕后的根源——机器人的研发者。具体而言,执法机器人的准入应当由专门的事务管理部门负责,并且制定严格而清晰的标准,将执法机器人的职位要求、能力素质一一设定归类,确保研发者生产制造的执法机器人符合岗位需求;政府部门应当对生产研发者实施严格的行业准入和登记备案制度,注意区分普通机器人和执法机器人在算法、结构和行业特性上的区别。此外,“智能公务员”序列应当与普通人类公务员序列作出区分,制定两套不同的职位评定标准和体系,前者应着重强调执法的技术和细节标准,出现考核不合格的情况应当返厂重新设定程序或者予以开除处理。
2.明确机器人执法的程序原则
学界一直致力于行政程序法典化研究,以此防止行政权力滥用,促进行政机关积极作为,避免侵犯公民权利,以更好地为人民提供服务并有效提高行政效率。但是,基于种种原因,至今仍未真正实现这一目标,有关行政执法程序性规定零散规定于行政许可法、行政处罚法和行政强制法等法律法规当中,尚未形成集中统一规范。作为行政执法的核心内容,如何在上述法律法规的基础上建构机器人执法的程序性原则便显得尤为关键。可以预见的是,未来机器人执法可能会面对两个维度的模式:“机器人(按行政主体论)—自然人、法人(行政相对人)”和“机器人(按行政主体论)—机器人(行政相对人)”。一方面,执法机器人在执法过程中首要的执法对象是自然人和法人组织,此时两者虽然在构造属性上存在差异,但是本质上仍然未对传统“人对人”的执法模式形成根本性冲击。原因在于此时具有高度自主意识和能力的执法机器人已经通过不断学习模仿强化了行政执法过程,在自动化行政阶段所省略的程序性步骤反而在该阶段得到了强化,有关听证、说明理由等必要程序也得以保留。但是,由于执法机器人的参与,使原本行政法律关系的不对等性得以放大,极易在执法密度、证据收集、法律储备等方面产生超越合理限度的差别。因此,有必要确立必要性原则,即机器人在执法过程中不应明显或者过度超越人工执法所不能涉及的情形,在不必要、不明显的案件中谨慎使用执法机器人。另一方面,若执法机器人的执法对象是具有高智能的机器人,则二者的差异性就可以忽略不计,但是要谨防同质化倾向,坚持同等待遇原则,即对机器人的执法偏向性不应超出“人工(按行政主体论)—自然人、法人(行政相对人)”模式,否则就应转化模式,以保持执法程序的公平合理。
3.建立机器人执法的追责途径
行政赔偿的前提是行政主体违法行使行政职权,侵犯行政相对人的合法权益并造成损害。因此,若执法机器人的不当执法行为造成行政相对人利益受损,相对人完全有理由依法获得赔偿。问题的关键在于,行政主体在对外承担赔偿责任后,如何对执法机器人进行内部追责。正如前文所述,对机器人给予行政处分等措施具有可能性和必要性,但是依何种标准、何种手段使其担责仍是需要思考的问题。一方面,构造再追偿制度或者双重追责制度,通俗地说就是行政主体在对执法机器人进行追偿后,还可以依照双方约定抑或法律规定对机器人生产制造者进行追偿。当然,这种追偿的范围仅限于执法机器人在设计和编制的程序范围所作出的违法行为,因为该种行为是机器人在被生产制造时无法自主选择的部分,超越编制程序的部分则属于机器人后期自主学习的情形,无法追究其责任。另一方面,除了现有处分手段之外,还应当制定其他适应机器人特性的惩戒手段,例如强制更改执法机器人的程序或者删除其从事某执法领域行为的功能,抑或直接开除出“智能公务员”序列等。
科技革命给行政法学研究带来了无限可能,行政法学的开放性也将接纳更多的新型行政行为。具体而言,在行政执法过程中融入智能化因素,不仅将提高行政效率,而且会降低行政成本、减少行政偏见、保持客观中立,极大地提高行政执法的准度和精度,保证执法质量的同时兼顾了执法速率。但是“居安思危,思则有备,有备无患”,执法机器人作为一种新兴产物,技术运用并不能保证万无一失。无论当下还是未来,仍然可能出现难以预知的风险和困境。
当前,弱人工智能观念下的执法机器人始终受到人类的控制。由于机器、系统的自动性和智能性,行政主体出于对其的信赖,几乎不会质疑由人工智能收集和作出的判断结果。但是,人工智能并不是绝对精确无误的,也可能存在技术漏洞。一旦数据收集、输入、处理、输出的某一环节出现了算法性错误,就会出现执法结果不合理甚至不合法的情况。虽然执法结果可能会受到人工审查或者复核,但是出于对人工智能的充分信任,行政主体一般不会改变其输出的意见,从而导致错误的执法结果。未来,机器人真正成为执法主体,独立从事行政活动,可以自主裁量法律和事实要素而无需人工干预,由此可能引发更为严重的后果。具体来说,这种错误可能表现在以几个方面:
1.数据处理和系统运转错误
人工智能作为一种科学技术,在数据处理过程中不可避免会存在漏洞,在系统运转过程中可能会出现系统崩溃等情形。另外,执法机器人作为一种“金属+电子技术”载体,可能会出现物理损坏、电子干扰损坏等,这些客观的损坏可能导致数据收集本身并不正确;也可能出现数据和信息收集正确,但是却出现不相关偏差的现象,从而导致结果错误。
2.价值判断错误
行政执法的过程包含价值判断的过程,当前人工智能技术尚不具备价值判断的能力,不能根据具体情形作出理性判断。但是,从目前实际运行的过程来看,如果没有被设定特定情节、特定事实的选择事项,人工智能在执法过程中就无法根据实际情况随机应变作出独立判断,或者作出的判断与预期结果相差甚远。即使在未来,人工智能拥有了独立执法能力,但是其是否能够真正对人类复杂的生物学特质——情感、情绪、伦理等因素加以判断同样存疑。
人工智能背景下的行政执法可以通过数学和代码的计算实现对一定社会问题的解决,但这种数码算法的编制显然是不透明的并且受到设计者主观能动性的极大影响,一旦数码算法设定嵌入了含有偏见、歧视的价值判断,那么由其作出的执法结果很难实现公平公正。公平本身是一个不确定的、需要衡量的概念,如何将算法的量化和形式化指标转译为具有可操作性的系统且保证输出结果的公平性值得思考。另外,在机器人算法制定的过程中,一个重要步骤就是录入与存储类型化信息。从某种程度上说,数据越全面,算法就越精确。如果数据缺失或者不具有代表性,人工智能的执法结果就将失去准度[9]。
在强人工智能时代,算法对机器人执法的冲击可能会更为明显。那时的机器人算法可能设计预测性的模型,之后该机器人便独立根据其被设定的预测程序进行执法。当然,未来机器人肯定具备深度学习能力,但是这种学习能力的未知超过了一定的可控范围便会失去算法设计的初衷,可能引发新的危机。与此同时,执法机器人在突破设计者最初设定的程序之后,鉴于其代表的是公权力,若对相对人权益造成普遍性侵害,则可能会颠覆人类对自我社会的整体控制权。
弱人工智能背景下,机器人被越来越多地运用于行政执法过程中,某种程度上弱化了行政主体的行政裁量权,甚至极易出现行政主体怠于行使裁量权的不良现象,不仅违背了依法治国的基本原则,更不利于服务型政府的建设。一方面,人工智能的设计和使用程序可能由市场主体开发,行政主体只是被动地运用智能化机器系统进行政治考量、政策决断和个案处理。在行政裁量过程中则表现为行政机关机械使用智能化机器系统,不对其运行原理和使用模式进行深入研究,导致裁量结果偏离预期。另一方面,由于人工智能在处理案件过程中专业、智能、迅速的优点,行政主体往往盲目信任其输出的裁量结果或者是将本不应该由人工智能裁量的事项交由机器人进行裁量,进而造成裁量怠慢的行政不作为现象,甚至助长因执法便利导致的权力寻租。
强人工智能背景下,机器人以其高度拟人状态和强大的自主学习能力具备了成为“智能公务员”的可能性,由此机器人正式成为公权力机关的实体组成要素之一,代表政府行使管理社会的职权。此时,可能引发的争议是执法机器人的出现导致人工行政执法生存空间的极度压缩,机器人愈发明显的自主性以及人类对其的高度依赖性,最终演变为失控性。尤其是当机器系统自带深度学习能力而进行指数升级的情况下,人类失去本地化控制或者全方位控制只是时间问题。虽然失控并不必然带来风险,但当执法机器人目标与人类终极福祉背道而驰时,风险就会不可避免地出现。
如前所述,现阶段机器人已经运用于行政主体的执法活动中,未来人工智能可能会独立从事行政执法工作。因此,必须建立一个可行的法律框架,促进行政执法在人工智能时代背景下最大程度地实现公平、合理、良性和效率。
弱人工智能背景下遵循“最小化原则”,尽量避免通过制定新的法律大幅度修改现有法律体系。纵观我国关于智能化行政的法律规范,大多集中在电子申请许可、电子送达等方面,有关行政执法智能化的具体法律规制很少。与此相矛盾的是,现实中行政机关已经运用智能机器或者系统来进行行政执法。考虑到智能化执法行为具有极强的专业性和自动性,使用程序上也与一般人工执法大相径庭,因此有必要在相关法律法规中单独设置机器人执法的适用领域、程序规定和责任认定等内容。虽然我国目前没有一般的行政程序法典,但是随着人工智能在行政主体执法过程中的广泛运用,可以在特殊程序法中补充有关人工智能执法行为的相应条款。
强人工智能背景下应当遵循“全面性原则”,形成以点到面的全方位立法体系。可以预见的是,机器人正式成为行政执法主体会对整个社会治理结构产生颠覆式冲击,仅仅依靠公务员法和行政程序法的跟进和修订将不足以遏制巨大变革后可能出现的风险。总体来讲,在宪法和法律层面,需要以立法或者授权立法的形式对机器人执法的总体布局和规划作出具有概括意义的规制;行政法规则需要以其专业性和灵活性的特质对具体法律风险问题作出细致安排,例如不同领域执法机器人的准入门槛、执行标准、责任追究等;地方立法则应结合本地区出现的特殊性、片面性问题,对中央立法予以消化。
弱人工智能背景下注意区分执法程序的更新变化,尽量将程序限定在可控幅度内。如前所述,在智能化执法过程中,省去了听证、说明理由等重要程序,使得行政相对人的程序权利受到了极大限缩。考虑到人工智能的现实能力,行政机关在运用人工智能进行执法活动时至少应该保证相对人最基本的程序权利。首先,必须保障相对人的知情权,即行政主体在运用人工智能进行执法时有义务将这一事实告知相对人,必要时还需说明理由;其次,若执法过程中系统或者机器出现错误或者故障,行政主体应主动放弃使用人工智能而转为人工执法;再次,使用机器人进行执法时必须出具与一般执法相同的具有法律效力的书面凭证,以保证相对人救济权;最后,相对人因不满机器人作出的执法结果而申请行政复议,则复议程序应当禁止人工智能设备介入。
强人工智能背景下应当重点区分行政相对人的性质属性,将弱势一方利益至于前列。强人工智能时代,行政相对人的范畴已经不再局限于传统自然人、法人,机器人作为高智能的一方,相较于普通自然人和法人拥有天然优势,对两者适用同一执法标准势必产生社会整体意义的公正问题。对此,有必要建立执法程序双轨制,即根据相对人生理和能力特性,通过行政裁量基准的可操作控制、配套监督管理制度和执法后救济的复核等方式,对不同相对人作出差别划分。
弱人工之智能背景下明确执法机器人是行政主体的手段与治理工具,意在借助数据和人工智能对需要执法的事项作出判断,从而为行政执法提供数据分析和政策支持。当前,在机器人执法的过程中,必须坚持行政机关的主体地位,保证行政机关的执法活力和积极性。具体可以从以下几个方面着手:一是行政机关或者行政执法人员必须提高自身对智能化执法机器和系统的认知水平,拥有对人工智能形式的掌控权;二是必须明确和厘清机器人执法和人工执法的界限,在前者不能触及的执法领域,行政主体应当保持相应的独占意识,合理把握双方适用的执法范围;三是机器人执法的结果若不适当,行政主体应该主动变更。
强人工智能背景下通过事前登记备案和事后安全审查,将执法机器人与人类的“颠覆”对抗风险降至最低。执法机器人虽然在当时获得了执法的主体地位,但是国家不能将社会治理的任务完全交由可能产生异化进而构成巨大威胁的机器人完成,所以执法机器人在出厂前应严格按照设定风险评估指标进行事前行政许可,生产制造者也应当通过政府部门的认证。一旦发生侵权事件,则转入特殊审查阶段,通过设立人工智能审查专员制度对执法机器人进行安全审查,即对机器人是否符合安全等级保护制度、是否适宜继续承担执法工作以及是否需要在后续研发和使用中进一步改进等问题作出综合判断。
有关机器人算法的歧视无论是在强人工智能时代还是弱人工智能时代都构成机器人执法风险的核心内容,前者表现为机器人算法设计者对机器人在出厂前设定的歧视算法,后者则表现为无自主学习能力的机器人在执法过程中始终无法变更的运作内容。机器人出现于行政执法活动的重要原因在于其数据存储和信息传递能力强,能够根据设定的程序算法快速输出结果。如何保证这个结果最大程度合法、合理,关键在于对机器人算法精准度的把控。其一,算法的设定主体不仅应该具备计算机方面的专业知识,还应具备专业法律素养和较高道德品质;其二,机器人算法的数据库建设应该尽可能囊括不同情形的案例,提高人工智能的信息匹配与查找能力,从而减少其执法不当的可能性;其三,必须加强人工智能执法安全保障的配套措施建设,开发周边防火墙技术,严格保护相关信息安全,保障相对人和行政主体的隐私数据;其四,向公众披露如何开发机器人算法以及开发机器人算法的考量,公开机器人算法流程和验证机器人算法时所生成的适当记录,公开范围应限于安全的限度内。
行政法的价值在于迅速而有效地适应不断变化的现实[10]。从实践来看,虽然目前仅停留在自动化行政阶段,但是机器人已经在行政执法过程中得到广泛运用且大有继续发展趋势。“宜未雨而绸缪,毋临渴而掘井”,本文试图突破现有研究的固定范式,将目光聚焦于强人工智能时代机器人执法的制度构建,从现实出发,初步勾勒当下和未来机器人在行政执法中的风险,在解决现有危机的情况下,对未来可能出现的危机加以管窥。
未来,机器人在行政执法中究竟将扮演什么角色、承担何种责任,依然存在许多未知的问题。例如,机器人执法与人工执法如何合理分工合作;机器人在执法过程中的程序性规定如何进一步细化;机器人若成为执法主体,会对传统行政治理模式产生何种冲击;其他部门法又会作出何种回应,等等。这些问题都有待学界根据实践和理论的进一步发展进行发掘、作出思考。
总之,机器人执法是时代发展和科技进步大势所趋,也是我国发展电子政务、建设法治国家过程中的重要环节。行政主体只有以掌控者的姿态,合理利用人工智能机器和系统,才能更好地实现执法结果的公平公正,促进社会治理能力和治理体系的现代化。因此,探求法律与技术的进一步结合将是我们的不懈追求和庄严使命。