人工智能行政执行场景的行政法调控

2023-10-12 17:09郝炜
行政法学研究 2023年5期

郝炜

关键词:行政法调控;人工智能行政执行场景;人工智能行政法

引言

伴随人工智能应用场景的不断拓展,围绕人工智能与法律之间的探讨已形成人工智能法学建构与人工智能法学反思两股思潮。①相较于法学界对人工智能的“研究热潮”,科学界却保持审慎态度。②总的来说,目前关于人工智能的法学研究存在对科技界预期过高迹象,以致被学者诟病为人工智能法学研究的“神话”③。“人工智能嵌入社会治理建构起一个基于数据和算法的复合治理网络,形成了一种新的社会治理范式。”④就行政执法实践观察,行政执法机关在运用人工智能系统执法过程中普遍面临法律规范缺位、算法解释机制缺位、执法责任主体缺位、政府规制工具缺位等问题,亟待学界提供一种新型行政法理论分析工具予以回应。反观域外,欧盟、英国、美国等已将人工智能法律监管重点转移至人工智能应用场景,即在监管数据、算法、算力基础上更加注重监管由这些要素形塑的人工智能应用场景。被学界公认的人工智能立法监管最前沿,欧盟在《欧盟一般数据保护条例》实施后,于2021年又发布了《人工智能法案》,⑤通过在人工智能应用场景中的风险评估与风险等级划分来调控人工智能与法律的关系。美国总统办公厅的行政和预算管理局(OMB)于2021年发布《人工智能应用监管指南》。2021年英国发布《2022年国家网络战略》,将政府运用人工智能技术创设场景作为打造“数字英国”的重要步骤。2022年斯坦福大学发布业界闻名的《2022年人工智能指数报告》,指出人工智能领域关注点正在从模型、算法等主题转向应用场景主题。

域内外关于人工智能的前沿监管表明,“场景”正在成为人工智能法律研究新的知识增长点。就我国人工智能应用场景而言,应用规模最大、投资体量最大的莫过于政府主导投资创设的人工智能行政执行场景。因此,行政法学界有必要以人工智能行政执行场景作为探索人工智能行政法的研究支點,及时摆脱对数据、算法、信息等科技要素的过度迷思,重新返回更为擅长的经典行政法领域,探索论证人工智能行政执行场景的行政法调控路径。本文从行政法维度审视人工智能与法律交融而成的人工智能行政执行场景,旨在论证什么是人工智能行政执行场景、行政法为何研究以及如何调控该场景等三个问题。鉴于当前人工智能法学研究范式仍未转向人工智能行政执行场景,且人工智能行政执行场景会随纷繁复杂的行政任务而呈现多种不同形式,故本文将主要针对人工智能行政执行场景面临的共性问题展开研究。

一、人工智能行政执行场景的要素分析

针对当前人工智能法律研究热潮,行政法学界有必要在反思人工智能构成要素的法规范意涵基础上,对人工智能行政执行场景命题的基本范畴予以界定。

(一)人工智能行政执行场景的构成要素

首先,人工智能行政执行场景的内涵界定。其实,在AI出现之前,关于算法、数据的法学研究就早已存在。③因此,当下认为算法、数据已经颠覆传统法治的论断并不符合实际。之所以承认人工智能对现有法学理论具有一定冲击,并不是体现在驱动人工智能发展的算法、数据,而是体现在作为其集成系统的人工智能行政执行场景。人工智能行政执行场景是政府在公共行政领域依据法律和政策、依托人工智能、运用行政职权完成行政任务过程中所创设的人机交互空间。人工智能行政执行场景依据法律执行,则体现为行政执法场景;依据政策执行,则体现为行政任务场景。之所以区别人工智能行政执行场景的创设依据,主要是因为当法律无法为快速发展的人工智能提供高密度法律监控时,此时可由政策填补法律监管空白。事实上,即使存在法律规定,由于算法无法确保其能精准地将法律规范转化为代码(传统人工智能时代)、无法确保其能精准地理解法律规范的价值判断(机器学习算法时代),因此算法行政无法确保其能严格按照法律依法行政。④人工智能行政执行场景是行政法律关系的场景化再现,由人工智能集成系统驱动服务于行政相对人的精准需求、服务于行政主体不同类型的行政任务,并兼具现实性与虚拟性。例如,在养老、教育、医疗等福利行政领域,可将其界定为人工智能福利行政执行场景;在治安、交通、城市管理等秩序行政领域,可将其界定为人工智能秩序行政执行场景。

其次,人工智能行政执行场景的法治要素。一是人工智能行政执行场景的创设主体是政府。从人工智能各类应用场景规模、数量、使用频率分析,政府是人工智能行政执行场景的主要创建者,企业通常接受政府委托而成为该场景的运行商。区分人工智能行政执行场景的创设主体与运行商服务的意义在于应当针对政府与企业提供不同的调控措施。二是人工智能行政执行场景的创设来源是行政职权。无论是为了实现福利行政任务还是为了实现秩序行政任务,人工智能行政执行场景均系政府运用行政职权创设。例如,在新冠疫情防控实践中,通过AI机器人完成核酸/抗体检测查询、新冠疫苗接种信息整合分析的现象已屡见不鲜。公共卫生行政执法部门在采集数据、采集程序、告知程序与告知决定等方面均有赖行政职权的规范行使。强调人工智能行政执行场景创设来源是行政职权的意义在于,行政法应当聚焦研究采集数据、采集程序、告知程序与告知决定等法律议题,而不宜将研究精力过度投放在数据、算法、信息等法律人并不擅长的科技要素上。三是人工智能行政执行场景的创设载体是行政执行场景。人工智能只有在特定场景中应用,才能展现其自我适应性。在日常行政活动中,行政执行场景成为人工智能行政法关注的重点。所谓行政执行场景,包括行政执法场景与行政任务场景。行政执法场景是政府运用人工智能依法律开展行政执法所创设的交互空间,该场景受到法律严格羁束。以各级自然资源部门开展的常规土地卫片执法为例,面对海量监测区域影像,2021年陕西省自然资源厅从通过人工目视开展卫片执法,转变为运用人工智能遥感辅助提取技术深入自主检测场景,工作效率提升近50%。①完成土地卫片执法是常规行政任务,人工智能卫片行政执法场景由行政主体运用人工智能遥感辅助提取技术所创设,此时行政法研究的重点并非“人工智能遥感辅助提取技术”,而应当是人工智能卫片执法应用场景,即探究自然资源部门、人工智能遥感辅助提取技术供应商、违法用地所在地政府、违法用地者等各方之间的行政法律关系。相对于行政执法场景,行政任务场景则是政府运用人工智能依政策完成行政任务所创设的交互空间。一方面,该场景由于不受法律严密监控,极易形成法律调控盲区;另一方面,当法律规范缺位时,政策规范会成为行政任务场景的重要依据。例如,美国总统办公厅的行政和预算管理局在2021年11月发布的《人工智能应用监管指南》中提出可依据政策指导达成监管目标。②

最后,人工智能行政执行场景的类型识别。结合人工智能行政执行规范依据、技术主题场景,可将人工智能行政执行场景作出以下类型划分。一是以人工智能行政执行的规范依据作为分类标准,分为人工智能行政执法场景与人工智能行政任务场景。行政主体依据法律推进人工智能行政执行,此时所创设场景为人工智能行政执法场景,例如人工智能城管行政执法场景、人工智能公安行政执法场景等。在法律缺位时,行政主体可依据政策推进人工智能行政执行,此时所创设场景为人工智能行政任务场景,例如智慧城市建设基于大数据智能技术的城市一网统管平台,需要将公安、交通、城管、应急等各行政主体的行政职权实行有机衔接,但我国宪法与组织法并未规定行政职权的协助程序,在实践中多借助政策方式完成。二是以人工智能行政執行的技术场景作为分类标准,分为人工智能行政执行一级场景、二级场景、三级场景。根据中国证监会颁布的《上市公司行业分类指引》(2012年修订)与《战略性新兴产业分类(2018)》(国家统计局令第23号),结合人工智能主要涉及的行政执行场景,将人工智能软件开发、智能消费相关设备制造、人工智能系统服务为技术基础的场景界定为一级场景,再以此为基础分别细分其二级、三级场景。例如,人工智能软件开发是人工智能行政执行一级场景所需技术,其相对应二级场景的技术基础为基础软件开发和应用软件开发,再以二级场景所需技术明确其三级场景所需技术为人工智能优化操作系统、智能决策控制软件等,进而可在不同场景类型中研究其行政法律关系。

(二)人工智能行政执行场景的执法形态

从人工智能行政执行场景的概念来看,其以“行政权+AI”为显著特征。在人工智能广泛参与政府决策、执法甚至司法裁判的趋势下,“行政权一行政相对人”的执法形态逐渐变更为“‘行政权+AI一行政相对人”甚至是“AI-行政相对人”。“行政权+AI”具有两层含义:行政主体运用人工智能改变行政权形态:行政主体联合人工智能企业共同作出影响行政相对人的行政决定。①例如,在交警部门依托执法机器人查处行政相对人驾驶机动车在非机动车道行驶过程中,此时行政权作用方式不同于传统“行政权一行政相对人”模式,而是通过“‘行政权+AI一行政相对人”模式实现了行政权赋能。

人工智能赋能行政权一般呈现为模拟执法、合作执法、取代执法等三种执法形态(见下图)。一是模拟执法。行政主体自主创设人工智能行政执行场景,并依托AI执法,属于模拟执法。例如,在交警部门运用AI查处机动车在非机车道行使所构成的人工智能行政执行场景中,可认为交警部门利用AI进行模拟执法。二是合作执法。对于大多数不具备人工智能开发技术的行政主体,均会委托AI企业创设人工智能行政执行场景,在名义上由行政主体执法。此时AI企业虽处于人工智能执法委托外包主体地位,但该企业在执法对象确定、执法数据采集、执法数据储存等领域均不同于一般外包商,在事实上呈现合作执法特征。三是取代执法。伴随未来强人工智能出现,甚至可以做到AI取代行政主体而径直执法即取代执法。

因此,人工智能行政执行场景命题的提出,旨在将当下关于人工智能研究的重点转向人工智能行政执行场景、人工智能行政法律关系,亦即在人工智能行政执行场景中重点关注算法与行政法、数据与行政法的关系,而不宜仅停留在技术层面讨论算法、数据的法律意义。

二、转向人工智能行政执行场景的内在挑战

与牛顿机械物理观主导的建构规律性、精准性、确定性的传统自然科学模式相比,人工智能展现的则是以不确定性、混沌、自我形成为特征的后现代科学观,这要求以传统自然科学观为基础的既有法律科学知识体系随之转向并作出相应调整。①人工智能的蓬勃发展与人工智能执法形态的重大革新,对行政法学知识体系形成挑战,这既是行政法转向人工智能行政执行场景研究的内在缘由,也是人工智能行政执行场景亟待行政法回应的内在诉求。

(一)数字身份与人性尊严的价值冲突

个人信息在网络世界被数据建构为数字身份,②而数字身份的数据建构与人性尊严存在价值冲突。在科技时代,人的价值旁落与作为科技行政客体亦即物化,是法律尤为警惕之现象。法学研究普遍具有重视权利之学构建取向,并不重视权利主体即人的主体性塑造。在弱人工智能时代,如果将人工智能系统或行政执法机器人界定为物,则人工智能系统不应当具备作为实践主体的人才享有的人权价值属性。然而,恰恰是这一不具备人权价值属性的物,在执法实践中却将作为自然人的行政相对人视为数据化的分析对象。从主体的人到作为工具化对待的人,这种对人的尊严的挑战是人工智能对法律的主要挑战。③对人性尊严价值挑战还体现在算法的差别对待与相似对待。例如,如果根据目前公务员录用条件设计算法,则极易影响残疾人群体报考与录用,此种算法的差别对待违反宪法平等原则。再如,在算法辅助决策领域也存在减损人的尊严价值的空间,因为算法使人在社会层面更相似,而非更具特殊性,人与人越来越同类化、同质化,则消解了人性尊严所捍卫的个体独立性与群体的丰富性价值。

(二)科技发展与法律滞后的现实抵牾

人工智能行政执行场景需要同时安放科技与法律两种不同的知识体系。一方面,算法黑箱导致法律无法有效调控科技。非透明算法运行对行政法基本原则造成挑战主要体现在明确性原则与行政法定原则两个方面。明确性原则旨在将法治国家建立在符合民主正当性要求的客观法秩序之上,并且“客观法秩序须以人民可预见之法律规范内容及其法律效果为必要”,亦即明确性原则同时还要求法律具有“可预见性”以及法律效果具有“可测量性”④。然而,由于“算法黑箱”的大量存在,必将引发明确性原则与人工智能行政执法的冲突。另一方面,法律往往滞后于人工智能发展。行政法定原则要求行政主体在行使行政权时须受法律保留与法律优位原则的拘束,同时也必须符合最低限度程序正义的要求。以此为对照,地方政府以行政指导方式推进人工智能技术及产业发展、以政策作为完成行政任务的依据,在形式法治层面均不符合行政法定原则要求。特别是在政府以行政指导方式推行人工智能领域,则存在“与人工智能紧密相关的法律法规一片荒芜”⑤。可见,如何妥善处理科技与法律之间存在的价值冲突是关键。

(三)效率优先与忽视公正的程序难题

人工智能能够显著提升行政程序的效率价值,但能否同时符合行政程序的公正价值,则不无疑问。执法机器人在“黑箱算法”情形下完成辅助执法,显然与信息公开、听取意见、说明理由等正当程序原则相违背。例如,在人工智能税务行政执行场景中,税务行政机关在对海量历史税务违法样本或高风险任务样本数据进行学习训练基础上,可搭建针对虚开发票违法行为的风险识别机制。如果在算法运行中不加入告知、陈述和申辩等法定程序的编码设计,而径直通过算法为高风险企业精准画像并随即作出税务行政处罚决定,显然违反税收法定程序。此外,伴随数据交互高频化运行,无论是作为人工智能行政执行场景中行政主体的行政责任,还是作为场景中行政相对人的违法责任,都面臨无法确定的难题,因而难以确保人工智能行政执行场景中行政程序的公正价值。

三、转向人工智能行政执行场景的外在缘由

在内在挑战倒逼人工智能行政法及时调整研究对象的同时,人工智能法学研究的外部因素也在不同程度驱动人工智能行政法将研究重心转向人工智能行政执行场景。

(一)人工智能法学研究思潮驱动

鉴于现行经典算法均来自域外,因此无论是就数据主权与数据安全等法律议题的研究,①还是就国家层面对人工智能安全战略发展的考虑,人工智能法学研究开始更加关注全球化背景下数据主权与安全价值。鉴于此,有学者指出“在这样的背景下,法律人如果回避人工智能的学术研究,便等于是对现实生活的无视”②。就人工智能行政法发展而言,在经历了基础概念研究阶段之后,目前正向场景化执法领域转型,这是法学研究思潮驱动的结果。从对人工智能法律“现象”的关注到对人工智能、算法、算力、数据等基础概念的关注,不仅说明学界正处于寻求人工智能法学基础概念基本共识的进程,也表明目前法律对科技的调控程度正在逐步加深,彰显了法学研究具有推进人工智能稳序发展的调控功能。仅以行政法学研究人工智能为例,目前已在数据、算法、自动驾驶等领域取得重要进展。③伴随人工智能行政法基础概念研究成果的不断丰富,智慧城市、智慧金融、城市大脑等人工智能应用场景背景下的场景化执法领域必将成为研究重心。

(二)人工智能行政执法实践驱动

面对人工智能技术快速发展的现实,各国开始注重用人工智能技术革新传统执法。除前述欧盟、英国、美国等广泛开展人工智能立法以外,波兰推出交互式城市管理机器人Jurek,能够为行政相对人提供监管、咨询等服务。④美国奥兰多市警察局曾测试亚马逊的Rekognition API人脸识别系统,该系统用来监控全城闭路电视摄像头,能够实时从视频流与画面流中将执法部门关注人员自动标记出来;此外,美国移民和海关执法局(ICE)被媒体认为曾涉嫌使用了该系统。⑤从我国执法实践层面观察,在检验检疫执法场景中,广东省出入境检验检疫局率先将8台命名为“国检”的检验检疫智能执法辅助机器人投入执法实践,通过实时高温探测、低温探测和人脸识别,能够完成报警、拦截等辅助执法任务。⑥在道路交通执法场景中,温州市“首个智能动态交通违法审核机器人”投入使用,能代替执法人员审核并截取交通违法行为证据。2022年5月,杭州市政府公布第一批重点建设的36个人工智能应用场景清单,人工智能行政执行场景居于主导地位。各级政府不仅着力推进人工智能行政执行场景创设,同时还通过执法监督规范人工智能行政执行场景有序发展。例如,2022年4月,中央网信办牵头开展“清朗.2022年算法综合治理”专项行动,重点检查具有较强舆论属性或社会动员能力的大型网站、平台及产品所涉算法滥用现象。可见,人工智能行政执行场景已成为行政执法实践的重要内容。

(三)人工智能行政执行场景不足驱动

学界之所以未注重人工智能行政执行场景研究,与人工智能产业发展现状有关。一是认定标准不一。目前政府监管部门对人工智能行业、重点产品和服务的行政认定标准并不统一。根据中国证监会颁布的《上市公司行业分类指引》(2012年修订),人工智能行业为“软件和信息技术服务业”。而根据《战略性新兴产业分类(2018)》(国家统计局令第23号),在战略性新兴产业分类表中,“人工智能”属于新一代信息技术产业,下设人工智能软件开发、智能消费相关设备制造、人工智能系统服务三个类别。然而,同样在《战略性新兴产业分类(2018)》中,“工业人工智能网络系统服务”“利用人工智能等技术对海量异构数据进行计算”并不属于“人工智能”,而属于“互联网与云计算、大数据服务”。对人工智能行业、重点产品和服务的认定标准不统一,影响法学界对人工智能行业整体性认知。二是企业数量较少。近年来我国人工智能产业虽取得飞速发展,涉及人工智能技术分支的企业数量虽多,但属于严格意义的人工智能集成类型的企业并不多,由其开发的人工智能行政执行场景更少。从中美两国2021年AI公司数量分析,据斯坦福大学《2022年人工智能指数报告》统计,美国以299家公司领先,中国为119家。④实践中,有的地方政府将生产监控视频的企业、传统软件企业也视为人工智能企业。三是应用场景不足。人工智能技术的推广应用有赖政府提供的应用场景与市场汇聚的风险投资。在《国务院关于印发新一代人工智能发展规划的通知》(国发[2017]35号)实施前后,各地政府纷纷出台以“智慧城市”为主题的施政计划,有力推动了人工智能在公共行政领域的推广应用,基于行政任务导向的人工智能行政执行场景大量出现。然而,目前符合人工智能技术通行标准的行政执法应用场景并不多见。

四、人工智能行政执行场景的行政法调控路径

在将研究对象转向人工智能行政执行场景之后,随之而来的问题是行政法如何调控人工智能行政执行场景背景下的行政法律关系。德国行政法学界将行政调控视为行政任务的类型概念。“行政调控是一种综合的行政决定(komplexe Verwaltungsentscheidung)。它规制了不同的——分歧的与相近的、相互竞争并相互冲突的利益。”①行政法调控是从行政法学角度对行政调控的体系化建构。因此人工智能行政执行场景的行政法调控应当同时基于严格规制与促进发展的弹性调控理念,围绕既有行政实定法的法教义路径与注重行政法实效的法政策路径予以调控。

(一)行政法调控理念

德国新行政法的调控理论旨在将行政法的研究视野从对行为的关注转向行政过程、从事前合法依据的关注转向事后结果评介,②注重在法治框架内调配与运用包括政府在内的调控主体、法律与政策等调控依据以及各类调控资源促成行政任务的完成。在20世纪70年代,针对德国国家计划无法完成的“执行赤字”,学界开始探究透过以计划或法律为主的政治调控工具完成行政任务,并在演进过程中形成独特调控分析模式:先分析法规范中不同立场者的利益情况,再分析该法律的影响层面及各层面利益影Ⅱ向,最后分析法律是否以及如何解决实际问题。③尽管德国行政法学界对该理论也存在争议,④但可结合我国行政法发展实际借鉴该理论合理之处,为人工智能行政法调控提供有益参考。

首先,“区分一整合”的认知方式。传统行政法聚焦于个案决定以及个案决定所需的事实。实际上,该事实并非孤立存在,而是处于相互联系的跨学科的知识体系之中。行政法调控理念是在坚持传统行政法教义立场上展开对跨学科知识体系中事实要素的深度认知,即在区分事实的同时又通过法规范在更宏大知识体系中形成对该事实的整合性认知,在不放弃规范性的同时致力于形成事实与规范的统一。⑤这意味着在运用行政法理论分析人工智能时,既要区分法律与科技的学科之别、区分作为事实要素的数据和算法等人工智能技术中存在的不同意见,也要运用法规范理论对其予以整合,方能在法律与科技的互动关系中达成行政法调控目的。

其次,超越个案的调控体系。行政法的调控理念能够解决传统法教义学无法解决的学理与实践难题。为解决诸如法律缺位、科技行政等新型行政任务背景下“行政执行赤字”问题,借助于作为调控科学的行政法新理念,能够补齐传统法教义学无法及时为执法实践提供政策等多元规范依据的短板。此外,行政任务并不以作出行政行为为终结标志,行政主体不仅需要针对个案作出行政行为,还需要从治理层面提出能够处理同类行政任务的法政策或法规范;在对行政行为的个案进行法律适用分析同时,更加注重个案中行政主体为完成行政任务所开展的协调治理资源、效力与结果(注重执法实效)、行政效率。因此,就行政法调控人工智能而言,不仅需要坚守人工智能行政法调控的法教义立场,强化人工智能行政法秩序价值,同时还应当基于行政任务取向、后果考量引人多种调控方式,以促成行政法与人工智能技术的融合发展。

最后,面向场景的弹性调控。一是规范选择层面的弹性。相较于仅以法律作为规范人工智能行政执行场景的唯一依据,行政法调控理念更加注重发挥法律规范与政策规范在规制人工智能行政执行场景中的功用。行政法调控理念试图通过弹性方式超越人工智能行政执行场景存在的缺乏法律依据、无法确保法规范执行成效等治理困境,并为模拟执法、合作执法、取代执法提供行政法理论指引。二是执法成效层面的弹性。行政法调控理念不仅注重依法行政,同时对法规范实施的效果更加关注。从调控角度赋予行政法新理念,并非“根本性放弃干涉行政,而是指必须对相关法律及其所产生效果的條件,必须审慎衡量”①。关注法的实效性现象,必然会涉及行政任务的具体内容、现实情境等事实要素的考量,因此行政法调控理论具有面向场景化行政任务发挥功能的特点。这意味着在人工智能行政法调控中,有必要根据行政任务或执法实践场景来采取相适应的弹性调控手段。三是制度配置层面的弹性。当人工智能执法系统无法达成行政任务,或虽能达成行政任务但有损公共利益或他人合法权益时,此时行政主体需在“人工智能执法”与“人工执法”之间建立弹性返回机制,以符合行政执法正义原则。

(二)人工智能行政法的调控举措

第一,基于法律规范的算法调控。首先,法律为算法设定调控依据。一旦法律被算法特别是黑箱算法所取代,那么民主也将不复存在。算法权力有别于传统意义上的公权力,具有隐蔽性。②“黑箱算法”的不透明性、歧视性,与行政法调控的安定价值具有根本冲突。行政秩序的安定性一度被认为是行政法治化的核心,须以具有明确性与稳定性的法律为表征,具体表现为“秩序的可预见性、可计算性和可估量性——明确性,也表现为秩序的稳定性和不可随意变更性”③。其次,法律为算法设定人权价值。通过法律制定规则来要求算法设计者解释算法运行机制可谓法学界的“一厢情愿”,算法对人工智能技术迭代的意义恰恰在于其不可预测性。有鉴于此,行政法对算法的调控制度就应当注重算法逻辑与人权保障相协调,引导和鼓励设计者开发具有更高解释性的代码模型。目前欧盟提出人工智能企业须向监管部门提供解释人工智能技术完成决策过程的文档日志以及风险评估等证明文件。④人工智能行政执行场景中的应用算法推荐技术可参照该规定对算法名称、服务形式、应用领域、算法类型、算法自评估报告等信息公开。最后,法律为算法设定数据准度。深度神经网络层级与包括图像、语音、视频等海量训练数据集是实现算法精准的前提。算法模型有赖于精准数据的海量汇集,“若输入错误数据,则输出亦为错误数据(garbage in,garbage out)”⑤。因此,为保证算法的精准度,在金融、税务等人工智能金融行政执行场景、人工智能税务行政执行场景,可建立数据参数、训练数据、标注数据等数据活动记录行政检查制度。

第二,基于双阶识别的责任调控。试图通过对人工智能可解释性来论证人工智能应承担法律责任面临技术挑战,⑥这是因为人工智能之所以能够快速发展,恰恰在于人工智能的不可解释性。但是,这并不意味着人工智能行政执行场景将脱离法定责任的制度设计。人工智能行政主体的法律人格、行政责任均可以通过“拟制两步法”的双阶识别方式实现责任调控。第一步是“假定一锁定”,即假定该人工智能(机器人)具有承担行政责任的主体地位,在法律适用中可锁定其承担行政责任。这样做的优点在于能够尽快界定责任归属,消除行政责任空白或者无人承担行政责任的情形。第二步,在前述基础上,既然该人工智能行政主体承担行政责任,那么该人工智能行政主体的算法设计者、设备采购者、应用者等根据个案情形均应承担不同种类的行政责任。通过双阶识别的方式能够确保人工智能行政执行场景无法逃逸于法定责任制度。还需注意的是,由于不同行政任务场景面临的风险系数、风险程度均有所不同,因此是否发生违法责任的概率也会不同。

第三,基于法律解释的补漏调控。人工智能行政执行场景常常面临法律缺位的情形,导致政府在创设该场景时无法律依据选择、在违法行政时无法受法律责任约束。例如,目前仍然缺乏对行政机关通过自动化决策作出行政行为的法律规定。此时有必要通过法律解释来填补法律缺位造成的法律盲区。“即使是较为明确的概念,仍然经常包含一些本身欠缺明确界限的要素”,更何况类似“违法性”“法律行为”等重要的法律概念本身在法律中就没有明确的定义。法律解释是法教义的重要组成部分。例如,在法律没有明确规定的前提下,在特定情形中,可通过政策规范为政府推动科技行政发展提供试错空间;在行政主体借助人工智能系统执法时,也可通过扩张解释认定人工智能的主体地位。此外,在现行立法缺乏时,有学者提出可运用司法解释以填补人工智能立法空白。可见,在现有人工智能行政执行场景缺乏法律明确规定的情形下,并不意味着行政主体无法展开行政法适用,借助行政法适用与司法适用环节的法律解释作业,能够缓和人工智能对既有行政法定秩序造成的紧张关系。

第四,基于技术迭代的立法调控。尽管法律标准会随人工智能不断改变社会、经济和政治行为而随之改变,或许还会改变法律体系的机制进而导致既有法律原则发生变化。但是,同时也应当看到法律能够为不断迭代的人工智能预留发展空间,人工智能行政执行场景因此随之实现场景法治化。人工智能的立法调控措施旨在推动市场竞争以发展可调控与可信赖的人工智能技术。事实上,人工智能立法规制运动,或可称为立法规制竞赛,正在全球兴起。基于我国人工智能技术、产业发展现状,为防范人工智能引发不可预测的风险,当前有必要在平衡效率、公平、安全、自由价值基础上,制定一部较为概要、既有效规制人工智能又积极推动人工智能产业发展的人工智能法。该法以规制与保障人工智能行政执行场景为核心,包括将人权保障、科技发展、正当程序、科技伦理设立为立法指导思想,并对人工智能概念、人工智能平台、人工智能关键技术、人工智能支撑标准、人工智能产品、人工智能服务、人工智能风险与安全以及人工智能伦理通过法规范予以明确。

第五,基于互动关系的法政策调控。法政策学以研究法与公共政策的相互关系为主,具体而言包括公共政策的合法性与可行性、由公共政策上升为立法的条件、法律变迁与创制新法的条件等。正如有学者指出,法政策学的研究目的化约为“从政策之观点看法律,从法律之观点看政策”。①在既有行政实定法秩序无法全面破解人工智能科技发展带来的行政法挑战情形下,对于通过行政指导或在给付行政领域所创设的人工智能行政执行场景,在符合宪法精神与行政法基本原则的前提下,可允许政府以法政策达成行政目标。之所以倡导法政策调整方式,一方面是由于法的特质所决定,另一方面则在于法教义学的固有缺陷。然而,“人类与人工智能的互动是可预见的还是不可预见的”②可谓困扰人工智能行政法调控的逻辑悖论。法律与不可预见的人工智能技术之间始終存在调控逻辑冲突。就法教义学的固有缺陷而言,当前人工智能正以链式创新方式不断催生新技术、创设全新应用场景,法律无法为人工智能超前设计严密的行政法调控体系。以德国关于自动驾驶人权利与义务的立法为例,2017年德国首次以制定法方式公布《对德国道路交通法的第8次修改法》,设定自动驾驶人的权利义务,然而该法在机动车责任事故方面认为系统使用人需要承担驾驶人责任。此种仅依据法律规范而不借助政策规范弹性调控的保守态势,无疑会阻碍人工智能科技产业发展。