摘 要:自动驾驶汽车算法需要大量算法数据作为运行基础,而当前算法数据使用的纰漏在于类型划分不清、保全措施存在不足,以及合规体系出现缺位。在参考《数据安全法》明确算法数据的定义后,需要根据算法场域的差异将其划分为学习算法数据、运行算法数据和衍生算法数据,并结合算法场域的技术特征消除算法偏见。保全算法数据需要预先设置算法数据的记录、留存和公开模式以避免算法黑箱,并在制定行程数据保护计划的同时贯彻行程数据算法透明原则。基于《数据安全法》构建算法数据的合规体系,需要将公民个人信息法益为合规基础,基于法秩序统一原理协调不同法律规范,调整刑事政策来指引合规体系走向,同时参考刑法规范制定具体的合规计划。
关键词:自动驾驶;数据安全法;算法数据;算法偏见;刑事合规
中图分类号:D 912 文献标志碼:A 文章编号:2096⁃9783(2022)03⁃0085⁃08
引 言
自动驾驶汽车的技术核心是算法,算法通过计算公共交通中事故的规模和概率,输出精准的车辆控制措施,将数字控制下的自动驾驶汽车合理地安置于公共交通秩序中,并实现本身的迭代升级,优化自动驾驶算法的运行流程[1]。自动驾驶算法本质上是以数字代码来表达意见,以大规模、高质量的算法数据为算法提供决策参考的基础。比如当下自动驾驶广泛使用的罗尔斯算法模型,其计算原理是将事故主体(使用者、行人等)与可选操作(转弯、直行等)之间的效用函数构成一个笛卡尔积,先从笛卡尔积的映射数据集中权衡出事故主体存活概率的最低收益集,再循环穷举筛选出将最低收益最大化的操作[2]。有鉴于此,在《中华人民共和国数据安全法》(以下简称《数据安全法》)颁布后,对算法数据的保护力度进一步增强,应该基于《数据安全法》对算法数据进行分类,并配合其他法律规范完善算法数据的保全措施,构建算法数据合规体系,以期实现对算法数据的全方位保护。
一、问题缘起:自动驾驶算法数据使用存在纰漏
当下人类社会正在由传统物理社会牛顿的“大定律,小数据”技术范式转向人工智能算法时代默顿的“大数据,小定律”技术范式,算法的运行规则是由“小数据”产生“大数据”,再由“大数据”加强机器算法学习[3]。自动驾驶汽车的安全行驶需要算法数据和算法进行有机结合,如果使用的算法数据存在纰漏,则会影响自动驾驶汽车的正常行驶。
(一)自动驾驶算法数据的类型划分不清
自动驾驶算法的正常运行需要算法数据的支持,而伴随算法数据应用范围的扩张,算法数据的类型也日趋复杂,因此需要根据算法场域的差异进行类型化区分,否则算法数据会因为自身的交错混乱导致流通“梗阻”并缺乏持续性的数据供给,影响算法决策的科学性[4]。当前划分算法数据存在以下问题:第一,当前划分算法场域缺乏准确合理的划分标准,没有准确理解算法场域的技术特征,无法为后续算法数据的类型划分提供依据。第二,在划分算法场域后,如何结合场域特征来区分算法数据存在争议,算法数据背后蕴藏着算法的价值选择[5],而区分算法数据则应该基于算法数据在不同场域的技术特征进行实质分类。第三,在划分算法数据类型后,需要对不同类型的算法数据有针对性地消除其算法偏见,如何合理消除不同场域下算法数据中隐藏的算法偏见,关系到算法数据选取的准确性和可用性。总之,对于算法数据的类型化区分,需要解决算法场域、算法数据分类,以及算法偏见消除这一系列问题,为保障算法数据的运行奠定规范基础。
(二)自动驾驶算法数据的保全措施不足
当前自动驾驶交通肇事频发的原因之一在于对算法数据的保全措施存在不足,导致算法数据面临各种侵害的威胁,主要包括两个方面:第一,算法黑箱吞噬运行数据导致数据保全出现纰漏。算法黑箱中的算法不公布收集与使用数据的范围,甚至会隐藏乃至消除其非法利用数据的痕迹。在河南张女士特斯拉维权案中,张女士质疑特斯拉篡改刹车失灵时的记录数据,特斯拉事后提供的算法数据中缺少了电机扭矩、刹车踏板位移、iboost(发动机助力)记录等诸多数据,导致无法判断交通事故时车辆的刹车状态[6],这意味着特斯拉可能借助算法黑箱隐藏了关键的行程数据来规避交通肇事的事后追责。有鉴于此,如何避免自动驾驶的算法黑箱吞噬数据并保全完整的车辆运行数据,与算法数据的公信力直接相关。第二,算法设计缺陷容易导致公民个人行程数据泄露,对个人行程数据的保全不够周延。《数据安全法》第27条规定了数据安全保护义务,第32条规定了数据收集方式,自动驾驶算法的运行需要依据规范整合不同类型的算法数据,而在整合数据的过程中,算法会将数据通过多种频道向外传递并交互回馈,在此过程中有个人行程数据泄露的风险。总之,鉴于算法数据在算法运行中扮演着重要角色,对算法数据的获取和使用应该强化保全措施,保全的核心内涵是为了算法数据能够按照其既定目标正常运转,不仅内容要完整,更要功能完备,在提升算法数据使用效率的同时保护其周延。
(三)自动驾驶算法数据的合规体系缺位
当前,自动驾驶算法运行过程中算法数据合规体系的缺位,导致自动驾驶车企容易陷入算法数据纠纷之中,扼杀了自动驾驶车企技术开发的积极性[7]。算法数据合规体系的构建需要依据自动驾驶发展的实际状况与利益需求进行构建,并在合规体系中强化刑法的兜底性保障作用。第一,算法数据合规体系的构建缺乏明确的法益保护诉求,关于保护法益有私法益和公法益之争,导致刑事合规体系的核心利益摇摆。第二,当前关于算法数据的法规规范复杂,因此合规体系中需要对不同法律规范进行协调,避免合规体系的规范基础产生内容冲突影响合规效用的发挥。第三,算法数据合规体系中发挥刑法的兜底性作用需要正确制定并理解刑事政策,刑事政策对于合规体系具有方向性的指引作用。第四,算法数据合规体系需要制定科学合理的合规计划,实现对算法数据的预防性保护,合规计划是合规体系正常运行的基础,缺乏科学合理的合规计划会导致合规体系面临空置化之虞。总之,针对当前算法数据合规体系的缺位,应该构建行之有效的合规体系来填补空缺,在监督车企强化对算法数据管理的同时,提供预防机能和出罪路径,实现对算法数据的全面监管。
二、不同场域下自动驾驶算法数据的类型化区分
算法数据本质上是信息表达的一种方式,《数据安全法》第3条规定,“本法所称数据,是指任何以电子或者其他方式对信息的记录”,而自动驾驶算法数据的定义则应该基于算法的整体环境展开,具有数字性、场域性、学习性、偏见性等固有特征。有鉴于此,算法数据作为“算法场域下的数据”,其定义是“适用于算法场域,以电子或者其他方式对信息的记录”,算法数据的外延与算法场域紧密关联,只要置于算法场域就属于算法数据,其区分依据是算法场域的差异,并在区分后消除算法偏见,科学有效地发挥出算法数据的内在价值[8]。
(一)场域化视角下算法数据的类型划分
自动驾驶算法的应用场景日趋复杂,意味着算法数据需要逐渐适应不同的算法场域,并根据《数据安全法》第21条的规定,由“国家建立数据分类分级保护制度”,实现对算法数据的“规训”[9],而区分算法场域是划分算法数据类型的基础。自动驾驶算法场域主要是学习场域、行驶场域和静态场域,划分依据是自动驾驶汽车的不同行驶状态:(1)学习场域对应自动驾驶汽车的学习状态,主要对应自动驾驶汽车在出厂前的调适过程,由车企调整算法数据,包括速度测试数据、传感器反应数据等,帮助自动驾驶算法学习如何处理公共交通状况。(2)行驶场域对应自动驾驶汽车的机动状态,主要是指自动驾驶汽车在行驶过程中对算法数据的收集和使用,需要处理行驶过程中的动态化数据。(3)静态场域对应自动驾驶汽车的常态静止状态,主要是指自动驾驶汽车在停止运行时,收集个人行程数据和公共交通规范数据并进行衍生加工处理。个人行程数据包括驾驶习惯、便捷设置等数据,公共交通规范数据是指一定地域内公共交通规定的数字化记录,对公共交通规范进行数据化转型有助于自动驾驶汽车“理解”交通秩序,从而更好地融入其中。
与区分后的算法场域相对应,自动驾驶算法数据的区分也受到算法场域特征的影响,不同场域下算法数据受其影响后的内涵亦不相同,体现了算法數据的场域性、数字性以及学习性特征,主要包括学习算法数据、运行算法数据和衍生算法数据。(1)学习算法数据,主要集中在自动驾驶算法的预先学习阶段,包括模拟各种公共交通状况和模拟驾驶者心态的数据,在机器学习中帮助算法通过处理数据进行“自我成长”以应对复杂的公共交通状况,不断强化操作流程。(2)运行算法数据,主要是指自动驾驶汽车在行驶场域中实际运行所收集、处理的算法数据,主要分为两大来源:一是收集路况信息后进行反馈处理的算法数据,通过传感器元件对行驶时周围的交通状态进行数字化展示;二是收集驾驶者的状况并进行数字化处理后进行反馈的算法数据,将驾驶者的判断力、反应力乃至生命健康状况进行数字化演示。(3)衍生算法数据,主要是算法数据在静止状态下经过算法深度再加工之后挖掘出更多价值的算法数据,增加了对算法数据的实质管理和利用。衍生算法数据能够对自动驾驶算法进行“反哺”,经过算法加工处理后,不仅发掘出衍生算法数据的潜在价值,而且可以由衍生算法数据修正原始算法,再形成新的衍生算法数据进行不断优化,最终形成最优化的算法[10]。总之,学习算法数据、运行算法数据和衍生算法数据贯穿了自动驾驶算法运行的全流程,对应不同类型的算法场域,从机器学习到投入使用,再到不断优化的过程中,自动驾驶算法数据都发挥了重要作用,并且在保证数据可靠性的前提下积极扩充、扩张算法数据的应用规模。
(二)算法数据类型化后的算法偏见消除
基于算法数据的类型化区分,算法数据受算法场域影响产生的算法偏见也应该予以消除,防止算法偏见在算法数据的处理过程中被不断强化,最终陷入“自我的歧视性反馈循环”。《数据安全法》第8条规定数据处理要“尊重社会公德和伦理,遵守商业道德和职业道德”,这里对社会公德、伦理、商业道德、职业道德的遵守,都是为了避免算法数据存在歧视性偏见,要求算法数据在处理之后能够客观公正地反映社会生活要素。有鉴于此,消除算法偏见、跨越数字鸿沟是自动驾驶算法数据真正投入使用前的必经之路,而不同类型算法数据的算法偏见也应该根据算法场域的技术特征进行针对性消除。
第一,学习算法数据的算法偏见主要存在于处理驾驶风险的虚拟学习场域,算法的学习效果高度依赖于算法数据的数量和质量,学习算法偏见是因为倾向性的算法数据导致算法在学习处理模式时无法公正地做出决策,影响算法后续的正常运行。为了消除学习算法偏见,应该响应《数据安全法》第24条的倡导来建立数据安全审查制度,通过设定机器学习算法训练数据的最小数量规模和合理采集方式,确保算法学习所用算法数据的质量,限制使用歧视性和违法性算法数据,通过预先的严格审查来消弭学习算法偏见[11]。消除学习算法偏见,能够保证算法在后续实际运行过程中不会对算法数据的选择产生偏见,防止学习算法受数据处理惯性误导产生错误决策。
第二,行驶场域中运行算法数据的算法偏见,主要是行驶状态中收集处理算法数据所带来的错误引导,既包括实行数据收集不全或者数据固有缺陷导致的错误引导,也有算法和运行算法数据的配合不当产生错误输出。针对运行算法偏见一般采用自律性规制和他律性规制“双管齐下”的消除模式,自律式规制要求算法自身优化对运行算法数据的校正,由优化后的算法来内部筛选算法数据,他律式规制要求参考用户对算法偏见排除意见,驾驶者在行驶过程中对可能出现的算法偏见进行汇报并且手动制止,防止算法处理失误[12]。质言之,自律式规制还是他律式规制都需要遵循《数据安全法》的规范指引,鉴于运行算法偏见具有不可预测性,所以应该履行算法数据安全保护义务,对算法数据处理加强风险监测。
第三,静态场域中衍生算法数据的算法偏见,主要是因为对基础算法数据的错误加工或者过度加工,导致加工后的衍生算法数据存在错误导向,这种错误导向来源于被加工的基础算法数据,却相较而言影响更大且难以根除。对于衍生算法偏见应该预先参考《数据安全法》等法律规范,妥善地规定算法数据收集范围与衍生算法数据加工方式。规范算法数据的收集范围,要求限制基础算法数据的收集范围,排除自带偏见的基础算法数据,从数据根源上消除衍生的算法偏见影响。规范衍生算法数据的处理方式,要求对收集后的基础算法数据进行标准化处理,避免过度处理基础算法数据加深偏见性影响。总之,将法律规范应用于算法数据处理过程中,有助于调节算法处理逻辑,得出更加准确的衍生算法数据,避免过度解读导致原有的算法偏见被扩大。
三、《数据安全法》下完善算法数据的保全措施
《数据安全法》为保全算法数据提供了宏观层面的指引,其中第4章规定数据安全保护义务,主要包括预防阶段的风险监测、风险评估,使用阶段的数据收集、数据审核,事后阶段的数据安全管理、数据交易处理,从而形成全流程算法数据保全体系,体现法律规范对算法数据保全的积极介入[13]。在自动驾驶算法运行过程中,算法数据保全上的纰漏会导致算法数据被吞噬或泄露,包括运行算法数据和公民个人行程数据,而对应的算法数据保全措施应该以数据安全法为基础,制定切实可行的保全措施,实现对算法数据的全方位保障。
(一)避免算法黑箱吞噬运行算法数据
当前算法运行过程中依靠技术壁垒形成了不公开、不透明与缺乏监督的“算法黑箱”[14],其通过算法壁垒剥夺了公民理解自动驾驶算法的权力,甚至在算法数据处理过程中肆无忌惮地吞噬运行算法数据[15]。算法黑箱吞噬运行算法数据导致使用者在行驶过程中难以把握算法决策,加剧了人与技术之间的疏离感,而为了保全运行算法数据,需要明确运行算法数据的处理要求。当前我国仅在《数据安全法》第27条概括性规定,“建立健全全流程数据安全管理制度……履行上述数据安全保护义务”,而为了保全运行算法数据,应该预先设置数据处理要求来限制算法黑箱,主要包括运行算法数据的记录、留存和公开。
1.明确运行算法数据记录标准
明确运行算法数据的记录标准是后续开展保护的基础,贯彻《数据安全法》第17条倡导的“国家推进数据开发利用技术和数据安全标准体系建设”来构建记录标准,健全全流程数据安全管理制度,在自动驾驶全过程中明确运行算法数据的记录频率、记录模式以及记录范围,在科学有效地记录运行算法数据的同时避免记录冗余。通过明确的记录标准能够从基础上遏制算法黑箱。算法黑箱吞噬数据的机理在于其对算法数据的不公开、不透明处理,导致一般人难以理解算法数据,而明确的记录标准将打破算法黑箱人为制造的技术壁垒,算法黑箱将无法吞噬运行算法数据,而是必须提供准确的数据记录流程并进行标准化解读。
2.优化运行算法数据留存模式
优化运行算法数据的留存模式是保护措施的核心模式,通过留存的运行算法数据在处理交通肇事追责争议时提供裁判依据。参考德国的《道路交通法》第63条对自动驾驶汽车数据的规定,“当车辆控制模式从人工向技术系统切换或者技术系统向人工系统切换时,必须记载位置和时间信息。当系统要求驾驶员接管对车辆的控制或者系统出现技术故障时,也应保存相应信息”,并设置平台向主管机关传输保存数据的义务[16]。鉴于数据安全法中规定的数据处理包括储存,所以需要优化对运行算法数据的留存内容、留存形式,让算法黑箱无法篡改留存数据,以技术标准限制吞噬、篡改可能性。此外,为了节约算力和成本,不能无限制地留存运行算法数据,而是应该规定运行算法数据的留存和删除周期,维持合理的数据存量。
3.制定运行算法数据公开制度
制定运行算法数据公开制度有助于保护体系的整体改进,合理的数据处理包括对数据的公开,通过法律规范要求车企将交通肇事时的运行算法数据向官方鉴定机构公开,有助于增强运行算法数据的公信力。在河南张女士特斯拉维权案中,尽管有关部门多次协调,但是车企仍然拒绝提供全部数据,最终仅提供约半小时数据且存在缺失,影响事故追责认定。有鉴于此,制定运行算法数据公开制度并向官方鉴定机构公开肇事车辆的运行算法数据,可以防止车企通过算法黑箱吞噬不利运行算法数据,算法黑箱将被纳入官方机构的监管范畴,符合《数据安全法》第6条规定的“主管部门承担本行业、本领域数据安全监管职责”,实现对算法数据的常态监管。
(二)遏制自动驾驶个人行程数据泄露
公民个人行程数据是算法数据的重要组成部分,和公民个人信息法益紧密相关,《数据安全法》第32条规定收集数据应当采取合法、正当的方式,不得窃取或者以其他非法方式获取数据。为了保全个人行程数据,自动驾驶算法在需要处理个人行程数据的同时遏制数据泄露,包括制定行程数据保护计划并贯彻行程数据算法透明原则。
1.制定个人行程数据具体保护计划
针对自动驾驶过程中个人行程数据的泄露,可以参考《数据安全法》制定符合我国自动驾驶实际发展状况的行程数据保护计划,通过行业规划的方式落实对个人行程数据的保护。在行程数据保护计划中,需要根据行程数据的保护诉求规定生产者的义务与使用者的权利:(1)规定生产者对个人行程数据的处理义务,分为目的一致义务,即自动驾驶汽车收集个人行程数据的适用目的和个人行程数据收集后最终的生成目的保持一致;数据安全义务,即采取有效措施防止个人行程数据遗失,禁止生产者未经使用者或主管部门允许而披露个人行程数据;最小化义务,即采集个人行程数据以完成行程为目的,只采集能够完成行程所必须的最少个人行程数据;观察预警义务,要求生产者在整合个人行程数据时进行安全审查,如若传输到中央处理器的个人行程数据存在异样则要及时预警。(2)规定使用者个人行程数据的权利,分为数据知情权,即使用者有权知晓生产者如何收集、使用、共享乃至销毁个人行程数据;选择决定权,即使用者对于自身被收集的个人行程数据,可以在保障道路交通安全的前提下自主决定收集使用方式;访问修改权,即使用者在使用自动驾驶汽车时,可以随时访问检查自己的个人行程数据,并且在未出现交通肇事时,可以依据个人意志修改数据;销毁删除权,即使用者在未出现交通肇事时,可以在规定的留存期间后按照自主意志销毁删除个人行程数据,确保未经自己允许任何人无法取得自己的个人行程数据。
2.贯彻个人行程数据算法透明原则
从根源上遏制个人行程数据的泄露需要贯彻算法透明原则,公开自动驾驶的算法模型,基于可问责性和知情权两个维度进行公开透明的算法解释,预防个人行程数据泄露[17]。算法透明原则要求算法解释为何选择和如何利用个人行程数据,在投入使用前公开其使用模式和运行机理[18],帮助公众理解自己的个人行程数据如何被采集与处理,比如欧盟《通用数据保護条例》第13—15条就要求数据控制者向数据主体提供自动化决策的逻辑并解释其影响。简言之,在贯彻算法透明原则之后,使用者可以通过较为可信的方式获得算法对个人行程数据的处理功能、运行逻辑等关键信息,有助于提升公众对自动驾驶算法的信任。
具体而言,针对个人行程数据贯彻算法透明原则,应该从自动驾驶算法的运行模式入手逐步完善。第一,在人机交互场域中,自动驾驶算法在收集公民个人行程数据时必须给出清晰准确的解释,确保其收集的个人行程数据不被用于其他非驾驶用途,保全个人行程数据的使用范围。第二,在自主学习场域中,需强调自主学习算法收集处理个人行程数据的合理理由和范围边界,如若是为了提升自动驾驶效果而收集使用信息,则应该获得使用者的许可,否则即便没有扩散个人行程数据,也存在非法利用的可能性,对这种自带的算法设计缺陷需要进行算法问责[19]。第三,算法透明原则需要在兼具开放性、反思性和统合性的框架内运行,不能仅局限于当前对个人行程数据的使用,同时也要考虑算法的自我纠偏等未来功能,所以可以适当扩充数据的收集规模。总之,贯彻算法透明原则能够在开发者和使用者之间维持权力关系的平衡,做到双方实质平等,确保收集使用个人行程数据具有合理的信赖基础[20]。
四、基于《数据安全法》构建算法数据的合规体系
为了保障自动驾驶产业的安全发展,需要由政府主导构建针对自动驾驶算法数据的合规体系,实现对算法数据的预防性监管,这本身就是《数据安全法》倡导的“建立健全数据安全治理体系”的应有之义。技术层面的自动驾驶算法是为实现行驶任务而构造的指令集,其以数据为基础、以算力为支撑,通过准确高效的运算将输入数据转化为输出的智能决策[21]。自动驾驶对算法数据的使用,如若仅进行事后追责则存在保护不及时的弊端,而通过构建算法数据合规体系,却能够实现前置性预防,形成对算法数据的全流程保护。
(一)以公民个人信息法益为合规基础
构建合规体系应该在明确算法数据保护法益的基础上展开,自动驾驶算法数据的保护法益是公民个人信息法益[22],其作为新型权利兼具私密性和社会性[23],其中私密性体现为算法数据与个人隐私相关,在价值内涵上蕴涵公民个人的利益诉求,而社会性是指自动驾驶汽车在公共道路上行驶,处理算法数据后做出的决策关系到公共交通秩序的正常运转,进而影响整体社会公共秩序。以公民个人信息法益作为算法数据合规体系的基础,可以从法益保护的角度勾勒出合规体系的预设保护目标,即对算法数据的保护本质上是保护公民个人信息权,不仅及于私法益,还包括公法益。围绕公民个人信息法益构建的合规体系,在协调法秩序关系、调整合规体系走向、制定具体合规计划等诸多层面都需要参考对保护法益的实质解读,保护法益是合规体系运行的价值基础,依据保护法益的内涵可以明确合规体系的实际影响范围,同时也是对抽象法律规范的实质解读。《中华人民共和国网络安全法》(以下简称《网络安全法》)第12条规定“国家保护公民、法人和其他组织依法使用网络的权利”,《数据安全法》第7条规定“国家保护个人、组织与数据有关的权益”,《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第1条规定“为了保护个人信息权益”,梳理三部不同法规可以发现,虽然具体的规范内容不同,但是其设立初衷都是保护公民个人信息法益,那么可以将抽象的法律规范聚合为保护法益实体,并以此为核心构建算法数据合规体系,确保合规体系本身贯彻了不同法律规范对保护算法数据的共同诉求。总之,自动驾驶的高速发展急需算法数据合规体系作为规范支撑,为了保障新技术的进步,对算法数据的保护不能仅依据事后追责,同时也要借助合规体系对保护法益这一核心利益进行前瞻性预防。
(二)法秩序统一下协调不同法律规范
基于法秩序统一原理保护算法数据需要协调不同法律规范,由算法数据合规体系吸纳不同类型法律规范对数据的规定,消弭规范冲突的同时寻求不同规范的共通之处,最大程度地寻求法律规范上的保护共识。第一,法秩序统一原理下协调不同法律规范需要树立《数据安全法》的主导地位,围绕《数据安全法》的规定将其他法律规范补充进算法数据合规体系中。算法数据合规体系的核心是对算法数据的预先保护,算法数据作为数据的一部分,以专门的《数据安全法》作为核心规范更符合算法数据保护的整体语境。第二,在《数据安全法》与其他法律规范的衔接过程中,需要优化关于算法数据的细节性规定,将相关细节规定补充进算法数据合规体系,实现对算法数据的多层次保护。比如算法数据合规体系中对处理个人行程数据的规定,除了引用《数据安全法》第32条规定的“任何组织、个人收集数据,应当采取合法、正当的方式”作为整体性规范,还要参考《个人信息保护法》第2章个人信息处理规则的细节内容,坚持《中华人民共和国民法典》第6章规定的个人信息处理规则,同时将《中华人民共和国刑法》(以下简称《刑法》)第253条侵犯公民个人信息罪的犯罪构成要件作为合规体系的兜底性条款,在多方协调配合下实现对算法数据的体系性保护。有鉴于此,为了在算法数据合规体系中实现法秩序的内部统一,在法律规范框架的构建上,应该以联系最为紧密的《数据安全法》为统筹,配合《网络安全法》《个人信息保护法》等其他法律规范,从刑法、民法、行政法等多方面入手优化合规体系的运行[24]。
(三)调整刑事政策指引合规体系走向
刑事政策是对刑法解释与刑事立法的宏观指引,在算法数据合规体系中,刑事合规是算法数据合规体系的强制力保障,而刑事合规遵从刑事政策的指引,针对潜在的算法数据犯罪风险,调整对应的刑事政策可以有效预防算法数据犯罪,实现算法数据合规体系的预防性机能。保护算法数据、强调数据合规的刑事政策需要围绕算法权力扩张的时代背景进行展开,一方面倡导完善刑事立法强化对单位及自然人的追责,借助合规激励机制促使车企从内部优化对算法数据的保护;另一方面调整刑法解释上的出罪路径,促使司法机关在处理算法数据犯罪时考虑合规体系的预防犯罪功能,为车企预设合理的出罪路径,借助刑事政策构建非犯罪化模型,避免车企在处理算法数据时承担过重的责任。当算法深度嵌入社会各个环节之后,强调数据合规的刑事政策体现了国家强力监管算法的意志,展现了预防型积极的刑法观,借助刑事政策在理念构成和实体法律规划上强化对算法数据的监管[25]。第一,在理念构成层面,通过外部激励机制促进企业合规,从刑事政策上体现监管算法数据的刑法强制力,本身也是为车企的发展提供行为规范的边界,要求自动驾驶算法在处理算法数据的过程中避免数据泄露、违规利用等刑事不法行为。第二,在实体法律规划层面,在制定對应的刑事政策时充分考虑不同法律规范对算法数据合规的共同价值诉求,对《数据安全法》《网络安全法》《个人信息保护法》等法律规范进行统筹考量,不能仅偏重对算法数据的强制力保护,也要在刑事政策的松紧度上考虑算法数据的利用需求,做到利用与保护并重。
(四)参考刑法规范制定数据合规计划
在算法数据合规体系中,《刑法》发挥刑法强制力保障合规体系的正常运行,而制定切实可行的合规计划则需要正确理解侵犯公民个人信息罪等罪名的犯罪构成,一方面在责任层面为车企构建主观免责的合规出罪路径;另一方面将《数据安全法》等法律规范作为侵犯公民个人信息罪中“违反国家有关规定”的参考,构建合规管理义务为使用算法数据提供合理性支撑[26]。第一,合规计划中规定车企主观罪过免除制度。自动驾驶车企在编译自动驾驶算法时,应该发布企业合规政策和员工行为手册,针对算法数据建立合规标准,明令禁止员工和高管实施违法行为并建立惩戒机制,设立内部合规培训制度[27]。如果员工编译算法时内置算法后门违规获取、使用算法数据,则其个人构成犯罪而企业不承担刑事责任。第二,合规计划中参考相关法律规范制定需要履行的法定管理义务。自动驾驶车企对算法数据的法定管理义务主要参考《数据安全法》等法律规范,包括对数据安全进行规范审查,甄别算法数据污染的情况,对算法数据实行预防保护。比如《数据安全法》中第3章数据安全制度、第4章数据安全保护义务的内容,都属于企业在编译自动驾驶算法时应该考虑的法定管理规范,车企编译的算法应该在初始阶段就消除可能存在的负面影响,只有这样的算法才能避免对算法数据产生负面影响,同时也将企业对算法的监管纳入合规计划中。
结 语
自动驾驶算法以算法为决策核心,通过神经网络、深度学习等手段实现智能交通的目的[28],而算法发挥效用则需要依靠大量精确的算法数据作为支撑。《数据安全法》出台后,保全算法数据需要认清其数据实质,并在不同场域中对算法数据提供针对性的保全措施,确保公民可以从法律和伦理层面真正信任算法数据。为了降低算法数据被侵害的风险,需要强化对算法数据的预防性前置保护,为自动驾驶算法数据构建切实可行的合规体系,规范算法数据的处理流程,真正实现对算法数据的立体化监管,提升自动驾驶的安全性[29]。
参考文献:
[1] PRIMIERO G. Algorithmic iteration for computational intelligence[J]. Minds & Machines, 2017, 27(3): 521-543.
[2] 陈禹衡. 算法优化语境下自动驾驶汽车交通肇事的困境纾解[J]. 苏州大学学报(法学版),2021(3):60-73.
[3] 郑智航. 人工智能算法的伦理危机与法律规制[J] .法律科学,2021(1):14-26.
[4] 刘文杰. 被遗忘权:传统元素、新语境与利益衡量[J]. 法学研究,2018(2):24-41.
[5] 金梦. 立法伦理与算法正义——算法主体行为的法律规制[J]. 政法论坛,2021(1):29-40.
[6] 陈白. 用户数据归属权才是特斯拉维权案的命门[N]. 经济观察报,2021-04-26(008).
[7] 李本灿. 企业犯罪预防中合规计划制度的借鉴[J]. 中国法学,2015(5):177-205.
[8] 陈兵,马贤茹. 数据要素权益配置类型化研究[J]. 科技与法律(中英文),2022(1):1-9.
[9] HASSAN S, FILIPPI P D. The expansion of algorithmic governance: from code is law to law is code[J]. Field Actions Science Report, 2017(17): 88-90
[10] 胡小偉. 人工智能时代算法风险的法律规制论纲[J]. 湖北大学学报(哲学社会科学版),2021(2):120-131.
[11] 崔聪聪,许智鑫. 机器学习算法的法律规制[J]. 上海交通大学学报(哲学社会科学版),2020(2):35-47.
[12] GURNEY J K. Crashing into the unknown: an examination of crash-optimization algorithms through the two lanes of ethics and law[J]. Albany Law Review, 2016, 79(1): 183-267.
[13] 王俊. 积极刑法观的反思与批判[J]. 法学,2022(2):68-85.
[14] 吴椒军,郭婉儿. 人工智能时代算法黑箱的法治化治理[J]. 科技与法律(中英文),2021(1):19-28.
[15] CITRON D K, PASQUALE F A. The scored society: due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1-34.
[16] 汪庆华. 人工智能的法律规制路径:一个框架性讨论[J]. 现代法学,2019(2):54-63.
[17] 张莉莉,朱子升. 算法歧视的法律规制:动因、路径和制度完善[J]. 科技与法律(中英文),2021(2):15-21.
[18] EZRACHI A, STUCKE M E. Artificial intelligence & collusion: when computers inhibit competition[J]. University of Illinois Law Review, 2017, 1(5): 1-38.
[19] 沈伟伟. 算法透明原则的迷思——算法规制理论的批判[J]. 环球法律评论,2019(6):20-39.
[20] 張凌寒. 商业自动化决策算法解释权的功能定位与实现路径[J]. 苏州大学学报(哲学社会科学版),2020(2):51-60.
[21] BEER D. Power through the algorithm? participatory web cultures and the technological unconscious[J]. New Media & Society, 2009, 11(6): 985-1002.
[22] 刘艳红. 侵犯公民个人信息罪法益:个人法益及新型权利之确证——以《个人信息保护法(草案)》为视角之分析[J]. 中国刑事法杂志,2019(5):19-33.
[23] 欧阳本祺. 侵犯公民个人信息罪的法益重构:从私法权利回归公法权利[J]. 比较法研究,2021(3):55-68.
[24] 陈禹衡. 《个人信息保护法》视角下征信合规体系构建[J]. 上海金融,2022(1):23-30.
[25] 刘艳红. 积极预防性刑法观的中国实践发展——以《刑法修正案(十一)》为视角的分析[J]. 比较法研究,2021(1):62-75.
[26] PRICE W N. Black-Box medicine[J]. Harvard Journal of Law and Technology, 2015, 28(2): 419-468.
[27] 陈瑞华. 企业合规出罪的三种模式[J]. 比较法研究,2021(3):69-88.
[28] NYHOLM S, SMIDS J. Automated cars meet human drivers: responsible human-robot coordination and the ethics of mixed traffic[J]. Ethics and Information Technology, 2018, 22(4): 1-10.
[29] 张韬略. 自动驾驶汽车道路测试安全制度分析:中日立法的比较[J]. 科技与法律,2019(4):73-82.
Classification, Preservation and Compliance of Autonomous Driving
Algorithm Data under the Data Security Act
Chen Yuheng
(School of Law, Southeast University, Nanjing 211189, China)
Abstract: Autonomous driving algorithms need a large amount of algorithm data as the basis of operation, and the flaws in the use of current algorithm data lie in unclear classification, inadequate preservation measures and absence of compliance system. After defining algorithm data by referring to the Data Security Law, it is necessary to divide algorithm data into learning algorithm data, operating algorithm data and derived algorithm data according to the difference of applicable field, and eliminate algorithm bias by combining with the technical characteristics of applicable field. The preservation of algorithm data requires pre-setting of algorithm data recording, retention and disclosure modes to avoid algorithm black box, and implement the principle of algorithm transparency while formulating the protection plan for algorithm data. To build a compliance system based on the Data Security Law, it is necessary to take the legal interests of citizens' personal information as the basis of compliance, coordinate different legal norms based on the principle of law unification, adjust criminal policies to guide the trend of the compliance system, and formulate specific compliance plans by referring to the norms of criminal law.
Keywords: autonomous driving; data security act; algorithm data; algorithm bias; criminal compliance