论我国人工智能试验性立法*

2020-12-27 00:22
关键词:立法者规则原则

陈 光

(大连理工大学人文与社会科学学部,辽宁大连116024)

得益于计算机技术大幅改进和先进算法运用等因素的综合作用,人工智能开发及应用近年来获得突飞猛进的发展。考虑到在实践层面人工智能巨大的发展潜力尚未充分释放,可能带来的深刻影响有待观察,在制度层面的一些基础理论问题仍需深入研讨和形成共识,因此现阶段体系化的人工智能立法条件并不成熟,而各国政府在人工智能制度回应方面也大都秉持一种政策引导和保障为主的开放态度。然而,长远来看,构建一套科学合理的人工智能法律体系既是必要的也是必然的。当前,虽然学者们有关人工智能与法律关系问题的研究越来越深入,但是立法层面该如何有序推进人工智能法律体系的构建呢?笔者认为,试验性立法(Experimental Legislation)或许是一个合理有效的策略选择。

一、试验性立法在人工智能法律体系构建中的作用

对于人工智能立法,各国立法者有着不同的态度和做法。就我国而言,人工智能立法虽然已被纳入第十三届全国人大常委会立法规划,但中央层面尚未出台人工智能相关的法律文件,这主要与我国在人工智能领域的政策导向有关。在2017年国务院印发的《新一代人工智能发展规划》中,我国人工智能发展的战略目标分三步走,立法和法律体系的建设目标在三个阶段中也分别有着不同的表述。其中,第一步即到2020 年目标为“部分领域的人工智能伦理规范和政策法规初步建立”;第二步即到2025年目标为“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”;第三步即到2030年目标为“建成更加完善的人工智能法律法规、伦理规范和政策体系”。对此,郑戈认为:“在目前这个阶段,我国不会针对人工智能进行体系化的立法,试图为技术发展留下足够广阔的想象力空间。只有在自动驾驶等技术发展已经相对成熟、产品亟待进入市场的应用领域,才会尝试进行地方性、试验性的立法。”[1]诚然,立法者不会也不宜在当前阶段全面介入人工智能领域,但要实现国务院规划中关于人工智能法律体系的构建目标,相关立法并非一定要等到自动驾驶等技术相对成熟或产品进入市场应用领域时才启动。从现在到2025年第二步目标的实现也不过五年的时间,立法者应尽快在中央和地方两个层面推进人工智能试验性立法,为到2030 年建成更加完善的人工智能法律体系积累经验和奠定基础。

试验性立法是立法者针对一些特殊领域或事务,先行输出一套法律原则、规则或制度,经过一定时间后,根据法律实施过程中所反馈的信息,再行确定更为合理与稳定的法律原则、规则或制度。试验性立法的基本功能是通过对立法实施情况或信息的收集来提高立法质量从而更好地调整或规制有关事务或关系。“试验性立法,体现出国家稳健的法治观,体现出国家的法治建设思维已经发展到新的成熟位阶,希望通过小步快走、稳健为先的价值取向,助推国家法治建设不断前行。”[2]作为一种制度现象,近代以来的试验性立法最早可追溯到法国路易十六时期,其目的在于更好地提升国家行政管理的效力。我国自改革开放以来,试验性立法因其兼具改革与法治双重属性而被广泛使用,并在社会主义法律体系建立健全过程中发挥了重要作用。我国立法法虽未直接使用“试验性立法”的表述,但实际上规定了三种类型的试验性立法。一是“暂时调整或停止适用”,即第13 条:“全国人民代表大会及其常务委员会可以根据改革发展的需要,决定就行政管理等领域的特定事项授权在一定期限内在部分地方暂时调整或者暂时停止适用法律的部分规定。”该条所规定的试验性立法针对的是我国正在进行的自贸区建设。二是“下位法先行规定”,如第9 条关于国务院可根据全国人大及其常委会授权就部分法律保留事项先行制定行政法规的规定,以及第73条和第82条分别关于先行制定地方性法规和地方政府规章的规定。三是“经济特区立法”,即第74条规定:“经济特区所在地的省、市的人民代表大会及其常务委员会根据全国人民代表大会的授权决定,制定法规,在经济特区范围内实施。”除了国家立法活动使用试验模式,党内法规和公共政策等规范领域也经常采用试验的方式。例如,为了加强和规范党务公开工作,中共中央于2017年12 月印发了《中国共产党党务公开条例(试行)》。为了积极促进大数据发展,努力打造中国北方数据中心,哈尔滨市政府于2016 年8 月出台了《哈尔滨市促进大数据发展若干政策(试行)》。总之,试验性立法或以试验方式先行实施某类规范在我国立法乃至制度建设实践中扮演着重要角色。

试验性立法之“试验”可在空间和时间两个维度上展开。换言之,试验性立法既可以在特定区域或空间内进行也可以在特定时期内开展。在人工智能法律体系构建过程中,试验性立法同样有着功能优势。试验性立法所具有的尝试性、阶段性和开放性等属性同人工智能发展初期对于法律规则需求的特点具有很强的契合性。人工智能试验性立法不属于立法法规定的三种试验性立法中的某一种,而是综合了三种试验性立法的内在理念,根据人工智能发展和规制需要所作的立法。人工智能试验性立法是国家立法机关针对人工智能领域及受人工智能影响的相关领域所开展的具有探索性的专门立法。此类试验性立法可以对现行法律体系中的某些原则或规制进行修改或者暂停适用,也可以由中央立法机关授权部分地方立法机关开展先行先试立法。概言之,人工智能试验性立法可以在我国现行立法法中找到相应法律依据。对于试验性立法在人工智能法律体系构建中的作用,我们可从以下三个方面来认识。

其一,试验性立法能够为人工智能的发展提供规则依据,表达的是立法者对于人工智能基本问题的规则态度,有助于立法者在人工智能领域的规范调整中掌握主动权。人工智能的出现和应用对现行的法律理论和制度体系提出了根本性的挑战。然而,国家制定法的稳定性以及立法的条件成熟度等要求都使得国家制定法很难及时地回应人工智能这一新事物所带来的挑战。如果国家制定法在一些关键性或基础性问题上缺乏明确的态度,其他社会主体如公司或非政府组织等便会输出相应的规则。尽管这有助于一定程度上填补人工智能规则调整的需要,但也会使过多非公益的诉求被引入相应的非国家规范之中。对此,英国学者Jacob Turner 指出,“工业引领规制论的支持者们或许会认为,既然工作能够更好地了解科技的风险及潜能,那么最好就由公司来负责设定标准。然而,仅让公司去自我规制而缺少政府参与监督的做法是危险的”[3],原因在于,“政府存在的目的就是为了维护社会公众的共同利益。当然,有些政府可能会受到利益集团的游说或腐蚀而背离此目标,但这种情形与政府运行的内在理念是不符的。相比而言,公司依公司法规定以实现公司所有者利益最大化为其基本追求。”[3]那么,如何让国家或立法者在立法条件尚未完全成熟的情况下介入调整,在表明国家和立法者对人工智能一些基本问题的判断或规则态度同时,避免出现诸如公司等自利性明显的组织掌握人工智能规则调整主动权的现象呢?试验性立法应该是一种最为适宜的立法模式选择。试验性立法的国家法属性可以确保其在人工智能规范体系中的最高效力位阶地位,而其尝试性和阶段性特点又为国家立法的及时调整提供了制度上的可能。

其二,试验性立法能够为人工智能相关法律的修改完善提供参考信息,为人工智能法律体系的构建与完善积累经验。相较于在法律概念、法律原则和立法技术等方面的立法尝试,试验性立法主要在规则或制度内容的选择方面能够为之后的人工智能立法提供信息依据与经验参考。例如,人工智能侵权的责任承担问题是一个非常现实的制度问题。现行的侵权责任原理和制度能够在多大程度上适用于人工智能的侵权行为,应当在法律上确定何种归责原则和举证责任规则,或者应对归责原则和举证责任规则做怎样的调整等,对这些问题的回答都首先要在立法中加以实际规定从而才有被实践检验的可能。有学者区分了作为工具的机器人和作为代理人的机器人这两类不同类型机器人的侵权责任,认为:“目前关于严格产品责任、严格故障责任等方面的规定,更多强调对于工业机器人的使用,一般来说,也就是机器人作为人机互动的工具,关于机器人作为代理人的侵权行为责任的疑难案件正在涌现。合理分配举证责任无法减轻这类机器人的无过错责任;然而,法律制度也认可有限责任的形式,如数字特有产和强制保险的政策,以便在责任和风险分配中取得平衡。”[4]类似的制度反映在人工智能法律规制方面还有很多,立法者通过各种方式的试验性立法将其融入现行法律规制体系之中,并通过规则或制度实施来不断改进,确定更为科学、合理或有效的规则或制度内容,并以此来推动人工智能法律规则和制度的体系化进程。

其三,试验性立法可将人工智能法律规制相关理论转化为具体的法律原则、规则或制度,通过立法实践及法律适用来转化、检验和改进相应的理论体系,从而为人工智能法律体系的构建与完善提供更为科学系统的理论依据。近年来,学者们围绕人工智能与法律问题展开了广泛研讨,在人工智能的法律人格或主体地位、人工智能侵权的责任承担、人工智能创造物著作权归属与保护等问题上形成了不少理论认知,也提出了很多立法建议。例如,围绕人工智能创造物的权利及其保护问题,有学者主张从观念上将纯粹“人工智能创作”结果区分为数据和表达两个层面,相应的知识产权制度安排也应基于其双重属性进行架构。[5]也有学者认为:“对人工智能创作物直接按照人类作品的保护方式进行保护,必然会导致以激励人类知识创新为核心的著作权制度在理论上难以自洽……将人工智能创作物纳入邻接权制度保护范围进行保护,不仅可以从理论上明晰人类作品与人工智能创作物的界限,也可解决人工智能创作物法律保护的现实困境,不失为人工智能创作物法律保护的可行路径。”[6]可见,学者们对人工智能创造物著作权归属与保护问题的理论探讨,大都会伴随对相关立法或制度安排的思考与建议。类似的理论分析与立法建议还反映在人工智能其他法律问题中,这些理论分析及立法建议的科学性、合理性或有效性只有通过立法转化为实际的法律条文,才有可能获得实践验证的机会。之所以说选择试验性立法更为妥当,是因为这种立法模式保持了对未来的开放性,既可以使相关理论获得实践转化与检验的机会,也为及时修正和完善相关理论提供一个稳定的预期。人工智能法律体系的构建过程需要这种不断改进和完善的理论体系作为支撑。

当然,试验性立法在构建人工智能法律体系过程中发挥着积极作用的同时,也面临相应的困境或问题。其中,人工智能试验性立法的确定性与协调性,是立法者以及理论研究者需要认真研究和解决的两个基本问题。

二、人工智能试验性立法的确定性与协调性问题

(一)人工智能试验性立法的确定性之疑

荷兰学者Sofia Ranchordãs 认为,试验性立法表面上看似会对一些基本的法律原则如法律确定性原则、平等对待原则和比例原则等形成挑战,但实际上这些挑战具有两面性。对于法律确定性原则而言,试验性立法在某些情形下是“友”(Friend),而在有些情况下则是“敌”(Foe)。[7]相较于平等对待原则和比例原则,人工智能试验性立法对于确定性原则带来的挑战,需要立法者更为谨慎的对待,也需要在理论上做出更好的阐释。对于确定性的含义,我们可以从客观文本和主观认知两个层面来理解。其中,客观文本层面的确定性指的是人工智能试验性立法所拟定的法律原则、法律规则甚至法律概念,其含义是明晰可知的,其效力有着充分的保障或实现机制等;而主观认知层面的确定性则来自于理解或适用人工智能试验性立法条款的主体,是相关主体对于试验性立法内容明确性的认知以及在一定时间内相关法律原则或规则效力实现程度的心理预期。确定性在某种意义上可以被视为客观之于主观的一种互动关系。

就客观文本层面的确定性而言,人工智能试验性立法同其他一般性立法相比,并无十分特殊之处,确定性都是无法绕开的问题。我国立法法第6 条第2 款规定:“法律规范应当明确、具体,具有针对性和可执行性。”这是对立法文本确定性的明确要求,然而由于用来表达法律原则和规则的语言文字自身属性使然,确定性只能是相对的。严格的确定性或精确性不仅是难以真正实现的,也是不经济的。“法律经济学家从中发现了经济学的逻辑,既然信息不是免费的,那么精确就一定不是无成本的,并且越是精确的表达,就需要耗费越高的信息成本。法律的精确性同样应该以法律实施的目标为参照,且不能忽略成本的约束,过度精确的法律不仅是一种浪费,而且会带来额外的麻烦。”[8]人工智能试验性立法虽然同样不追求终极意义上的确定性或精确性,但要平衡好试验需要与确定性要求之间的关系。基于确定性的需要,人工智能试验性立法在一些基本性的原则或规则确定上,要表述明确、具体,具有针对性和可执行性。不明确的规则表述会降低试验性立法文本的质量和实施效果。然而,试验性立法毕竟不同于最终的长期性立法,加之人工智能领域很多问题如何调整是最适宜的并不十分明确,这就要求试验性立法在原则或规则表述方面要留有相应的调整或解释弹性。因此,在人工智能试验性立法客观文本的确定性方面,可能要给法律适用尤其是司法留出更大的解释空间,由司法者在个案裁判中弥补甚或矫正试验性立法的不足。

就主观认知层面的确定性而言,人工智能试验性立法最大的确定性问题产生自相关主体对于试验性立法效力持续性的担忧。主观认知层面的确定性会因认知主体的不同而有很大的差异。法官或专业执法者对于法律确定性有着更为严谨的界定标准和追求。邱昭继指出:“法律的确定性问题是指法律是否总是对法律纠纷提供唯一正确的答案。这个问题也可以这样来表述:所有的法律材料能否为法律纠纷提供唯一正确的答案。法律理论中有着形形色色的不确定性主张。不同的学者往往由于知识背景理论目的的不同而关注不同类型的不确定性。”[9]与法官和专业执法者不同,守法者对法律确定性的认知会与他们的需求直接挂钩,并主要在消极意义上来理解和适用法律。指引和预测是法律两项基本的规范作用,一般的守法者(包括个体和组织)会根据法律原则或规则的要求,来决定自己的行为方式和内容,并据此来判断或预测行为可能产生的法律效果。实践中,一般的守法者关心的是他们的行为是否违反法律的强制性规定。只要不违反,他们就会选择能够带来最大收益的行为方式,或者利用法律去创造相应的效益。这样一来,主观认知层面的确定性在一般的守法者那里主要体现为一种对法律原则和规则稳定性的预期。如果试验性立法能够为他们在一定期限内带来较为明确而稳定的收益或收益预期,就表明试验性立法具有很好的明确性。显然,这也是一个客观与主观互动的过程。在确定性的主观认知层面,一个最大的问题是,试验性立法总是要设定一个试验期限的,当这个试验期限到来之后,有关法律原则和规则经过评估之后,是延续试验期间的法律原则和规则还是会做出相应的变动,这是很难预先判定的。这将在很大程度上影响相关主体对人工智能试验性立法确定性的认知。

(二)人工智能试验性立法的协调性之问

如果说确定性之疑着眼于试验性立法的文本属性与实践操作,那么协调性问题则涉及人工智能试验性立法与现行法律制度和理论体系在概念、原则、规则以及理论基础等方面的一致性或融洽性。试验性立法协调性在此主要指法律原则和规则之间的和谐一致或不相冲突,属于法律体系内的协调。人工智能的出现和应用不同于计算机或网络出现和应用对法律制度和理论体系的影响,后者可以在已有的法律制度和理论体系中做出较好应对,而前者挑战的是现行法律制度中的主体制度和伦理基础。我们无法将人工智能法律制度与理论体系作为一个“规则孤岛”和“理论孤岛”,独立于现行的法律制度与理论体系,而必须设法将两者有机地融合在一起。这也是人工智能试验性立法不能回避协调性问题的原因所在。

人工智能试验性立法首先要协调好与现行法律制度在概念、原则和规则等方面的关系。作为立法调整的一个新领域,一些新的概念或法律术语不可避免地会被使用,如“人工智能”“机器人”和“深度学习”等。这些新概念如何在法律上加以界定,使其在具有法律意义同时又能被人工智能相关的或以外的法律法规所采用,是需要立法者在确定文本表述时应当仔细斟酌的。如果人工智能被赋予法律人格或主体地位,还会涉及对现有法律概念内涵和外延的调整问题,如“法律主体”“意思自治”和“过错”等。如何避免人工智能试验性立法在法律原则和规则层面同现行法律制度体系相冲突,也是立法者必须谨慎对待和处理的问题。例如,对于人工智能是否享有签订民事合同的权利问题,将会在今后的民商事交往中越来越多的遇到。这就需要在试验性立法中加以明确规定。有学者研究了人机互动的可能性、原理及其控制等问题,认为机器人的认知能力可以使其参与一些社会交往活动,当然仍有一些机制或构造需要进一步开发和研究。[10]该研究表明人工智能或机器人在技术层面能够做到自主签订民商事合同,这也是立法者从法律上加以制度认可的科学依据。不仅如此,区块链技术的使用,使得很多合同在不需要借助自然人的输入就可以完成签订等操作。对于此类合同的法律效力问题,很多法律文件都予以确认。2005 年联合国大会通过并于2013 年生效的《联合国国际合同使用电子通信公约》(United Nations Convention on the Use of Electronic Communications in International Contracts)第12条规定:“由自动信息系统和自然人或者自动信息系统之间所签订的合同,不应当仅仅因没有自然人的审查或介入,而否认其法律效力和执行力。”这就意味着人工智能作为一方参与签订的合同具有法律效力,也即人工智能潜在地获得了法律主体资格。当然,还有一种处理方式,那就是我国电子签名法第9条所规定的,将发件人的信息系统自动发送的数据电文视为发件人发送。该规定并未赋予人工智能以独立的法律人格,其仍然作为一种工具依附于自然人。但是,随着人工智能在民商事活动领域应用的越来越广泛,参与或承担的民商事行为越来越独立,承认其法律人格或主体地位已经势在必行。人工智能试验性立法对此显然应当具有一定的前瞻性。如此便涉及这种新的规则或制度与现行相关法律规则或制度的协调问题。

张长丹认为:“人工智能对民法更深层次的挑战在于拥有与现行法下自然人同等甚至更高智力水平的机器人的法律地位认定、机器人相互之间或与自然人之间建立的法律关系的认定、机器人造成他人损害时责任承担问题已经对现行民事主体和民事责任规则提出挑战。”[11]人工智能对民法的上述挑战,表面上是规则的不协调,内在的是理论上的不兼容。之所以人工智能试验性立法在规则或制度层面会出现协调问题,是因为人工智能的应用从理论上挑战了支撑现行法律规则或制度的那套理论体系,而主体理论又在这套理论支撑体系中占据根本性地位。“智能机器人给人类带来了许多法律问题,究其根本原因在于建构整个法律体系基础的法律主体理论不再牢靠。从根本上解决智能机器人引发的法律问题,需要回溯法律主体发展的历史脉络及其发展逻辑,有限度地变动以人为中心的法律主体地位构造,以回应智能机器人出现所导致的法学难题。”[12]在论述人工智能或机器人的法律人格或主体地位时,很多学者都会遵循一种历史分析的思路,将奴隶、动物和公司等作为类比对象,认为给予人工智能或机器人以法律主体资格,是法律主体理论和制度自然发展的趋势或结果,能够化解很多法律难题。然而,人工智能或机器人同奴隶、动物和公司等毕竟具有很大的不同。人工智能或机器人已经拥有或者会逐渐拥有与人类相似甚至高于人类的意志能力或思维能力。是否赋予人工智能或机器人以法律主体地位,已不仅仅是个法律规则或法学理论问题,还是一个人类要慎重面对和解决的伦理问题。如此一来,立法者实际上陷入了一个两难境地:如果不承认人工智能或机器人的法律人格,实践中的很多问题难以根据现行法律规则或制度来有效解决,而如果承认人工智能或机器人的主体地位,尽管会在制度层面解决很多实践问题,但会带来新旧两套规则系统的摩擦,甚至可能会引发人类对人工智能或机器人反控制的恐慌。

可见,协调性问题已非单纯的法律概念、原则或规则的协调,而是牵涉很多深层次的理论甚至理念问题。那么,立法者该遵循怎样的原则并在内容和技术上进行怎样的设计,才能使人工智能试验性立法在给人们带来相对确定的预期同时,又能降低新旧两套规则体系之间的排异性,以更好地实现试验性立法的预定目标呢?

三、人工智能试验性立法的制度构想与设计

(一)人工智能试验性立法的原则设定

尽管立法者很难从根本上解决试验性立法的确定性与协调性问题,但可以通过遵循特定的立法原则并运用相应的立法技术等,尽量降低两者所包含的或可能带来的负面影响。其中,立法原则是立法者在进行人工智能试验性立法时所应遵循的基本理念或价值取向,对于人工智能法律规则的确定具有指引作用。这些立法原则也可以视为国家或立法者对于人工智能开发与利用的基本态度以及对整个人工智能法律体系构建的基本定位。

一是以人类为中心的原则。人工智能的设计、操作及应用等各个环节和各项活动以及法律规则或制度的创设和适用都要非常明确地将服务于人类的需要作为其首要的原则。2017 年荷兰的研究机构Rathenau Instituut发布的一份题为《人工智能时代人的权利——机器人、人工智能和虚拟与增强现实所带来的挑战》的研究报告中指出:“我们发现,这些技术的使用可以为人的权利的实现提供新的途径,但同样也会造成新的侵害。除了对个体的隐私权可能带来多种影响外,数字化、虚拟化和自动化还会影响到人类的尊严、和平享用财产的权利、安全和不受侵犯的权利、自由表达的权利、不受歧视的权利、获得公正审判的权利等。有必要指出的是,由于人工智能的使用,还会有很多其他未在本报告中列出的权利将受到影响。”[13]鉴于人工智能对人的权利或自由可能带来的各种影响,试验性立法应当将维护自然人基本人身权与财产权、维护人类基本道德与价值准则作为贯彻以人类为中心原则的两个子原则,并设计相应的规则或保障机制。

二是人工智能权利有限原则。人类为中心的权利理念建立在对尊严、自由和隐私等保护基础之上,而人工智能权利的正当性基础与之不同。对于如何在立法中限定人工智能的权利,张玉洁认为,我国在机器人权利的拟制上应当明确必要的权利边界。对此可以采用“法律保留”的立法技术,限定机器人的权利。具体而言,立法者可将政治权利、自我复制权和紧急避险权等列为法律保留事项,即不得将上述权利授予机器人。[14]无论何时赋予人工智能以法律主体地位,无论对人工智能的权利范围施以何种限制,立法者都应该明确的是人工智能毕竟不同于自然人,而后者才是一切价值的来源与服务对象。此外,还应当设定相应的制度或机制,确保有明确的主体对人工智能的行为负责并承担相应的行为后果。

三是平衡与比例原则。试验性立法承担着保障人工智能有序发展与应用和规制人工智能可能带来的风险这样双重使命或目标。平衡与比例原则要求立法者应当具有经济理性,在对法律原则和规则进行价值判断和选择时也应当进行成本收益分析。“作为制度供给的立法,随着时代的发展和立法技术的完善,自我正当性的证成早已不能满足于单纯的价值判断,更加符合真理性和科学性要求、解释力更强的事实判断渐成主流,由此,立法中的成本收益分析制度应运而生”[15]。立法者在进行人工智能试验性立法时尽管要面临着非常严肃的伦理或价值判断与选择,但成本收益分析的经济思维也很重要。

四是多元规范分工协作原则。尽管试验性立法在规范和保障人工智能发展和促进过程中发挥着重要角色,但仍需要对其他形式的规范保持开放性,并在分工基础上实现规范协作。这不仅是人工智能试验性立法阶段应当遵循的一个基本原则,也应该是人工智能法律体系构建过程中立法者必须具有的一个基本认识。试验性立法要给以公共政策和技术标准为代表的软法等规范类型的作用留有相应空间,并将公共政策和软法等规范所确定的目标和事务以法律原则和规则的方式落实。此外,随着人工智能国际合作的加强,各类条约或协议也是重要的规范形式,试验性立法对此类规范同样不能忽视。概言之,人工智能试验性立法应当保持规范的开放性,注重多元规范的协调与合作。

(二)人工智能试验性立法的内容框架

现阶段,人工智能开发和应用对立法的基本需求主要体现在民商事和行政法律领域,即涉及人工智能法律人格或主体地位、责任承担机制、技术研发、产业发展和行政规制措施等问题。当然,试验性立法调整的内容要通过具体的法律原则、规则或制度等来实现,“具体设计机器人法律制度时,应体现机器人伦理的基本内容,秉持承认与限制的基本原则:一是承认机器人的限制性主体地位;二是承认机器人权利,此种承认具有功利主义色彩,本质上是为了更好地实现人类利益”[16]。这与试验性立法应遵循的基本原则是一致的,而且确定性和协调性问题也要在对相关事项或内容的调整中转化为具体的规则或条款来加以解决。对于人工智能试验性立法所应调整的主要内容,我们将其归纳为以下五个方面:

一是总则性内容,主要包括人工智能试验性立法的政策与法律依据、立法宗旨、立法所遵循和贯彻的基本原则、适用对象与效力范围,以及相关国家机关或社会组织的地位或基本职能等具有立法文本中总则属性的普通条款。此外,针对人工智能试验性立法的特殊性,在总则中还应当设置一些特殊条款,用以规定人工智能的法律地位、人工智能同自然人的基本关系、人工智能的类型、人工智能基本伦理,以及国家法之外的其他类型的规范在人工智能事务调整中的作用等内容。

二是人工智能相关的权利和义务问题,主要包括人工智能的主体地位及权利赋予和义务设定、自然人与人工智能互动中的权利义务、法人或其他社会组织与人工智能互动中的权利义务,以及与人工智能之间存在密切关系的主体的权利义务等。该部分内容中应当对人工智能的权利主体资格及有关限制加以规定,使其符合以人类为中心的基本原则和基本伦理,而对于人工以智能所享有的权利和义务则可以通过列举式与概括式相结合的方式加以规定。

三是人工智能技术研发与产业发展相关法律问题,主要包括促进和规制人工智能技术研发、技术转化、产品制造和产业发展等有关法律问题。该部分既涉及人工智能技术研发和转化中的知识产权保护、权益分配等具体问题,也涉及人工智能产业及关联产业发展等相对宏观的问题。对此,应当从全球科技创新与竞争的视角,对如何推动我国人工智能技术创新和产业变革作出明确的法律回应与保障。这部分内容应注意同国家有关政策规定的协调。

四是人工智能行政规制主体及措施。人工智能是一把“双刃剑”。在保障人类从中受益的同时,还应该通过立法规制其潜在的风险。行政规制依然是防范或抑制人工智能风险的基本方式。当然,行政规制的主体不限于行政机关,还应该将行业协会等有关社会组织纳入其中。人工智能试验性立法应当对行政机关或有关社会组织在规制人工智能风险中的职责、可采用的措施以及自身的规范性等问题作出规定。

五是人工智能相关的法律责任问题。从立法技术角度来看,无论是调整人工智能的义务性或强制性条款还是行政规制,都需要配以相应的责任条款。就内容完整性而言,法律责任的规定也是人工智能试验性立法不可缺少的内容。承担法律责任的主体既包括被赋予主体资格的人工智能,也包括与人工智能有密切关系的主体,还包括研发和使用人工智能的有关自然人或社会组织以及承担行政规制职责的主体。法律责任的内容包括民事责任、行政责任和刑事责任三种基本类型,但要根据人工智能的特点和现行法律责任原理加以设定。

由于人工智能在实践中表现为不同的样态,这会对试验性立法调整内容的确定产生影响。上述五个方面的内容只是从一般意义上概括了人工智能试验性立法应该包括的内容,难以涵盖所有应然的或可能的调整内容,需要立法主体根据现实的立法需求并借助相应的立法技术科学合理地在相关立法中确定相应的内容。

(三)人工智能试验性立法的实现路径

人工智能试验性立法从理论设想转化为立法实践,应当在我国现行立法体制框架内并根据相关的法律规定来操作。对于人工智能试验性立法的实现路径,本文主要从立法主体与权限确定、立法模式选择和日落条款与立法后评估设置三个方面加以阐述。

首先,就立法主体与权限而言,国务院是现阶段进行人工智能试验性立法的最适合主体,国务院各部门和省级地方立法机关可以在各自的立法权限范围内,根据全国人大决议或国务院相关立法制定相应的规范性法律文件。由于人工智能技术的开发与应用会对现行一些基本法律制度产生根本性影响,所以,就立法权限而言,全国人大及其常委会在理论和制度上是最为适当的立法调整主体。然而,考虑到人工智能的开发与应用尚处于初期,许多问题有待进一步观察并且相关社会关系也不够稳定,由国务院以行政法规的方式加以调整可以保持更好的实践灵活性。立法法第9条规定:“第八条规定的事项尚未制定法律的,全国人民代表大会及其常务委员会有权作出决定,授权国务院可以根据实际需要,对其中的部分事项先制定行政法规。”除了立法权限的原因,第9条关于全国人大及其常委会就某些事项授权国务院制定行政法规的规定本身具有试验属性或导向。这层涵义在立法法第65 条的规定中有着非常明显的体现。根据第65 条的规定,国务院根据宪法和法律制定行政法规,“应当由全国人民代表大会及其常务委员会制定法律的事项,国务院根据全国人民代表大会及其常务委员会的授权决定先制定的行政法规,经过实践检验,制定法律的条件成熟时,国务院应当及时提请全国人民代表大会及其常务委员会制定法律。”显然,该条规定可以作为国务院开展人工智能试验性立法的直接依据。由国务院根据全国人大及其常委会授权进行人工智能试验性立法,一方面可以确保该类立法能够在全国范围内得以实施,有助于增强相关主体对于试验性立法确定性的主观预期;另一方面也有助于保障试验性立法的质量,尤其在文本内容上尽可能地实现所创设的原则与规则同现行法律制度与理论相协调。此外,国务院各部门和省级地方立法主体可以依据国务院所颁行的试验性行政法规,在其立法权限内制定相应的试验性实施细则或规定,或者在必要时根据全国人大常委会的特别授权决议,就人工智能领域特定事项开展试验性立法。

其次,在立法模式选择方面,人工智能试验性立法可根据调整对象或内容的需要选择综合型立法模式或单一型立法模式。国务院既可以制定诸如《人工智能民事条例》《人工智能行政规制条例》等具有通则属性的综合型行政法规,也可以制定诸如《人工智能侵权责任条例》《人工智能商业保险条例》和《人工智能产业发展促进条例》等专门规定某一领域事务的单一型行政法规。需要指出的是,无论是综合型还是单一型的立法模式所创制的人工智能行政法规都应当被视为一种特别法,在行政法规体系中适用“特别法优于一般法”原则,并且只要不违反宪法和法律的基本原则或理念,在人工智能领域也具有优先适用的法律效力。这也是解决人工智能法律体系内协调的重要机制。

最后,作为试验性立法,日落条款和立法后评估条款是必备条款,应当加以合理设置。在立法实践中,日落条款并非一定要与试验性立法结合使用,但试验性立法原则上一定要包含有日落条款。对于日落条款和试验性条款的关系,黎娟认为:“与日落条款类似,试验性立法同样具有暂时性特征,它也限定了规范的适用期限或范围。然而,不同的是,试验性立法允许立法规范突破现有法律,其主要目的在于将突破性规范发展为正式的或不变的(permanent)规则。据此,试验性立法与日落条款的最大区别在于是否强调正式规则的最终形成。试验性立法旨在将暂时性规范发展为正式甚至是永久性的法律规范,而日落条款或法案往往随着预先设定期限的到来而最终‘陨落’。”[17]既然试验性立法的目的在于探索新的法律原则和规则的正式或长期设定,那么就需要借助日落条款来启动立法后评估活动,从而为试验性立法如何转化为长期性立法提供决策依据。换言之,日落条款在人工智能试验性立法中主要发挥两项基本功能:一是设定日落条款所在的试验性立法的试验期限;二是规定试验性立法试验期限届满前一定时期内立法者应当启动并完成立法后评估。其中,试验性立法的试验期限在各国立法实践虽然没有统一的规定或要求,但一般会根据立法调整的对象确定在3至5年,过长或者过短都会影响到试验的效果以及相关信息的准确性。我国人工智能试验性立法可以根据所调整对象或内容的特点以及立法属于综合型还是单一型的行政法规,并结合《新一代人工智能发展规划》中关于人工智能法律体系构建的阶段性目标要求,将试验期限确定为3年或5年。在试验期限届满前半年,立法者应当启动立法后评估,就该部试验性立法的实施效果、存在问题等进行科学而全面的评估,并就如何改进或处理该部试验性立法做出新的立法决策。

四、结 语

人工智能的应用和发展离不开立法规制。“做好人工智能方面的立法工作已成为我国抢占国际人工智能产业制高点、掌握国际话语权的重要基础和前提。”[18]当然,人工智能法律体系的建立和完善是一个渐进的过程,因为立法条件需要随着人工智能技术改进和广泛应用而不断成熟。试验性立法在建构科学合理的人工智能法律体系过程中扮演着探索者角色。从这个意义上讲,人工智能试验性立法是一项目标导向的活动:一是为人工智能的开发与应用提供法律规则,协调相关主体的利益关系或交往关系;二是为人工智能法律体系的建构与完善收集信息和积累经验。因此,立法者可以基于实用主义立场和结果主义导向,在不违背有关立法原则前提下,对试验性立法的确定性与协调性问题进行技术性处理。毕竟在人工智能技术发展如此迅猛并且将对现行法律制度和理论体系形成根本性冲击的今天,立法者需要更大的魄力去探索或尝试,在逐步构建人工智能法律体系的同时,及时推进这套新体系融入现行法律制度与理论体系之中。

猜你喜欢
立法者规则原则
十二星座的做事原则
撑竿跳规则的制定
从德性内在到审慎行动:一种立法者的方法论
党支部的工作原则是什么?
目的论指导下的《立法者》英汉翻译策略探讨
探讨立法法理学
当代中国死刑存废论争的话语解释
奥斯卡的规则变了!
让规则不规则
TPP反腐败规则对我国的启示