欧盟和美国人工智能立法实践分析与镜鉴

2023-11-24 20:21司伟攀
全球科技经济瞭望 2023年7期
关键词:定义人工智能法律

司伟攀

(中国科学技术信息研究所,北京 100038)

随着人工智能嵌入社会发展结构程度的日益加深,其在给人类生活带来变革性影响的同时,也在国家安全、社会稳定、个人权益保护等方面带来了新的风险与挑战。面对这种形势,世界主要国家纷纷加强人工智能立法研究与实践,通过法律手段破解治理难题,最大限度地发挥人工智能惠益社会的功能。2017 年,国务院发布《新一代人工智能发展规划》,提出建立人工智能法律法规、伦理规范和政策体系的“三步走”战略。当前,中国正处在2025 年初步建立该体系的关键阶段,也正在向2030 年建成更加完善的人工智能法律法规、伦理规范和政策体系迈进。但立法探索中,中国在人工智能的法律定义、立法类型和模式和具体制度等方面尚有待厘清之处。通过考察分析欧盟和美国在这些方面的立法实践,可为中国进一步开展相关工作提供镜鉴。

1 人工智能的法律定义

如何定义人工智能,一直是理论研究关注的重点。欧盟委员会联合研究中心指出,各种类型的人工智能定义达50 余种[1]。从社会治理的角度出发,如何在法律层面界定人工智能,避免因过于抽象的学术概念影响法律的可理解性与可操作性,既是确定立法调整范围的前提,也是立法中的难点与争议焦点,更是构建一部面向未来的人工智能立法的重要组成部分。

2021 年4 月,欧盟公布了全球第一部人工智能法律——《人工智能法案(草案)》,目前该法案已经进入有待表决通过的最后阶段。法案基于“尽可能保持技术中立和面向未来”的理念确定人工智能的法律定义,但对于定义的具体表述和调整范围,欧盟成员国之间存在明显分歧。法案最初将“人工智能系统”规定为“基于一种或多种技术方法开发的软件,且针对一组特定人工定义的目标,可以生成如内容、预测、建议或决策等影响其互动环境的输出”,同时还在法案的附件Ⅰ中解释了人工智能的技术要素和使用的方法[2]。但该定义并未在欧盟成员国之间达成共识,并呈现出对定义进行限缩和扩张两种倾向。有观点认为,当前的定义过于宽泛,存在将简单类型的软件或一般技术不当纳入规制范围的风险,其应当被定义为“通过学习、推理或建模推断实现一组给定的人类定义目标的方法”[3]。而另一种主张则指出,基于法案面向未来的需要,应制定一个更为宽泛的人工智能定义,并删除法案附件Ⅰ中所列举的人工智能的技术要素和使用的方法[4]。经过多轮磋商,欧盟立法者之间虽然就人工智能的法律定义仍存在分歧,但却实现了由“宽泛”向“限缩”的转变。2023 年3 月,欧盟达成最终妥协方案,基于法律确定性和人工智能的关键功能特征,将定义缩小为“机器学习或基于逻辑和知识的系统”,以更好地区分人工智能系统与传统软件系统、编程方法,并通过新设条款对“机器学习方法”“基于逻辑和知识的方法”等概念进行解释。同时,法案还规定可以通过出台实施细则的方式进一步明确人工智能系统定义的技术要素,以确保人工智能定义适应未来技术的发展[5]。

美国在人工智能立法探索中,也表现出了审慎界定人工智能法律定义的态度。当前,除某些行政命令外,美国联邦政府层面尚未就人工智能有关问题正式颁布立法,但美国国会作为联邦立法机构已经收到议员提出的一系列人工智能立法提案,其中一些提案明确提出了人工智能的法律定义。例如,2017 年12 月,美国众议员约翰·德莱尼(John K.Delaney)向第115 届美国国会提交《人工智能未来法案(提案)》,指出人工智能具有“能够不经人类特别干预即可在复杂多变的环境下完成任务,并能够通过机器学习不断优化决策和行动”“可以像人类一样思考、认知、规划、学习、交流或采取行动”等重要特征[6]。2020 年12 月,美国众议员埃迪·伯尼斯·约翰逊(Eddie Bernice Johnson)向第116 届美国国会提交《国家人工智能倡议法案(提案)》,指出人工智能是“一种基于机器的系统,它可以针对一组给定的人类定义的目标,做出影响真实或虚拟环境的预测、建议或决策”,并强调人工智能能够通过自动分析将这种感知抽象到模型中,进而做出决策或行动方案[7]。这两部法案中的定义都共同聚焦了人工智能应具有的技术特征,即不需人的监督或较少监督,可以像人类一样思考、行事。以此将一般的信息技术排除在调整范围之外。

欧盟和美国的人工智能法律定义虽然在具体表述上存在一定的差异,但都重点强调了可以将人工智能与传统软件系统、信息技术或编程方法区别开的技术方法和要素,防止规制范围的不当泛化。

2 人工智能的立法类型与模式

立法类型与模式是人工智能立法中具有紧密联系的重要事项,前者主要表达法律的具体性质,后者则重点反映立法体系的构建,但在国家治理导向的指引下,可以实现二者的相互衔接与有机统一。

2.1 立法类型

在全球范围内,人工智能立法主要可以分为两大类型:促进型立法和规范型立法。

促进型立法侧重于鼓励、引导人工智能的发展,如在技术研发、投资、应用和人才培养等方面,将支持性、促进性的举措或政策以法律形式予以固化,并不过多设置限制性制度,能够发挥有利于技术创新的重要作用。在美国,自奥巴马政府时期至今,其以市场为导向、以监管促发展和重视创新的人工智能发展理念得到了贯彻和延续。2016 年,奥巴马政府连续发布《为人工智能的未来做好准备》《国家人工智能研究发展战略计划》《人工智能、自动化与经济报告》3 份报告,在分析人工智能可能带来相关影响的基础上,布局和提出促进人工智能发展的重点领域及重要举措。这种促进发展的理念在特朗普政府时期也得到了体现,如2019 年2 月,时任美国总统特朗普签署《维护美国在人工智能领域领导地位的行政命令》,从国家层面布局人工智能技术的研究、推广和培训,在联邦政府、工业界和学术界推动人工智能的技术突破,制定适当的技术标准,减少对人工智能技术安全测试和部署方面的障碍,培训工人掌握开发和应用人工智能技术的技能等[8]。2022 年10 月,拜登政府发布《人工智能权利法案蓝图》,通过“指导”的方式提出减少人工智能危害的5 项原则,但这些原则并不具有约束力且未释明可能采取的执法行动,其目的仍是促进发展[9]。据此可以看出,在共和党或民主党执政的美国政府中,就促进人工智能发展这一问题上具有政策和法律的一致性。同时,在一些立法提案中也体现了促进发展的倾向,如2019 年10 月众议员丹尼尔·利平斯基(Daniel Lipinski)提出《人工智能增长研究法案(提案)》,旨在建立一个协调的联邦倡议,加速人工智能的研究和开发。倡议内容包括:实施国家人工智能计划,加大战略投资,制定具体优先发展事项,健全体制机制,以及从小学阶段就开始设置人工智能课程等[10]。

规范型立法则具有明显的“监管”特征,重视以命令性、禁止性规定治理有关风险,而较少设置直接鼓励、支持人工智能发展的条款,违反法律规定的主体将承担相应的行政、民事或刑事责任。规范型立法的主要目的在于确保人工智能在法治轨道上发展,保护人工智能环境下社会秩序的稳定和其他主体的合法权利。代表性立法如欧盟的《人工智能法案(草案)》,该法案基于人工智能应用场景,以风险为导向,结合风险的发生原因、发生领域和影响范围等要素,设计了一个审慎的监管框架,将风险精细划分为由“不可接受、高风险、有限风险、低风险”组成的阶梯式风险等级,每个风险等级都对应针对性的监管措施,风险等级越高适用的监管措施越严格。风险等级具体为:(1)不可接受风险。此类风险等级的人工智能(如社会评分、某些类型的生物识别技术等)因对公民安全、基本权利、日常生活构成明显威胁和违反欧盟价值观,而被禁止应用。(2)高风险。此类风险等级的人工智能在某些重点领域应用时(如执法、关键基础设施、公民教育、产品的安全组件和招聘等),可能给人的健康、安全或基本权利等带来重大影响,法案对此类人工智能的开发、部署和应用设置了严格的市场准入条件和义务要求。(3)有限风险。此类风险等级的人工智能应用(如情绪检测、聊天机器人等与人互动的应用),提供者应履行透明度义务,当用户生成或操作图像、音频、视频内容的人工智能时,须告知或使用户意识到他们正在与人工智能互动,保障用户的知情和选择权,以便用户能够实施继续或中止互动的权利。(4)低风险。此类风险等级的人工智能(如智能游戏和垃圾邮件过滤系统等),对公民基本权利、安全产生的风险极小或不会产生风险,一般不设置干预措施,无须承担额外的法律义务[11]。

立法类型的选择与欧盟、美国各自的人工智能发展战略、目标、产业发展实际水平及技术实力存在密切关系,但最终目标都是为加强自身的竞争力和技术主导权。总体而言,欧盟重视以监管为手段治理有关技术风险,美国则强调监管应以促进发展与创新为目的。2022 年9 月,中国科学技术信息研究所发布《2021 全球人工智能创新指数报告》,指出全球人工智能发展呈现中美两国引领、主要国家激烈竞争的总体格局,并将人工智能全球竞争形势划分为了四大梯队,中国和美国位于第一梯队,而第二梯队的9 个国家中,包括英国在内只有德国、法国3 个欧洲国家入围。相较于中美两国,欧盟在全球人工智能领域内发展和运用均没有处在领先地位,其制定《人工智能法案(草案)》也是希望通过监管优势弥补技术短板不足,并成为中美之外的第三支力量[12]。因此,欧盟以较为强硬的监管手段引导人工智能发展,力图通过高标准的立法实现发展与安全的平衡,树立全球数字治理标杆。但欧盟《人工智能法案(草案)》至今未能正式出台,核心争议问题也正是“监管是否会阻碍创新”,且最具争议的领域是决定哪些人工智能系统属于“高风险”[13]。

美国则强调监管应有助于创新和发展,监管举措应具有科学性和灵活性,以减少人工智能技术研发应用中的障碍,维护和强化其在人工智能科学、技术和经济等方面的全球领先地位[14]。但美国联邦政府的监管制度也正向欧盟贴近,即积极主动监管人工智能有关风险,欧盟与美国的人工智能监管政策趋向一致。如2020 年12 月,参议员克里斯托弗·库恩斯(Christopher A.Coons)提出《算法公平法案(草案)》,要求提高在公众获得教育、就业、信贷、医疗保险和住房等重要机会中的算法公平性[15]。2021 年9 月,参议员罗伯·波特曼(Rob Portman)等人提出《平台责任和透明度法案(草案)》,要求社交媒体公司向经过审查的独立研究人员和公众提供访问某些平台数据的权限,研究人员将检查数据并发布有关平台对公众影响的调查结果[16]。

2.2 立法模式

立法模式的具体选择主要分为制定统一的人工智能综合性立法、分散式立法和附属立法3 种。第一,综合性立法,是指制定在人工智能各领域具有普遍适用性,对人工智能相关问题进行全面规范,能够发挥基本法作用的法律。其优势是有利于人工智能各领域监管规则的协调统一,维护法律体系的稳定性,但也存在立法内容庞杂、成本较高、周期长和规定较为原则等弊端。第二,分散式立法,是指在多部法律中分别规定人工智能各制度安排的立法模式。其特点是存在规定不同人工智能领域内容、位阶可能是平行的多部法律,如自动驾驶、算法推荐等。其优势在于能够更加贴合人工智能在不同应用场景、技术领域下的特点,制定具有较强针对性、可操作性的制度。不足之处则是不利于保持人工智能领域立法体系的统一,且由于涉及领域较广,导致部分领域不能实现周延规制。第三,附属立法,是指以现行其他相关法律规范为依托,将对人工智能的规制融入其中。如在个人信息保护法、知识产权法法律规范中,设置人工智能环境下保护个人信息、知识产权的具体条款。附属立法模式虽具有针对性强、易操作的特点,但也呈现出明显的碎片化弊端,不利于实现人工智能领域立法的系统性、全面性。

欧盟人工智能立法具有突出的“综合性立法+分散式立法”的特点,构建了以《人工智能法案(草案)》为核心,以《数字市场法》《数字服务法》《数据治理法》《通用数据保护条例》《算法问责及透明度监管框架》等为支撑的人工智能立法体系。与欧盟不同,美国人工智能立法则呈现出明显的“分散式立法”特点。目前,美国联邦层面尚未正式出台统一的人工智能法案,但其围绕人工智能环境下的数据安全、算法推荐、就业招聘和自动驾驶等具体领域提出了一系列立法提案。而在州层面,以加利福尼亚州《隐私权法》为例,其在保护加利福尼亚州居民数据隐私权的同时,也强调了人工智能自动化决策下的隐私安全问题。由此而言,美国人工智能立法也兼具“附属立法”的特点。欧盟和美国的立法实践表明,人工智能立法模式之间并非对立的关系,根据自身发展和治理需求的不同,可以同时采用多种类型的立法模式,以建立健全人工智能领域的法律体系,实现不同立法模式的功能互补。

孕妇去户外运动,阳光中的紫外线为身体制造出了活化的维生素D3,它可以促进体内钙、磷的吸收和利用。既有利于宝宝骨骼的发育,又可防止孕妈妈发生骨质疏松。

3 人工智能法律权责的认定

ChatGPT 软件推出以后火爆全球,有科技从业者认为其是通用人工智能的奇点,强人工智能的拐点,甚至将很快产生意识[17]。人工智能法律权责的认定主要表现为:一是人工智能是否可以成为法律责任主体;二是生成式人工智能完成的作品是否具有可版权性;三是人工智能侵权责任如何认定和举证。

3.1 人工智能法律主体地位问题

一般认为,根据智慧等级的高低可以将人工智能划分为强人工智能与弱人工智能两类。自1956 年在美国东部城市达特茅斯召开的会议上首次提出“人工智能”一词以来,经过60 余年的发展,人工智能技术取得了突飞猛进的发展。但当前人类社会仍处于弱人工智能时代,即人工智能只可以在人为事先设定的程序内对某些事项独立做出判断和决策,并不具有基于自由意志而产生的法律意义上的辨认能力和控制能力,尽管人工智能在某些事项中做出决策的效率和准确性超越了人类,但其之所以能够实施某些行为或活动,实质上仍是基于人工编程设计开展的数学运算,所体现的是研发设计人员或使用人员的意志,无法拥有超越编程之外的自由意志,不具有像人一样进行理性与感性分析的能力;而强人工智能则是在弱人工智能能力之外,拥有自主意识,能够根据自己的意志实施某些行为[18]。本质上,弱人工智能只是帮助人类完成某种行为的工具,其并不能成为法律意义上的承担责任主体。但由于强人工智能“自主意识”的存在,出现了是否应赋予强人工智能法律主体地位的争议。

2016 年5 月,欧盟委员会法律事务委员会提出“电子人格”动议。2017 年2 月,欧盟议会发布《欧盟机器人民事法律规则》,其第59 条f 项指出,从长远来看,要为机器人确立如电子人(electronic persons)一样的法律地位,以使机器人可以为其造成的损害负责[19]。赋予机器人“电子人格”实际上就是将其当作“拟制的人”看待,承认其民事法律主体地位,并以此作为机器人承担相关法律责任的基础。但《机器人民事法律规则》并没有进一步阐述建构机器人法律人格的具体方法和法理依据,该“电子人格”动议也受到了来自多方的质疑。

1999 年7 月,美国发布的《统一计算机信息交易法》提出了“电子代理人”概念,即不需要人的审查或操作,而能用于独立地发出、回应电子记录,以及部分或全部的履行合同的计算机程序或其他自动化手段[20]。同年8 月通过的《统一电子交易法》也延续了“电子代理人”这一概念,在此之前该法使用的是“电子设施”(electronic device)一词,但根据这两部立法中的“定义”条款,法律所指称的“人”为自然人或法人,并不包括“电子代理人”[21]。2005 年11 月联合国通过的《国际合同使用电子通信公约》中,对能够完成上述“电子代理人”功能的系统采用了“自动电文系统”的表述[22]。

3.2 人工智能生成物可版权性问题

以ChatGPT 为代表的生成式人工智能以大模型、大数据为基础,能够根据关键词或少量描述语句自动生成文章、图片等多种类型的生成物。但在知识产权层面如何认定此类生成物的版权,成为国际社会面临的共同问题。

2020 年10 月,欧洲议会通过《关于人工智能技术发展知识产权的决议》,对相关人工智能知识产权问题进行了解释。其中第15 条指出,在遵守与自然人相关的原创性原则的前提下,因“智力创作”的概念涉及作者的人格,由机器人自主创作的作品可能不符合版权保护的条件[23]。可以看出,欧洲议会倾向于认定人工智能创作的作品不具有可版权性,但其在条文中使用了“可能”(might)一词,这也说明最终是否具有可版权性,还存在一定的不确定性。

2023 年3 月16 日,美国版权局发布《版权登记指南:包含人工智能生成材料的作品》文件,依据人工智能生成作品的创作过程是否存在人类的关键介入,将版权问题的讨论分为了两种类型[24]:一是完全由人工智能生成的作品不受版权法保护。美国《宪法》和《版权法》中使用的“作者”一词范围并不包括非人类,所登记作品的作者应当为人类。如果作品的传统身份要素(如对文学、艺术、音乐内容的表达、选择、编排等)是由机器构思和完成时,就不满足作者应是“人类”的法定要求。同时,完全由人工智能自动生成的作品在创作的整个过程中,也缺乏人工在关键创作步骤中的参与,并指出之所以通过图像处理软件(Adobe Photoshop)进行创作的图片作品受版权保护,是因为体现了人从作品构思到完成的全流程参与。早在2018 年美国版权局就已经收到关于人工智能作品版权的登记申请,但最终其以作品完全没有体现人的创新性作用而拒绝了申请。二是由人和人工智能共同完成的作品存在纳入版权法进行保护的空间。如人类可以具有足够创造性的方式编排人工智能生成的内容,进而产生一个整体构成原创的作品。在此情况下,版权只保护由人类创作的、“独立于”且“不影响”人工智能生成内容本身版权状态的部分。版权的认定应强调人创造性地控制了作品的表达程度和实际形成作者身份的传统要素的程度。

3.3 人工智能侵权责任认定问题

随着人工智能技术在社会各领域的广泛应用,产生的侵权问题也逐渐增多,有关如何划分责任、修复受破坏社会关系的争议不断出现。作为欧盟打造人工智能法律体系的重要组成部分,2022 年9 月欧盟通过了《人工智能责任指令(草案)》(AILD)和《产品责任指令(修订草案)》(PLD)。AILD拟就人工智能导致的侵权责任提供认定规则,并允许消费者对造成的相关损害提出索赔,PLD 则将产品责任的适用范围指向所有人工智能产品。AILD 规定,人工智能产品的开发者、提供者和使用者应对其导致的损害承担赔偿责任,承担责任的形式主要包括过错责任、产品责任、严格责任和替代责任,值得注意的是,在严格责任情况下,行为人即使没有违反任何注意义务或也非因产品缺陷导致事故,亦应对受害方进行赔偿,该责任类型主要适用于高风险类别的人工智能,但目前对于高风险的划分标准尚不是很清晰[25]。

同时,AILD 还引入了“因果关系推定”和“获取证据权利”两项保障规则。

“因果关系推定”需要满足两个方面的条件:一是受害人能够证明被告人没有尽到法定的谨慎义务时,即可认定被告人存在过错;二是在被告人存在过错的情况下,受害人又能够证明损害是由人工智能所导致的。此时,法院即可推定被告人的过错与人工智能造成的损害之间存在合理的因果关系。“获取证据权利”则为当损害是由高风险人工智能造成时,在受害人请求下,法院可以要求系统制造者、提供者和使用者等披露相关证据;当向被告收集证据未果时,原告也可要求非被告的系统供应者、使用者提供证据[26]。但有观点指出,根据指令(特别是AILD),受害人仍承担举证责任,复杂的人工智能系统故障难以被证明,相应的损害因果关系假设也不易被建立,AILD 只为受害人提供了有限的程序上的便利;而根据PLD,发生物质性损害是寻求赔偿的前提,这就导致因智能信用评分系统导致损害时,可能因不能满足“物质性伤害”的要求而使得受害人难以获得赔偿[27]。

4 中国人工智能立法发展的基本情况

为引导人工智能健康的可持续发展,在治理技术研发、应用的相关风险方面,中国也在积极开展立法探索。从2020 年至2022 年,人工智能立法已经连续3 次被纳入全国人大常委会年度立法工作计划,体现了国家层面对人工智能立法工作的持续推动。同时,通过人工智能具体领域和地方立法实践,也积累了较为丰富的经验。整体上,中国人工智能立法呈现以人工智能具体领域分散式立法与附属立法相结合、地方立法先行先试、促进型立法与规范型立法兼具的特点。

第一,人工智能尚未得到综合性立法。在当前人工智能综合性立法缺失的情况下,中国围绕自动驾驶、算法技术、数据安全、个人信息保护及人工智能司法应用等领域颁布实施了一系列法律法规,具有明显的分散式立法与附属立法相结合的特点。例如,在自动驾驶和数据安全领域,2021 年8 月,国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、公安部、交通运输部联合发布《汽车数据安全管理若干规定(试行)》,对涉及智能(网联)汽车的数据安全问题进行了规定。在个人信息保护领域,2021 年11 月1 日,中国正式施行了首部专门的《个人信息保护法》,其中对自动化决策环境下的个人信息保护提出了重要要求。

第二,人工智能地方立法先行先试。2022 年9 月6 日,深圳市公布了中国首部人工智能产业专项立法——《深圳经济特区人工智能产业促进条例》(以下简称《深圳人工智能条例》);9 月22 日,上海市通过中国首部省级人工智能产业发展立法——《上海市促进人工智能产业发展条例》(以下简称《上海人工智能条例》)。这两部立法为破解人工智能产品落地难问题做出了重要努力,并将伦理治理作为促进产业可持续发展的关键举措,是人工智能立法探索形成的有益成果。

第三,以技术要素为特点的人工智能法律定义。尽管中国国家层面对于人工智能法律定义尚未做出规定,但以《深圳人工智能条例》和《上海人工智能条例》为代表的地方性立法对此进行了探索。前者将人工智能界定为“利用计算机或者其控制的设备,通过感知环境、获取知识、推导演绎等方法,对人类智能的模拟、延伸或者扩展”;后者则指出人工智能是“利用计算机或者计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统”。二者皆强调了人工智能的技术特征,具有防止规制范围泛化的特点,这与欧盟和美国人工智能法律定义的倾向具有相似性。

第四,规范型立法与促进型立法兼具。2022 年3 月,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合发布《互联网信息服务算法推荐管理规定》,对利用算法技术向用户提供互联网信息服务的算法推荐活动做出相应规制。同年11 月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,进一步划定了深度合成服务的“底线”和“红线”,以加强对新技术、新应用、新业态的管理,推进深度合成技术依法合理规范发展和有效利用。而《深圳人工智能条例》和《上海人工智能条例》则具有显著的“促进”和“发展”特点,是关于人工智能产业的促进型立法。

第五,人工智能不具有法律主体地位。尽管在理论上,中国一些学者认为未来应赋予人工智能法律主体地位,但根据现行的法律制度,人工智能并不具有这种主体地位。因此,其在法律上既不享有相关权利,也不承担相关义务,完全由人工智能创作的作品不具有可版权性,因人工智能应用而导致的各种侵害责任均由自然人或法人承担。

5 欧盟和美国人工智能立法实践启示与思考

欧盟和美国作为全球开展人工立法的典型代表,拥有较为丰富的立法研究和实践经验。同欧盟和美国相比,中国人工智能立法实践既与二者具有一定的相似性(如人工智能法律定义的界定思路),也具有明显的差异性(如立法模式的选择)。中国应立足国情和人工智能立法发展现状,在完善人工智能法律体系、制定综合性立法和合理确定涉人工智能法律权责等方面做出努力。

5.1 以人工智能本质和未来发展为抓手厘定其法律定义

人工智能的法律定义事关立法的调整范围。欧盟和美国关于人工智能法律定义的界定,为中国提供了重要思考:既要避免定义的不当宽泛和限缩,也要保证定义具有一定的前瞻性、灵活性。过于宽泛的定义可能将一般性的传统信息技术不当纳入人工智能立法的调整范围,没有体现人工智能的技术本质。而过于限缩的定义则可能使得监管范围局限于人工智能全生命周期中的部分阶段,缺乏对人工智能全流程、全生命周期的监管覆盖。同时,具有一定前瞻性、灵活性的人工智能法律定义,能够较好地适应人工智能技术未来快速发展的需求。

因此,在中国人工智能立法探索中,应以深圳、上海等既有人工智能立法经验为基础,从人工智能的本质及其未来发展两个方面入手,以人工智能技术本质特征为核心,防止调整范围的“一刀切”,结合人工智能发展和社会治理需求,构建合理、逻辑严密又具有适当灵活性的人工智能法律定义。同时,为保障人工智能领域法律定义适用的稳定性、协调性,建议参照欧盟的立法策略,综合运用不同位阶的法律法规和政策,做好“人工智能”定义在人工智能法律法规以及相关政策制度体系中的衔接和协调。

5.2 完善促进型立法与规范型立法兼具的立法体系

当前,在立法类型上,中国已经具备了促进型立法和规范型立法兼具的立法体系雏形。但根据中国人工智能发展的现实情况、未来发展需求以及世界科技竞争形势,为维护发展与安全的协调,促进型与规范型立法体系应进一步完善。

一是继续坚持人工智能立法既是规范也是保障的理念。从法律功能来看,立法既具有禁止、限制行为主体实施某些行为的规范作用,也具有固根本、稳预期、利长远的保障作用。立法可为人工智能提供发展边界上的指引,防止出现粗放式生长和灰色地带,促进其健康可持续发展。促进型立法与规范型立法的出现与“人工智能发展与治理需求共存”这一特征密切相关。人工智能既具有赋能社会数字化转型和高质量发展的巨大作用,同时也可能引发一些新的风险或加剧已有的风险,从惠益社会发展和带来风险挑战两个方面重塑了社会发展结构,提出了新的治理要求。因此,基于国家发展需求,两种类型的人工智能立法都具有存在的现实依据。

二是进一步完善促进型与规范型立法兼具的人工智能法律体系。从欧盟和美国已有的大量人工智能法律(提案)来看,二者都没有采取单一的促进型立法或规范型立法,而是采取两种立法类型并存的形式。同时,仅依靠一部或少数几部人工智能立法难以满足现实及未来发展的需求,以致出现“促进有余而规范不足”或“规范有余而促进不足”的情况。应通过构建涵盖整个人工智能领域、覆盖人工智能全生命周期的立法体系,形成不同性质法律的功能互补。

三是通过两种类型的立法维护发展与安全的协调。发展是最大的安全,发展中的问题应在发展中解决,立法应具有适当的前瞻性。当监管与人工智能的快速发展相冲突时,可能会破坏人工智能惠益社会,甚至阻碍中国人工智能蓬勃发展的势头。在规范发展方面,可借鉴欧盟《人工智能法案(草案)》经验,以风险为导向,合理划分风险等级,构建可以动态调整的治理机制,实现发展灵活性和监管确定性需求的平衡。在促进发展方面,对于人工智能领域的新技术和应用,既要给予一定的发展时间,根据实际发展现状和其他政策适用情况总结经验,再考虑是否需要法律介入的问题。同时,也要积极通过立法固化成熟治理经验,为人工智能健康可持续发展营造良好法治环境。

5.3 构建“总分”结合的人工智能立法模式

综合性立法、分散式立法和附属立法3 种立法模式各具特色,但单一模式并不能完全契合人工智能现实发展需求,实现3 种立法模式的综合,构建“总(综合性立法)+分(重点领域立法、附属立法)”(“1+N”)的立法模式,较符合中国的国情。

基于人工智能不同领域立法需求的差异性,应积极通过建立健全分散式立法,及时、有效地防控领域内的重大风险,且按照急用先行原则,可先行结合人工智能领域的特点,开展交通、医疗、算法和数据等领域的专门立法。而鉴于人工智能的影响力和覆盖领域的广泛性,其也存在诸多共性治理问题,如立法价值取向、基本定义、治理原则、治理框架和法律一般适用程序等,涉及人工智能基础研究、设计制造、场景应用和法律责任等诸多内容。因此,为维护整个人工智能领域立法体系的稳定性与协调性,制定一部具有人工智能基本法地位的综合性法律,符合中国人工智能立法的战略部署要求。同时,还可通过完善其他既有法规规范,如在个人信息保护、数据安全和知识产权等领域进行附属立法,进一步强化人工智能环境下具体领域中有关权益的保护力度,共塑人工智能领域法律体系。

5.4 合理划分人工智能侵权责任

建立健全人工智能问责制是构建人工智能法律治理逻辑闭环的重要环节。在未来有关人工智能侵权责任问题的认定上,可从以下几个方面进行考虑:

一是继续秉持人工智能不应成为法律责任主体的立场,由其导致的任何法律责任都应由自然人或法人承担,不应通过立法赋予人工智能法律责任主体地位。否则,当前以“人”为主体建立的法律关系将面临颠覆的危险,影响现行法律框架,并可能对人类社会未来可持续生存发展的安全带来威胁。二是完全由人工智能创造的作品权利不能归属于人工智能本身,但在现行知识产权法框架下,有关权利是否能够直接归属于研发设计、拥有、控制或使用人工智能的自然人或法人也不能一概而论,可借鉴美国版权局的做法,通过个案分析人在创作过程中的参与程度,确定是否享有相关权利。三是应结合不同主体在人工智能全生命周期中参与的方式和发挥的作用,让所有参与人工智能设计研发、制造和使用等过程的主体分担责任,建立清晰的法律责任主体认定机制,准确界定研发者、生产者、销售者、使用者和监管者等不同主体的责任。四是探索人工智能(尤其是高风险人工智能)侵权责任认定时的合理举证机制,个人对复杂人工智能系统的认识程度一般较低,受到伤害时可能难以及时有效举证,通过举证责任倒置等途径降低对用户的举证要求。

目前,全球人工智能发展进入新一轮跃升期,人工智能立法也已被列入《国务院2023 年度立法工作计划》,制定一部具有前瞻性、可操作性和指引性,且符合中国人工智能现实发展需求的法律正当其时。作为人工智能立法中的关键问题,人工智能的法律定义界定、立法类型和模式选择以及法律权责认定,将对鼓励人工智能技术健康发展,以及探索人工智能法治化治理路径产生重要影响。■

猜你喜欢
定义人工智能法律
法律解释与自然法
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
让人死亡的法律
成功的定义
“互助献血”质疑声背后的法律困惑
让法律做主
修辞学的重大定义