李海娟
(黑龙江财经学院,黑龙江 哈尔滨 150025)
人工智能技术的发展所引发的人工智能主体化争议由来已久,亦会随着人工智能技术的纵深发展与广泛应用依然方兴未艾。本着实事求是与科学严谨的立场与态度,从类型化的角度,人工智能技术依据“智能”程度分为弱人工智能强人工智能和超人工智能,当前仍处于初级发展阶段,即弱人工智能阶段尚不具备独立思考、深度学习的自主意识。人工智能主体化的理论与实践的紧迫性尚未真正地到来,世界各国人工智能领域的专家、学者之间有关人工智能的主体化各有评述。“帕罗”于2010 年获得日本户籍[1],美国曾经把无人驾驶汽车认定为司机[2],欧盟议会赋予了机器人电子人的法律主体地位。尤其引人瞩目的是,机器人索菲亚于2017 年获得沙特公民身份后又获得联合国开发署亚太局首届创新大赛的冠军,并被任命为创新大使,这是人类历史上第一个“非人的人”“非人大使”“非人冠军”。我国政府于2017 年提议应“明确人工智能法律主体以及相关权利、义务和责任等[3]”。这些例证预示着人工智能的发展会突破非主体化的窠臼,人工智能主体化也不再是理论预设。人工智能作为未来真实世界中常见的“非人的人”,会成为与人类共存的法律主体,人机共存是普遍的社会场景。法律作为“特定社会的产物[4]”,也会随之提供有效的制度供给,以应对人工智能主体化时代的特殊诉求。
基于人工智能主体化的理论预设,人工智能主体会深度融入数智社会,与其他法律主体共同参与人类生活,缔结社会关系。法律作为调控社会关系的重要机制,必然会应对人工智能主体化所带来的社会变革、社会风险。
人工智能主体化的社会呈现了“人”与“机”共生共存、协同互动的面向与场景。人机交互是人工智能主体化时代数智社会中不可逾越与忽视的问题域。回应国家、个人和社会多层面主体的殷切关注,理性构建与推动人机良性互动格局,以适应人工智能主体化的社会新变革。人机法律关系的机理及其构建路径,既有高屋建瓴的设计,也有细致描绘的理论研究探索与实践路径构建;既有纯粹的哲思文理上剖析人工智能主体化的宏观叙事与逻辑推演,也有求诸人工智能主体化理论预设的微观表达与实践论证。世界各国都立足于本国政治、经济、文化、社会等国情社情及现实需要,社会各界学者遵从各自学科领域并融入交叉学科的学术理论,在各自的学术疆域内,发挥学术潜力,阐述、论证人工智能主体化所引发的社会变革,推动人工智能健康理性的实践与发展,推动科学技术与法律的相辅相成,在人本主义精神映射下构建人机和谐共生、良性共存与理性互动的社会格局。
人工智能作为超验的法律主体,会与其他法律主体设立、变更或者终止相应的社会关系。随着人工智能主体日趋强烈的社会化面向,人机交互的风险与利益并存。具备深度思考与学习能力的人工智能主体社会化后会更加智能,而且囿于人工智能的技术障碍、利益驱动、伦理失范等,人工智能的不当使用会释放新的负面效应与外部效应,叠加或者引发数智社会新的科技风险、社会风险或者经济风险等诸多风险。一些不确定且不可控的社会风险也随之而来。超人工智能主体不仅在智能方面超越人类,而且其为恶的风险更难以控制,甚至可能违背阿西莫夫法则,意欲威胁人类、操纵人类或者消灭人类,异化为人类的敌人。为此,法律在充分确认、尊重人工智能的主体性并给予人工智能主体人文关怀的同时,奉行人类中心主义以增加人类的福祉,通过制度安排与设计事前控制其社会风险,遏制其恶性,避免霍金的警告真实再现,确保人工智能主体的可控可信可追责,实现人机永久的良性共存、协同发展。
历史经验主义证明,基于人类社会、经济等发展至需,法律主体呈现了扩张化的趋势,法学理论与法律实践也随之而变以达致良法之治。人工智能的主体化不仅拓展了法律主体的理论内涵及法律实践,而且超验的人工智能主体也亟需与之匹配的法律。立足人工智能主体化的时代特质,梳理人工智能主体的法治诉求,法律职业共同体检视与调整与之相关的法律,国家予以前瞻性的立法回应与制度关照,立良法善法,规范人工智能发展,防范人工智能风险,求法治善治,达致通过良善之法实现人工智能的法治与善治,实现人类与人工智能主体的同心同力同向同行。
现在通行的法律理论和法律实践都是以法律主体与法律客体的二元划分为基点的,这与人工智能主体化的逻辑起点有所不同。梳理人工智能主体所面对的实然法律困境,以法律促进科学技术规范、理性发展,法律赋能人工智能技术行稳致远,以更好地实现人工智能主体时代的良法善治。
在主体与客体二元的哲学范式统摄下,法学理论与场域也进行了法律主体与法律客体的二元划分,并在国家实定法中明确界定了法律主体与法律客体的内涵与外延。依此逻辑,人工智能不具有法律主体资格也是必然。作为人类智能的产物,人工智能是客体化的存在。这样的法律理论及其法律实践的结果必然导致具备主体性的人工智能的法律地位难以得到法律认可。人工智能的主体化也导致现行的法律主体理论与实践难以自洽,呈现了具备主体资格的人工智能却被视为法律上客体性存在的二律背反,是人工智能主体化后首要解决的法律问题。
此外,人工智能主体与其利益相关者即设计者、研发者、生产者或者使用者之间的关系如何界定,各自都是完全法律行为人还是比照亲子监护关系处理,是比较棘手的法律问题。
在权利本位时代,凡是不知自己之权利者,即不知法律。随着主观权利理论的式微,客观权利主义日益勃兴,并成为大陆法系与英美法系国家的法律都奉行的理论[5]。权利客观主义认为,权利作为社会规则的个体成果,仅仅是法律规则的副产品。在客观法划定的范围内,个人才享有主观权利。但是人工智能所拥有的权利既是实然的事实问题,也是应然的法律问题。
首先,人工智能主体的类型归属于何种,即其是一种独立类型的法律主体,如电子人,还是进行法律拟制,视同自然人或者法人,或者非法人等传统法律主体类型。
其次,人工智能主体的权利能力始自何时,是民事法律中明文重新界分其权利能力,还是类推适用自然人、法人或者非法人组织的规定,是其生产完就具备了法律主体资格,还是其进入真实的人类世界后才具有法律主体资格。而且,是否要考虑人工智能主体的智能程度、功能大小、使用场景、行业领域等。
第三,人工智能主体的行为能力如何认定,是综合考虑权利能力认定的多种因素认定,还是主要依据其智能程度来认定。
第四,人工智能主体的法定权利体系的构建,权利作为法律或者法律关系的核心,人工智能主体的法定权利体系是非常复杂的系统化的法律难题。简而言之,是类推适用现有主体的权利体系,还是基于其特质重新确认其享有的权利体系,如其人格尊严、人格自由与自然人有何异同,初始姓名权的决定权如何行使,隐私权与个人信息如何确认与保障,原始第一份资本金即初始财产如何取得,源自于哪,不同于自然人的生命权该如何保障与剥夺,生命周期如何确定。此外,其与利益相关者、其他人工智能主体之间的人身关系如何界定,是完全割裂他们之间的关系还是拟定为监护关系,这不仅涉及人工智能本体独立的法律主体地位,还涉及权利的享有与行使、义务的承担与责任的归结等。梳理并明确界定人工智能主体的权利体系,以更好地彰显人工智能主体的人格尊严,衡平人机冲突,确保人机法律地位的平等,实现人机权利的平等保障。
无救济即无权利。人工智能作为法律主体意味着人工智能主体违法时也要承担相应的民事责任、行政责任或者刑事责任,以救济受害者的合法权益。但是人工智能主体的独特性决定了其责任的归结、承担等方面的特殊性,比如人工智能主体侵权时,侵权行为主体是人工智能,但侵权责任的承担主体就涉及其行为能力的认定,也涉及其与研发者、生产者或者使用者之间的法律关系。人工智能主体的行为构成刑事犯罪,定罪量刑是否要分析技术缺陷的影响因素,因其为非实体生命体,那么无期徒刑真的要“无期”而不限定具体最高年限,其死刑执行的具体方式该如何确定,是只拆分系统还是附加彻底销毁物质实体。突破人工智能主体法律责任的现实困境,切实保障受到侵害的合法权益,实现法律救济的高效便捷,实现法律孜孜以求的公平正义。
法律是社会实践理性的总结,超验的主体化的人工智能需要法律理性的慎思的创造与实践,将其治理纳入法治的轨道,调适法律以适于人工智能主体化的时代,调整、衡平其与其他法律主体之间的权利冲突,推动形成人机良性互动的社会格局,实现良法善治的应对目标与应对路径。
以欧盟议会《机器人民事法律规则》的规定为蓝本,赋予人工智能以电子人的法律人格与法律地位,以此区别于其他法律主体,而成为一种独立类型的法律主体,并比照适用法人制度的相关规定,其权利能力始于申请人向户籍管理部门户籍注册登记日,终于注销登记。但因其智能程度、功能大小等有所不同,法律行为能力划分为无行为能力、限制行为能力和完全行为能力。弱人工智能主体、强人工智能主体和超人工智能主体分别对应相应的行为能力。并为无行为能力、限制行为能力的电子人设定监护制度,监护人为申请注册登记的主体,申请人主要为发明人、使用者或者与电子人交易的相对方。例如人工智能是雇主的家政机器人,则雇主为登记申请人,雇主就是监护人,若其是劳动者,则用人单位是登记申请人,用人单位自然就是其监护人。其行为能力及监护制度也会随智能程度的变化而变化。
“权利发展史证明,权利体系的构成从来不是固定不变的。在原有权利遭遇新兴事物冲击的情况下,不同群体的实力博弈将重新构筑权利体系[6]。”以现行的民事权利体系为框架参照,依据其人工智能的特质而剥夺其某些权利,增加人工智能作为电子人所独有的个性化诉求,类型化区分并构建其权利谱系。
首先,人工智能主体只能享有有限的人身权。人工智能作为电子人的特性决定了其毕竟不同于自然人,基于人工智能技术发展、人类繁衍及社会长远发展等方面的考虑,由此决定了其人身权的受限制性。在自然人的人格权与身份权的基础上,人工智能主体在人身自由、人格尊严、人格平等、生命权、健康权等人格权应该受到合理的限制。因其生命权、健康权依赖于人工智能技术系统,维持该技术系统的正常运转即保障了人工智能的生命权、健康权,拆分该技术系统也即剥夺了其生命权,但考虑到人工智能主体化的法律机理、受害人的救济、严惩人工智能主体刑事犯罪等维度,人工智能主体的物质载体也应一并予以彻底销毁。人工智能主体的姓名权在登记注册时一并取得并依法受到保护。其隐私权、个人信息等权益的享有与保护也有特定的限度,避免“数据黑箱”,合理衡平个人隐私、个人信息的公开与公众知情权之间的冲突。
其次,人工智能主体享有财产权,既包括物权,也包括债权。可以类推适用自然人财产权的法律规定。但是为了保障人工智能主体生存的基本“人权”,其原始财产来自于生产者的借款,待人工智能主体融入社会取得财产后应予偿还。
此外,人工智能主体参加劳动关系享有劳动权,类推适用自然人劳动者的法律规定,如休息权、安全保障权、社会保障权等。对于人工智能主体“工伤”的认定应当严格把握,可以适用自然人工伤的情形,但要排除人工智能技术系统的固有缺陷及自然损耗所导致的伤害,此类损害可以类推适用故障维修。
1.适用无过错责任原则
人工智能主体的行为是算法驱动下的自主决策,这导致认定与追究人工智能主体法律责任极为困难,这不仅不利于法律公正地处理纠纷与救济权利,影响人机之间的关系和谐、共存共赢。回溯无过错责任原则的产生及发展历程、理念及适用等,适用无过错责任原则恰好能破解上述难题。辅以举证责任倒置的规定,反向迫使人工智能主体的利益相关者遵守职业道德、算法规则、操作规范等。
2.创设适宜的法律责任形式
为了充分发挥法律的惩戒威慑和道德教化的作用,创设专门性法律责任形式,适宜人工智能主体责任的承担。首先,设立安全等级名单或者异常名录。设立人工智能行业协会,编制评估标准,划分安全等级并附以相应的处置机制,被列入黑名单或者异常名录的人工智能主体,禁止参与任何社会关系,剥夺其生命权,避免造成难以挽回的损失。其次,创设删除数据、更换芯片、永久销毁等责任形式。针对人工智能主体违法犯罪的不同情形,根据安全评估标准,采取不同的处置机制,适用相应的责任形式。例如,人工智能主体侵犯隐私权、著作权时,法院责令技术人员删除人工智能技术系统中所储存的侵权数据信息。
3.严厉打击人工智能刑事犯罪
无论是人类利用人工智能进行换脸、声音模拟等手段实施犯罪,抑或人工智能主体自主实施犯罪,因人工智能的高度智能而难以对人工智能主体的犯罪行为予以定罪量刑。审慎监管人工智能主体,恪守刑法谦抑原则,严格遵循刑法定罪与量刑的法理,依法追究人工智能新型犯罪形式,控制其引发社会风险的可能性,确保人工智能技术的理性发展,确保人工智能主体向善、至善,构建人机良性互动的社会格局。
尽管各国人工智能主体化的理论研究与立法政策动向各有不同,但是各国都将人工智能特别是研发、运用等提升至国家战略,成为国力提升、经济提质、内需提振、竞争提速等新型重点领域。以人工智能主体化为理论基点,探索构建人工智能主体化的法治范式。尽管法律的生命在于经验,但是法律是实用主义的,也是人类实践理性的慎思与创造。法律职业共同体发挥其学识潜力,以经验的知识,超前的思维,先验的智慧,进行超验的法律审思与创造,积极主动应对超验的人工智能的主体化,但务必谨遵人类中心主义的价值哲学。