凌 晨
(上海交通大学 凯原法学院,上海 200240)
权利主体,既是法律关系的参与者又是法律关系的构成要素,是某种存在于法律关系中享有权利、履行义务和承担责任的资格入口。新自然法学和实定法学以近代理性认知哲学为基础建构出“主体—个体—实体”意义上的“理智之人”。从一而终的核心问题是对“人何以为人”的阐释,“人何以为人”被融解于法律中“实在的人”到“抽象的人”再到“类人”的这个演进过程中。而随着人工智能技术的进步,技术理性的“甚嚣尘上”与价值理性的“江河日下”使得人们囿于“技术的异化”和“主体的消解”。如何走出这种主体的困境是当代人们难以逃避的难题。康德的理性批判哲学能够为此提供启发,其对于“有限理性存在者”的认知能够帮助我们在新的时代背景下找到“技术的批判与主体的重建”成为可能的道路。而学界对于人工智能发展阶段的阐述总是逃不脱“弱人工智能”与“强人工智能”之分,并以诸多社会科学理论术语来解释这个拐点,却无人阐述其可行性。因此,本文尝试借助珀尔对于因果推断层级理论,以“反事实”能力作为切实可行的技术拐点来分析智能机器人的理性能力。基于此,本文在学理上阐释智能机器人成为“有限理性存在者”的可能性,并以此为基础来联结智能机器人与权利主体概念,在理论与实践上诠释智能机器人成为权利主体之可能。
“技术的异化”和“主体的消解”是“生活技术化”带来的生存论困境。在“技术”与“生活”的关系演进过程中,二者相互统一又相互背离。人类对技术及其产品的高度崇拜和高度依赖使得技术化的方式成为人类同广义上的环境产生联结的单一手段,也成为了人类关照自我和世界的单一视域。“技术化生存是技术渗透到现代社会生活一切领域的直接显示,在这里,人类一切生存的手段都取得了技术的统一形式,现代技术已经成为人类生存的唯一条件,人类仅仅依靠技术生存并对技术产生依赖关系”。(1)刘同舫:《科学和技术:天使抑或魔鬼?(三)技术的边界与人的底线——技术化生存的人学反思》,载《自然辩证法通讯》2004年第3期。马克思指出,“人的依赖是最初的社会形态。在这种形态下人的生产能力只是在狭窄的范围内和孤立的地点上发展着。以物的依赖性为基础的人的独立性是第二大形态在这种形态下才形成普遍的社会物质交换。全面的关系多方面的需求以及全面能力的体系建立在个人全面发展和他们共同的社会生产能力成为他们的社会财富这一基础上的自由个性,是第三阶段。”(2)中央编译局:《马克思恩格斯全集》(第46卷),人民出版社1979年版,第108页。社会形态的三个阶段也昭示了“技术”和“生活”进步过程中的结合与背离。人工造物试图弥补和突破人类自身的局限性,但随之而来的依赖性却使得人类反而从造物者变成了被掌控者,产生了不可以抑制的“非人化”和“机器人化”。“技术的异化”在一开始帮助人类从动物式的自然物依赖主体转变为机械物的掌控主体,却又在技术高度发达的现代使得人类主体的位置趋于虚无。
技术化生活的困境在法律系统中的表现之一,就是权利主体的困惑。“人何以为人”在法律上的解答是权利主体理论的演进和完善,动物被剔除权利主体的范畴、自然人进入法律关系、胎儿的权益被保护。在现代法学的话语中,“权利能力”是一道审查“权利主体”门槛,是一种资格鉴定,凡是具有这种能力的主体才有可能被视为法律意义上的主体,进而被具体的权利义务制度所支配。“主体的消解”从某种层面上是对“人何以为人”的重新追问,其一,当自然人的肉体被机器造物取代时,能否只凭借精神的保留从而被继续认知为自然人?其二,当智能机器人越来越“类人”时,智能机器人到底达到一个怎么样的标准,以什么样的途径能够被以“权利主体”的姿态纳入法律关系、抑或根本不可能?前者是对人自身的追问,后者则是对技术造物的追问。“炸弹顽童”迫使学者们对智能机器人的主体资格做出判断:究竟是在缺乏统一理论的情况下放任局部智能远超人类的智能机器人?还是对智能机器人心生警惕,并把人类中心主义的价值观贯穿人工智能技术的发展?智能机器人越来越“像人”带来了人类与智能机器人是否能进行主体的逻辑同构对比疑问,智能机器人越来越“超人”,则带来了技术的恐慌与人类尊严是否能得到继续维持的惶恐。
回溯康德的有限理性存在者理论,分析人类的有限性和本质,有助于我们同构性的对比智能机器人的主体性,找到“技术”与“主体”重建的可能性。
“有限理性存在者”思想是对“人何以为人”的回答,是对“人的有限性的”阐释,也是对“主体本真性和理论性有限性”的平衡。”(3)参见[捷克斯洛伐克]科西克:《具体的辩证法》,刘玉贤译,黑龙江大学出版社2015年版,第166页。康德提出过三个著名的命题:我能够知道什么?我应该做什么?我可以期望什么?(4)参见[德]康德:《纯粹理性批判》,李秋零主编,载《康德著作全集(第3卷)》,中国人民大学出版社2013年版,第514页。这就是他对“人何以为人”的发问,并且在新的理论平地、实践活动和幸福期望下进行探索,他的“有限理性存在者”从宏观上阐释了“动物”与“人”之间、“上帝”与“人”之间相似而又不同的悖论关系,平衡了“主体本真性和理论有限性”,人在根本上就是一个“有限的理性存在者”。
康德把人视为既有“感性欲求”又有“理性法则”的结合体,进而使得人与动物相别。人在“趋物”的进程中充满内心欲望和冲动,在生命的感性存在者轨道上前进,但“理性”的力量能够支撑人在升华动物的范畴后不再退化。“理性”成了人与动物的拐点。康德认为,理性是人与物最本质的区别,没有理性的东西只具备一种相对价值,是一种手段,理性的人才是目的。(5)参见[德]卡尔·拉伦茨:《德国民法总论》,王晓晔译,法律出版社2003年版,第45页。由此,康德认为动物仅仅具有工具性价值,而作为被自然赋予了理性能力的人类,作为理性存在者本身,是大自然目的链条的最终目的。“为自然立法”的自我意识和“为自己立法”的自由意志作为康德哲学的两种理性法则,都是动物所完全不具备的。
正是依托理性和随之相伴的自由意志的概念,动物等古老的主体从权利主体的范围被剔除。按照康德的说法,“自由意志是决断免受感性冲击强制的独立性”,(6)[德]康德:《康德著作全集》(第三卷),李秋零译,中国人民大学出版社2004年版,第431页。决断的意思是选择或者决定。具有自由意志的主体,他们的决定是自我选择的结果,不受来自外界压力和内在需要的感性冲动的左右。自由意志也可以分为“自由”和“意志”两部分。哲学家赫拉叶丹认为,意志意味着一个人能够根据自己的动机,有意识地选择或不选择某种行为;自由意味着上述选择或不选择,不是永恒不变或被外界决定着的。(7)参见Anon.Christoph jedan:willensgreiheit beiaristoteles? Bochumer Philosophisches Jahrbuch fur Antike und Mittelalter,2002(1):pp.243-249.也正是因为如此,德国哲学家保罗·狄德曼认为,自由意志是比生命更重要的价值,违反一个人的意愿,是对一个人最大的伤害。(8)参见Paul Tiedemann,Menschenwurde als Rechtsbegriff:Eine philosophische Klarung,BWV.Berliner Wissenschafts-Verlag,2007,S.pp.231-233.基于这种认知,即使是胎儿、儿童或者精神障碍者的个人感知与思考水平低于正常的成年人类,法律依然承认他们的“人格”或者说“权利主体地位”;与此同时,由于“缺乏自我意识,也缺乏进行复杂思考和交流的理性能力”,法律拒绝承认动物生命的“人格”。(9)Rodney A.Brooks,Flesh and Machines:How Robots Will Change Us?,New York:Vintage,2003,p.3.
康德的三个命题都涉及人的有限性:能够知道什么意味着“尚有不能知道的事物”;应该做什么意味着在“是与否”之间的摇摆;可以期望什么意味着“尚有不可期望的东西”。人类的理性内在的指向了有限性:“对人类理性来说关键在于,不要去排除能够、应当和可以,因而不要去扼杀有限性,相反,恰好要意识到这种有限性,以便在有限性中坚持自身。”(10)[德]海德格尔:《存在与实践》,陈嘉映、王庆节译,三联书店1999年版,第107页。因此,人的有限性与上帝相异主要体现在两个方面:其一,人是走在无限途中的有限人。康德对上述三个命题的回答已经阐释了这个观点。“我能够知道什么”回答人永远处于走向真理的途中;“我应该做什么的”回答人永远处于走向自由的途中;“我可以期望什么”回答人作为配享受幸福的人永远处于走向幸福的途中。“至上的善”和“完满的善”是人类德性和幸福的同一。但这分属知性世界和感性世界的两个方面分别属于人的理性和感性,因此包含着实践理性的二律背反。“由于我不仅仅有权把我的存在也设想为一个知性世界中的本体,……但越是间接的(借助于一个理智的自然创造者)也就是必然的关联,这并非是不可能的”。(11)[德]康德:《纯粹理性批判》,邓晓芒译,人民出版社2004年版,第157页。康德在此欣然的通过假设上帝的存在来保证幸福和德性的同一,也意味着,人永远走在通往幸福的途中,没有终点。(12)参见强以华:《论康德关于人的有限性的思想》,载《德国哲学》2016年第1期。
其二,“生命的必死性”是有限人无法摆脱的命运。宗教神学上,人类可以通过在尘世间的努力由上帝挑选进入天堂,也意味着“生命的必死性”和“永存的上帝”之间的泾渭分明。康德把“人的有限性”从“神的无限性”中揭示出来,破除了理性作为一种无限力量而表现出的“神性”。理性应该归于人类自身,虽然一直在追求完满的无限道路上,但这也是人类理性的本质所带来的必然结果。同时他对理性进行了批判性反思,以人类学代替本体论和认识论的基础,进而在主体的理性结构基础上重新确认了“人的地位”。康德把人类知识的同一性即普遍必然纳入了人的自我意识的主观能动性活动之中,从而排除了全知全能的上帝对人类认识活动的扰动,真正第一次确立了在人始终为自然立法的主体地位。
西方近代主体哲学作为一种高扬人类主体性的哲学,无以复加的膨胀了人的地位,却反而使得人陷入虚无。笛卡尔把世界的基础变成了一个纯粹思维的活动的自我,打破了古罗马以法律技术确定的“人格”的实在标准。主体性的强化过程必然与外部世界的被支配(客体化)程度相伴出现,人本身的自然性逐渐苏醒。但这种把“人”视为“新神”的主体哲学,却面临着两个自身难以克服的问题:两个彼此独立、互不激扰的实体能够沟通以及如何沟通?“人”因此陷入了前所未见的“虚无之境”。
康德的“有限理性存在者”思想全面的揭示了对于“人之理性”这一问题我们应该具有的方法、观点和立场。在高扬理性的同时又应该对其进行限制,使之在合理的限度内发挥应有的作用。康德对理性的这种态度,也源于他对理性和自由批判性的认知。在理性的视域下,人类能够摆脱感官世界的影响,可以按照超越自然的原则来行动,但它同时也不可避免的鼓励人类不断地超越知性的限制。自由和理性无节制的相伴前行会打破一切限制直至灭亡。“因为人性必须停留于其上的那个最高的程度将是什么,因而在理念及其实行之间必然留下的那道裂缝会有多大,这是任何人都不能也不应当加以规定的,而这恰好是因为,它就是自由,而自由是可以超出每个被给定的界限的”。(13)[德]康德:《纯粹理性批判》,邓晓芒译,人民出版社2004年版,第272页。康德一方面通过扩张“人之理性”,以此来确立人为自然立法、为自身立法的主体性地位,一方面通过限制“人之理性”,以此来确认人类追求自由、幸福和真理的限度。理性并非是万能之物,而是在一定范围内才能发挥作用的“人之理性”,人也只是走在无限道路上的有限理性存在者。
康德时期,心灵的能动能力被发掘,“我思”被赋予了新的生命力,能够通过自有意志拥有理性并界定世界——主体成为了一种绝对主动超出进行规范的能力。于法律而言,实体的自然生命同法律人格分立,人格从此抽象成为伦理意义上的自由意志。与此同时,团体作为长久以来享受权利并承担义务的社会事实,开始困扰学者们对主体的思考。秉持社会契约论建立的国家,私法领域团体的“众意性”无法与人格的伦理性相互融洽,而现实需求又无法被忽略。因此,学者们迫不得已的采取了法律拟制的技术手段,设立了与伦理人格相悖的技术人格——法人。人格最初的伦理性被抽离,被迫变成了与财产目的并立的下位概念。至此,权利主体完成了从实在的人,到抽象的人,再到类人的扩展。
依托理性以及伴随的自由意志的概念,动物等古老的主体从权利主体的范围被剔除。表面看来,这种自由意志似乎很好解释也很好理解,甚至我们可以简单的以此来区分人和动物。但实际上,“有限理性存在者”的这种“自由意志”背后隐含的是“人类学差异”和“范畴差异”的两种路径。
进化自然主义者秉持着“人类学差异”的观点,试图通过刻画理性的起源和人之架构来回答自由意志的问题。所谓“人性”也就从一个规范性概念转变成作为人类行为和社会文化背后固有的心理机制的描述性概念。人类的一切行为,无论高低贵贱,都是自身中基因自我传播复制的首选,一切都只是感觉进化的产物。斯塔扎克把这套认知机制叫做“人类学差异”,他们是人类额外拥有的、其他任何物种都不具备的。(14)参见T.Starzak,Papineaus’ Theoretical Rationality and the Anthropological Differercen,Philosophia,2012,40(3),pp.473-482.
继承亚里士多德范畴学说和康德理性主义的学者们,则秉持“范畴差异”的观点,认为理性不是人类作为高级动物所具有的某种额外的特征,而是一种心灵的特殊方式和能力,换言之,理性,或者说自由意志,能够转变一切我们已经拥有的基本心灵能力,使得人类的心灵在范畴上就不同于无理性的动物乃至植物。波义尔把这种对理性和人性的认知称之为“范畴差异”。(15)参见M.Boyle,Essentially Rational Animals,Rethinking Epistemology,Gunter Abel and James Conant (eds,),Berlin,Germany:Walter de Grutyer,gorthcoming.Gitable Link:http://nrs,harvrd.Edu/urr-3:HUL InstRepos:8641838.
遵循亚里士多德的形而上学思想,波义尔认为,理性是人类的“本质”。就“本质”而言,只有那个刻画了一个事物作为某个特定“实体”的谓词,才能属于该事物的本质。一个事物作为某种实体,意思是说,如果某个事物存在,它根本上必须是这个事物。“人类”是一个不可还原的基础概念。承认这一点不是说我们就不能定义“人类”。说某个事物是人类,不是去描述那些使得一个个体被当作是人类的那些属性——这正是进化论自然主义所做的事,而是去刻画人类自身作为一个类别的实质。在给“人类”下定义时用到的那些谓词(例如“理性”),首先应用于人类这个整体而非具体的人类个体。有了上述铺垫,波义尔对比了当代(进化)自然主义者与亚里士多德对本质观念的理解。在自然主义者眼里,某个个体x本质上是F,在这个意义上成立:必然地,当x存在,x是F。其形式化的表达是:
□∃y(y=x)→Fx
相反,亚里士多德的本质学说则要求回答两个问题:a)某个个体从属于什么实体类型?b)这个类型的实质是什么?a是一个指派问题,而b是关于这个实体种类的定义问题。据此我们可以说:x本质上属于S,并且,S本质上是F。其形式化的表达可以是:
□(x)(Sx→Fx)
读作:必然地,如果某个个体x是S,x本质上是F。(16)参见M.Boyle,Essentially Rational Animals,in Rethinking Epistemology,Gunter Abel and James Conant(eds.),Berlin,Germany:Walter de Gruyter,forthcoming,p.4.
针对这两个公式,很轻易的就能区分出第二个更有生命力。因为设想在某种情况下,某个人失去了双腿,从而丧失了“两足无毛”的属性。但他的本质仍属于人类,他有理性这个本质并没有因为失去人类独有的“两足无毛”属性而缺损。在法律上,我们也不会把没有完整推理能力的未成年人或者儿童当作动物,只要他是人,实质上就拥有潜在的理性。人类作为理性的存在,拥有一种本质的形式,这种形式使得人类成为一种独特的范畴。无理性的动物和有理性的人类都是能动者和认知者,但人类是唯一能够按照意图去行动的物种。因此,理性意味着“人类能力的全部配置”,这个配置决定了“我们的能力以一种极其不同方式去规导和展现”。(17)参见M.Boyle, Essentially Rational Animals,in Rethinking Epistemology,Gunter Abel and James Conant(eds.),Berlin,Germany:Walter de Gruyter,forthcoming,pp.20-22.这就是人类的理性作为区别于动物的“范畴差异”。
只要能够解决“理性配置”的内容,“范畴差异”学说就能在哲学的层面帮我们更好理解“理性存在者”,也能够理解为什么在主体范畴中,人到底是因为何种特质才能够拥有“理性”和“自由意志”的。
“理性配置”的填充需要借助康德的关键议题:“我思,必须能够伴随着我的一切表象。因为否则的话,某种完全不能被思考的东西就会在我这里被表征出来,而这将等于说,这个表象要么是不可能的,要么至少对于我来说就是无。”(18)[德]康德:《纯粹理性批判》,邓晓芒译,人民出版社2004年版,第89页。波义尔更好的总结了康德的观点,他指出,一个能够有意识地反思自己信念的生物,在拥有一个信念A的时候,能够把自己处于问题中:“我为什么会是A?”唯有当生物能够觉知到这个“为什么”的时候,也就是“我思”伴随着这个信念的时候,他才能够为信念A进行辩护。(19)参见M.Boyle,Kant and the Significance of Self-Comsciousnerss,Doctoral Dissertation,University of Pittsburgh,2006,pp.82-85.康德不仅要“驱使”感性和知性充当“证人”,理性作为“自我指定的法官”,不是坐在一边旁观现场发生的一切,它要站在“法庭”前面,对它所调查的现象积极提出原则性的解释。(20)参见Garrath Williams,Kant’s Account if Reason,Stanford Encyclopedia of Philosophy,2014,http://plato,stanford,edu/entrries/kant-reason/#ReaAeLKno.判断一个命题A,是一种特别的行动,这种行动是在批判性地反思自身信念的合法性,绝非简单地任由自身的信念得以形成或改变。正如先前提到的动物与植物的本质区分一样,由于人类对自己的信念有着“我思”或自我意识的理性介入,我们可以“编织”自己心灵,因而我们是具有健全自治能力的理性的、我自意志存在的动物。
综上所述,我们可以得出结论,相较于自然主义者秉持的,人比其他生物“独有”自由意志的观点,“范畴差异”能够更好的解释“有限理性存在者”的本质和能力。人正是因为能够在表征的层面,自我参与,问出“为什么”,才使自身与其他物种做出了差异区分。而这种问出“为什么”的能力,在法律理论和人工智能技术领域,恰好可以被完整的表达为“反事实”的能力。
通过对 “人类学差异”和“范畴差异”两个不同诠释的对比可知,理性或自由意志本身并不是人类比其他任何物种独享和多余的部分,而是一种心灵能力,这种能力通过“理性配置”得以被理解和表征。简单而言,“理性配置”就是“我思”问出“为什么”的能力。这种“反事实”的心灵能力使得“有限理性存在者”得以成立。
所谓的“反事实”,一开始在科学哲学领域是判断因果关系的标准。事实是指在某个特定变量(A)的影响下可观测到的某种状态或结果(B),“反事实”是指在该特定变量(A)取负值时可观测到的状态或结果(B’)。条件变量对于结果变量的因果性就是A成立时B的状态与A取负值时“反事实”状态(B’)之间的差异。(21)参见W.Salmon,Causality without Counterfactuals,Philosophy of Science Association,1994(61); W.Salmon,“Causality and Explanation:A Replay to Two Critiques”,Philosophy of Science,1997(64).因此,将“反事实”放在因果模型的角度,能够更好地理解“人格”本身所具有的这种心灵能力。人工智能学家朱迪亚·珀尔改进了有关反事实的因果模型,真正把“人格”“自由意志”和“反事实”联系在了一起。
珀尔基于自身机器学习方面的经验研究,认为人类在使用因果关系时,掌握了三个认知能力:观察能力、行动能力和想象能力,而这三个认知能力也对应着他对因果关系阶梯的三层分级:关联、干预和反事实。(22)参见[美]朱迪亚·珀尔、[美]达纳·麦肯齐著:《为什么:关于因果关系的新科学》,江生、余华译,中信出版社2019年版,第6页。珀尔承认,在认知层面上的分类无法被更多的资料证明,但他能用数学的方式来展现这三个层级分别可以释放出不同量级的力量。同时他认为,可以按照图灵对认知系统的分类来把认知系统按照所能解答问题进行分割,直接聚焦于“因果推论主体能做什么”这种具体可回答的问题。换句话说,无论对智能机器人还是人类心智而言,通过这种方式,我们可以轻易地看到没有因果模型的主体,与具有因果模型的主体究竟差距在哪里。所以,鉴于上述思路,珀尔把认知层面的三个能力,转化为三个动词一一对应。
首先,第一层级:关联。在这一层级中,因果主体通过观察寻找规律。如果观察到某一时间改变了观察到另一事件的可能性,我们就说这两个事件相关联。其典型的问题模式是:“如果我观察到,会怎么样?”比如在商品买卖中,这个问题就意味着思考购买筷子的消费者同时购买勺子的可能性有多大?珀尔给出了一个数学方式来表达:P(筷子|勺子),其中P代表概率,“|”代表观察到。而计算结果是无赦因果的。
当今大部分的人工智能成果都只是处在因果阶梯中最底层的一端,近些年深度学习在图像识别、无人驾驶、语音识别方向的成果举世瞩目,但却是在这些领域走得越远,也就意味着跨越因果层级越困难,因为这些学者已经习惯了在这种可控性强、条件最少的关联模式下运行算法。它们由各种方式输入(比如数据训练)的观察驱动,致力于拟合出一个最相关函数。即使神经网络算法能够给这个复合函数更高的复杂性和层次,它仍然只是由训练数据驱动的观察结果。到目前为止,还没有出现因数据量巨大而出现的质变。处于因果阶梯最底层的所有运作程序,都天然的受到这种限制而丧失灵活性。(23)参见Darwiche A.Human-level intelligence or animal-like abilities? (2017).Tech.Rep,Department of Computer Science,University of California,Los Angeles,CA.Submitted to Communications of the ACM.Accessed online at https://arXiv:1707:04327.
其次,第二层级:干预。这一层级的典型问题是“如果我们实施了……行动,将会怎样?”同样以商品买卖举例,也即如果把筷子的价格翻倍,勺子的销量会怎么样?这就需要一种脱离数据的新手段,干预。干预是比关联更高层的概念,因为它不止涉及被动观察,还要主动改变。无论数据收集的多么全面,神经网络设计的有多深,只要是被动收集的数据,就无法越至这一层次分析问题。对数据的选择、数据关系的整理都是统计学用惯常方式解决问题的阻碍,即使他能解决单个的问题,也无法把这个概率推至个例。这时的数学表达,在因果干预层面就变成了P(筷子|do勺子),也即如果筷子另行定价,那么在某一价位销售勺子的概率为多少?(24)do这个运算符号是珀尔为了在因果分析中加入干预层级而特别开发的do演算体系。具体参见Pearl J.and Bareinboim E,External validity:From do-calculus to transportability across populations. Statistical Science 29.pp.579-595.
最后,第三层级:反事实。反事实是理念世界的产物。对于数据和反事实而言,数据就是事实,所以数据无法告诉我们在反事实或者理念世界里会发生什么,因为在这个世界中作为数据的事实被直接否定了。然而人类思维却可以不断地、基本可靠的重复这种本能行为。这种能力也彻底区分了人类智能和动物智能,以及人类智能和现在的盲模型机器学习版的人工智能。(25)参见Peral J,Glymour M,and Jewell N,Causal Inference in Statistics:A Primer. Wiley,New York,NY.回到商品买卖的例子,反事实在这里的问题变成了:“假如我们把筷子的价格提高一倍,那么之前购买了勺子的顾客仍然购买的概率是多少?”这里便出现了两个世界,一个是真实的,筷子价格没有变化的世界,一个是虚假的筷子价格提高了两倍的世界。
从因果推断理论的这三个层次我们可以清晰的看到,关联、干预和反事实三个不同的层级所涉及的能力是指数级的差距。目前为止,只有人类具有“反事实”层级的本能和能力,这也就是人类区别于其他存在的“范畴差异”的本质,换句话说,哲学意义上的“有限理性存在者”乃至法律意义上的“人格”,都成立于“反事实”。
拥有“反事实”能力的智能机器人并非空想,这意味着我们对智能机器人权利主体理论的构想不再被人诟病为空想和臆测。在因果分析模型的三个层级下,当代大规模流行的人工智能算法,包括深度学习等等,已经成功并熟练的徜徉在“关联”中;珀尔开发的do演算体系,也能够实现对“干预”层面的掌握;至于第三层“反事实”,虽然目前还没有出现已经成功的智能机器人,但在do演算体系的基础上借助必要性概率计算方法,早晚能够实现以数学的形式推理反事实。人类已经掌握了使智能机器人真正走向自由的钥匙,而这把钥匙的有无,也能为我们对智能机器人的主体性分析做一个分级指标。
智能机器人的“反事实”算法,能够作为基点和工具,使得人类的伦理性人格和智能机器人的主体性在逻辑同构的前提下进行类比。起码在本文的逻辑中,我们能够明白以下几点事实:第一,智能机器人的理性或自由意志有无问题,即“智能机器人是不是人”的核心所在,也是智能机器人权利主体资格的否定论和赞成论的争议焦点;第二,从对现有人工智能技术的理论和成果分析来看,被宣扬的神乎其神的“深度学习”和“神经网络算法”只是出于因果模型的初级“关联”层级,无法为智能机器人的“智能”提供更深层次的动力;第三,“人格”理论作为经过几个世纪变革的概念,基于现实和财产的目的,虽然把纯粹技术性的法人纳入了主体的范围,但“本质仍然是伦理性的,是自由意志”;第四,人在主体哲学领域被抽象出来的“人格”,其区分于其他存在而独有的自由意志,并非是“人类学差异”意义上的“独享物”,而是“范畴差异”层面上的心灵能力。而这种能力就是成立于“反事实”的理性配置。至此,本文起码在某种意义上找到了对自由意志的解答,而这个解答恰好能够对应至因果分析模型下的人工智能。
对于一个定义中的强人工智能而言,它必然能够反思自己的行为,并能从过去的错误中吸取教训,这种反思并不是数据输入带来的,而应该是它程序内部自身的更迭。
珀尔设置了两个层次的方案来续接人工智能拥有自由意志的希望,这同时也是对智能机器人两个层次的主体性的分类。因为既然“反事实”代表着自由意志的曙光,那么“反事实”能力的有无,也决定着人工智能到底是应该以伦理的方式进入权利主体领域,还是以纯技术的方式进入权利主体领域。
第一层设计方案“自由意志的幻觉”,源于自由意志和决定论的冲突。如果我们假设自由意志是一种幻觉,将它赋予给计算机会得到什么优势?把这种“自由意志的幻觉”赋予人工智能需要解决功能和模拟两个问题,前者驱动了后者,一旦认识到自由意志在生活中能发挥怎样的功能,人工智能学家就能把这个问题转化为工程问题。
第二层设计方案则直面心智问题,并没有用“幻觉”方案逃避。他指出,利用反事实的算法完全可以实现把意识和智能体转化为计算现实。给机器配置对环境符号进行描述的方案,赋予它想象环境发生某种变化的能力,并使其掌握自身软件组织的设计图摘要,这样它自身对设计图进行推理时,可以模拟自我意识的状态。除此之外,我们还必须为这个智能体配备内存,以记录其历史活跃数据,以供“为什么”问题涌现时作为参考。所以当一个智能体至少包括:关于世界的因果模型,关于自身软件的因果模型以及内存时,我们可以说这个智能体已经起码具有了人类婴儿时期接受因果教育前的模式。
“有限理性存在者”是在“动物性”和“神性”之间反复挣扎、不断升华的存在。动物的有限性源自它必死的生命界限,是感性的;上帝的无限性源自其永恒和本质的理性,是理性的。动物和上帝分别构成了“感性”“理性”以及“有限性”“无限性”的对比两极,而人就在这个极点间不断的生存和发展。康德认为,有限理性存在者思想的重点在于“理性有限”,而非“有限存在”。“有限理性存在者”的双重属性,一方面是实然的人本身的动物性所决定的,人因此是一个生命有限的感性存在,一方面是应然的人受神之影响的结果,人因此是一个在“近神”过程中能够践行道德法则的理性存在。这种“趋物”和“近神”的糅杂,使得“有限理性”成为人和世界相融的支点,同样,也使得人一种走在无限道路上的有限存在。因此,智能机器人借助“范畴差异”学说和“反事实”算法,同样是在“趋物”和“近神”道路上的存在。
人工智能科学对“智能”给予解答,导向了截然相反的技术路径:认为“智能”的实质是具体问题的求解能力的,会去设计“通用问题求解器”;认为“智能”来自于生物学意义的自然智能体的,会用数学模型模拟简化的神经元;认为“智能”仅仅是与人类在行为上相似的,会穷尽一切办法填满机器的“心智黑箱”。这种分裂的状态决定了智能机器人的进路和最终呈现,到目前为止,并没有哪方占据了明显的优势。但不可否认的是,现在的研究成果,无论是图像识别、无人驾驶或者达芬奇手术系统,也有两个重要的特点:工具性和超越性。前者指的是,智能机器人及其技术产物,诞生之初的目的就是作为人类的工具,后者指的是,这种工具性的产品实际上已经在其专有领域的能力超过了同等情况下的人类。“反事实”算法下的智能机器人能够拥有“我思”的能力,进而跨入与人类等同的“范畴差异”,而本身的工具性和超越性,使得其也成为了“无限路上的有限存在”。
其一,“反事实”能力使得智能机器人与动物相异。动物是纯粹感性的存在,遵循着自己的生命本能和欲望进行活动,纯粹通过感官来把握世界,无法对自身的行为进行“反思”。亚里士多德认为动物缺乏人所具有的理性,因此其存在的目的只是为人类提供食料。(26)参见[古希腊]亚里士多德:《政治学》,郭仲徳译,西北大学出版社2016 年版,第13 页。到了近代,受亚里士多德的影响,法国哲学家笛卡尔认为动物是没有情感和感觉的机器;康德则认为动物作为无理性的存在,只是人类为达到目的使用的工具而已。善待动物是人类增强善行的行为,只是一种间接责任。(27)参见Gail Tulloch and Steven White,A Global Justice Approach to Animal Law & Ethics,( 2011) 6 Australian Animal ProtectionLaw Journal 29,p.30.格老秀斯认为:“一切法都是来自人的本性……即使上帝不存在,这种理性法仍然有效。”(28)[德]魏德士:《法理学》,丁晓春译,法律出版社2005年版,第201页。黑格尔也说:“法的基地一般来说是精神性的东西……精神一般来说就是思维,人之异于动物就是因为他有思维。”(29)[德]黑格尔:《法哲学原理》,范杨等译,商务印书馆1961年版,第10-12页。人作为唯一的“生而自明”的存在获得了唯一的主体性。而获得“反事实”能力的智能机器人,通过“理性配置”有了理性和自由意志的萌芽,进入到与人类同等的“范畴”,能够在表征表面自我参与、自我反思,进而浮出自身进入到环境并产生扰动,使得智能机器人与动物相异。
其二,“反事实”的智能机器人不再蜷缩于自我相关的抽象中,可以在世界发生作用,成为类人主体意义上的存在。在最开始的阶段,自我作为绝对的自我相关的存在与任何其他存在都不相关,也不受其他任何规律的制约。与设想中全知全能的神不同,人的思想一开始处于沉睡的阶段,必须要实践才能唤醒,也就是说自我或者人格必须进入实践。如费希特所言:“理性存在者这样设定发挥自由效用力的能力,就设定并规定了一个在自身之外的感性世界。”在他看来,甚至“时间”这个概念之所以存在,乃是由于自由行动者要对感性时间进行时间,做出表象活动。康德认为,一切的知识都从经验开始,表象活动正是对象刺激我们的感官而引发的。(30)参见[德]康德:《纯粹理性批判》,邓晓芒译,人民出版社2004年版,第1页。“理性存在者不认为自己有一个物质躯体,并由此规定这一躯体,就不能设定自己为有效用的个体。”(31)参见[德]费希特:《自然法权基础》,谢地坤、程志民译,商务印书馆2004年版,第24-29、59页。因此,一切表象活动的开始的可能前提,就是人格要为自己设定一个躯体。通过躯体,自我时间才能在感性世界里行动。智能机器人通过“反事实”的算法能力,可以反思自我,进而从自我中浮现,以纯粹自我相关的目的与世界发生关系。
其三,“反事实”的智能机器人在人类的算法控制和自我进化的过程中,理性是有限的,且走在通往真理的无限道路上。人工智能的目的在于研究出符合人类心智模型的存在,而无论是传统的符号人工智能、联结主义或者是遗传算法等等路径,都处于人类的引导或控制之下。即使是近年来火热的机器学习领域,也仍然需要输入大量的原始训练数据。智能机器人内核的工具性,起码在目前为止安全的处于人类的算法控制之下。真理是一个宏大的终极目标,是“神之领域”,人类只有依靠“至上的善”不断接近,却永远无法达到。智能机器人同样也是如此,再先进的算法也无法穷尽真理,因为拉普拉斯妖所代表的决定论早已被证伪。即使人工智能产物自我进化至能够计算出所有过去的因和未来的果,也无法真正的穷尽真理。
在厘清了“有限理性存在者”所代表的理性和自由意志的面向,并以此来同智能机器人进行逻辑同构的比较时,问题就变得简单和清晰了。法律并非当然地把某种存在,比如自然人或公司认定为权利主体,除了学理上的探究,最终落实到立法层面的表现是通过一定的认可原则或条件设置来判断是否以及如何赋予某种存在以特定的主体资格。针对珀尔为智能机器人设计的“虚假的自由意志”和“完备的因果模型”两层分级,我们可以以此为路径对其分别进行主体化路径的讨论。
不具有“反事实”能力的“虚假的自由意志”智能机器人实质上没有拥有自由意志的能力,也就不具备与自然人的人格伦理性进行对比的可能性。尽管在这层级的智能机器人已经能做出超过自然人能力范围的行为,但这种行为涉及到的领域非常单一。而且这种能力的超越并不是其自身决定和创新的,而是基于人类的训练和决策,仍然摆脱不了预先设计好的算法。这种程度的超越既是事实又是一种错觉。(32)参见[美]约翰·弗兰克·韦弗:《机器人是人吗?》,彭诚信主编,刘海安等译,上海人民出版社2018 年版,第35 页。暂时也没有因为财产等目的要为其特设技术性法律人格的必要,因此这个范围内的智能机器人仍然应该被认定为权利的客体。
以现阶段的人工智能产品为例,无人机、自动驾驶汽车、机械工程机器人等等,其本质是算法,算法在立法中属于知识产权的客体,因此仍然可以将其界定为实体产品和软件的结合体,构成了民法上的“物”,此时权利人对其享有物权。
但科技的发展有可能会超越人类的预设。当智能机器人的技术发展到并没有加载“反事实”模块,但却因为其“越来越像人”引起了人类同理心的普遍泛滥时,智能机器人对整个社会而言就不再仅仅是工具,而是把“主体和客体”间的单项服务变成了某种意义上的双向交流。人类对智能机器人倾之以感情,虽然得到的回应是预先设定好的程序,但当这个程序足够精密到一定程度时,智能机器人的主体定性问题就不再仅仅是学理上冰冷的讨论,而变成了一个社会问题。而一旦出现了这种情况,法律就需要在以下两条路径中择一实施。
第一,可以通过法律解释将这部分智能机器人认定为权利主体。此时,出现了需要针对特定的智能机器人进行保护或承担责任的具体情况。在不想变革整体法律理念和制度的情况下,以扩张解释的法律方法为智能机器人找到“栖息之处”也是不得已而为之。(33)参见陈景辉:《人工智能的法律挑战:应该从哪里开始?》,载《比较法研究》2018年第5期。以我国的《民法典》为例,其第128条规定:“法律对未成年人、老年人、残疾人、妇女、消费者等的民事权利保护有特别规定的,依照其规定。”该条款是引致条款,其立法目的在于保护未经列举的弱势群里的利益不受侵犯。基于这一立法目的,该条之“等”应认定为“等外等”,即在条文的列举之外,还包括有待特别保护的其他劣势群体。在现阶段,司法实践可将人工智能作为一类“弱势群体”解释进本条的“等”字,适用本条对人工智能施加保护。这一路径在本质上仍需扩张解释路径把人工智能认定为主体,仍旧只是权宜之策。
第二,通过法律拟制技术把这部分智能机器人列为纯技术性的法律人格。该认定无涉智能机器人的自由意志,因为这个阶段的智能机器人事实上只有“虚假的自由意志”。纯粹技术性法律人格的确立,跟法人的确定共享同一个社会目的,即这种类型的存在已经实际存在,并且有享受权利和承担义务的实际需求。在这种情况下的智能机器人的法律人格应该遵循以下几个设立条件:依法设立、有某种形式的财产担保以及能够承担法律责任。其中最重要的条件就是智能机器人需要有财产性的保障,为它承担法律责任提供可能。其初始的财产来源可以分为两个方向:其一,为智能机器人强制投保责任保险。人工智能发展最为成熟的领域之一为自动驾驶汽车。鉴于自动驾驶系统的不可预测性,在人类参与者之间分配责任不利于简化利益关系,因此让智能机器人承担责任成为制度设计的选项。依据前述非人类主体获取法律人格的要件,智能机器人法律人格获取有待于人类为其创设承担责任的物质条件,作为责任财产赔偿受害人的损害。保险机制能够补充智能机器人的责任承担能力。“通过建立强制保险制度,每个具有人工智能功能的机器都需要买保险,形成潜在的资金池支付保险金。假设人工智能参与保险并需要承担责任,任何支付结算数额均限于保险金,所有权人和制造商永远不会支付更多费用。”其二,设立智能机器人储备基金( AI Reserve Fund)。为不太可能造成重大生命和财产损失的人工智能产品(如Siri、人工智能家庭管家、人工智能作家等)增加一个责任附加费,来创立一个全国或全行业的责任基金。储备基金可能适用的情况是,“人工智能虽然完全按照应有的原则和被设计的那样运行,仍然发生了事故。……那么也许你可以用人工智能储备基金作为获得赔偿的某种方式。如果实行了这一制度,可能需要限制最高索赔数额,以便为真正需求的人保留储备基金”。(34)[美]约翰·弗兰克·韦弗:《机器人是人吗?》,彭诚信主编,刘海安等译,上海人民出版社2018 年版,第34、75页。一旦智能机器人具有了法律人格,其就具有了同自然人、法人、非法人组织等相同的法律地位,其法律人格便是完整的,并没有部分或者有限之说。(35)参见李建华、彭诚信:《民法总论》,吉林大学出版社2008年版,第88页。但智能机器人具体的权利义务以及其与研发者、生产者、使用者等主体的具体法律关系,尚需法律做出进一步的规定。
具有“反事实”能力的“因果模型”完备的智能机器人,实质上具有了潜在或实际的自由意志,使自身跨入了伦理性的范畴,此时的智能机器人已经完全不同于动物,与人类已经同处拥有同种“心灵能力”的“范畴”中。“反事实”算法并非空中楼阁,诸多人工智能科学家们正稳步推进着因果模型在人工智能设计中的应用。具备因果模型的智能机器人的实现不是空想,也意味着法律在此时要考虑的不是“要不要”赋予它法律人格的问题,而是“如何赋予”和“赋予何种”法律人格的问题。
现代法律承认自然人的权利主体地位的唯一准则是“人的存在”,体现在中国民法典上是“人的出生”。虽然智能机器人的理性能力与“有限理性存在者”处于同样的“范畴”中,但在立法层面的考虑决不能仅止于此。智能机器人权利主体资格的获取,必然带来“人格”“主体”的解构或扩张,而“人格”理论内在的尊严目的,为这种解构或扩张设下了隐藏的枷锁——不能损害人的尊严。从人格尊严的发展历史来看,其经历了一个艰难的过程,从身份不平等到普遍意义的平等、从特殊平等到一般平等,从私法平等到公法平等。这种人格尊严的现代价值转变殊为不易,是几个世纪来无数人的奋斗,才使得人格尊严受到私法和公法的双重保护,既能够防范来自平等主体的尊严侵害,又能够防范来自国家公权力的侵害。因此,学者们在试图赋予智能机器人权利主体资格,并为其创设权利和义务时,应避免损害已有的人格尊严。应该设置比“自然出生”更加严格的限制,把国家公权力引入其中,为公权力的认定为标准之一,为智能机器人权利主体的创设打上枷锁。
因此,尽管从学理路径而言,拥有完备“因果模型”的“反事实”智能机器人因与人类处于相同的“范畴”,天然的应该被赋予主体资格,但在实际的立法中为了维护人类的尊严、保障人之概念不被错误解构,应该比照法人和非法人团体的建设给予国家公权力介入的机会。非自然人主体的设立准则主要有五种:自由设立、准则设立、行政许可、特许设立和强制设立。就国家层面上的智能机器人认可而言,准则主义(包含登记)是较为妥善的选择。即法律对智能机器人的法律人格规定某些具体条件,只有符合此条件的才能获得法律承认的人格。其原因在于,其他几类方式,要么太过严苛,要么有违司法自治,在法律上不具备普遍意义,也不契合智能机器人的特殊情况。
采取准则主义的合理性在于:首先,国家能够更好的控制该类高级别智能机器人进入社会,从宏观的立场对人类与智能机器人的和谐共处提供帮助;其次,准则主义在操作上更具有可行性,“反事实”算法的特征鲜明易于辨认,国际标准化组织和国际电工委员会第一联合技术委员会更够据此制定人工智能的国际化标准,能够为智能机器人的分级和设立准则提供依据。当然,除了准则主义之外,法律应根据智能机器人的实际情况,对其他准入原则持开放式的态度,这样既坚持了基本原则,又保持了总体上开放的态度,有助于契合人工智能技术的发展带来的新情况。在准则主义模式下,智能机器人的法律人格在我国现行法上的实施路径,还可以借鉴法人登记制度对赋予主体地位的人工智能体予以登记,即依据《公司法》第六条“设立公司,应当依法向公司登记机关申请设立登记。”自登记时起,人工智能获取法律人格,在注销登记时消灭其法律人格。有学者还指出,“当智能机器人不再符合技术标准时,可认定其符合报废标准,经适用强制报废制度强制报废后,方可进行注销登记。”(36)刘晓纯、达亚冲:《智能机器人的法律人格审视》,载《前沿》2018年第3期。
主体制度本身可以理解为一种价值判断。“实在的人”“抽象的人”“类人的拓展”以及“同种范畴”,其根本目的是为了保护人权和人类文明的进步。因为多元主体资格的承认在终极意义上都是对自然人尊严平等与人格自由的尊重。(37)参见彭诚信:《论民事主体》,载《法制与社会发展》1997年第3 期。智能机器人权利主体理论的构建,仍然要以“人格”为基本要素。无论是基于恐慌、同情还是幻想,我们希望无论人工智能技术发展到何种程度,智能机器人都能善待自然人类,那自然人类也应该“把机器人当成人类一样对待”,这不仅是出于人性的考量,更重要的是表达出自然人类对人工智能体拥有同情与关爱之良善本性的内在渴望。因此,无论在学理和立法中如何去界定智能机器人的权利主体问题,都不应该违背源自人类内心的善良价值,否则,一切的法律讨论都丧失了其价值伦理。