人工智能参与金融活动的主体制度研究

2022-02-16 00:38
上海商业 2022年11期
关键词:主体资格法人主义

张 晓

一、引言

随着科技进步,人工智能的愈发智能化使得利用人工智能参与人类的生产生活成为可能。人工智能以其大数据分析处理的决策能力、少情绪化影响的工作能力、不间断的续航能力等优势,不仅成为人类体力劳动甚至部分脑力劳动的“最优替代物”。尤其是人工智能已经开始参与资产配置、财富管理甚至股票交易等金融活动的情形下,人工智能的金融活动法律主体问题成为法学界、经济学界、哲学界等各界必须给出的答案。令人工智能拥有法律主体资格似乎已是大势所趋,人工智能的法律主体资格制度的设计呼之欲出。

二、人工智能发展的限制与前景

1.符号主义理念设计的人工智能仍是一种工具

人工智能发展之初始,其设计理念来源于符号主义(symbolism),符号主义即模仿人类理性处理事务的功能:“其一,人类富有智能地处理各项实务的能力,得归功于人类理性思维事物的能力;其二,人类理性思维事务的能力,等同于一种自动处理各种物理符号的内部心理能力。”也即人工智能的原理被设计为通过接收外界输入的各类的符号及其排列组合形成的信息,将该信息经过系统计算处理,得到一个最优解,并将该解进行输出的运算过程。比如与李适时和柯洁下围棋的Alfago,就是以符号主义设计理念为基础而得出的人工智能。

严格来说,基于符号主义的人工智能做出反应时并非进行了真正的“思考”,而是进行了大量的运算。符号主义要求人工智能能够精准识别外部符号并转化为运算前提,并要求人工智能快速完成大量运算反馈最优解。其“智能”核心仍是人类事先输入的符号和符号处理的运算算法公式所决定的,这使得此类人工智能在接受相同符号输入时,做出的反应都是相同的,与一台性能优渥的计算机并无两样,难以体现人工智能所谓的智能性,本质上仍能被看作是一种工具,并无讨论其法律主体资格之必要性。

2.联结主义理念设计使人工智能具有一定主观能动性

随着人类在人工智能开放领域的不断探索,学界提出了另一种设计理念:联结主义(connectionism)。如果说符号主义是人类外在思维模式的模仿,那么联结主义更倾向于人类内在思维模式的仿生。

基于该设计理念的人工智能中,被嵌入了人工神经网络系统,每个系统各司其职(针对不同种类刺激做出反应),不同系统之间相互联结,且能够灵活改变此种联结。人类通过预先设置算法来限制此种联结的变化,该套算法与人类对世界的看法和观点相类似:并不直接对思维结果的输出进行控制,而是引导结果的得出,思考的过程仍由人工智能自行做出。因此在多次输入相同场景信号时,该智能得出的结果并非完全相同而是相似的;在多次输入类似场景信号时,该智能得出的结果并非总是相似而偶有不同。这种仿生意义上联结运算更接近人类的思维过程,并非封闭地寻求输入信号的运算结果,而是开放、主动地找到合其基础算法的合理的答案。并且这种寻求答案的过程能够被智能本身所记忆,这就更使得联结主义设计理念下的人工智能拥有了类似人类的自我学习、自我进步的能力。

3.弱与强的人工智能分类意义对法律主体资格研究意义不大

目前对于人工智能还有另外一种分类:弱人工智能(weak AI)和强人工智能(strong AI)。

弱人工智能目前已在人类社会中无处不在,潜移默化地改变了人类生活。如智能驾驶公交系统、手机内置各类智能语音助手、智能调节的家电等等。但是该类人工智能过于依赖人类使用前预设的指令,不具备学习和创新能力,仅能依据用户的使用和大数据来进行偏好度预测,缺乏独立的意识。同符号主义一样,甚至性能上还不如完全符号主义设计的人工智能,弱人工智能的工具属性更强,人类不需要利用这样的智能从事法律活动,那么法律也无须承认其法律主体的资格。

而强人工智能又称为完全人工智能(full AI),此种人工智能必须同时具有人类的自我意识、思维、情感和行为四个要素,且都需要经过相应的综合性测试(是否能够像人类一样表现出上述四要素的测试)。强人工智能是人工智能发展的终极目标——使智能机器人具有自我意识是人工智能研究的终极目的之一。这要求该智能除在拥有自我意识的基础上,能够运用人类的思维方式做出合逻辑判断;需要该智能拥有与人类相同的情感情绪,并与人类互动;需要以自身智性情感为驱动,而非因执行人类指令而做出自主性的行为。总之,不论是强人工智能,还是弱人工智能,讨论其法律主体资格的授予问题都无现实意义,相关制度设计还是应当从现有的联结主义设计理念下的具有一定主观能动性的人工智能出发。

三、人工智能可对金融活动发挥重要作用

1.金融活动发展的限制是对技术提出的要求

目前,我国传统的金融领域正在承受着经济下行带来的冲击。这尤其体现在银行业上,银行效益从高速增长变为缓慢增长,互联网新储蓄的出现势必导致银行客户的大量分流。加之利率市场化改革,银行业彻底失去了最初的储蓄地位,这是导致银行盈利能力下降的主要原因。更加麻烦的是,不良贷款仍呈增长趋势,这主要是因为很多小型融资者为跟紧政策,同时过于自信,急于开展新项目,盲目地申请与自身经营能力不符的贷款,银行放贷时相应的审查风险能力仍然存在漏洞,最终投资失败,双方皆蒙受巨大损失。

目前我国金融活动大都存在竞争加剧、业务模式单一、产品结构简单、服务内容趋向于同质化、服务质量不高、监管困难等问题。这对金融活动中技术的应用提出要求:急需一种技术能够使业务发展多样化,提高服务质量和效率,实现时刻金融监管。

2.人工智能的特点可以应对金融活动的困境

人工智能能够很好地解决或者部分解决上述金融活动发展面临的困境。尤其是随着金融活动的国际化,金融活动主体之间的交流存在着更大的时间、空间、语言等障碍,因此人类更加无法拒绝人工智能提供的帮助。

人工智能通过万物互联,能够更好地利用大数据分析不同金融服务对象的财务状况、消费能力、风险偏好等等,并自行建立模型,匹配其智能设计的多元化的产品,为不同对象提供真正的个性化服务。对不同金融活动对手进行精准识别,对风险控制也具有重要意义,能够最大程度防范金融风险,实现实时有效的监管。

综上所述,既然目前不同于绝对工具的人工智能已经初步具备或将要具备与独立从事金融活动如金融监管、风险评估、私人定向理财、股票交易等相匹配的智能能力,且该能力又恰好能够弥补现行金融领域发展的不足,那么各个行业更应当在有限范围内对人工智能法律主体资格予以承认,得以充分利用技术带给人类的效率和效益。至于部分人所担心的风险问题,完全能够通过制度设计加以控制。

四、从实际出发探索人工智能的法律主体资格问题

1.目前人工智能无法拥有自然人一样的法律主体地位

创设任何新的法律制度,其初始理由必然是人类有必要合理解释现存的或即将出现的某一社会现象,且有足够的创设制度之必要。对人工智能的法律主体资格的探究,也须得从实际情况出发。

首先,目前技术下的人工智能,仍重在人工(artificial)。但大陆法系强调作者的创作,即使人工智能创作出再具有文学、艺术、科学价值的作品,毕竟它们还没有独立的思想思维过程,即使是联结主义设计出的人工智能也依赖于设计者赋予的世界观算法的预设,难以摆脱其本质上的工具性。康德哲学最重要的代表观点,即人只能作为目的而绝不能作为工具,这正是自然人最本质的属性。尤其对著作权法来说,只要人工智能还存在哪怕一丝的工具的气味,就无法被承认为是等同于自然人的作者(法人作品也是由背后的自然人创作而成)。

因此,为符合法的体系,人工智能无法成为自然人,甚至不能拥有与自然人类似意义上的法律主体地位。

2.欧洲“非人类代理”概念的提出

目前还没有哪个国家对人工智能的法律主体资格地位完全承认,虽然沙特承认了汉森公司的人工智能Sophia的公民身份,这也只在国际形象上存在一定意义,毕竟Sophia 尚还不是真正摆脱设计者预设指令的人工智能。

欧美国家对人工智能技术的研究时间更长,其相关立法界对人工智能法律主体地位较国内立法态度更加开放。欧盟率先启动了关于机器人的立法程序,2017年2月16日,欧洲议会对“欧盟机器人民事法律规则”提出建议,将智能机器人表述为“非人类代理人”(non-human agent),将能够帮助(而非被使用)人类更好的从事某些法律活动的智能创制为独立于自然人和法人之外的新的法律主体。

3.为满足目前发展需要,可将人工智能拟制为法律主体

从法律的社会实效层面出发,利用或者“授权”人工智能独立从事某些法律行为,技术完全能够支持,且存在明显的积极收效。但因为人工智能仍存在工具性,立法无法将人工智能代入进自然人资格的法律主体。为解决法的体系意义兼顾社会实效,应当对人工智能的法律主体资格地位予以承认,这就需要寻求将其拟制为法律主体的方法。

立法界无须从无到有的拟制全新的法律主体,在某种程度上完全能够借鉴自身没有意思表示能力的法人制度。人工智能与法人最大的不同在于,法人仅有意思表示的名义,真正做出意思表示的是法人机关(如股东);而我们需要的新制度是,人工智能不仅有意思表示的名义,并且该意思表示是由人工智能的智能性自行做出的。因此笔者认为,通过合理的制度设计能够将人工智能拟制为新的法律主体。人工智能因其人工性,使得它独立承担法律责任又只得以独立财产或其他类似利益为责任载体。基于这些特点,或许不一定非要创设一套全新的制度,而是可以打破传统法人的系统,将一种“新法人”制度或称“智能法人”制度融入法人这一法律主体,成为现阶段人工智能法律主体资格的栖身之所。

五、金融活动中人工智能拟制法律主体的制度设计

1.严格审查从业人工智能意思表示的能力

类似于法人需要行政机关许可其法人身份,人工智能的拟制法律主体制度设计也应当从被行政机关授予许可开始,通过公权力的介入来监控人工智能相关的市场秩序。

相较于法人设立时提供的股东信息、经营范围、名称、经营地等基础信息,人工智能特殊在其有一定做出意思表示能力的主观能动性,因此行政机关应该借鉴有关人工智能测试项目所旨,对人工智能法律主体许可的颁发配套更加严格的审查制度。无论该智能是否具有对应某个范围的专业性和自主智能性,最终都是为其能够完成与相对人(人类或其他人工智能)缔结、变更、消灭法律关系的整个过程,因此测试的最后环节必然需要经过足够多的实例测试,来证明从业智能具有足够应付其工作的意思表示能力。

2.人工智能独立承担责任的能力仍由自然人赋予

人工智能想要拥有法律主体资格,就须拥有独立承担责任的能力。若该智能专门管理公共基金等项目,则需要公法上责任之承担能力,自不待言,但此种能力有公共利益和国家作为后盾保障,须政策指引,本文无须多加分析。所以本文仅讨论人工智能民法上的责任承担。

考察法人从事民事法律行为的责任承担,独立财产是法人具有法律人格的物质基础,法人财产的减损或增加,关系到法人承担责任的能力,因此相关法律尤其对法人财产减少做了严格限制,如《公司法》第一百七十七条,公司减资须通知债权人并在报纸上公告,债权人有权要求公司清偿债务或提供担保。又如《公司法》第二十条,公司股东不得滥用股东权利损害他人利益等等。

如前文所述,虽然人工智能做出意思表示的基础在于其智能性,但毕竟它没有人类的完全人格,人身性惩戒毫无意义。想要获得承担责任的能力,只能借助财产。可设置人工智能的实际控制人(设计者或受让者)为智能金融活动利益归属主体,使实际控制人拥有分配利益的权利,但考虑到权利义务同一性,责任财产也需要这些人提供,以保证人工智能在初始参与法律活动的时候,有一定的责任财产基础。

3.人工智能风险预防和保险责任分摊制度

但是,人工智能较于传统法人还有一个特点,即信息黑箱。为使人工智能自主高效地完成各种需要大数据分析为基础的交易活动,人工智能具有了一定的智能性,这使得人类难以窥知每时每刻人工智能具体在“想”什么,在处理什么信息。因此在人工智能获得行政许可、投入使用之前(提交有关机关鉴定之前),还应为人工智能的意思表示范围做出严格限定,这不仅体现在超出其具体经营范围的意思表示有瑕疵,具体每一笔交易活动的标的额也应当受到限制。与意思表示范围限制不同的是,这种限制可以与相对人约定,通过对不同交易相对人进行风险承担类型的分析,可灵活限制双方交易标的额的上限,可设置超过某个额度即无效的绝对上限,也可设置超过某个额度需要双方自然人认可的相对上限。以此来预防自然人无法实时监控人工智能处理信息的风险。

另一方面,尽管技术开发者已经致力于将有关风险降至最低,但是实施强制保险制度也确有必要,因为人工智能的特殊性,一旦风险发生则意味着波及面广的巨大损害。保险制度能使“由于人工智能潜在的不可预估性使得人工智能一旦利用不当,可能造成难以估计的重大危害”时,由社会联合资本来分担风险,把风险损失降到最低。如同英国下议院在2006年提出汽车强制险能在驾驶者将汽车控制权完全交给自动驾驶系统时为其提供保障那样,对可能产生侵权责任的人工智能投保强制责任险,将“大大减少人工智能侵权事件发生时的经济赔偿纠纷,直接促进人工智能行业的良性发展”。

六、结语

随着科技不断进步,当下水平的人工智能,已经超越单纯的工具性,具有一定的智能性和代理性,能够通过其自身优势更好的替代人类的某些行为,这在金融活动领域尤为突出。但是又由于技术限制,即使基于联结主义设计理念的人工智能也无法完全摆脱其工具性,因此我们现有的应当研究的人工智能并不等同于人类恐惧人工意识高度发展会带来灾难的绝对智能。

因此借鉴现有的制度,搭建出一套符合现有人工智能特色的法律主体制度才是合理解决当下实际问题的出路。配置比传统法人更加严格的行政许可审查制度,审查其是否具有相应的意思表示能力,相应意思表示是否真实,作为人工智能获得法主体资格的基础。将实际控制人投入独立资产使此类智能拥有相应的独立承担法律责任的能力,作为人工智能在社会上拥有法主体资格的起点。通过借鉴《民法典》《公司法》《保险法》《刑法》等有关体系,为人工智能更好的从事金融交易、法律活动提供保障。

猜你喜欢
主体资格法人主义
新写意主义
陕西省法人及其他组织违法失信“黑名单”
近光灯主义
环境污染侵权案件实务中的问题研究
法定代表人于法人犯罪之管窥
环境公益诉讼主体存在问题及对策
这是一部极简主义诠释片
论法人侵权
冬日 新碰撞主义
法人和法定代表人有什么区别?