人工智能的法律地位问题分析

2018-10-30 11:09田瑞
现代商贸工业 2018年26期
关键词:社会风险人工智能

田瑞

摘 要:近三十年来,人工智能的发展得到了飞速发展,并被称为是人类社会的伟大发明,但是这一显著的科技发展同时也具有相当的社会风险。从人工智能的发展过程中所产生的法律地位问题出发,研究分析人工智能所带来的前所未有的司法挑战,在经济科技全球化日益加强的现代社会,探索合适的解决途径。人工智能的快速普及具有双面性,在方便人类文明的发展的同时,也容易引发诸如民事侵权问题,知识产权问题甚至刑事问题,因此人工智能的法律地位问题显得尤为突出,人工智能通常以互联网为载体介入生产生活,因此具有全球性,快速性,科技性的特点。应充分重视社会安全、伦理道德等价值导向,借鉴国外司法经验,对人工智能单独立法,配合相关行政法规等社会规范,组建完整的法律规制体系。

关键词:人工智能;社会风险;法律人格

中图分类号:D9 文献标识码:A doi:10.19311/j.cnki.1672-3198.2018.26.065

1 人工智能的概况

1.1 人工智能的发展背景

人工智能(AI)作为计算机科学的一个分支,是二十世纪七十年代以来世界三大顶尖技术之一,它的出现给人类社会带来了翻天覆地的变化,人工智能最早由雨果·德·加里斯提出,期间经历了数个发展阶段,2017年5月25日,AlphaGo以2:0战胜围棋高手柯洁,2018年1月,微软公司和阿里巴巴合作的智能机器在阅读理解上又战胜了人类。腾讯研究院院长提到,随着AlphaGo和最近的德州扑克人机大战中AI非常抢眼的表现,使得AI技术已经成为整个60年中话题的新热点。美国未来学家预测在21世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。

1.2 人工智能发展过程中的弊端

人工智能技术发展日新月异,但是也引起了一部分人的担忧,相应的也引起了法律上的不足与空白,如果人工智能缺乏良好的约束,人工智能技术就有可能影响甚至操纵公众认知,侵犯公众的个人信息,破坏社会秩序,例如前不久发生的Facebook个人数据泄露和滥用事件,就是试图利用数据分析来影响和控制公众的认知和判断,从而影响其政治偏好。此外,人工智能对生产力的改造,也将带来生产关系的深刻变革,这就可能会导致不同社会群体贫富差距加大。再比如针对人工智能机器人的教育,未来人工智能的一旦脱离了弱人工智能阶段达到了超级人工智能阶段那么就有了感知、认知和决策能力,那么作为机器人的生产者、使用者该如何承担法律责任也是有待解决的问题。

2 法律资格主体的内涵

在我国法律资格主体中,公民是指在自然条件下诞生的人即自然人,既包括中国公民,也包括居住在中国境内或在境内活动的外国公民和无国籍人。

在古代罗马法体系中,与我国现行法律体系中的自然人主体资格的概念最接近说法的就是要生来自由、达到适当年龄、具备健全心智。除了被视为私人财产的奴隶,一旦自然人具备以上的条件,那么便享有选举权、任职权、通商权等权利。德意志法律体系继承了基督教思想,他们认为,生物学上的人才可以成为伦理上或者私法上的主体,而不具备此等灵魂和理性的其他生物就与人类存在根本的区别,也就不能成为权利、义务和责任的主体。《德国民法典》中表明自然人人格的思想基础是自由意志论,在康德的《法的形而上学原理》中将意志解释为“意志是有理性的主体渴望作出决定的能力”,只有具备人格的生物人才能承担法律义务,更进一步说,人最适合于服从他给自己制定的法律——或者是给他单独规定的,或者是给他与别人共同规定的。

3 人工智能法律资格地位的研究概况

近年来,由于计算机、大数据技术的快速发展,使得人工智能的自主性和认知性都得到了加强,伴随着人工智能在人类生活各个领域的渗透,关于人工智能法律主体资格问题的研究也越来越深入。

一种观点认为人工智能机器人不具有民法体系中自然人主体的资格,不应该具备独立的民事主体资格。在民法体系中,民事主体主要是分为自然人、法人和其他组织。人工智能机器人因为受民事主体控制,不具有人类独有的内在人性和生命特征,并且其行为都由人类输入的算法控制,仅仅在特定领域工作,具有很强的专业性。因此人工智能机器人不应具有法律主体资格。另一种观点认为以上的观点具有一定的局限性,以现在的科技发展水平和趋势来看,人工智能机器人从原来的机械手臂到仿生机器人,人工智能的自主性、社会性和学习能力更加接近人类,法律资格主体的外延不应限制于单纯的物种和生理差異。人工智能生产的效率与进化水平逐渐高于人类,当机器人的工作行动范围脱离于人类控制时,不能单一将其视为物直接全部归责于所有人,进一步来说机器人理应作为法律主体承担一定的责任。还有学者认为法律拟制的方式赋予人工智能机器人法律主体资格较为合理,目前在机器人的权利主体地位上,欧盟议会法律事务委员会(JURI)已经就机器人和人工智能提出了立法提案,拟采用“拟制电子人”的方式,赋予机器人法律主体的地位。

4 人工智能法律主体资格的定性

首先,从自然人自主意志方面分析,以目前的人工智能发展水平来看人工智能机器人尚不具有法律上的自然人所具有的自由意志,并不能全面地行使法律义务享受法律权利。因此并不能单纯依靠人工智能在某一方面的先进性而将其纳入到具有法律主体资格的范围内,更勿论人工智能对于人类智慧的超越。但无论技术如何发展,维护人类赖以存续的人文精神、人格尊严,而不是为人工智能所替代或统治,应当是人类发展和利用人工智能的起点和终点。

其次,人工智能承担法律责任的能力有限,比如从刑法的角度来看,很多犯罪的认定都需要行为人要有故意的主观要件,那么人工智能产品是否具有人类的主观情感和犯罪动机呢?人工智能是人类在对人大脑机制研究的基础上,利用数学中大数据、云计算和计算机科学等学科知识对人脑思维模式的模拟,虽然人工智能是对人脑的模拟可能存在不受人类控制的风险,但是人工智能的本质也是模拟人脑的一系列运算,实在无法真正使其存在主观目的,即使时人工智能有主观动机,享有法律主体资格,那么应当赋予它们哪些权利,承担哪些法律责任都是要解决的难题,也会给司法实践造成困难。

因此本文认为人工智能产品尚不具有法律主体资格的条件,现在人工智能尚处于弱人工智能的阶段,应当开展更多的研究,在技术成熟的时候再考虑相关的立法问题。

5 人工智能法律问题的解决措施

第一,研究出台司法解释,开展立法研究。既然人工智能不能具有法律资格,并且现阶段人工智能的发展水平有限,如果为其单独立法,容易造成各个法律部门的冲突和矛盾,所以现阶段针对人工智能发展中出现的具体问题出台司法解释是比较便捷有效的方式。

第二,加强对人工智能产品行业发展的监督。人工智能产品的发展日新月异,但是研发人工智能的根本目的也是为了方便人类的生产生活,如果研发的人工智能产品不能保障人类的安全,那么将是未来社会的巨大隐忧,因此应当加强该行业的安全监督,出台相关的法律法规,如果生产企业有过失,应当追究责任人的法律责任。例如,2015年美国加州车辆管理局就人工智能应用的自动驾驶领域可能出现的社会问题,专门提交一份监管草案。该草案要求全部拥有自动驾驶功能的汽车在驾驶时必须有一名取得驾驶资格的人员一直坐在驾驶员的位置上,并且不能完全取消传统车型的相关控制设备。因此我国也应该各个部门联合出台相关法律法规切实保障人工智能产品的安全性和环保性。

第三,设立人工智能发展的基本原则。科技的进步和发展没有尽头,但是我们可以人为给相关的科技研究设定红线。因为某些科技一旦过于深入核心领域,会给人类社会的安全和稳定造成很大的威胁,所以建议加强人工智能潜在危害与收益的评估,构建人工智能复杂应用场景以及突发事件的冲突解决方案,对于某些高危领域的人工智能发展设立基本界限以保证社会的稳定性。

6 结语

作为智能互联网时代的新技术,人工智能在推动网络信息技术发展的同时,模糊了物理现实、数字和个人的界限,也衍生出诸多复杂的法律、伦理问题,应该在法律制度框架的正确指引和约束下发挥其核心价值,以期达到为人类发展进步和信息安全保障作贡献,立法者和执法者应确保人工智能技术不被滥用。人工智能应当被更多地應用于促进社会文明进步和可持续发展,这也是人工智能发展坚持技术属性和社会属性并重的重要内涵之一。

参考文献

[1]齐鲲鹏.2017人工智能:“技术、伦理与法律”研讨会在京召开[J].科学与社会,2017:125.

[2]杜严勇.论机器人的权利[J].哲学动态,2015,(8):83-89.

[3]康德.法的形而上学原理.沈叔平译.商务印书馆,1991:26.

[4]张玉洁.论人工智能时代的机器人的权利及其风险规制[J].东方法学,2017,(6):56.

[5]朱体正.人工智能时代的法律因应[J].大连理工大学学报,2018,(3):99.

猜你喜欢
社会风险人工智能
我校新增“人工智能”本科专业
人工智能与就业
公众网络安全素养如何提升
网络社会风险规律及其因应策略
网络社会风险规律及其因应策略
中国公务员培训市场化分析