探究人工智能的法律伦理与法律规制

2021-09-10 07:22魏银秀
科学与生活 2021年6期
关键词:法律规制人工智能

魏银秀

摘要:随着人工智能时代的到来,人工智能技术已经广泛应用于人们的生活。人工智能的出现在给人类带来便利的同时,还带来了巨大的挑战。本文将着眼于人工智能带来的法律伦理问题,展开讨论在面对这些问题时,可遵循的法律原则以及可借鉴的法律规制。

关键词:人工智能; 法律伦理; 法律规制; 法益位阶

一、人工智能带来的法律伦理问题

人工智能在给人类带来便利的同时,也带来了许多社会问题。如人工智能侵权时该如何确定責任分配的问题,人类失业问题,对人类情感的挑战问题等,都加深了人机关系的紧张性。本文主要讨论以下三个社会问题。

(一)人工智能的侵权责任主体认定问题

人工智能的出现对现行法律的适用带来了巨大的挑战。有学者将人工智能分为三个发展阶段,一是弱人工智能阶段,二是强人工智能阶段,三是超人工智能阶段。弱人工智能阶段的机器人停留在完成简单的特定任务,是一个优秀的数据处理者。强人工智能阶段是具有人类简单思维的人工智能,可以在人类提前设定下,有意识的进行思考。而超人工智能阶段,机器人的思维远超于人类,能够独立思考,创作,进行社会交流。目前的人类社会仍处于强人工智能阶段,近年来无人驾驶机器、医疗机器人等引发的侵权问题,使得认定人工智能侵权主体的问题愈加紧要。

传统民法上,机器人仅能归属到“物”这个客体之中,但如今机器人的发展已经能够自主运用信息,因此学者提出对该分类提出质疑。欧盟的法律事务委员会向欧盟委员会提出议案,认为超人工智能的机器人可增设归为“电子人”,除享有独特的权利和义务外,还应当为其进行登记、纳税、享有人类福利。而国内部分学者坚持机器人不宜认定为法律主体,因为机器人不是具有生命的自然人,也不同于法人,若固执的将其纳入法律主体中,在法理上是站不住脚的。

在实践中,机器人的损害主要有三种,一种是第三人对人工智能的系统进行破坏,使得机器人成为“凶手”;一种是开发者对软件设置的过失,使得机器产品本身带有缺陷;最后一种是机器人的所有者在使用过程中因过失产生的损害。而目前人工智能侵权责任的认定,法院主要是根据侵权责任法中产品所有人的责任以及生产者、销售者的过错责任来认定。

(二)人工智能产生人类失业的问题

人工智能在帮助人类完成复杂危险工作的同时,也给人类就业问题带来了挑战。根据《未来产业: 自动化、就业与生产力》报告指出,在对超过2000 多种工作种类以及800 多个职业的调查发现,不少于30%的工作在技术上可以实现自动化,超过95%的工作依旧无法实现完全自动化。人类利用机器人工作,生产力每年即可提高 0.8%-1.4%。因此,随着人工智能在技术领域越来越精准,机器就会替代了人,而原本在这些行业的工人就会面临着失业,给社会经济带来消极影响。

(三)人工智能破坏人类情感伦理的问题

人工智能会破坏人类长期形成的情感伦理。人类对人工智能的情感设定,机器人便能自由表达“自己”的情感,但是机器人并不能像人一样拥有细腻且复杂的情感,不具有自发的人情世故,使得其表达过程中,会误解或者亵渎人类情感。比如美国,日本等国家相继研发出了“性爱机器人”,这种伴侣的情感是人类在长期社会生活中形成,但是该机器人的情感却根据厂家设定而千篇一律。

二、应对人工智能问题的法律原则

人工智能的迅速发展,由于社会适应的解决机制滞后于其发展速度,因此明确解决人工智能问题的法律原则非常重要。法律原则是法律规则的指导思想。因此法律原则无论是对相关人工智能法律的创制还是对处理人工智能的法律问题都具有重要的意义。本文将介绍处理人工智能的两个原则,即个案平衡原则以及比例原则。

(一)个案平衡原则

个案平衡原则是指相同地位的法律价值之间发生碰撞时,要具体考虑案件情况,考虑各方的利益。个案平衡原则提出了以下要求,其重要性依次为:第一是生命、健康利益,人类生存的基础法律价值。生命作为人类生存的首要前提,人工智能的存在不能对人的生命产生威胁;第二是人格尊严,人类情感伦理的基础法律价值。人类情感伦理是人与人之间建立联系,彼此信任的基础;第三是社会公众的整体利益,有利于促进社会和谐发展;第四是法律明确要求予以保护的法益。法官在认定人工智能案件的事实时,考虑上述原则,得出公平正义的结论。

(二)比例原则

比例原则包含适当性原则、必要性原则和狭义比例原则三个子原则。对于人工智能案件,我们首先要秉持适当性原则,即我们采用的观点要注重手段与目的相适应;其次使用的手段是完成这一目的的必要手段;再次,我们采取的手段不能对相对人产生达成目的后更大的损害。比如国家对无人驾驶汽车的审批要比普通汽车的审批程序更加严格,但是在出厂后,也不当对售出的汽车进行全程实时监控,否则会削弱企业对人工智能投资的积极性,使得人工智能的研发受到阻碍。

三、应对人工智能的法律规制

人工智能的迅速发展所引发的社会问题,使得许多法学家对人工智能的法律规制产生了争议。社会对人工智能的生产者,销售者,使用者提出合理的法律规制已经愈加急促。本文主要讨论以下两个法律规制。

(一)安全为核心的法律规制

人工智能问题中最重要的法律价值位阶就是保护生命,那么法律规制就需要考虑对安全性的管控。安全是人工智能时代的重要法价值,也是社会秩序稳定的“守门员”。人类在社会中生存,需要一个安全的环境,才能更好的实现其他的人生价值。因此人类会对人工智能的安全性产生忧虑。不成熟的人工智能技术产生损害结果,以及其社会危害性是我们在进行法律规制必须要考虑的问题。

认定责任问题是解决人工智能案件的重要法律规制目的。人工智能问题都落脚于法律责任问题,立法者要关注平等主体间产生的人工智能侵权案件中法律责任分配。比如立法机构应当说明人工智能案件中的行为,危害结果,过错,免责事由等问题,以区分开发者,生产者,使用人的权责分配。

(二)注重人工智能透明性的法律规制

人工智能的透明性体现在系统运作过程的公开。立法者应当把人工智能的透明性放入规制的对象中,降低责任确定和责任分配的难度。人工智能的透明化对各方利益都会产生影响。对使用者来说,人工智能的透明化可让其知道运作过程,并自主决定是否使用。对于生产者而言,要求其公开,可以接受大众的监督,同时当发生事故时,透明性有助于查清案件事实,确认责任承担主体,有效的监控生产者对人工智能的谨慎义务。

人工智能的发展势不可挡,但人工智能的侵权责任主体认定问题,带来的失业问题,破坏人类情感伦理的问题也避不可免,应对这些问题我们要遵循个案平衡原则以及比例原则,同时立法者需要建立一个以安全为核心的法律规制,注重人工智能透明性的法律规制,只有法律不断完善,有效的调节人机关系,才能让人工智能更好的为人类服务。

参考文献

[1]可晓.人工智能的伦理调适与法律规制[J].桂海论丛,2019,35(05):112-116.

[2]袁曾.人工智能法益位阶研究[J].地方立法研究,2019,4(05):73-84.

[3]王春晖.人工智能的伦理、法律与监管[J].互联网天地,2018(08):20-24.

[4]高燕.我国人工智能中的法律伦理问题探究[J].法制博览,2019(16):188-189.

[5]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(05):128-136.

中南财经政法大学法律硕士教育中心 430073

猜你喜欢
法律规制人工智能
人工智能之父
2019:人工智能
人工智能与就业
数读人工智能
共享经济环境下空间共享的定性及法律规制
探析网络预约车类共享经济平台的法律保护
商业预付卡经营行为的法律规制
我国网络经济中不正当竞争行为的法律规制
我国著作权集体管理组织垄断行为的法律规制
论企业社会责任的法律规制