崔雪鑫
首都经济贸易大学,北京 100070
美国麻省理工学院温斯顿教授认为人工智能就是研究如何使计算机做过去只有人才能做的智能工作。通过人工智能生产出的产品以一种类似于人类智能的方式做出反应,对人的意识,语言,思维信息进行模拟,而为一定的行为。由于人工智能产品可以做出和人类一样的行为,那么是否需要赋予人工智能产品和人一样的法律地位,当其行为侵害别人权利,造成一定后果,其是否也需要负担民事,刑事责任;如果需要,又由谁来承担,如何承担。这些问题需要进一步的讨论与研究,的确给法学研究者们带来了难题。
自人工智能产品出现以来,许多学者讨论过目前这种技术程度的人工智能产品,例如可以新闻写作,打扫家务的智能机器人是否符合民法上对于自然人的定义。学界多数学者认为,就目前这种初级阶段的人工智能产品还不符合民法上自然人的定义,因其还不具有人的情感特征和独立的认识,判断能力,其行为仍是根据设计者的编程做出的,所以,现阶段以物来看待比较合理。既然当作物来看待,在因产品缺陷导致人身,财产受到损害时,就可依据《产品质量法》第43条向产品的生产者或销售者要求赔偿。考虑到后续发展到高级阶段的智能机器人,可以与人沟通,有自己的思维,并凭借自身判断为一定的行为,那这种程度的智能机器人是否要给予其法律上自然人的地位?如果承认在法律层面上这种高级阶段的智能机器人有自然人的地位,那其与人类就是平等主体,它又有哪些权利可以得到保障,当其侵害别人权利时,用什么财产来赔偿受害人,当自己是受害人时,又可以得到怎样的赔偿,这都是一个又一个的难题。
当人工智能产品的行为对社会造成严重的危害后果时,其是否需要承担相应的刑事责任?有学者认为根据人工智能产品是否具有辨认能力和控制能力,可将其分为弱人工智能产品以及强人工智能产品。弱人工智能产品因不具有辨认和控制能力,其仅作为犯罪工具为人类使用,不应承担刑事责任。强人工智能产品因具有一定的能力,对其犯罪行为应承担刑事责任。笔者完全赞同上述观点,但针对强人工智能产品采取删除数据,永久销毁等刑罚,笔者认为这样做并不能达到惩罚的目的,且成本较高。首先,数据可由产品的设计者通过隐秘的方式进行备份,执法者也可能并未察觉;其次,制造一台强人工智能产品,其成本较高,若将其永久销毁,代价很大。
对于法律行业,人工智能产品主要为法律机器人和法律人工智能系统。通过人工智能加以大数据的支撑,极大地提高了法律行业工作者的工作效率。它可以为律师,法官提供快捷准确的法律检索;自动审阅文件,筛选出证据材料;提供在线法律咨询;生成裁判文书等。人工智能作为一项辅助技术,正在高效的服务于法律工作者。
正是由于法律人工智能系统的高效率,有关研究机构认为,法律助理和初级律师在未来的被淘汰概率高达94%。虽然人工智能的出现将导致部分法律从业人员的淘汰,但笔者认为,这将大大提升了法律服务工作者的整体业务水平。由于基础工作被人工智能代替,为进入法律行业工作,相关人员定会提高自身的实务能力,寻求更多的机会。此外,社会在不断的发展,这需要人类通过修改法律顺应其发展,并依据新的法律作出判决,再将其输入到智能产品中,因此人工智能产品里面的数据会有滞后性。在法律新旧过渡阶段,笔者认为仍需要法律助理做一些基础工作。
通过应用人工智能,越来越多的智能产品进入到人类的现实生活中,它对法学研究以及法律实务都带来了不小的影响,既为法律工作者提供了便利,同时又给立法者提出了难题。在未来,随着科技的不断进步,当一个被人类创造出来的智能机器人越来越具有人的特征,人的思维,人的情感,在法律层面上,人类将如何对其进行定位,是否可以通过法律来管理这些人工智能产品,又如何管理得当,这都是在面对越来越高端的人工智能产品时所面临的问题。此外,若在法律上赋予人工智能机器人和人类平等的地位,人类内心是否可以消除心里的隔阂,并且接受人工智能机器人可以向人类行使自己拥有的权利,这些问题都将被研究。在小说《弗兰肯斯坦》中突出了这样一个问题:科学技术的巨大进步与成功在令人欢欣鼓舞的同时,又让人陷入恐慌和沉思之中。透过小说,笔者相信,新生的事物如同一张白纸,经过周围潜移默化的影响,使其形成最终的性格,只要人工智能产品的设计者对自己的设计负责,编制正确的程序,输入正确的数据,定期检验修复,人类是可以和人工智能产品和谐共处的,法律研究人员在处理与人工智能产品相关的法律问题时也不会十分棘手。
[ 参 考 文 献 ]
[1]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018.1.
[2]曹建峰.“人工智能+法律”十大趋势[J].机器人产业,2017.5.
[3]党家玉.人工智能的伦理与法律风险问题研究[J].信息安全研究,2017.12.