人工智能发展的社会风险及应用中的法律问题

2020-03-12 15:44
广西质量监督导报 2020年1期
关键词:机器人人工智能人类

(青岛大学 山东 青岛 266000)

一、人工智能的发展

1950年,图灵在论文《计算机器与智能》中提出了“机器能够思维吗?”,人们开始关注人工智能。纵观人工智能的发展史,在20世纪70-80年代主要是以计算机启发式编程为基础来模拟人类的某一类智能行为。此时的人工智能并不具备认知、意识等高级智能,仅仅使机器能替代人类做一些繁杂劳作。90年代,神经网络等技术的突破,使人工智能从基于逻辑走向社会智能。其超越了只能简单模拟人脑逻辑的“人类助手”,变为可能拥有自主意识的存在。21世纪,随着各类新兴技术不断进步,人工智能载体材料日益丰富,由模拟人到类人的技术路径也日趋成熟。

目前人工智能的研究方法主要使用系统建模,并以此为手段模拟人脑机制。虽然距离“人工智能超越人类”这一终极目标的实现还有漫长的道路要走,但是反观人类科学与发展的历史可以看到,人类的选择具有盲目性,并非全部具有理性思维。如果量子计算机等技术的发展可以赋予人工智能某种意义上的意识,最终可能会让人类丧失对该技术的控制。况且我们对于世界的认知总是基于先行的概念框架才得以可能的,而人类目前对于宇宙的认知范围还太过狭窄,运行于自然界间的客观规律尚难以被确切把握,人工智能最终将走向何处将很大可能突破人类现有认知,难以为人类所把控。

二、人工智能发展带来的风险

(一)人文精神衰落

如今数据成为未来世界最宝贵的资产,权威将会从人类身下转移到算法上,“人类已从中心主义滚向了X”①。计算机的发展带来足够大的计算能力,再辅以生物学中脑科学研究获取的大量生物数据。两者的结合,就有可能创造出比人类更了解自己的算法。而“一个拥有足够多的关于我的数据、也有足够算力的算法能理解我的欲望、情绪、想法、决策,进而能够在很大程度上控制我、操纵我。”此时,在政治、文化等各体系,决策的只能更加依托于大数据算法,而人类将会失去决策能力。正如曼纽尔·卡斯特在《千年终结》中阐述的那样,数据时代下人民将与权利日渐遥远。当我们放弃以人为中心的世界观,而秉持以数据为中心的世界观,就难免会沦落为单纯“数字人类”的社会,②引发人类身份认知的危机。

(二)“无用阶级”出现

随技术的发展,人工智能将在越来越多领域超过人类,在越来越多任务上表现的比人类更出色,其将一步步取代重复性的人力生产劳动,且由于具有极高效的信息处理能力,未来一些高端行业例如医药制造、金融业等也将会由人工智能所操控。少数拥有先进算力与算法的精英阶层将控制着经济与政治话语权。在此之下工作岗位的减少,大面积失业现象将到来。人类社会很可能在此后被分成两大阶层,一部分是非常少的能创造和使用技术的阶层;另外一部分则是在此经济体系下难以继续创造价值,将被系统的排除在能使他们自主的地方之外的“无用阶级”。③人们不禁要担忧:“21世纪经济学最重要的问题,可能就是多余的人能有什么用。一旦拥有高度智能而本身没有意识的算法接手几乎一切工作,而且能比有意识的人类做得更好时,人类还能做什么?”④这部分无事可做的“无用阶级”将与全球体系毫无逻辑、毫无干系,陷入极端空虚、缥缈的生活状态。对于世界而言,这一部分群体可能成为随时爆发的潜在危机。

(三)认同的缺失

根据赫拉利的观点,人与其他物种不同,之所以能够创造生产、发展经济。这得益于人类可以进行灵活的大规模合作。而这种合作体系的建构是基于人类构造了不同于客观现实世界的第二层虚拟世界。而在人工智能环境下,人们的历史文化意识将被改变,漂流到虚拟的数字文化中;生产关系发生变革;国家和政府的力量被逐渐削弱;社会失去政治权力的控制等等。这些生产、权力和经验关系的改变将汇聚成社会生活、时间与空间的物质基础的转化,最终使得人类无法继续当前集体合作的模式,目前已经建构的二层虚拟世界将很可能面临崩塌。在此种境况下,人与人之间如何产生凝聚的力量,重建共存的意识,迫切的需要一种全新的认同。

三、人工智能应用中的法律问题

(一)人工智能的滥用

从人本主义的角度出发,技术发展的目的是为人所用的。但在现实生活中,技术常常突破其应为范畴而被滥用。从利用互联网技术进行高科技犯罪的现象中我们可以看出,运用复杂技术的犯罪相较于普通犯罪,其更难事前管控、做出预测、且更易为极端分子所操纵;从犯罪后果来说其波及范围亦更广、破坏力更强;事后追责惩戒也更为困难。人工智能技术是通过代码和算法来实现的,对于参与人员有着极高的专业性要求;且大多数人工智能系统是黑盒的,其内部原理的隐蔽性可以帮助罪犯规避审查。现有法律无法有效的防范人工智能被滥用。而算法在开发过程中如果包含价值偏好和不公正的因素,那么凭借算法的优势去侵害大众权益的案件将会屡见不鲜。更需要警惕的是,这种滥用的风险不仅仅体现在经济领域,侵犯人身权利的范畴更应该被关注。例如,人工智能领域的军备竞赛已经展露苗头,一旦人工智能得以武器化,最终毁灭的将会是全人类。

(二)人工智能侵权责任的划分

1978年9月,世界上第一宗机器杀人案件发生于日本广岛,一名值班工人死于切割机器人刀下。2016年5月,世界第一宗自动驾驶汽车致人死亡案正是由于特斯拉公司自动驾驶技术的缺陷造成的。2018年11月,由于机器人错误的将心脏放错位置,最终使得英国首例机器人心瓣修复手术以失败告终,病人也于一周后死亡。我们可以预见,未来随着人工智能技术的发展与广泛应用,人工智能造成的人身侵权案件将会以更多的形态呈现。而这一系列侵权乃至侵害事件的责任界定将成为人工智能应用领域的一个重要法律问题。以机器人修复心脏手术失败为例,这一事件中主刀的达芬奇机器人是目前世界上最先进的手术机器人,尚且造成了病人死亡的后果。这些案件中机器人应当被赋予何种身份?谁来为它的行为负责?机器人生产商还是程序编写员还是技术测评师还是该医院还是主治医生亦或是同意使用机器人手术的病人?如果由多方主体共同负责,那么他们之间的责任如何划分?又该适用怎样的评判标准?这一过程亦存在着证据的收集,举证责任的分配等难题。

(三)个人隐私安全的保护

在社交网络时代,人工智能包括3个核心要素:深度学习的算法、高质量的数据收集、高性能的计算能力。人工智能技术发展主要依赖于大数据包括敏感数据的收集和使用,在这一过程中,数据一旦被披露,将对个人隐私产生直接影响。有媒体报道,2017年5月Google旗下的DeepMind获取了英国皇家慈济NHS信托基金运营的3家医院160万病人的NHS(英国国家医疗服务体系)数据,其中包括HIV感染状况、过去的吸毒过量和堕胎信息等私密数据。该新闻在英国掀起了轩然大波。此外,在社交网络下,个人隐私遭到无所不在的窥探,人类实现了与肉体相分离的数字化生存。但凡通过键盘留下的痕迹都会迅速系统的被数据商收集,通过这些网络环境中所采集的点滴数据的集合,可以立体的构建出真实世界中的个体形象。个人的行踪、言谈、取向等一系列隐私,都已经全面暴露在数据的洪流中,基本权益面临巨大的威胁。

(四)人工智能著作权的问题

根据美国Narrative Science提供的数据,在未来新闻领域将有90%的稿件由机器人完成,同时人工智能也将用于艺术创作。关于这些人工智能的生成作品,在涉及到著作权法领域有两个主要问题需要解决:第一,机器生产的作品是否享有与人创作出的作品相同的权利?依照我国现行《著作权法》,其保护的作品应当具有独创性并能以某种有形形式复制。而人工智能的生产是将网络中已经存储的数据进行汇编整理,这是否可以被认定为具有独创性?是否可以将其认定为一项智力成果?第二,该项权利的权利享有主体应归属于机器还是创制该机器的人?《著作权法》中将著作权人分为两类:一类是作者,即直接创作作品的人;另一类是非作者,即通过某种法律关系获得著作权的公民、法人或者非法人单位。对于“作者”亦有明确的说明,只有公民即自然人才能成为作者。而人工智能现阶段还不具有独立的人格意义,不具备法律上的主体地位,因此无法成为《著作权法》中的“作者”。但在未来的发展中,人工智能必然会生产出大量的创造物,这些创造物的性质、形式和价值可能将具备甚至高于《著作权法》所要保护的法益,对这部分内容进一步具体规制具有非常重要的现实意义。

人工智能是人类实现自身解放的重大机遇,但机会与风险及法律问题总是相伴而行。虽然文中的社会风险当前尚未切实发生在每一个个体身上,但人工智能革命引发的伦理、意识形态、法律问题仅是刚刚开始,伴随技术发展的日新月异,亟需相关理论的创新和制度创新以跟进。在预防和规制方面,应以理性主义为指导,切实可行的将人工智能纳入现有法律体系中来。

注释:

① [美]戴维·鲁本.《法律现代主义》[M].北京:中国政法大学出版社,2004:23.

② 马长山.《人工智能的社会风险及其法律规制》[J].《法律科学》,2018,6.

③ [美]曼纽尔·卡斯特.《千年终结》[M].北京:社会科学文献出版社,2006.

④ [以色列]尤瓦尔·赫拉利.《未来简史》[M].北京:中信出版社,2017.

猜你喜欢
机器人人工智能人类
人类能否一觉到未来?
人类第一杀手
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
人类正在消灭自然
机器人来帮你
认识机器人