李伦飞
吉首大学软件学院,中国·湖南 张家界 427000
机器人伦理;人工智能;理论探索;应用;挑战
机器人发展到今天已经成为了人们最好的辅助工具与辅助手段,在机器人的运用过程中可以减少人力资源的消耗,并且对人们认识自然、改造世界提供了重要的方法和手段,在社会生活和工作中有着重要占比的一项工具。目前人们对机器人的认可度越来越高,而人工智能在人类生活中的融入也越来越深。在伦理道德方面,由于人们的文化、生活习惯、信仰等方面因素的不同,导致了对机器人伦理的看法也不同,论文对机器人伦理进行分析。
机器人是否应该享有权利?这与机器人在人类生活中扮演的角色息息相关,如果机器人对于人类来说这是一类可以接收指令、完成命令的机械工具,那么机器人并不拥有权利,其自身安全对于人类来说并不重要。而如果人类将机器人当成是生活中的话伙伴,那么机器人就应该享有作为人类伙伴而应有的权利。在这种情况下,人对机器人就需要负起一定的义务,减少“机器人是购买而来,可以随意处置”的想法。但是目前,对机器人的功能越来越完善的情况,人们都持有期盼但是却恐慌的姿态,这种姿态也是人们对于“机器人权”是否应该存在的复杂心理内核,因为给一项事物赋予权力往往在大多数人眼里并不理所应当,也会导致既得利益者对赋权的嘲讽与阻碍[1]。
对于工业或制造业机器人的应用中,人们在被机器替代的过程中产生了大量的恐惧情绪。从合作者的角度来看,人类往往会担心机器人因生产效率与质量上的优越而导致了自己的下岗,那么就有可能造成人类攻击机器人的事件。在健康护理机器人的应用中,因为机器人在护理、理疗、康复甚至是手术方面的自主性就较高,存在一定的风险,且无法满足患者需要的情感需求。在军事机器人的应用中,军事机器人缺乏同情心,在人伦道德和人道主义方面无法考虑周全,无法判断平民和敌人,可能因为战争为人们带来更大的伤痛。在服务型机器人的应用中,如何显露出机器人自身的情感是目前在机器人伦理中的一项重要应用,虽然机器人人性的表达是一项发展趋势,但是针对机器人表达出来的情感,人类大多数无法接受[2]。
人类的科技是不断向前迈步的,在机器人的生产制造中,最终会达到与人类的外观无异的地步,上述说到的多种机器人在应用中是否会做到与人类相同的道德决策是目前大众所考虑的问题,同时也是机器人被创作的初衷。在机器人进入人类社会时,应该要考虑为机器人划一条道德红线,特别是在军事机器人和情感性机器人两个方面。针对前者,在战争中针对军方无人机、爆破机器人等机器人应用不能够伤害人类士兵的这一条原则早已经在阿西莫夫的机器人定律中被提出,所以为了防止无论是误伤还是有意为之,人类都应该设立一条道德基线,限制军事机器人的行动。针对后者则是在男女、老幼、幼童与成年人、男男、女女等关系之间的全新改革,引发出人类结婚、生育、成长等一系列生理、情感活动的问题,造成人与人之间关系的冲击。不管冲击的大小,也不管使用者的原本用途。需要牢记的是为其设立的道德红线更加是人类的道德红线。
机器人最终会在人们生活中被深入运用,而需要机器人自主作出决策的情况也越来越多,为了防止在极端情况下人类无法理智地作出相应的决策,决策性机器人将起到重要的作用。在机器人的设计中,是需要机器人依照相应的道德体系,在外部环境与自身情况的变化过程中对行为施展路径可能性的全面计算,并决策出一条最优决策。比如说军事机器人的运用,在实际战斗中的自行开火控制中,是否会区分出平民和敌方士兵是一项重要的问题。另外,当机器人拥有了自主决策权以及决策能力之后,是否会对人类进行反控制也是目前人们较为忧虑的问题,所以在对机器人进行设计时,需要保证其能够依照服务人类的原则,设计保护使用者安全的程序,不能因为要发展机器人的自主决策权而使得其违背人类的初衷,威胁到人类的发展地位[3]。
机器人毕竟是由零部件组装起来的具有一定指令执行功能的机器,而在未来的发展中机器人的功能会逐渐完善,让其拥有人类的道德判断是非常重要的,而这一点只有从人类的道德体系中去寻找。因为一项事物的多面性以及人类个体的差异性,在很多事物上都存在道德的争议,比如说谎言和善良的谎言,因为其出发点好坏和说谎的本质,在道德层面上很难判断其是否是不好的行为,所以针对机器人的道德体系建立其实是一件非常困难的事情。目前较为统一的说法是根据不同的文化体系,在不同的国家、环境、地域中,机器人的道德体系构建也不相同,并采取从多层次、多角度的构建方式,使得人们能够在目前国际文化多元化的发展趋势中找到适合机器人的道德标准和道德体系,但是不变的是,人在道德体系参考中的主导地位是用永远不变的。
机器人和人类的冲突重点必然在于对社会岗位的释放以及生存竞争的加强,随着机器人在越来越多的领域被应用,自然而然会因为其高校精准的性能而被广泛应用,届时将会有多个岗位被机器人替代,而许多人则面临着失业,这也就导致了剩余岗位中会出现巨大的竞争情况,目前的社会竞争形势已经非常严峻,如果在未来缩小人类岗位的话那么后果将不堪设想。从伦理道德角度出发,人与其他生命的平等的,但是现实世界中往往存在着丛林法则,竞争从未有一天停止过,而如果机器人的伦理道德体系没有被完善,那么将会出现更加严重的情况,毕竟机器人的思考方式往往都是完全理性的趋利避害,例如,在无人驾驶过程中,直行会碰撞到事故现场,而唯一的转弯路线则会撞击儿童,这个时候机器人会作出什么反应?在本质上来说,人类在遭遇上述情况也会作出相应的反应,也就是说,机器人与人的伦理道德冲突,本质上还是人类自身的道德矛盾,而机器人则在某种层面上替代了人类道德矛盾的对立面[4]。
所谓“一个核心”就是指机器人伦理核心。一般来说,需要将机器人与人类的关系表现为人类与机器人是使用者和被使用工具的关系、人类和机器人是合作伙伴的关系。按前者来说的话,人类与机器人的从属关系,不具备道德性。而按照后者,在机器人具备了一定的道德地位的话,完全将人类的道德体系复制到机器人中也是不妥的,所以需要设计一个统一的应用标准,综合不同文化、意识形态、宗教主张和经济发展状况来进行[5]。
所谓“两个层面”就是指机器人在设计过程中的技术伦理与应用过程中的使用伦理,这也是机器人的最终道德体现。一般来说,在设计的过程中机器人工程师将会很在机器人的道德性设计中加入自身的情感元素和价值倾向,但是值得注意的是,在设计的程序中一定要加入兼容性元素,要使得机器人在使用的时候能够对不同的伦理表现而包容,更有利于其参与人类生产。在应用过程中需要机器人受到相应的规范监管和道德约束,要求其优先考虑的是人类的整体利益。
所谓“三个原则”就是指阿西莫夫提出的机器人三大定律,分别是:机器人不能伤害人,也不能在别人受伤时而袖手旁边;对使用者的一切命令进行服从,但是不能违抗第一点;机器人应该要保护自身的安全,但是不能违反上述两点。在科技的发展下,仅仅是三原则也不能完全适用于社会中机器人的使用,所以可以将第一点改为人类与机器人不能相互伤害,且双方受到无辜伤害时不袖手旁边,将第二点改为在一定的自主权利下,在符合正确价值观的要求下服从使用者命令,第三代改为人类与机器人和谐相处[6]。
目前,使用最为广泛的机器人就是无人机,以无人机的视角来看,世界各国针对无人机驾驶的已经有了较为健全的法律法规,而中国虽然机器人事业起步较晚,但是在无人机行业中也已经处于世界领先地位,在法律方面,中国可以参照美国国会的建议,建立专门的机器人管制部门进行整治,比如说对于无人机可能会侵犯到个人隐私的问题进行整治,确立制度。另外,在机器人的民事法律方面,需要对智能机器人进行登记,建立保险保障法案、智力成果产权保护法案等基本法律来为机器人提供法律管控规范。一般来说,因为机器人的发展非常快速,需要针对机器人的法律法规做定时修改,建立合理的法律法规体系。只有机器人在道德、法律的双重管制下才能够健康发展,推动人类社会全面的发展。
随着机器人技术的快速发展,机器人的种类越来越多,在各行各业都有机器人的身影,为人们的生产生活带来了极大的便利和贡献,但是在机器人发展的同时也会带来较为严重的伦理道德问题。目前在国际上针对机器人的伦理道德研究已经非常深入,中国作为科技大国自然也肩负起对机器人伦理理论的研究重任,提出相关的法律法规和应用策略。