马帅超
摘 要:现如今,机器人在各行各业当中得到广泛应用。随着强人工智能技术的不断发展,机器人在未来可能拥有更多的自主性。机器人的伦理问题也受到了越来越多的关注。那么,拥有自主学习、决策能力的机器人是否就要对它的行为承担相应的责任?是否也具有道德地位?机器人道德地位的确立也产生了不同的分歧。面对这种复杂的人机关系,我们必须进行有伦理的思考。
关键词:强人工智能;机器人;道德地位
1 机器人伦理问题的出现
2017年10月26日,沙特阿拉伯授予了机器人“索菲亚”公民身份,“索菲亚”因此也成为史上首个获得公民身份的机器人。“索菲亚”的出现,引起了广泛的讨论。从伦理学来看,拥有“公民”身份的机器人是否是道德上的行动者,是否因此具有了相应的道德地位值得商榷。面对这种具备自主性的机器人,机器人的道德地位问题引发了人们的争议。
机器人伦理这个词语首次出现在2004年1月第一届机器人伦理学国际研讨会上,这次研讨会也是人们正式对机器人伦理问题展开研究的标志。而在“机器人伦理”这个词语出现之前,人们对机器人可能产生的伦理问题就开始了讨论。艾萨克·阿西莫夫(Isaac Asimov)在1985年出版的《机器人与帝国》一书中认为,应该以人类的根本利益作为机器人伦理的出发点与落脚点。机器人本身就是人类制造出来为自己服务的,机器人即便拥有道德判断与行为也完全是人类进行设计并赋予机器人的,虽然机器人确实可以自行做出一些道德判断,但它们判断的依据是预先编制好的软件程序,其产生的道德责任更多的是主体人的责任。
由于对机器人的定位和对机器人未来发展不同的预期,对于机器人道德地位的讨论,人们产生了诸多分歧观点。一些学者从人类道德地位的确立所必须具备的条件出发,强调了意识、理性和自由意志等属性,机器人的行为如何独立和自主终将是人类行为的产物,其设计都有意镶入设计者的意识行为。而一些学者则注重其行为,机器人只要表现出道德的行为就承认机器人的道德地位。此外,一些学者借助于动物伦理的观点,用社会关系的方法来确立机器人的道德地位。面对诸多的分歧,我们必须进一步探讨机器人的伦理问题。
2 機器人道德地位的争论
意识是确立道德地位的必要条件。因为,一个人需要有意识才能表现出道德或不道德,在面对道德指责或赞扬时也必须依靠道德意识承担相应的道德责任。假如缺乏了意识,就将进入“道德虚无主义”。而一些学者认为道德是必要的。我们并没有更多直接的证据或洞察其他生物的思想,我们应该基于某些可观察行为,关注机器人所表现出来的道德行为。
一部分科学家试图从计算机的领域去研究意识,自主性机器人的实现是将意识转化为一种计算。意识计算也就是在计算机领域为智能机器输入一个定义好的电脑指令,从而使它可以控制整个智能机器,从根本上来讲,它属于一个物理符号系统。雷·库兹韦尔(Ray Kurzweil)与伯克利大学哲学教授约翰·塞尔(John Searle)支持“强大的人工智能”的观点,他认为一台合乎逻辑的编程好的电脑可以具有意识。美国塔夫茨大学教授丹尼尔·丹尼特(Daniel Dennett)认为,人也不过是一台有灵魂的机器而已,人可以有智能,人工智能有可能有思维和意识的。上述对于意识的研究,可能是通过硬性计算机编程植入到机器人当中,使机器人看起来是具有意识的。而另外一些科学家和伦理学家则通过对孩童的发育过程着手研究。在伦理学中,拥有道德地位就应该视其为道德责任的承担者。而对于一个心智没有发展成熟的小孩,其并不具有理解能力和意识,其责任也应该由其监护人来承担。研究者们正在利用多模式的途径模拟人类孩童的发展模式来进行机器人的研究,如同小孩儿的理解力和意识发展一样,自主学习型的机器人也是从无意识到拥有意识逐渐发展和培养起来的。这种能力是建立在机器人自己的能力和它们观察别人的举动而获得的抽象能力之上,机器人在发展和培养过程中通过自主的学习将拥有自己独有的意识能力。那么,人类的理解力和意识似乎并不能作为依据来否定机器人的理解力和意识行为。当人们感觉到它们的意识和行为是值得信赖的,那么机器人拥有意识的这一可能性也将成立,于是也就满足了意识这一必要的条件。这也似乎为机器人道德地位的确立提供了可能性。
理性作为道德地位的必要条件,也被人们所争论。一个人只有拥有理性,才能够知道自己该采取什么合适的方法来达到目的。理性往往是通过道德情感、道德信念表达出来的。这就要求机器人必须有能力去检测道德上的重要信息并有道德推理的能力。这种能力并不是决策和认知过程,而是基于某种道德标准所做的正确判断能力,并且能够运用恰当的理由来解释行为的正确性。迈克尔·安德森(Michael Anderson)和苏珊·利·安德森(Susan Leigh Anderson)提出:我们所需要的是机器的行为方式与在这种情况下道德的正确行为一致,并且能够通过引用可接受的道德原则来证明其行为。假如人类运用理性时会受到情感等原因的干扰,在做出道德判断时还不具有纯粹的理性。那么,在某种程度上来说机器人显然比人类更加理性。因为,机器人的行为结果完全是基于理论而做出的逻辑推理结果。
自由意志也可能是道德地位的必要条件,在机器人伦理问题中也用“自主”来表述自由的概念。一些人认为机器人永远不可能拥有自由意志。因为自主机器人虽然可以自行做出一些决定,但它们在进行判断时的依据则是预先编制好的软件程序,那么机器人的自主并不意味着它们在进行抉择时是自由的。经典的可选择的其他可能性原则(Principle of Alternative Possibilities,PAP)认为,行为的可选择性是体现人的自由意志的一个重要方面,而道德责任与自由意志的联系也是通过它来实现的。如果自主机器人在进行抉择时并没有可选择性,那其行为就是不自由的,也就不用承担道德责任。而一些学者则倾向于忽视人工道德主体自由意志的条件。弗洛里迪( Floridi)和桑德斯(Sanders)声称:“人类道德主体确实有自由意志,而事实上,没有达成广泛的共识。”就像机器一样,人类也可以被认为是按照特定的方式行事,因此,机器人缺乏自由意志,也不能因为机器人是预先设计或编程好的程序这一理由来否定机器人的道德地位。
如果上述的讨论,还仅仅局限于传统的道德观上,分析道德地位与道德相关的属性之间的探讨。那么在《日趋发展的道德关系》(Growing Moral Relations)一书中,马克·康科尔伯格(Mark Coeckelbergh)创造性地提出以关系的方法考察道德地位,将决定道德地位的要素推进到多元化,以此论证机器人有道德地位的可能性。他认为道德地位是伴随着实体之间的关系出现的。“关系”是一种综合作用的产物,不能被实体或实体的某种属性所定义。在确定机器人道德地位的时候,人们需要知道机器人是如何自然地、物质地、社会地嵌入人类生活中的。但是,当我们在思考机器人的道德地位的时候,一种关系性结构已经在那里预先存在着,这使我们认为机器人就只是“机器”,而不是把它看作我们的“同伴”。显然已经有了一种实在的人机关系,并且也存在着其他可能的关系同时约束着这一具体的关系。关系式的方法使得人们要用一个“正确”的方式去看待机器人,需要从根本上、道德上考虑机器人,其道德地位是生长在关系之中的,而不是在关系之前就先验地存在的。当一个完全自主的机器人出现在我们面前,所建构的人与机器人的关系在很大程度上取决于人们如何谈论机器人是“机器”还是“同伴”的问题;取决于人类如何与机器人生活在一起;取决于人类社会中技术的发展,尤其是强人工智能技术的发展。也正是这些因素激发机器人道德地位的讨论。
3 机器人发展所面临的现实问题
当然,机器人道德地位的确立不仅面临的是理论问题,也面临着许多现实挑战。诸如人在面临道德行为选择时,作为主体的个人表现出的是不同的道德价值判断并承担相应的道德责任,但是,无论人做出什么样荒谬的道德行为,也并不能就此取消人的道德地位。而机器人其道德行为选择一旦被人们所质疑,也就因此取消其道德地位的存在。这不仅仅是局限于目前强人工智能技术,也是出于人们对人工智能的偏见。
通常,人们对他人的期望往往比对自己的高,对机器人的要求比对他人的要求更高。那么,人们会因为智能机器没有做出人们期望的那种行为时,质疑其道德行为能力。在道德原则的多样性上,人对机器的期望也与对人的期望不同。例如,在电车难题的研究中,对那些不管是用义务论还是后果论的人来说都持比较开放的态度。但对于智能机器人,就显得没有那么宽容。甚至在这个难题的解答中,机器人应该给出一个更加让我们折服的答案。机器人道德地位的确立趋向于我们怎样“看待”机器人的问题上。也更强调面对这种人机关系,人类如何把自己的道德状态或者道德期望映射到其他主体上。如实的责任期望不是基于智能机器人的进化或者改变,而是基于我们改变自身的映射关系。
4 结语
科技的创新发展是现代化潮流不可逆转的,人类无力拒绝一个新世界,也无法拒绝技术化的未来,而科技的创新升级也会给社会带来意料之外的负担。如,人们在发明汽车时,也未曾想到200多年后的今天会出现“停车”问题。当然,强人工智能作为未来科技的發展方向,这种大趋势也是不可逆的。总之,机器人在未来的发展如何发挥应有的积极作用,很大一部分原因取决于机器人的伦理设计是否成功,这就需要科学家、哲学家等联合起来共同努力。
[参考文献]
[1]苏令银.人工道德主体:哲学假设与认识论挑战[J].西南民族大学学报:人文社科版,2018,39(3):62-68.
[2]王东浩.机器人伦理问题研究[D].天津:南开大学,2014.
[3]吕雪梅.以关系的方式探索“机器人”的道德地位—兼论道德思维范式的转变[J].内蒙古大学学报:哲学社会科学版,2014,46(5):30-35.
[4]张正清,黄晓伟.作为“他者”而承担道德责任的智能机器—一种人工智能成为道德能动者的可能性[J].道德与文明,2018(4):26-33.
[5]DEBORAH G,JOHNSON.Computer systems:moral entities but not moral agents[M].Holland:Kluwer Academic Publishers,2006.