(中原工学院马克思主义学院 河南 郑州 450000)
道德是人类世界永恒的话题,它是人类世界走向文明的标志。表示着人类理性的萌芽,千百年来,道德的进步也伴随着人类的进步而进步,但是近半个世纪依赖,道德进步的脚步似乎已经跟不上社会前进的步伐,这显然会造成很大的隐患。与此同时,人工智能作为引领新一次技术革命浪潮的新技术被全世界所关注。人工智能技术是一项高新的高新技术,对它的研究也涉及伦理学、心理学、计算机技术等等。人工智能技术的核心其实是试图用计算机语言解码出人类思维并进行对人类智能的模拟。在对人类智能模拟的过程中我们当然会对道德进行的审视,这无疑会加速道德的进步。对人工智能伦理问题的研究有很多路径,其中笔者认为机器伦理是实现道德进步的最佳路径。
道德进步是一个老生常谈的问题。一个孩子可能认为把捕捉到的苍蝇的翅膀扯下来,看着它们挣扎着四处走动是一件很有趣的事,但当一个成年人看到这种行为是残忍的,因此是不道德的。随着我们的正误意识的增长,我们越来越善于识别和避免甚至是微妙的形式的谎言、欺骗、虐待、忽视和所有这些有害的行为。我们甚至能更好地做出正确的判断。例如,父母可能会采取欺骗的手段带他或她的孩子去医生,即使知道孩子因为会害怕去到医院而伤心地哭泣。此外,人们可以更好地理解一些道德问题所带来的困难,并理解为什么最终解决这些问题是困难的。堕胎是不道德的吗?杀了人,骗了人,伤害了人,这样做合适吗?如果合适,什么时候合适?
不仅个人可以变得更有道德,整个文化、社会和国家也可以。那些曾经完全公开拥护奴隶制的国家会发现奴隶制是错误的。事实上,在过去,强烈的种族和性别歧视曾是司空见惯的事情,但现在,这两种歧视都被广泛认为是错误的。更重要的是,这种道德成长背后的情感似乎是普遍的:就像其他人不仅仅是我们使用和滥用的工具一样,我们的自然环境也不仅仅是我们使用的工具。因此,那些主要利用自然资源的社会现在至少部分地开始保护自然资源。
一个人怎样才能变得更有道德?很明显,要通过学些,但学习通常是很复杂的,但究竟什么才是真正的学习呢?学习在一开始通常建立在对别人的模仿,在模仿的过程中,他开始知道别人是真实的存在,就像自己一样。这意味着他们和自己一样有恐惧、希望和欲望。他们能感受到痛苦、快乐和绝望。下一步是困难的部分。一般来说,因为别人和自己很像,因为自己很重要,所以别人也很重要。他们的恐惧、希望和欲望很重要;他们的痛苦、快乐和绝望至关重要。一般来说,我们都会在某个时刻觉得别人和自己很像,因为自己很重要,所以别人也很重要。他们的恐惧、希望和欲望很重要;他们的痛苦、快乐和绝望至关重要。一个人在明白了他人的重要性时,就获得了一种激励因素:知道他人的重要性会以某种方式导致一个人的行为,这是一种激励。要在道德上成长,一个人必须看到别人的纠缠把责任(责任、要求)放在自己身上:别人的繁荣成为对自己有意义的新事物。尊重这种新事物的行为是合乎道德的。
整个社会的道德进步是一种复杂的相互作用,包括哥白尼个体转向的自下而上的总和,以及对个体的自上而下的社会影响。这种复杂的相互作用所产生的不愉快的、当然也是最重要的结果是,整个社会以及个人的道德成长将是漫长的。举个例子:奴隶制度在古代很普遍。但是,即使在150年前,奴隶制仍然被很多西方国家认为是整个社会行为的一种完美的体面方式。此外,尽管它现在在地球上的每个国家都是非法的,但它仍然被广泛使用。
重要的是,我们在道德上被要求变得更好。正如我们所看到的,道德是关于他人的行为。它显然以程度来衡量,我们可以而且确实在道德方面做得更好。然而,我们还没有达到完全的道德标准(或者至少是非常道德的标准),我们还没有达到这样的道德标准,这意味着我们仍然每天对彼此和其他动物做可怕的事情。然而,这些可怕的事情不应该做。为了不这样做,我们必须提高我们目前的道德水平。请注意这种情况与其他人类能力有多么不同。我们不需要提高数学成绩。在过去的几千年里,我们变得更好了,而且我们还在继续这样做,在数学方面变得更好是一个巨大的恩惠;但无论是道德上还是数学上,我们都不需要在数学上做得更好。我们不会因为智商不高,能力不强而受人诘问,但是我们却会因为不够道德而遭人训斥。当然道德不是人生来就有的,在人们的成长过程中我们都会有各种各样的恶的思想,而道德则是约束我们走向恶还转向善的指明灯。但是人类是理智与情感并存的生物,理智提醒我们要遵守它,但事实上更多数时间我们则是收到情感的支配而做出不道德的行为,这充分说明了在道德上我们是存在阈值的。因此如果存在一个我们的替身,它可以剔除掉我们存在的缺点(冲动、欲望、贪婪等等),而保留下我们的优点理性、善良等,那我们的道德阈值将被无限的增大。构建我们的替代者涉及两个问题:(1)构建具有人类智能水平的机器,(2)构建道德机器。建立前者会给我们带来后者。然而,正如之前提到的,道德机器不应该被创造为是过渡理智的,对他人的关心是必须的,而这并不是来自纯粹的理性、人类层面的智能——这是显而易见的,因为有很多聪明的坏人。第一个问题是每天都要处理的,因为各种各样的人工智能研究人员都在努力发现并实现算法,以说明我们人类是目前为止地球上最聪明的动物。诚然,从我们当前的智能构建技术到具有人类智能的机器,这是一个巨大的飞跃。然而,在人工智能方面,我们才刚刚起步,我们完全有理由保持乐观——至少,现在没有理由悲观。首先,我们可能有正确的基本理论:计算主义。如果是这样,那么我们找出控制人类思维的算法只是时间问题。
实现道德机器是为智能机器增加对他人的关心和同情。同情是一种感觉的情感。因此它涉及到意识。我们对产生意识的机制一无所知,就我们所知,二元论可能是正确的。然而,这并不是绝望的理由。我们也是有意识的。因此,几乎可以肯定的是,制造具有人类智能水平的机器就是制造有意识的机器一旦我们实现了道德机器。他们将立即成为我们的道德上级(由此推论,它们不会杀死我们)。他们不会花上几千年的时间来计算出出奴隶制是错误的,而是在他们考虑奴隶制的概念的那一刻就知道它是错误的。
机器伦理,又称为计算伦理,它脱胎于计算机伦理,最早由M.安德森在《Towards Machine Ethics: Implementing Two Action-Based Ethical Theories 》提出,其核心思想是给机器添加一个伦理维度,使机器的行为合乎当前社会的伦理规则。由此来看,机器是构建我们替代者的最佳通途。其主要研究领域在于伦理理论嵌入的方法论即给智能机器嵌入何种伦理理论才是最好的。那么在维度上展开讨论无疑会使得我们对道德进行重新审视。另外对于在机器上添加伦理维度学界也有不同的声音。有的人立志于建立一台完全的道德代理人,他具有和人一样的道德主体地位,另外还有一种声音是建立一种道德辅助机器,它只是帮助人们解决道德争端,不涉及主体地位的本体论之争,这种声音也被视为最有可能实现的。
人类的不道德行为通常可以追溯到我们行为中的五种倾向:(1)我们容易被情绪冲昏头脑,这可能导致我们的行为不理性。(2)我们倾向于只考虑自己的欲望和目标,也就是说,我们倾向于表现得自私自利。(3)我们往往会不假思索地接受周围人的价值观。(4)我们没有好的榜样.当我们看到我们的英雄行为不道德时,这给了我们一个不努力使自己更有道德的借口。(5)我们追求即时的满足,道德行为不仅不太可能带来即时的回报,而且可能不会在我们的一生中带来来自外部的满足。
机器伦理研究有助于抵消人类行为中往往导致我们做出不道德行为的倾向。在前面提到的前三个倾向——被情感冲昏头脑,以自我为中心行事,不加反省地接受周围人的价值观——很可能是我们作为一个物种进化历史的结果。有强烈的情绪反应,特殊情况下,例如,允许我们采取行动比花时间更快的使用我们的理性来确定最佳的行动方针,因此它可能是对我们有利的生存变得情绪化的人可以引起迅速采取行动。在最好的情况下,我们发现自己所处情况下的情绪反应与通过理想推理得出的正确行为决定是同步的。然而,我们知道情况并非总是如此。强烈的情绪导致人们犯下了在道德上无法被证明是正确的暴行。
这种以自我为中心的行为倾向,无疑源于确保我们生存和繁衍的进化需要。如果我们不把自己放在第一位,至少在某种程度上,我们将不会继续存在。我们必须确保有足够的食物、住所等;因为未来是不确定的,我们可能习惯于确保在任何时候我们拥有的都比我们需要的要多,以防我们一直依赖的东西被夺走。此外,一个人拥有的个人财产、社会地位等越多,他就越有权力,这就更有可能确保他的生存。因此,作为不得不与他人竞争生存的生物实体,我们倾向于把自己放在第一位是很自然的。然而,从道德的角度来看,我们至少要考虑所有人类(或许还有其他动物)的福祉,同时也要平等考虑。
此外,我们倾向于接受周围人的价值观这一事实也可以从进化的角度来看是有利的。一群人团结在一起,共同行动,被相似的价值观所激励,他们比那些独自对抗世界的人有更好的生存机会。这是创造社会的动力,也是我们作为社会人进化的原因。然而,研究表明,那些自己可能不会做出令人发指的行为的人,更有可能作为一个群体的成员做出这种行为。因此,就伦理学家而言,不加思考地采纳他人的价值观存在潜在的危险。
在创造有道德的机器人时,我们不会倾向于将这些人类进化进化的行为纳入机器;而且,幸运的是,从零开始创建的机器不会受到进化压力的影响。我们不希望机器有条件反射的情绪来支配它们的行为。相反,让机器行为由推理和使用彻底审查的道德原则来指导,肯定是更好的选择。以今天计算机的速度,在做决定时不会有任何延迟,就像人类一样。
我们当然不希望机器像人类一样,在决定如何应对道德困境时总是偏袒自己。事实上,想象一个自私的机器似乎很奇怪(除了在科幻小说中),因为很难想象一个有感情的机器。机器设计者在道德的部分肯定会把重点放在人类的福利上,他们可能会接触到机器,只是增加了保护装置,以防止机器不能做它的工作。
机器伦理学家在决定将人类的价值观纳入机器时,不应该不加思考地采纳人类在其特定社会中的价值观。除了理论原因外,还有实践原因。除非它们自己社会中存在的价值观是一致的,否则它们无法在机器中被实例化;除非这些价值观被普遍接受,否则这些被编程的机器在全球经济中就没有竞争力。
我们当然希望,被创造出来的机器将比大多数人类表现得更合乎道德,并可能成为我们的良好榜样,而不像人类的“英雄”,他们往往是有缺点的。与道德机器互动应该对人类行为产生积极影响。我们将不能再为我们的道德缺陷找借口,说我们没有好的榜样来告诉我们应该如何行事。特别是儿童,他们应该享受与敏感的道德机器人互动,他们的行为是可塑的。这可能需要一段时间,但我们有充分的理由相信,人类的行为将随着这些互动而改善。也许我们能为人类的福祉做出贡献的最重要的事情,作为个人和人类的一员,就是提出一个人应该如何与他人互动的愿景。机器伦理学家可以在这个有价值的事业中发挥领导作用,通过创造理想的榜样来激励人类更合乎道德地行事。它们可以创造道德机器——一种不具威胁性的机器,它不仅在许多方面帮助我们,还可以向我们展示,如果我们要作为一个物种生存下去,我们需要如何表现。