机器人伦理学的研究进程
——基于英语文献的分析

2021-03-26 14:12林津如
关键词:伦理学机器伦理

林津如

(东北大学 马克思主义学院,辽宁 沈阳 110169)

“机器人伦理学”(roboethics)这一术语由意大利学者奇安马可·沃卢吉欧(GianmarcoVeruggio)在2002年的机器人学第一次会议(“国际机器人伦理学研讨会”)上首次提出。此次会议上,沃卢吉欧和加州理工大学的基思·阿布尼(Keith Abney)对“roboethics”和“robot ethics”做出了区分。他们认为,“robot ethics”与机器人的伦理准则和识别力的编程或信息结构有关,“roboethics”则是应用伦理学的一个分支,是对开发和应用机器人过程中产生的特定问题的伦理反思,如人的安全、尊严、隐私和自由等问题。为了便于识别,我们把这种伦理学称为“机器人应用的伦理学”。此外,参会者还把“机器人伦理学”(roboethics)细化为两种应用分支学科:第一种是“机器伦理学”(machine ethics),主要关注“机器如何对人类表现出符合伦理道德的行为”,在这个层面上,机器人被假想为在充分理解其含义和后果的基础上,具有良知和选择自己行动的自由,甚至是能够承担责任、拥有权利的道德代理人;第二种是“机器人伦理学”(roboethics),主要关注“人类如何在设计和使用操作阶段与这些机器进行联系交互”(1)Gianmarco Veruggio,“The Euron Roboethics Roadmap”, 2006 6th IEEE-RAS International Conference on Humanoid Robots, 2006, pp. 612-617.,即工程师和机器人专家如何把应该遵循的行为准则实现在机器人的人工智能算法中,这被视为一种“人造”伦理,保证自主机器人在与人类的互动中表现出在伦理上可接受的行为。

由此可见,机器人伦理学的研究内容关涉三个方面:一是机器人的伦理学,即我们如何通过编程让机器人成为合道德的主体,以及如何在使用操作阶段与这些机器进行联系交互;二是机器伦理学,探讨机器人是否能够作为道德代理人,在使用中如何对人类表现出符合道德的行为;三是机器人应用的伦理学,即对开发和应用智能机器人过程中产生的特定问题(如人的安全、尊严、隐私和自由等问题)进行伦理反思。机器人伦理学的这三个方面,前两者分别聚焦于人机关系的一极:第一,设计人如何把机器人设计成符合道德的;第二,机器人是否能够作为道德主体并承担道德责任。第三个方面则是关于应用机器人的过程中并非出于任何人或机器人的主观愿望而导致的伦理问题。自从这次会议对机器人伦理学划分出这三个层次之后,国外对于机器人伦理的研究基本都围绕这三个方面展开。本文将梳理和评价这三方面的研究,并在此基础上对进一步研究的焦点和方向提出建议。

一、机器人的伦理学——设计道德机器人的三种进路

机器人伦理学主要关注人类如何设计符合道德的机器人,提出了实体进路、关系进路、价值敏感性进路等设计方法。开发和设计道德机器人时遭遇的价值选择与价值冲突问题也受到关注,但人类在使用阶段与机器人进行交互的伦理问题则很少被研究。

1.实体进路

实体进路是指根据特定伦理学框架设计机器人,并让机器人在使用过程中通过学习来进一步完善道德能力。瓦拉赫和艾伦在其合著的《道德机器: 教导机器人分辨是非》中把道德机器人的设计进路分为“自上而下”、“自下而上”、“自上而下”与“自下而上”相混合三种进路。“自上而下”进路是指依据某种特定的伦理学理论,分析其计算的必要条件,用其指导设计能够实现该伦理学理论的算法和子系统,并创造一种环境,让机器人行为体在这种环境中学习和探索行为方式,在能够作出合乎道德的行为时受到奖励(2)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong , Oxford University Press, 2009, pp.79-80.。

哥伦比亚大学教授彼特·丹尼尔森(Peter Danielson)在其1992年的著作《技术人工物道德:善良机器人的美德游戏》中,根据特定伦理学框架探索了计算机技术如何构造道德推理模型,该研究工作代表了当时机器人伦理学领域的最高成就(3)Peter Danielson, Artificial Morality: Virtuous Robots for Virtuous Games, London: Routledge Press, 1992,p.1.。很多研究者建议将人类道德嵌入到机器人中,如安德森(Anderson)等人提出了创造道德敏感的机器的思想,认为机器执行运算是为了实现道德原则,阿库达斯 (Arkoudas)等人也持同样的观点。帕沃斯(Powers)探索了如何将计算机编程为(或至少模拟为)康德式的道德代理人,认为如果我们根据普遍道德法则规定了机器,我们就可以在机器中实现人类的道德规范。跟随这个思路,阿克恩(Arkin)提出了将伦理嵌入战场机器人的观点(4)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies”, Ethics and Information Technology, 2014, 16(3), p.204.。但是瓦拉赫指出,“自上而下”的研究进路存在局限,因为有多种不同的伦理学理论,人们对各种伦理学理论又有着各自不同的看法,把一套明确的伦理规则赋予机器人可能并不合理,而且同一种原理在不同的情况下可能会导致相互矛盾的决定(5)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong , Oxford University Press, 2009, p. 97.。

与“自上而下”的思路相反,“自下而上”进路要求人工智能体能够自我发展,而进化与学习是在经验之中反复试错的过程。克勒斯 (Peter Kroes) 和维贝克 (Peter-Paul Verbeek)论证说,技术人工物不仅仅是一种消极的工具,而且应该被视为一种行为主体。认知科学进路,即将认知理论应用于机器人设计的方法,也属于“自下而上”,该进路强调在研究人类认知规律的基础上建构理论模型,实现机器人对道德的自主学习和认知。瓦拉赫等人就认为,LIDA ( Learning Intelligent Distribution Agent) 认知结构模型可作为道德抉择模型,因为它拥有更强大的学习能力和更合理的认知循环结构,并且是一个能够把感觉和感情融入认知过程的综合性的认知模型(6)Wendell Wallach, Franklin Sian, Allen Colin, “A conceptual and Computational Model of Moral Decision Making in Human and Aritficial Agents”, Topics in Cognitive Science, 2010,2(3),pp.454-485.。但“自下而上”缺乏可以由伦理学理论提供的指导系统,仅凭自身还不足以设计出道德机器人。

综上所述,对人工智能体的设计者来说,这两种进路都过于简化,应该寻求两者的结合。瓦拉赫认为,亚里士多德的美德伦理学能够统一这两种进路,因为美德本身可以清楚地表述出来,而它们的习得又是典型的自下而上的过程,因此可以建构一种“自上而下”植入美德的计算机,同时通过计算机学习来培养美德(7)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong ,Oxford University Press, 2009, p. 119.。所以,“自上而下”和“自下而上”这两种进路应是互补而不是相互排斥的,将两者结合起来的进路(混合进路)更为可取。帕特里克·林(Patrick Lin)等人2008年向美国海军部提交报告《自主军用机器人:风险、伦理与设计》,对军用机器人的伦理设计就采用了瓦拉赫与艾伦提出的混合进路(8)Patrick Lin, George Bekey, Keith Abney, Autonomous Military Robotics: Risk,Ethics and Design, San Luis obispo California Polytecnic State University, 2008,p.11.。格迪斯(Anne Gerdes)等学者认为,艾伦等人提出的混合进路是建构人工道德行为体的典型进路(9)Anne Gerdes, Peter Ohrstrom, “Issues in Robot Ethics Seen through the Lens of a Moral Turing Test”, Journal of Information, Communication and Ethics in Society, 2015,13(2),pp.98-109.。

2.关系进路

关系进路的代表人物是马克·考科尔伯格(Mark Coeckelbergh),他倡导从人机互动的角度考察机器人伦理,强调机器人的外观(appearance)在机器人伦理研究中的重要作用,建议我们基于明显的类人特征,而非真实的类人特征(如智力、意识、情感等)来研究人类如何与机器人互动。机器人如何对待我们,取决于它在我们面前的样子,而不是取决于什么是它心中的“真实所想”。现有的机器人没有知觉也缺乏感觉,但是当人类与某些类型的机器人互动时,机器人可能会像有感觉一样行动和说话。而机器人在这种互动时所表现出的样子和行为,对设计道德机器人来说格外重要。

考科尔伯格认为,如果仅仅象实体进路那样,聚焦于机器人的类人特征,强调机器人真正是什么或是否真正可以成为道德主体,会面临两个困难:一是很难对机器人的类人特征给出确定标准;二是这种方法排除了对于更广泛的伦理问题的思考,比如有机器人和没机器人的生活有何不同,这个不同的伦理意义是什么,我们想过哪种生活。而且实体进路把道德问题限制在了关注人机互动中可能出错的事情上,因此排除了一个非常重要的问题:如果一切顺利,与这些机器人生活在一起是善的吗?所以机器人伦理学应转向一种互动哲学,认真研究基于机器人外观的伦理问题,包括人机在社会环境中互动时蕴含着哪些伦理,我们应如何看待人和机器人的相处,我们要如何认识机器人,机器人可以对我们做什么,等等(10)Mark Coeckelbergh, “Personal Robots, Appearance, and Human Good: A Methodological Reflection on Roboethics”, International Journal of Social Robotics, 2009,1(3), pp.217-221.。考科尔伯格认为,关系进路使我们关注人机互动如何有助于建构人类美好生活,并想象与那些有助于构成美好生活的机器人一起生活的可能性。

3.价值敏感性进路

价值敏感性进路由艾梅·凡·温斯伯荷(van Wynsberghe Aimee)提出,是一种以护理为中心的价值敏感设计(Care-Centered Value Sensitive Design,简称CCVSD)。根据这个思路,产品设计的第一步便是要求思考机器人潜在的应用问题。伦理学家在此阶段应该深入医院或护理家庭,了解具体环境中的护理情况,记录环境中价值的转译与排序问题,进而向工程师解释某些护理实践的意义、不同护理实践之间的关系和护理的整个过程。接下来便是选择护理机器人设计的具体实践,伦理学家要对护理实践进行详细描述,阐明各种价值如何通过行为与互动表现出来,揭示各种护理实践之间的相互关系,识别出机器人重新引入某些护理价值的可能性等。在此基础上,伦理学家与机器人设计团队合作,讨论护理机器人的能力、特征、表象以及功能,由此便可把机器人的伦理能力建立在具体案例和设计研究的基础上,而不是主观决定机器人应该拥有哪些能力。CCVSD 进路既为护理机器人需要关注的内容提供了伦理框架,也给出了把伦理考量融入设计过程的实现方法(11)van Wynsberghe Aimee, “A Method for Integrating Ethics into the Design of Robots”, Industrial Robot: An International Journal, 2013,40(5), pp.433-440.。

4.价值选择与价值冲突问题

在开发和设计道德机器人的过程中,无论遵循哪条进路,都要面对价值选择的问题。一方面,有多种道德理论和伦理原则可供设计者选择,但这些理论和原则所倡导的价值各有局限,且相互之间可能存在冲突。在缺乏普遍共识的情况下,如何寻找各方认可度最高的适用于道德机器人设计的伦理原则便成了一个问题。另一方面,设计道德机器人时,设计者所追求的伦理价值不是一元的而是多元的,而多种价值之间有可能存在冲突,因此,设计道德机器人也会涉及价值冲突的问题,如何解决冲突,在面对冲突时如何选择和取舍,便构成了另一个问题。

在寻求最普遍的道德共识,并以此为理论框架来设计道德机器人的问题上,近十年来学者做出了诸多尝试。博登(Boden)、布赖森(Bryson)、考德维尔(Caldwell)等人在2011年提出了机器人设计应遵循的几大伦理原则:机器人首先要对人类无害且友善;除非国家安全需要,机器人不能执行任何伤害人的任务;机器人必须遵循法律并保护人权特别是隐私权;机器人在任务过程中应确保其使用者的身心安全;机器人的设计不能具有欺骗性,尤其不能利用弱势群体的渴望来制造幻想进行欺骗;必须明确机器人行为的归责人(12)Margaret Boden, Joanna Bryson, Darwin Caldwell, Kerstin Dautenhahn, “Principles of Robotics: Regulating Robots in the Real World”, Connection Science, 2017,29(2), pp. 124-129.。布赖森在2017年进一步提出了人工智能自动系统中伦理系统设计的七条标准,这些标准强调了普遍原则、价值观、安全性能、慈善、隐私与人权、军事人道主义,以及经济与法律方面的考虑(13)Joanna Bryson, Alan Winfield, “Standardizing Ethical Design for Artificial Intelligence and Autonomous Systems”, Computer, 2017, 50(5), pp.116-119.。

面对多元价值时,如何进行优先级排列,如何解决价值冲突,学者在近十年提出了一些思考。例如,设计护理机器人时应优先用户的自主性还是安全,汤姆·索雷尔(Tom Sorell)和希瑟·德雷珀(Heather Draper)指出,护理机器人作为看护者,甚至作为真正意义上的“关怀”机器人(carebot),应该最看重被看护者的自主性,自主性高于安全考虑。但当尊重自主性会威胁到用户的生命或身体健康时,自主性可能会被超越。索雷尔和德雷珀明确提出,设计护理机器人伦理框架时,必须促进被护理者的六个价值:自主(能够在生活中设定目标并选择手段)、独立(能够在没有他人许可、援助或物质资源的情况下实现自己的目标)、使能(具有选择和实现目标的能力)、安全(容易避免痛苦或伤害)、隐私(能够追求和实现自己的目标、自己的选择)、社交联系(定期与朋友和亲人保持联系,安全地与陌生人见面)。为避免这些价值发生冲突,可以对机器人提供不同的角色分析,在此基础上构建与这些角色相匹配的伦理框架。总之,设计护理机器人的统摄理念是要让设计框架能够保障被照顾者的利益(14)Tom Sorell, Heather Draper, “Robot Carers, Ethics, and Older People”, Ethics Inf Technol, 2014, 16, pp.183-195.。希瑟·德雷珀和汤姆·索雷尔进一步强调,六种价值发生张力时,被照顾者的自主性应被视为压倒一切的价值,但也指出,安全问题可能比我们先前所设想的更为重要。总之,必须在机器人供应商和用户之间达成协议,可以通过用户的自主选择来解决框架内各种价值之间可能出现的张力甚至冲突(15)Heather Draper, Tom Sorell, “ Ethical Values and Social Care Robots for Older People: an International Qualitative Study ”, Ethics and Information Technology, 2017, 19(3), pp.49-68.。

除了护理机器人,无人驾驶汽车也是道德机器人设计与应用的一个典型案例。博纳丰(Bonnefon)教授通过对无人驾驶汽车进行实验,测试人工智能伦理系统实现道德自主权的可能性。虽然机器人的系统设计突出了人们对机器人实现道德、实现对文化的尊重、对各国法律标准的遵守等期望,但实验结果表明,目前人工智能伦理系统还不能够协调不同道德价值之间、个人利益之间的冲突,也不能够融合不同文化间的差异(16)Jean-Francois Bonnefon, Azim Shariff, Iyad Rahwam, “The Social dilemma of autonomous vehicles”, Science, 2016, 352 (6293), pp.1573-1575.。

二、机器伦理学的研究

机器伦理学主要研究机器人是否能够作为道德代理人承担道德责任的问题,学者通过罗列成为道德代理人的必要条件并考察机器人能否符合这些条件进行判断。当机器人无法作为道德代理人承担道德责任,道德责任的归属便成为一个新的问题。

1.机器人作为道德代理者的可能性

关于机器人能否被看作道德代理者,美国“机器(人)伦理学”研究的早期开拓者之一,耶鲁大学生命伦理学跨学科研究中心的温德尔 · 瓦拉赫(Wendell Wallach)和印第安纳大学认知科学工程中心的科林·艾伦(Colin Allen)合著的《道德机器:如何让机器人明辨是非》一书,在哲学本体论和认识论领域对狭义机器人和广义人工物道德行为体AMAs(Artifact moral agents)的理论和实践问题进行了全面探讨。讨论包括人工物道德行为体能否获得合法道德行为体资格,技术人工物能否在根本上被看作一种“行为主体”,一个自治系统能否“真正地”满足和具备自治行为的需要等。他们把机器人能够实现的道德程度划分为三个层级,一是“操作性道德”(由系统实现,仅能在可接受行为标准内行动,这种道德完全掌握在工具设计者和使用者的控制中),二是“功能性道德”(在操作性道德和可靠的道德智能体之间的道德层级),三是能够评估自身行为道德意义的可靠道德智能体实现的道德。他们认为,由于缺失诸如意识和情感等人类特征,完备的人工道德智能体还很遥远,但是,人们有可能开始建构一种“功能性道德”,从而使人工道德智能体具有基本的道德敏感性(17)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press, 2009,p.172.。

与瓦拉赫和艾伦的观点相似,摩尔(Moor)认为,作为道德代理者的机器人可分为三种:第一种是与伦理关涉的代理者(ethical-impact agents),这类机器行为程序的编写关涉伦理要求且分为两类,一类是通过编程对其进行机械的伦理约束,另一类是隐性伦理代理者(implicit ethical agents),这类机器在设计时就植入了伦理程序源,机器能够根据程序要求做出恰当的行为,而不仅仅是通过简单编程对其进行机械性的伦理约束;第二种是显性伦理代理者(explicit ethical agents),这类机器可以自动识别周围环境的伦理信息,在不同情境下判断当前行为的合理性,并对该行为产生的后果进行预测;第三种是完全伦理代理者(full ethical agents),这类机器能够高度模拟人类思维与伦理意识,在特定情境中做出判断与选择,完全可以被视为具有道德行为能力的道德主体。摩尔也认为,时至今日,仍然没有明确的证据可以证明机器能够成为完全的道德主体(18)James H Moor, “The Nature, Importance, and Difficulty of Machine Ethics”,IEEE Intelligent Systems, 2006, 21(4), pp.18-21.。

2.机器人是否应当履行道德责任

关于机器人是否要承担道德责任的问题,有两派不同的意见:一派认为机器人不应该承担道德责任,另一派认为机器人应该承担道德责任。认为机器人不应承担道德责任的这一派论证说机器人没有意向性,即没有精神状态和行动意图,只是根据人类设计的程序而行动,无法意识到自己所做的选择,所以不应当承担道德责任。弗里德曼(Friedman)和小卡恩(Kahn Jr)、斯塔尔和辛马(Himma)都持有相似观点,认为如果要成为道德代理人,人工系统就需要有意识(19)Kenneth Einar Himma, “Artifificial Agency, Consciousness, and the Criteria for Moral Agency: What Properties must an Artificial Agent have to be a Moral Agent?”, Ethics and Information Technology, 2009, 11(1), pp.19-29.。没有意向性表明机器人缺乏人类意义上的意志和自由,他们的行动是被硬件或软件所决定的。而至今在物质和结构上可以想象到的计算机系统都不可能有意向性(20)Batya Friedman, Peter H Kahn, “Human Agency and Responsible Computing: Implications for Computer System Design”, Journal of Systems and Software, 1992,17(1), pp.7-14.。汤凯恩强调,人工系统将按照程序员所安装的规则进行编程,否则是不会行动的(21)Ryan Tonkens, “A Challenge for Machine Ethics”, Minds and Machines, 2009, 19(3), pp.421-438.。科克伯格(Coeckelbergh)没有直接探讨关于人工系统在道德上是否值得称赞的问题,但他认为,对道德价值的评价需要确定某台机器是不是一个自由且有意识的代理人,而这一点我们无法做到(22)Mark Coeckelbergh, “Virtual Moral Agency,Virtual Moral Responsibility: On the Moral Significance of the Appearance, Perception, and Performance of Artificial Agents”, AI & SOCIETY, 2009,24(2), pp.181-189.。帕特里克(Patrick Chisan Hew)赞成这种观点,认为机器人符合道德需要具备一定的能力,并认为目前的人工系统无法提供这个功能(23)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies”, Ethics and Information Technology, 2014, 16(3), pp.197-206.。

如果机器人不能够对它们的行为承担责任,那么,谁应当承担机器人的责任呢?大部分学者认为,人应当承担机器人行动所导致的问题的责任。正如维鲁乔(Veruggio)所指出的,机器人实际上只是一种机器,这些人类创造者的工具不知道它们所做的选择,因此人们对它们的行为负有道德责任(24)Antonio Espingardeiro, A Roboethics Framework for the Development and Introduction of Social Assistive Robots in Elderly Care , University of Salford, 2014,p.17.。如鲁福(Ruffo)论证说,机器人遵循的是人类提供给它的程序。斯坦森(Stensson)和杨森(Jansson)也认为,由于技术手工艺品没有自己的生命,因此无法了解人类基本价值观的真正意义(25)Patrik Stensson, Anders Jansson, “Autonomous Technology-Sources of Confusion: A Model for Explanation and Prediction of Conceptual Shifts”, Ergonomics, 2013, 57(3),pp. 455-470.。帕斯摩(Parthemore)和维特贝(Whitby)认为,机器人缺乏必要的决策机制,因此,不应该将责任分配给目前的和制造中的机器人(26)Joel Parthemore,Blay Whitby,“Moral Agency,Moral Responsibility,and Artefacts”,International Journal of Machine Consciousness,2014,6(2),pp.141-161.。帕特里克(Patrick Chisan Hew)也认为,应该将部分责任分配给那些选择制造或使用机器的人,因为机器的行为规则和供应这些规则的机制必须完全是由外部人类提供的。如果有了可预见的技术,人类将承担全部责任,而机器人将对其行为承担零责任(27)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies” , Ethics and Information Technology, 2014, 16, pp.197-206.。布赖森(Bryson)也指出,人工物品所执行的行为的责任在于人类(28)David J. Gunkel,Joanna J. Bryson, Steve Torrance,“The Machine Question: AI, Ethics and Moral Responsibility”,The Society for the Study of Artifificial Intelligence and Simulation of Behaviour,2012,pp.73-77.。库弗里克(Kuflik)认为人类必须对计算机的决定承担最终的道德责任,因为正是人类设计了计算机并编写了他们的程序。关于程序计算机超越其原始程序的可能性,库弗里克认为,如果是人类自己重新编程,那么这些人将自己承担道德责任(29)Arthur Kuflik, “Computers in Control: Rational Transfer of Authority or Irresponsible Abdication of Autonomy?”,Ethics and Information Technology, 1999,1(3),pp.173-184.。

另一派认为,机器人应当承担道德责任。但关于机器人如何承担道德责任,又存在两种不同的观点。一种观点认为,机器人承担道德责任需要符合一定的条件,如弗洛里迪(Floridi)和桑德斯(Sanders)指出,如果机器人符合互动性、自主性和适应性的标准,它就可以承担道德责任(30)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies”, Ethics and Information Technology, 2014, 16(3), pp.197-206.。关于互动性、自主性和适应性的定义,弗洛里迪和桑德斯声称与艾伦等人的定义一致,“互动性就是通过状态的变化来对刺激作出反应,也就是施事者和环境能够互相影响;自主性就是在没有刺激的情况下改变状态的能力,不是直接去响应互动,这造成了某种程度的复杂性和与环境的耦合。适应性是使能够致使状态改变的‘转换规则’进行改变的能力,即施事者可被视作依靠对自己的经验的分析,学习自己运行的模式”(31)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong ,Oxford: Oxford University Press, 2009, p. 60.。马西森(Matheson)对于机器人承担道德责任的条件则与弗洛里迪和桑德斯持不同的观点,认为人工系统如果是弱编程的系统,就应当承担责任。因为弱编程与强编程不同,人工系统无法克服强编程的影响,并且人工系统是根据编程要求的方式进行推理和行为的(32)David J. Gunkel,Joanna J. Bryson, Steve Torrance,“The Machine Question: AI, Ethics and Moral Responsibility”,The Society for the Study of Artifificial Intelligence and Simulation of Behaviour,2012,pp.73-77.。赫尔斯特罗姆则更强调机器人的自主能力在承担道德责任方面的影响,他指出,人类将道德责任分配给机器人的倾向随着机器人自主能力的提高而增加(33)Thomas Hellstrom, “On the Moral Responsibility of Military Robots”, Ethics and Information Technology, 2013, 15(2), pp.99-107.。

第二种观点认为,机器人应当承担道德责任,但让机器人承担道德责任会导致一些难题。马提亚斯(Matthias)认为机器的行为应归咎于机器本身,追究人类的责任是不公正的,但追究机器的责任将挑战传统的归因方式,他将这一情况称为“责任缺口”(responsibility gap)。马提亚斯认为,之所以出现这种情况,原因有三:第一,在某种程度上,现代机器本质上是不可预测的;第二,随着手工编码程序被更复杂的方法所取代,制造商和系统之间的中间层越来越多,因此有必要将责任分配给那些为制造现代自动化系统做出贡献的多类人员;第三个原因与机器学习系统有关,机器的行为规则在生产过程中不是固定的,可以在运行过程中改变(34)Andeas Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata”, Ethics and Information Technology, 2004, 6(3), pp. 175-183.。因此,简单地把机器人运行中出现的问题归咎于机器人或制造者都不合适。

3.对机器人进行道德约束的必要性

博斯特罗姆(Bostrom)认为,人工智能作为超越人类大脑成为超级智能体(super-intelligence)是令人担忧与值得质疑的,因为超级智能体作为一种完全独立于人类智慧之外的实体,会挑战人类生存。虽然目前的人工智能发展尚未进入超级阶段,但构建人工智能道德代理的风险防范机制极为必要,所以,在人工智能载体的设计阶段,就要充分考虑其作为人类事务委托者或决策代理者应该遵守的伦理规范(35)Paul D. Thorn,“Nick Bostrom: Superintelligence: Paths,Dangers,Strategies”,Minds and Machines,2015,25(3),pp. 285-289.。阿诺德(Arnold)基于伦理评价体系对如何预防人工智能代理的潜在危机与威胁进行了探讨(36)Thomas Arnold, Matthias Scheutz, “The ‘big red button’ is too late: An Alternative Model for the Ethical Evaluation of AI Systems”, Ethics and Information Technology, 2018, 20(1), pp. 59-69.。

瓦拉赫(Wallach)与艾伦(Allen)首次提出了“奇点临近论”,他们认为当人类临近智能技术“奇点”(singularity),智能技术无限制突破,机器将会融合人类的知识和智慧,成为超出人类生物学范畴的“智慧生物”并挑战人类生存空间,因此,构建“人类与机器文明”的社会伦理秩序和人工智能道德安全体系,对于保障人类生存与延续非常重要。为此,瓦拉赫与艾伦提出了基于机器人文化、情境伦理、代理理论以及编程系统开发的人工智能道德安全体系架构,具体讨论了智能机器不道德行为的事后抑制、智能程序启动的伦理测试、伦理辅助测试,以及智能机器部署与环境体系等问题(37)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong , Oxford University Press, 2009,pp.175-176.。

查尔姆斯(Chalmers)在瓦拉赫与艾伦提出的“奇点临近论”的基础上,进一步讨论了人工智能道德安全技术防御问题,认为要从两个方面进行控制,以实现人工智能的道德安全:一是内部安全控制,要在智能系统内部设计上增设价值导向(如良性繁殖与进化导向、和平竞争导向等),以使人工智能体系在发展过程中获得与人类相似的价值观,并能够尊重人类创造的文明体系;二是外部安全控制,即人工智能系统应在开发设计时设置虚拟空间,让智能系统在虚拟空间完成繁衍与进化,这样可以避免智能系统进入人类生存的物理空间而发生竞争、相互残杀的不良后果(38)David J Chalmers, “The Singularity: A Philosophical Analysis”, Journal of Consciousness Studies, 2010, 17(9-10), pp. 7-63.。

三、机器人应用伦理学的研究

各国政府机构、高校和科研院所围绕着机器人技术涉及的伦理问题所展开的研究,主要关注机器人与人、与社会互动所产生的负面影响,尤其是“人—机器人”交互过程中产生的各种社会伦理问题。帕特里克 · 林(Patrick Lin)与基思·阿布尼(Keith Abney)、乔治·拜柯(George A Bekey)指出:(1)计算机的编程可能会出错,会导致计算机丢失数据,即使是机器中的微小软件缺陷,如汽车或机器人,也会导致致命的结果。人们也担心计算机科学家和机器人工程师是否有能力创建完美的软件或工作部件来控制具有潜在超人力量的机器。(2)机器人可能会取代人类的工作而导致人们失业。虽然使用机器人会提高效率,把人从繁重的劳动中解放出来,但对那些需要工作糊口的人类工人来说并非好消息。(3)计算机使用会让人们过度依赖技术,这种依赖会导致社会更加脆弱。(4)护理机器人的使用可能会影响人类关系,长期用机器人来代替人而形成的人际关系或许会产生心理伤害。(5)机器人使用可能对环境造成危害,“电子废物”是日益严重和紧迫的问题,机器人可能会加剧这一问题,增加今天建造计算设备所需的稀土元素和为其提供动力所需的能源的压力。

机器人应用的一个重要领域是护理机器人。瓦勒(Vallor)概括了护理机器人使用中可能存在的一些问题:将老年人物化为需要通过技术手段解决的“问题”;护理机器人有可能增强或减少被照料者的能力、自由、自主、尊严、隐私、与其他人以及与周围环境的接触;护理机器人可以现实地提供生理和心理的预期;人机关系存在欺骗性或婴儿化的可能等(39)Tom Sorell, Heather Draper, “Robot Carers, Ethics, and Older People”, Ethics and Information Technology, 2014, 16(3), pp.183-195.。诺尔·夏基(Noel Sharkey)与阿曼达·夏基(Amanda Sharkey)通过幼儿保姆机器人、阿兹海默症病人的陪同机器人等看护实例,对把幼儿和老龄人交给机器人看护有可能导致的伦理问题概括为人与人交流的减少、自我物化趋势增加、主观能动性减少、缺乏个人隐私、个体自由与人权的丧失、心理与情感出现问题。另外,如何约束机器人控制权,如何归属看护责任,也是需要解决的问题(40)Amanda Sharkey Noel Sharkey, “Granny and the Robots:Ethical issues in Robot Care for the Elderly” ,Ethics and Information Technology,2012, 14(1), pp. 27-40.。他们认为,可以通过机器人立法、机器人看护标准设定以及伦理价值导向设计来解决这些问题。

四、结语

综上可见,目前英语文献关于机器人的伦理学研究焦点在于人与机器人之间的人机关系。绝大多数研究者认为现阶段的机器人无法具有意识、意图和自由,因此不能被看作道德代理人,不应承担道德责任。道德责任应由设计机器人的研发者、供应商或其它组织环节承担。在此共识的基础上,为了让机器人表现出的行为符合人类道德规范,设计者应把目前接受度最高的道德规范编程嵌入机器人,并结合机器人的深度学习功能,使之表现出一定程度的道德能力。

研究者聚焦于护理机器人使用过程中有可能出现的伦理问题,展开了对人—机器人关系的社会效应及其导致的深层伦理问题的探讨,主要涉及护理机器人对人的尊严、隐私、自主性以及人际关系等重要伦理价值的影响。这一部分的研究目前主要处于提出问题的阶段,研究者表达了机器人长期陪伴和照料人类,对人的生存、心理和情感等方面可能造成的负面影响的忧虑。如何解决机器人可能对人类带来的负面影响,尽管学者有伦理反思并寻找操作规范,但还没有形成成熟的理论以及相应的立法标准。目前的研究确定了清晰的问题域并奠定了研究基础和框架,但具体结论还有待进一步研究。

目前的文献还提到人工智能带来的安全隐患,机器人在功能上的不断强大和完善可能会对人类、对环境造成威胁,但这方面的研究仍处于起步阶段,还未形成基于可靠证据的理论观点。

当前机器人伦理学文献的整体趋势是关注机器人使用所可能造成的负面效应,无论是单个机器人可能对个体人类造成的伤害,还是机器人从整体上对人类造成的威胁。机器人技术是新兴的高新科技,对人类生活会造成巨大改变,其伦理效应还没有定论,也缺乏明确的法律标准,面对其势不可挡的发展势头,人们当然应该持有谨慎态度,关注其可能带来的负面问题。但是,跟随考科尔伯格,我们还应思考机器人所带来的更广泛意义上的伦理问题,诸如人类生活中有和没有机器人的区别有何伦理意义,人和机器人可以有怎样的互动。机器人伦理学不应忽略人和机器人互动的可能积极作用,也不应忽略人类追求善好生活这一伦理学前提和背景。我们也应该思考,机器人或人与机器人的互动在人类对美好生活的追求中可以起到怎样的积极作用。机器人伦理学的进一步研究不妨超越目前的负面性预设,在更广阔的视野中,用更开放的心态思考机器人这种新的智慧形态所可能创造的伦理可能性。

猜你喜欢
伦理学机器伦理
《心之死》的趣味与伦理焦虑
机器狗
机器狗
开拓·前沿·创新与学科建设——简评《中医生命伦理学》
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
护生眼中的伦理修养
未来机器城
伦理批评与文学伦理学
医改莫忘构建伦理新机制
“蚁族现象”的伦理学思考