人工智能伦理研究中的“关系转向”

2022-10-31 15:43周丽昀
哲学分析 2022年2期
关键词:伦理机器主体

周丽昀

当前,人工智能技术的发展与应用对人的发展和人类社会带来了巨大挑战。人工智能不仅具有工具性价值,而且对我们理解很多问题也有前提性的形而上的意义。人工智能哲学是对人工智能思想的思想,人工智能伦理的研究目标似乎不应是解决人工智能相关的具体伦理问题,而是要改变和创新提出问题的方式。在展开进一步的讨论之前,对人工智能伦理研究进行回溯是必要的:当前的研究主要探讨了哪些问题,有哪些共识和困难,又该如何展开?这需要对人工智能伦理研究本身进行哲学式的前提反思和理论批 判。

一、 当前人工智能伦理研究中的主要议题

人工智能伦理是科技伦理的一部分。从狭义层面来说,人工智能伦理指的是人工智能自身的伦理问题,从广义的层面来说,指的是人工智能的应用引发的一些伦理问题。当前,无论是政府、企业还是学界,都提出了很多关于人工智能伦理的说法。厘清相关讨论的路径、焦点和挑战,才能为进一步的理论和实践探索扫清障碍。基于历史和逻辑相一致的原则,我们不妨借助本体论、认识论、方法论和价值论的理论框架,来廓清人工智能伦理研究的主要面 貌。

(一) 本体论层面:人与机器

1956 年,约翰·麦卡锡(John McCarthy)第一次创造了“人工智能”一词,之后相关讨论从未停止。人工智能的发展大概经过了三个重要的阶段:第一阶段是通过机器模拟人类智力的水平来提高生产力;第二阶段是实现机器的全智能化,并逐步替代人类的参与;第三阶段是智能机器可以创造机器,虚拟分身大量普及,使每一个人具有增强智能,“‘增强智能’是人类智能和机器智能的结合”,这可能会产生超级智能,重构人与机器共存和协同的社会秩序。随着人工智能的推进,人是什么、机器是什么必然会成为绕不开的追问。人之为人的根据是什么?机器是否具有意识和自主性?对这些问题的回答,都将在很大程度上决定是否可以构建真正的人工智 能。

对人的理解主要有本质主义和非本质主义两种:本质主义以二元论为基础,这种思路保证了人在理解变动不居的世界时对自身完整性、独立性以及精神价值的确证,是近代科学得以成型的思想基础。但非本质主义也一直如影随形,从斯宾诺莎的泛神论到谢林和黑格尔的大全思想,从胡塞尔的生活世界到梅洛—庞蒂的知觉场——总有哲人试图弥合二元论带来的身心分离,消解本质主义带来的思想禁锢。可以说,对人的本质主义和非本质主义的理解构成了一项跨越数千年的辩证运动,并最终在20 世纪通过科学技术这种现实形式凸显出来。人有无永恒的本质以及技术对人而言意味着什么等问题也在这样的背景下得以揭 示。

人与技术的相互依存由来已久,但是在人工智能以及基因工程技术飞速发展之前,人和机器的区分并不是问题。随着技术的发展,尤其是知识和技术内化到人的身体中,成为身体的一部分,人和机器的界限就变得模糊起来。那么,是什么使得“我”跟其他人或者物区分开?是什么构成了我们的身份认同?关于这个问题,可以借鉴著名的“忒修斯之船”这一思想实验:博物馆里有一艘船,有些部分开始腐烂,坏掉的部分被逐一替换,直到所有的部分都被替换掉,那么,这还是同一艘船吗?从什么时候起,我们就认为被替换的船不是原来的船了?另外,假如将被换掉的部分重新拼成一艘船,那我们该认为哪一艘才是原来的船?“忒修斯之船”对部分与整体的关系或者同一性问题进行了质疑。人工智能目前的发展还不足以完全替代人,但是,机器接管到什么程度,机器就不是机器,人就不是人了呢?如何区分哪是人工智能(AI),哪是我(I)?

另外,如果人通过智能机器来控制机器,又会发生什么呢?有一个与之相似的帕菲特思想实验:假定将来会有一个传送机,这个远程运输装置就会在你毫无痛苦的情况下,把你的细胞进行拆解并扫描,并把相关数据传送到火星,在那里用相关设备接收数据,再组建成一样的人,那么火星上的人会是另一个自己吗?“帕菲特让我们想象两种不同类型的传送机。一种在扫描他的同时摧毁他,另一种则不摧毁他。它们都利用扫描到的信息创造出了他的复制品。”这种“二重身”似乎只是想象,但是放在人与机器的关系上,这个问题的讨论就显得很有必要了。假如我们是机器,我们能造一台同样的机器吗?如果我们真的造出来,它会有自己的思维和意志吗?两者具有人格同一性吗?未来的智能机器只是存在于这个世界上,还是在体验这个世界?它是否既具有自知又能够反思这种自 知?

在人机关系与身份认同方面,如果我们想去追究人机的区分,应该怎么去理解呢?研究者经常拿人工智能和人类智能作比较,认为人工智能来自于机器对思维的模拟,而人类智能却大不相同。从本体论上看,人是碳基的,机器是硅基的;从自我意识的角度,我们可以体验这个世界,而机器却只能测量它。而人之所以能体验,是因为人有身体,可以感知意义。人的思维是与身体结合在一起的,并且被牢牢固定在身体内,而机器智能却可以完全脱离身体存在,并且还可以同时在多个地点进行复制。除了身体,环境也成为延展认知和思维的一部分,这些环境是由人、机器以及一些伦理规则和制度等共同构成的。1991 年,人类学家唐纳德·布朗(Donald brown)在《人类共性》一书中指出:“人类的共性包括文化、社会、语言、行为和心灵的特征,没有已知的例外。”基于关系主义的视角,似乎可以理解,机器人的意义不在于机器人本身的表现,也不在于人类的想象,而在于具体的人机关系及其运行环境。往往使许多机器的应用得以实现的不是更加先进的人工智能技术,而是结构化程度更高的环境,真正能够完成一些机器智能的目标是人和结构化环境互相作用的结 果。

(二) 认识论层面:人的机器化与机器的人化

马克思曾说,人的本质是一切社会关系的总和。当今时代,人与机器的联结越来越紧密,以致出现了人的机器化和机器的人化。人的机器化是指人的认识诉诸理性、逻辑性以及确定性追求,通过计算和逻辑,使人类达到机器思维的准确性和可控性。随着身体的技术化,技术可以对人的身体进行替代、延伸甚至是重组,我们的身体不只是自然生产的,还可能是技术制造出来的,人有机器化的趋势,这对传统的人的本质理解构成挑战。机器的人化是指机器智能越来越多地在认知、记忆等层面突飞猛进,机器越来越具有一些类人的属性。人工智能将来是否会具有意识,是否会具有类人或者超人思维?这对我们传统的关于物质和意识关系的理解带来冲 击。

意识和自主性是理解人工智能与人类智能的钥匙。许多观察者认为,意识是一种表现形式,是能够理解自己的思想并对其进行解释的能力。梅洛—庞蒂认为,意识是主观体验,是第一人称的知觉,没有体验就不会有意识,身体的感知能力是意识的先决条件。皮埃罗·斯加鲁菲(Piero Scaruffi)曾对图灵测试的意义提出质疑。他说,“身体因素是我质疑图灵测试意义的原因所在。”他设计了一个测试(他称为“斯加鲁菲测试”,Scaruffi Test),同时给机器人和人各一个足球,然后看哪一组运球的能力更高,他指出,虽然智能机器人可以灵巧地拦截足球,然后用绝对精准的脚法射门,但却无法像梅西一样带球越过防守队员。在图灵测试中,身体因素被排除在外,这一定程度上也摒弃了人类的基本特 征。

而提到机器的思维和意识,不能不提美国哲学家希拉里·普特南(Hilary Putnam)设计的“缸中之脑”思想实验。在斯加鲁菲看来,“缸中之脑”并不能代表真正的人,体验才是意识的前提。库兹韦尔在《如何创造思维》一书中明确提出了机器意识的问题,他认为意识是复杂物理系统的有限特性,可以在计算机中复制,一台成功模拟人脑复杂性的计算机也将拥有与人类相同的涌现意识。并且,他通过“弱涌现”和“强涌现”来解释机器各部分之间的相互作用。库兹韦尔认为,当机器“说出”他们的感受和感知经验,而我们相信他们所说的是真的,他们就相当于有意识的人了。库兹韦尔将意识理解为“思考自己的思想的能力”,我们能够通过测试来评估这种能力,但是库兹韦尔也指出,“在讨论意识时,人们很容易陷入对意识的可观察性和可衡量性这一问题的思考中,而这种方法忽略了意识的本质”。

(三) 方法论层面:机器伦理与机器人伦理

人工智能伦理的研究伴随着人工智能的发展。伴随狭义人工智能(主要被设计用于执行特定的任务,如驾驶汽车、护理老人等)和通用人工智能(能够完成人类可以完成的任何任务)的发展,目前的人工智能伦理研究主要聚焦两类问题:一个问题是我们是否可以将机器道德化,使得机器可以自主地做人类认为正确的事;另一个问题涉及人工智能对人类的影响,如我们能否控制人工智能,使其更好地为人类服务?有学者提出把机器人伦理学分为两个分支学科,分别是“机器伦理学”(Machine Ethics)和“机器人伦理学”(Robot Ethics)。其中,机器伦理学的一些讨论建立在这样的预设基础上:机器在某种意义上可以成为对其行为负责的道德主体,或“自主的道德主体”。“机器伦理学”主要关注机器如何对人类表现出符合伦理道德的行为。机器伦理是“有道德的机器”的伦理,是机器作为道德主体的伦理,而不仅仅是人类将机器作为客体使用的伦理。“该领域的一个核心张力是创建人工主体的主体与人工主体本身之间的关系,以及谁对使用这些系统的行为和后果负责、受罚和承担义务。”“机器人伦理学”主要关注人类如何在设计和使用阶段与这些机器交互,包括机器运作过程中的伦理问题及人类因为机器人的介入而产生的伦理问题,如军事机器人、社交机器人、医疗机器人、性爱机器人等等所带来的一些道德风险和挑战。“机器人伦理学的关键问题在于人们对机器人的感觉与信念问题”,关乎人们如何识别和对待机器人(将其视作机器还是动物)及其涉及的一系列心理、行为和方法。迄今为止,这一领域主要由哲学家和社会理论家主 导。

简而言之,“机器人伦理学”与“机器伦理学”都试图为人机关系提供道德支持。机器伦理主要是关于人工智能是不是可以成为一种道德主体,而机器人伦理主要是关于如何善用人工智能进行负责任的创新和应用。某种程度上,“机器人伦理”主要是回应“机器伦理”在面对机器高度智能化、人机交互不断深度化与广泛化时所提出的问题。而通用人工智能(AGI)的伦理问题既包括机器伦理,也包括机器人伦理。“AGI 提出了两个截然不同的伦理挑战:第一个是如何打造一个行为合乎伦理的人工智能……第二个伦理挑战是如何在伦理层面使用它。”第一个层面涉及到机器伦理,第二个层面涉及机器人伦 理。

在以上这些讨论中,蕴含两个核心问题:(1)道德是有逻辑的吗?人工智能是否可能具有意识和自主性?这将是一个事关机器伦理能否编码,能否创造具有道德的机器人的核心问题。(2)机器可以成为道德主体吗?人工智能如果能够像人类一样进行学习、接受信息并作出判断和决策,我们能否将其视为平等的人呢?意识和自主性常常被视作道德主体的必要能力,尽管这对于智能机器人的创造来说仍是前途未卜的,可是依然有很多人开始从理论上探讨人工智能伦理设计的可能性。温德尔·沃勒克(Wendell Wallach)和科林·艾伦(Colin Allen)提出了机器人伦理设计的三种进路,分别是自上而下的进路,自下而上的进路以及混合的进路。荷兰学者马克·科尔伯格(Mark Coeckelbergh)则从人与机器人互动关系的角度来考察机器人伦理,认为可以从人与动物的关系扩展到人机关系,更加关注机器人在不同时间、不同环境下对人类的表现,以此来推动机器的设计和研究。杜严勇指出,“可以更具体地把人与机器人的关系分为四种:观察关系、干预关系、互动关系和建议关系”。还有学者提出了“价值敏感设计”,在实践中考虑到技术设计过程中的所有利益相关者,把机器人的使用语境与设计语境紧密联系起来。这些研究中已经有了“关系转向”的迹象,只是还没有清晰和明确地表达出 来。

(四) 价值论层面:人机关系与人类未来

概括起来,关于人工智能对人类的作用,有三种主要的观点,即乐观主义、悲观主义和现实主 义。

乐观主义的观点认为,人工智能的发展并非坏事,人类将受益于人工智能。比如库兹韦尔指出在不久的将来,人工智能将可能通过物理手段制造出媲美人脑的非生物型智能机器,并且可能会超过人脑,人类与机器会结合成为全新的物种。他反复强调了加速循环规则,认为信息科技的发展会导致存储能力、计算能力、芯片规模等暴涨,从而引起指数规模的变化。“我的核心论点,也就是我所称的加速回报定律,是信息科技中的基本理论,它遵循可预见的指数级增长规律,反对传统的认为‘你无法预知未来’的观念。”他认为正是通过这样的技术,我们才有能力解决人类所面临的重大挑 战。

悲观主义的观点认为,随着人工智能的发展,可能会出现奇点,进而人工智能会控制和操纵人类,使人成为机器的附庸。有些学者认为超级人工智能系统只是一个理性的终极理想,机器无法取代人类,“人类希望通过逻辑工具来建立冷静客观的知识体系,这个知识体系不应该有任何主观的知识和情绪夹杂在其中,但问题是一旦有了的体系,并且这样的体系可以自动去包罗万象而形成所谓的人工智能的时候,人本身的作用就不大了。”而哥德尔不完备定理展示了即使数学系统的理性也会受到限制,科学也无法发现所有真理,认知总是会有边界的。况且,人之所以为人,除了那些理性的部分之外,还有一些感性的部分是无法被理性取代的,而这些感性的、直觉的、情感的、体验的部分才使得人成为人,并与机器区别 开。

现实主义的观点认为,人工智能的发展有大量的机遇,要善用人工智能更好地为人类服务。在这方面,又有两种观点:一种观点认为,我们不怕人工智能发展太快,怕的是越界,要充分思考人工智能和人之间的界限是什么?一种观点是人工智能应该进行伦理,法律和社会的参与。其中,社会和法律主要是现实层面的举措,体现的是与人工智能发展的实然关系,而伦理层面更多具有前瞻性,体现的是与人工智能发展的应然关 系。

二、 人工智能伦理研究中的困境

如今,人工智能已经在挑战我们数千年来进行道德推理和道德判断的方式。我们应该如何以哲学的方式进行人工智能伦理研究?需要注意的是,哲学家和伦理学家并不擅长预测技术的出现,所以,哲学和伦理学研究更多地不是解决人工智能产生的特定技术和伦理问题,而是澄清问题的前提,并进行批判性反思,进而调整提问问题的方式。一直以来,在规范伦理学领域,义务论、功利主义、美德伦理学等理论和立场的胶着一直存在,对一些一般的道德选择我们尚且无法达到共识,在人工智能领域这么复杂的充满挑战的技术实践中,一致性、统一性的道德诉求能成功吗?实际上,人工智能伦理的规范路径研究面临一些困难,概言之,主要有概念的模糊性、认知的有限性、情境的复杂性与道德选择的不确定 性。

(一) 概念的模糊性

人工智能伦理的研究涉及很多不同的范式,因此出现很多术语的歧义和争论也就不足为奇了,其中也包括主体和主体性、智能体、自主性和意识等关键概念。对这些概念的梳理可能并不能从根本上消除歧义,但可以看出,当今关于这些概念争论的焦点和根源在哪 里。

在传统哲学中,一般认为只有人才是主体,人的意识和活动才具有主体性。“主体性”一词一般用来指主体作出决策、执行行动并对行动负责的能力。这个概念意味着主体必须是具有理性的认知、思考和行动能力的,并能根据复杂的环境变化自主地采取相应的行动且为之负责。在人工智能哲学中,拥有意识和自主性的通用人工智能的设想对主体和主体性等概念提出挑 战。

自20 世纪80 年代以来,“智能体”成为现代人工智能的核心主题,智能体与主体的关联变得紧密起来。在人工智能的背景下,主体(agent)具有行为实体的特征,只要能有效控制并进行一些操作活动就可以是主体。但是从哲学的观点看,这些行为主体的意图是从外部发出的,这意味着人工智能自身不会自主决定并开启行动,也不具备自我理解和反思能力。另外,从对行为后果的态度看,哲学中的主体与人工智能、经济学和心理学中的主体也有显著差异,前者可以对自己的行为有预期,并要对自己的行为负责,而后者则不具备这种能力。机器或机器人如果具有自主道德意识并能为自身行为负责,那固然是可以称之为“道德主体”,但即便自动驾驶汽车的责任归属讨论得热火朝天,也依然很少有人认为,自动驾驶汽车本身应该承担什么责任后果。这意味着,主体与自主性在人工智能领域还远未成为共 识。

(二) 认知的有限性

随着人工智能不断发展,相应成果的科学解释也面临挑战。尽管人工智能可能会产生大量的数据科学知识,但是却并没有因此增加对身心关系等问题的本质理解,甚至,认知危机还会演变为道德危机。在人工智能和大数据时代,数据增长的速度和幅度以及数据处理的程度都远超原来最优秀的科学家的计算能力,这些对我们传统的科学知识和因果关系提出挑战。大数据思维关注事物的相关关系以及不确定性,也使得我们对原有的科学理解方式产生质疑。虽然计算机在某些能力上已经超过了我们,但是,我们对机器的功能却无法充分解释或理解。对在此科学基础上发展起来的人工智能伦理,则更需要谨 慎。

认知的有限性源于机器学习与人类思维的有限性与脆弱性,并可能带来一些伦理问题。这些有限性表现在以下几个方面:(1)机器学习会造成信息冗余,引发道德风险。机器学习在数据采集和数据挖掘的过程中,会造成个人信息遗漏,从而侵犯个人隐私权。比如,面部识别技术可能会大大提高分辨人群的效率,但是可能也会带来数据歧视的风险。机器学习还会产生垃圾数据、错误数据以及信息冗余,造成模式识别的“过度匹配”或者“不适配”的问题。(2)合乎道德的机器设计存在很大争议。当前的机器学习系统更多是弱人工智能,没有自我意识。虽然“机器伦理”致力于解决“道德编码”和“道德嵌入”的问题,从而设计出行为合乎道德的机器,但是难点在于,很难知道是否以及何时应用了这些道德原则。(3)人类自身无法克服的脆弱性也造成认知的局限和对自身的伤害。比如,利用生成性对抗网络,可以从现有数据集中生成新类型的数据,制作逼真的视频。这些所谓的“深度伪造”(如AI 换脸)很可能会发展到我们很难辨别真伪的地步,由此带来的新型犯罪会给当前的伦理和法律体系带来严峻挑战。另外,机器人的自动化将在不久的将来取代人类劳动力的很大一部分。我们应该如何对待未来的超级人工智能,如何确保人工智能不会对我们不利,这些问题都值得进一步探 讨。

(三) 情境的复杂性

无论使用何种规范性框架来模拟机器的道德判断,其前提都要取决于道德决策所依据的道德规范,但是,道德规范的原则和路径从来不是统一的范式,而是与长期的社会和文化传统有关。理论上的规范性与实践情境中的差异性导致了道德判断和选择的复杂性,伦理原则的相对性与实践的有效性之间,也一直存在一种张力。这也使得伦理学家提供的道德困境解决方案可能不但不会被人工智能专家接受,甚至也会被公众拒绝,毕竟对一些人来说是有价值的道德选择,对另外一些人可能是无效 的。

在人工智能技术的具体实践和应用中,因为道德情境的复杂性,也使得人工智能的伦理设计变得复杂。宏观地讲,经常会出现过于高估或者低估人工智能的情况。高估人工智能风险可能有两个向度的表现:一方面认为人工智能可能会威胁到人类生存,另一方面,又认为人工智能可以用来拯救人类于危亡之中。由埃隆·马斯克创建的Neuralink 公司,目标就是在我们的头骨中植入芯片,以提高我们的认知能力和记忆力,从而“拯救人类”对抗人工智能。然而,从伦理学的角度看,如果这些技术可行,那么这些技术的拥有者就有可能将他们想要的信息附加在大脑中,并因此控制大脑的思维。这到底是对人类生存的威胁还是拯救?另外,还有些人出于“善意”的目的,想通过人类增强技术延长人的寿命,但是这也会导致出现“数字分身”或者“智能增强”后的新物种。如此一来,技术进步的加速定律将不可逆转地改变知识生产的体制,并创造出谁都控制不了的技术物,对于这样的结局,人类显然没有做好充足的准 备。

而低估人工智能的风险,主要是认为人工智能威胁论是一种不切实际的夸大,人工智能充其量只是机器模拟,不可能具有意识和情感,不能跟人相提并论。问题是,一般的技术物尚且具有结构意向和功能意向,起到类似主体的调节作用,何况经过深度学习后能产生新类型的智能机器呢?比如在护理机器人和性机器人中,即便用户理智上知道这是机器人,但是从情感上,依然“愿意”把它当作真实的“伙伴”或者“家人”,或者宁愿选择机器人而不是人作为伴侣,更多地依赖于自己的体验和感受而不是思维来决策,这又该如何面对机器人的道德主体性呢?推而广之,对机器人地位和作用的界定不在机器本身,而在人与机器的关系之中,这又会对我们的道德和法律体系以及社会秩序带来怎样的挑战 呢?

这些问题构成了关于人工智能的责任鸿沟。人工智能并未真的达到主体需要的关键能力,但是,人类还是把一些任务外包给了机器人(诸如驾驶汽车、陪护病人等)。在这些情境中,谁应该对某事负责却并不清晰。另外,除了不同类型的责任鸿沟之外,机器人和人工智能还可能导致人们所谓的“义务鸿沟”。不管机器再智能化、自动化,义务通常还是归因于人类主体,机器人本身没有义务。比如人类在驾驶汽车时造成伤害或者事故会受到处罚,但是,汽车本身却不会因此受罚。能动性和自主性是理性主体的属性,想象一下,假如存在一种哲学意义上真正具有自主性的军事武器,它会自行选择目标,那不仅对平民来说是一场噩梦,对军事人员来说也难以接受,因为他们也需要能够完全控制和信任的武器系统。在人工智能中,使用道德主体这样的概念并不意味着机器具有责任和义务,所以将机器道德化只能是一个半截子工 程。

(四) 道德选择的不确定性

科幻作家艾萨克·阿西莫夫提出了著名的机器人三定律,其他学者也建议,我们应该确保超级人工智能的价值观和目标与人类的一致。但是实际操作中,机器应该具有什么样的道德?如何将机器道德化?这些难题不仅仅是实践难题,也是理论难题。义务论、功利主义和美德伦理学等伦理理论一直存在着分歧,这意味着将这些理论直接编程到机器中并不可 行。

让—弗朗索瓦·邦内丰(Jean-François Bonnefon)、阿齐姆·谢里夫(Azim Shariff)等学者认为,即使伦理学家赞成应该用哪种道德原则指导道德算法,但如果外行强烈反对他们并决定不使用该算法,则对他们的工作也不会产生什么影响。安德里亚·洛雷吉亚(Andrea Loreggia)、尼古拉斯·马蒂(Nicholas Mattei)等学者从计算机科学的角度介绍了如何构建具有道德行为的智能系统。斯蒂芬·沃尔夫拉姆(Stephen Wolfram)致力于从计算机科学角度阐述如何构建合乎道德的人工智能,定义了人工智能要遵循的道德规范,以在人类目标和计算能力之间架起一座桥 梁。

毫无疑问,在机器中引入人类价值观是很有诱惑力的,这意味着让机器按照人类的道德行为的标准来行动。然而,由于机器并不理解人类的意图,只能根据外部指令来行动,从这一点上看,机器延续了人类道德选择的情境性、复杂性和不确定性,且是在有限的范围内行动,不能对自己的行为负责,也无法反思行动的意义,所以并不能构成真正的自主 性。

三、“关系转向”视角及其展开逻辑

从前面的论证可以看出,人机关系是机器伦理和机器人伦理的核心问题。当前的讨论方式总体还是偏实在论的,且都离不开人类中心主义的立场。虽然有时机器被赋予了道德主体的地位,却还是回到为人类服务的“客体”的立场,尚未得到平等的对待和尊重。对这些问题的提问方式进行前提反思,打破惯性思维和传统,才是哲学讨论的题中应有之 义。

从哲学和伦理学的视角看,结合人工智能的发展,我们需要一种新的方法论,那就是人工智能的“关系转向”:这种路径更多是现象学的、经验主义的视角,它基于身体主体而不是我思主体来看待人和机器的本质,从情境化视角来看待人工智能和大数据的知识生产以及伦理学和认识论,从开放的理性和复杂的范式出发进行负责任创新,从人机共存和人类命运共同体的关系来看待人工智能的发展。关系转向在哲学上并非新生事物,但是将其应用于人工智能伦理研究,或许能通过改变提问问题的方式,进而推动相关研究。在此基础上,不难发现,人工智能伦理中的“关系转向”是一种可能的竞争性策略,重要的不是通过控制和约束为人工智能的发展制定统一的伦理规则,而是重新认识到,人工智能伦理问题是人与机器、人与技术、人与人以及人与社会的共同创造。我们需要反转我们的认识和理解,把人工智能当成伙伴,在关系思维中谋划更好的人类未 来。

(一) 从身体主体看待人与机器的本质

在人工智能的讨论中,一个非常重要的问题是人与机器的界限。机器是否/应该具有主体性,或者是人工智能体是否/应该具有主体地位,对马克思主义哲学关于主体和客体的认识带来非常严峻的挑战。在马克思主义哲学看来,主体是从事认识和实践的人,客体就是被人所认识和实践的对象。但是随着科技发展及科技哲学的展开,技术现象学的观点越来越被广为接受:人是通过技术栖居于世的,尤其人工智能的发展又将技术在人与世界之间的积极的调节作用推至前台,甚至通过技术内化于人与世界,由“人—技术—世界”过渡为“技术化的人—技术化的世 界”。

在人工智能高度发展的时代,如何更好地理解主体和客体需要一些新的探讨。按照拉图尔的“行动者网络理论”,只要对一个事物的发展起决定性作用的因素都可以成为行动者(actor),这个行动者可以是人,也可以是物,是多元主体(multisubject)。按照荷兰技术哲学家维贝克的观点,技术物可能会在某些情况下成为一种道德主体,起到类似主体的作用,也叫作技术的居间调节作用。唐娜·哈拉维描绘了“赛博格”这样一种人、机器和动物的混合体,也有人把这个叫作后人类形象。随着第四次科技革命的兴起,技术改变的是人类自身,当今的主体更多是一种技术化的主体,是身体主体,这是与我思主体相对而言的。我思主体是建立在主客二元对立的背景下的,身体与心灵是两个不同的实体;而身体主体是建立在“涉身自我”的基础上的,“身体已经不仅仅是传统的生物学意义上的事实,不仅仅是一副由生理组织构成的血肉之躯,而是呈现出确定性与不确定性、稳定性与流动性、普遍性与差异性的统一”。这样一种主体是现象学意义上的身体,是一种知觉的主体、体验的主体,也是一种多元开放的主体。身体主体是涉身的,我们对人性的理解都是建立在对身体的整体知觉之上的,体验恰恰是人与机器的本质区 别。

从身体主体这一视角出发,会发现技术和人是相互构成的,机器人和人工智能并非是外在于我们的存在,而是关系之中的产物,它是主体还是客体,取决于我们与机器之间的关联。关于人机关系,“工具论”认为技术是为用户服务的“工具”。但也有学者指出,计算机系统是由从事社会实践和追求意义的人们生产和使用的,“无论未来的计算机系统如何独立、自动和交互,它们都将(直接或间接)是人类行为、人类社会制度和人类决策的产物”。康德曾指出,每个人的人性都是目的本身,而不仅仅是手段。当我们谈论人类时,我们是指作为人类的整体,不仅有人类的思想,而且有人类的身体。“人类”指的是“我们独特的身体、大脑、思想以及生物和文化特征。”这并不意味着人类不可以被机器改变,而是指机器人和人工智能可以帮助人类变得更好。若是人类将机器人作为主体,那么需要考虑的不仅仅是如何让机器的行为更加合乎人类道德,而是人类对机器人本身是否给予了必要的尊重。相互性原则可以从人伦关系推广到人机关系,对机器人的尊重也就是对人类的尊 重。

(二) 从情境化知识看待人工智能的伦理地位

在人工智能和大数据的叠加效应下,相关关系取代了因果关系成为理解知识的前提与依据。哈拉维曾经提出“情境化知识”的概念,用来表示知识的强客观性。“情境化知识”意味着“局部的视角”和“负责的科学”,意味着我们为了更好地了解事物之间的有机联系,要认识到每一个视角、立场、观点的局限与价值,并进行负责的有理有据地批判。针对机器是否具有道德地位的问题,现象学的关系思维给出了一种可选择的方案,那就是要基于不同的道德立场看待问题的方式,向他人开放并能够容纳他人的道德差异。在存在论看来,人类的本质是与生存境况相关联的,是“在世之中”的存在,而构成“生活世界”的因素,可以是人(包括他人)、动物、环境、组织和技术物(如人工智能)。由此出发看待人工智能的道德地位就转移了问题的焦点,变成:人工智能的道德地位到底是源于其内在属性,还是社会建构?相应的,问题就从“是不是”这样一个本体论的事实层面的讨论,变成“该不该”这样一个伦理学的价值层面的讨论。“人工智能能成为一个道德主体吗?”这样一个本体论问题就转换成“人工智能应该是一个道德主体吗?”这样一个伦理学问题。而“该不该”这样一个应然层面的问题不是根据事物是什么来决定的,而是取决于事物在实际社会情境中与人的关联。在这种情况下,社会关系的实践特性优先于个体或物质实体的表象特征。这种视角的变化会带来许多重要的创新,也会影响人工智能伦理和道德哲学的发 展。

从情境化的视角看,人与机器之间的关系是交互的。目前的人工智能伦理都默认了这一前提:不管采取什么样的伦理理论,都是为了通过调整机器人或者人工智能,使他们更好地满足人的需求,也就是说,通常是以人类为中心去思考人与机器的关系的。如果机器人有朝一日能够体验痛苦和其他情感状态,那么建立这样的系统是否合乎道德?对此,斯文·尼霍尔姆(Sven Nyholm)指出了另外一个路径,就是人类也可以朝着更好地适应机器的方向发展。“从道德的角度来看,把外表和行为都像人类的机器人视为有尊严的机器人,而不仅仅是工具或仪器,这可能是一个好主意。”人类主动适应机器或机器人并不是本末倒置,或者将人置于不人的境地,而是在关系中生存的智慧。比如,在自动驾驶汽车达到很高的水平的时候,带有人工智能的汽车可能会变得比人类驾驶员更安全、更高效。人与机器的互动方式有个互相适应的过程,他还论证了我们需要适应机器人的条件:“ (1)对受影响的人类有一些明确的和可识别的好处(例如,人类更安全,我们的自然环境得到保护);(2)我们适应机器人的方式是非接触的和/或无创的(例如,我们不需要将大脑刺激技术运用到我们的大脑中,但我们可以使用许多非侵入性技术手段);(3)我们尝试使自己适应机器人和人工智能的方式仅在特定的领域(例如,交通领域),并且不会蔓延到生活的太多其他领域;(4)我们适应机器人的方式总体是可逆的。”

在关系视域中,关系思维比实体思维更加根本。对人工智能这样一个特殊类型的物来说,“关系优先于实体”可以说是人工智能伦理的关系转向。不仅人与机器的交互方式需要思考,即便对同一个人工智能体,从关系的角度看,理解也是不一样的,“道德地位的决定和授予不是基于主观或内在的属性,而是基于客观可观察的外在关系。”科克伯格也进行过类似的表述,“‘道德考虑’不再被视为实体的‘内在’考虑,相反,它被视为‘外在’考虑:它被归为社会关系和社会环境中的实体。”因此,人/事物的意义并不在于它有一个固定不变的本质,而是在于某人或某物对我们来说意味着什么以及我们在这个关系中的决定、行动和回应。继科克伯格之后,安妮·格德斯(Anne Gerdes)将类似“关系优先于相关事物”的表述称为伦理学中的“关系转向”。以护理机器人为例。对一个与护理机器人建立了深刻的情感链接的用户或者主人来说,护理机器人绝对不仅是工具,更是一个交流的对象或者感情的承载,这对他/她来说无疑就是具有道德地位的,可以视为道德主体;而对一个工程师或者机器人生产和销售企业来说,护理机器人就是物,是一个产品或者一个商品,那护理机器人对他们来说就不具有道德主体的地位。抛开特定的情境去讨论人工智能是不是具有意识和情感,是不是道德主体是没有意义的。因此,不必非要争辩出一个一致性的、统一性的答案,就像当今的数码艺术,对于技术人员可能就是技术物,对于艺术家来说则是艺术品。将它看作是什么,既与物有关(是这个数码艺术品而不是那个),更与主体和世界的关联有关(是技术物还是艺术品),甚至某种程度上,后者更加具有优先 性。

(三) 从开放的理性看负责任创新

技术的发展与科学、文化与社会等因素密切相关。从技术的产生来看,技术与社会因素共同构成一种无缝之网。从技术的功能来说,技术并不是价值中立的,而是价值负载的。就技术的本质而言,技术可以是工具,也可以是目的。另外,技术与人相互构成,按照斯蒂格勒的观点,技术是良药也是毒药,我们发明了技术,技术又反过来构成人本 身。

技术与非技术因素的交织决定了我们必须采取开放的理性,才能更好地面对和适应新技术的发展和演化。开放的理性具有以下两重含义:首先,开放的理性有能力包容不同的建议和批评,承认批评是理性生活的前提。其次,开放的理性还意味着,为了解决问题而提出的建议亦须合乎理性,必须负责。负责意味着不管从哪种立场出发,都要审慎地对待人工智能的发展。伦理学应该为科学家提供伦理反思的工具,帮助科学家更全面地了解科技产品的社会影响,更清楚地认识到自己的社会责任。科技伦理研究不是要限制科学家的学术研究,而是为科技发展提供伦理支持和规约,使科学家和工程师研发出更安全、更人性的科技产品。同时,要促进科学文化与人文文化的融通,使得负责任创新成为科技创新的重要组成部 分。

从关系出发对机器人进行伦理设计,意味着要考虑到人类道德情境的多样性、机器人技术创新的复杂性及人工智能应用领域的广泛性等。未来社会是一个各个学科相互协作的社会,计算机科学、认知科学与技术哲学都需要深入探索负责任创新的理论和实践。人工智能是极具综合性、复杂性和前沿性的科学技术,需要几乎所有的理工与人文社会科学学科进行交叉研究,也需要政府、行业等各个领域的人进行对话和协作。近年来产业界开始丰富“伦理嵌入设计”的路径,根据特定情境下的人机关系,对伦理设计的理念与路径进行动态调整与评估反馈,推动负责任创 新。

(四) 人机共存与人类命运共同体

第四次科技革命对人类自身带来严峻挑战。在人类世时代,机器人将成为我们生存的一部分,自然与文化、技术与生物学之间的界限将被重新界定。类人机器人与我们在工业自动化中熟悉的机器人不同。工业机器人完全由人类控制,但类人机器人被释放到人们的日常生活中时会发生什么,人文和社会科学领域的相关洞察和分析还非常有限。“人类社会中机器人生产和实施过程中潜在的人—机交互以及主客体关系的复杂协商的分析,是通过广泛的切入点与人类存在集合在一起,并将社会机器人作为我们的新伙伴展开的。”因此,我们面临一个选择,要么我们什么都不做,面临一些生存风险,要么通过一些技术或者道德的手段改善人类,以便有更好的未 来。

人类已经被置于各种不确定性和风险当中,如何更好地促进人的解放和人的全面自由发展,需要我们更加全面、系统、深入地反思人和技术的关系。海德格尔提出,面对技术的风险,希望用艺术的沉思来作为救赎;马克思主义希望人能够摆脱对物的依赖和对人的依赖,实现人的全面而自由的发展。当今时代,被技术武装和塑造的人类是人、机器和动物的混合体。人和机器之间不是非此即彼的封闭的关系,而是相互统一、相互塑造的。机器永远不能够取代人类,但可以是身体主体的延伸和扩展。我们不应该在人工智能伦理中采取“一刀切”的方法。我们的目标既不是让机器成为自由的道德主体,也不是让机器按照人类制定的道德规则行事。相反,人工智能存在的意义在于帮助人类变得更加明智,更加意识到自己行为的后果,从而在行动时更加负责。因此,我们需要从人类命运共同体这个角度去思考人的发展与解放的问题。人类命运共同体不只是人和人的关系,也不只是国与国的关系,它还包括人与机器、人与技术的关系。只有人和机器、人和技术和谐共处,我们才能赢得一个更加美好的人类未 来。

猜你喜欢
伦理机器主体
机器狗
论碳审计主体
磨课活动中多元主体需求的深度挖掘
机器狗
何谓“主体间性”
浅谈我国社会工作伦理风险管理机制的构建
租赁房地产的多主体贝叶斯博弈研究
租赁房地产的多主体贝叶斯博弈研究
亲组织非伦理行为研究
亲组织非伦理行为研究