彭理强
在人机交互过程中,人的声音、眼动、肢体行为等数据被实时采集,算法分析这些数据可以进一步推断使用者的需求、爱好甚至动机;通过控制信息的输出,智能机器可以重塑使用者的认知、推理和行为。我们将智能机器采集、分析数据并控制相关信息输出的过程称为算法决策。算法决策是人工智能技术的核心环节,凭借其某种意义上强于常人的预测分析能力和难以察觉的嵌入式设计,可以轻松而安静地塑造人们的选择和行动。然而,算法决策可能发挥出超出我们意愿或理解的影响力,从而可能远离我们的决策目标,并最终对我们的决策正确性和合理的生活方式产生不利影响。同时,算法设计与使用的不当可能会威胁到我们脆弱但又需要维护的信任关系,进而破坏社会组织结构的良性运行。如果不对算法决策中的设计责任加以明确,其应用会引发各种社会风险,从而反过来阻碍新技术的进一步创新与社会的和谐合理发展。
人机交互的根本风险,在于算法决策某种程度的不确定性和不可解释性,它们使得人类的主体性合理表现受到威胁。本文针对人机交互过程中算法决策引发的责任分担困境,尝试从设计哲学角度提出新的理论工具和方法:(1)传统主客二分的设计思想是人与机器信任危机的根源之一。列维纳斯的责任理论虽然很好地化解了设计者与使用者的对立关系,但绝对的他者性又导致设计者主体的消解,因此我们主张将温和的他者性作为设计者与使用者主体的新型伦理关系。(2)我们将人机交互环境下的使用者主体视为一种人与技术“杂交”的复合型主体,即人被技术增强(削弱)后的赛博格主体。在新型伦理关系下,设计者的责任是使用技术增强使用者的主体性,提高赛博格主体伦理决策的能力。新的理论工具和方法,合理规范了设计主体的主体性表现,实现了设计的伦理价值,不仅为人类智能生产力的发展提供了必要的价值引领,也为设计活动的哲学分析打开了思维空间,内赋了更丰富的文化意涵。总之,新的理论工具和方法有助于设计者从整体上理解和把握自身的设计责任,创造更加文明的人工自然。
随着大数据、人工智能等现代技术的广泛应用,设计中的哲学问题日益增多,这些问题开始受到伦理学的关注。工程师应该如何设计符合人类道德规范的智能机器?温德尔·瓦拉赫(Welldell Wallach)和科林·艾伦(Colin Allen)开创性地提出了两种机器道德决策的基本途径,一是自上而下,一是自下而上[1](68)。自上而下就是把人类相对成熟的伦理系统、道德理论体系灌输进机器,如输入康德的绝对律令、阿西莫夫提出的机器人三定律等;自下而上就是创造一个环境让智能体自我学习相关道德知识、分析其行为方式,并且在其作出道德上值得赞扬的行为时给予奖励。我们赞许瓦拉赫和艾伦为加强工程与人文领域的沟通所做的开创性工作,他们基于自上而下、自下而上两种基本进路以及由这两种基本进路组成的混合式进路所构造的人工道德智能体(artificial moral agents,缩写AMAs),给工程师从事智能机器的伦理设计带来很大启发,使伦理学的“善”(good)与“正当”(right)等基本理念不断渗入算法决策成为可能。但是从道德心理学的角度看,瓦拉赫和艾伦建构的AMAs 至少存在“知”“情”“意”三重设计困境。
人工智能界已经意识到算法决策中蕴含价值选择问题,以价值嵌入为目标的设计方法把“善”作为设计前提,通过定义什么是“善”和有价值的事物,把价值嵌入定义为工程师的“正当”行为。然而无论是“强进路”的人工道德主体价值嵌入,还是“弱进路”的道德受体价值嵌入,两种价值嵌入方式设计的智能机器都存在责任归因困境[2](104-111)。
一方面,道德知识是否可能以及如何可能的问题一直存在争议。道德知识是道德认识论研究的核心问题。道德实在论认为道德知识是可能的,它不以人的意志为转移,因此存在道德事实,道德知识是对道德事实的认识;道德反实在论认为根本就不存在道德事实,人也并非总是有理由做道德的事情,没有任何道德信念或者道德断言可以证明道德知识的真与假。另一方面,不同道德理论的价值概念也有不同的预设。“效果主义”(consequentialism)认为,价值是可以被量化的,提升(promote)价值的行为是道德主体的“正当”行为;“非效果主义”(nonconsequentialism)则认为,有一些价值(比如诚实)是不可被量化的,所以尊重(honour)价值的行为才是道德主体的“正当”行为。不同道德理论本身存在着不同的理论预设,使得以相关理论为依据的道德实践可能陷入现实冲突。
基于此,“价值敏感设计”作为算法设计的一种方法,就必然产生相关设计难题,比如如何正确识别利益相关者的价值,特别是如何处理利益相关者的价值冲突等非常棘手的问题。可见,不同道德理论的冲突性和道德实践的情境复杂性,使得“价值敏感设计”等基于道德想象力的方法出现设计麻烦,在许多方面很难落地,当然也难以激发和指导工程师从事好的和负责任的创新活动。
人类的某些技能,人工智能完全可以习得并超越之。比如Google 的AlphaGo 算法通过学习大量棋谱后,轻松战胜人类。但是,塞尔的“中文屋”思想实验表明,符号接地问题(the symbol grounding problem)始终是人工智能不可逾越的边界。人工智能因缺乏人类所特有的相关语义系统,产生人机理解与信赖的巨大鸿沟,再加上符号化人工智能侧重的是逻辑推理,在情感计算方面存在先天不足。毕竟,人类的思维不仅仅基于一般的认知和推理能力,还基于更加高级的迁移学习、同情共感等能力。人工智能之父马文·明斯基(Marvin Minsky)已经意识到符号化人工智能的瓶颈,他从认识论上将人类思维的本质转向意识和情感。明斯基进一步指出,人有一种特殊的思维方式——情感,“情感是人们用以增强智能的思维方式”,人的情感性思维、人的思维方式的多样性是人和动物以及机器的主要区别[3](5-6)。在明斯基看来,人是情感思维的机器,人的主体性是多样性的“自我”的集合,在不同的境遇中,情感思维会激活不同的“自我”模型,从而作出不同的决策。但明斯基乐观地认为,通过解释人类大脑表现情感的运行方式,完全可以设计出能理解、会思考的机器。
显然,明斯基是一个技术乐观主义者,他将智能解释为情感思维的多样性,认为人类大脑包含复杂的机器装置,每一种情感状态的改变都是因为在激活一些装置资源的同时,关闭了另外一些装置资源。明斯基对人类情感思维方式的“机器性”刻画,为工程师设计社交机器人提供了很多启发,但是“情感机器”的本体究竟是物质还是心灵?我们有理由相信心灵世界和物理世界的差异是巨大的,“情感机器”存在“心物难题”的哲学解释困境;并且情感思维方式的多样性,在提升智能思维能力的同时,并不必然带来道德能力的提升;更甚至,机器的“情感”究竟是真情实感还是虚情假意?人类情感的物化性理解与投射,加剧了人类被情感欺骗的风险。
道德意志是道德主体自觉调节其行为、克服内外困难,以实现其目的的心理过程。能动的意向性、意志自由是道德意志的生成基础,缺少其中任何一个,人的道德自主性以及责任分担就成问题。道德意志是人工智能设计中的棘手问题。
一方面,意向性是我们分析大脑心智活动的重要概念,它能否被计算机算法体现,是人与机器是否可以被相互理解和信任的认识论问题。人类心智活动的特点是具有意向性与主观性,并且这些心理活动能够引起物理活动的变化,这样自我可以很好地解释心理活动与身体行为的关系。同样地,模仿大脑思维的算法决策是不是“真正的”思维活动?它是否具有意向性?如果算法无法成为智能机器道德意志的表达方式,那究竟如何表达智能思维的意向性?进一步假设,算法可以模拟人类思维,是否就可以认为机器具有主体意识?塞尔认为,“意识、思想、感情、情绪以及心理的所有其他特征远非语法所能包容。不管计算机的模拟能力有多强,按照定义,它也不能复制那些特征”[4](28)。另一方面,人的道德决策是主体的有意行动,是愿意承担责任的行为,如果人的道德意志可以被算法表征,那么算法决策就可以被视为机器的自主行动,但一个结果是:谁来承担责任?机器可以承担责任吗?詹姆斯·摩尔(James Moor)根据智能机器的伦理效果划分出四种人工道德主体[5](18-21)。按照摩尔的分类,基本上所有的机器都可以归结为“有道德影响的主体”;设计上具有避免产生不利伦理后果考量的机器称为“隐式的道德主体”,比如与简易四轮车相比,配有安全气囊的汽车可以称为“隐式的道德主体”;“显式的道德主体”是指具有道德推理能力的机器;“完全的道德主体”是指具有清晰的道德判断与决策能力的机器。摩尔认为,我们目前还不能在机器是否具备完全的道德主体能力的问题上达成共识,因此应该把重点放在发展有限的明确的现实的道德主体,它们虽然不能成为完全的道德主体,但可以帮助我们防止不道德的后果。道德意志能够表明主体的动机和为行为承担责任的意愿,摩尔的人工道德主体分类,表明了机器存在道德化设计的可能性与必要性,但所有的人工道德主体——无论是相对低级的还是高级的,其决策都无法还原为主体的意愿或者动机。缺乏道德意志的道德主体如果是成立的,控制论创建者诺伯特·维纳(Norbert Wiener)早就给出了警告:人类如果把责任丢给机器,最终会自食其果[6](13)。
综上,为发展人类可信赖的道德代理关系,促进人的全面发展,延续人类文明,我们需要谨慎对待算法决策。当然,人工道德主体存在“知”“情”“意”三重设计困境,并不意味着我们要放弃设计,相反,为了设计更加符合社会和用户伦理目的、能够被用户信赖的智能机器,我们需深入探讨人机交互中的人机关系,以应对人工道德主体“知”“情”“意”的设计困境,并尝试为设计哲学提供新认知材料。
设计,有狭义与广义之分。狭义的设计是指人所从事的造物或制作活动,而广义的设计是指人运用能动性和创造性进行的“一切有目的的价值创造活动”[7](51)。“设计的本质是创造,是在广泛的人类活动中对价值和理想的追求,对美好未来的谋划和进取。”[8](29)设计哲学就是用哲学的方法观照设计,是关于设计领域根本观点的学说体系,是设计之普遍知识的概括和总结。设计哲学讨论的是设计的普遍性问题,如设计的内容与形式、设计的本质与规律等。设计哲学当然也要探讨由人们制作、发明、设计人工物引发的哲学问题,要研究设计中的主体、客体及主客体之间的关系。
算法决策的设计者与使用者的关系是传统决策代理关系的技术装置化。在传统主体性视野中,委托代理关系是设计活动的对象化关系,表现为设计主体某种意义上对使用客体的控制和改造,并在对使用客体的控制和改造中凸显设计主体的意志。由于使用者既是客体也是主体,所以他在被技术规训时,并不总是被动地接受设计主体的控制,而是力图从自我出发去掌控所使用的对象,于是,同一算法对象在不同的主体中就会生成出不同的镜像。根据现代技术哲学家唐·伊德(Don ihde)的“多重稳定性”研究,不同的观察视角会形成不同的视觉经验,而不同的主体可能有不同的观察视角,同一主体也可以改变观察视角,当人们变化观察视角时,也就是在改变经验中的知觉结构。一种稳定性,呈现某一固定的外观表现和使用方式,而多重稳定性表现出同一事物在不改变构成的前提下可呈现出不止一种稳定性。多重稳定性现象表明不同的主体视角对于对象的稳定呈现具有重要规制作用,这一原理也可以“化用”于人机交互环境中:算法设计者和使用者都是主体,他们对同一算法可以形成不同的知觉结构;而基于设计者的认知差异性,不同设计者对同一算法的设定也会呈现出不同的知觉结构。这里,我们重点考察后者,我们将从自我出发构建的主体性称为“自我主体性”,把从他者出发构建的主体性称为“他者主体性”,不同主体性设定会产生不同的伦理困境。在我们的讨论中,“我”指的是以设计者为代表的工程师、平台运营方及其背后的投资方,“他”指的是以使用者为代表的用户群体。
工业文明初期是主体性逐渐张扬的历史时期。当“人类主体”从愚昧无知状态下逐步获得知识,从神的压迫下和自然的束缚下解放出来后,就迫切地将“人类”设置为世界的中心,这就形成了人类中心主义;同时,在人类社会内部,人们又极力推崇个人作为理性的思维主体的独特性,努力维护个人的独立、自由与尊严,出现了所谓个人中心主义。在人类中心主义、个人中心主义思潮的影响下,自然万物抑或人自身被视为现代科学技术认识与改造的对象,以满足自我(人类)的需求和欲望。在自我主体性思想的影响下,自然资源被过度攫取,他人利益被漠视,人与自然、人与人的关系被异化。
无论是“人类中心主义”还是“个人中心主义”,无论人类主体还是个人主体,其主体性表现的自以为是和唯我独尊,都会带来一系列社会问题,因此必然会遭到反思、批判、解构甚至是否定。今天人们通过对当代工业实践的反思和哲学的批判,客观上进一步促进了主体性理论的发展,使得原子式的个人主体性遭受质疑与批评。美国哲学家弗莱德·多迈尔在其著作《主体性的黄昏》中明确表示,过于狂妄的主体、主体性必然且正在走向衰落。法国哲学家让-弗·利奥塔等在《后现代主义》中更直接指出“主体与客体均被消解”[9](87),“所谓的主体性只是形而上学思维的一种虚构而已”,“事实上真正的主体性并不存在”[9](38)。需要指出的是,多迈尔提出的“正在走向衰落的主体性”是指以自我为中心的占有性个体主义、以统治自然为目的的人类中心说和排斥交互主体性的单独主体性,而绝不意味着所有的人类主体性与个体主体性形态都应走向黄昏[10](21)。正如多尔迈本人所言,“事实上,依我之见,再也没有什么比全盘否定主体性的设想更为糟糕了”[11](1),主体性作为人之存在的本质属性是不可能被完全消除的。就个体主体性而言,其主体性也是根本不可能被消除的,人们希望消除的只是其唯我独尊的极端表现方式。事实上,将他者性完全排除在主体之外的自我主体性有其先天不足,容易陷入唯我论,从而引发人与人关系的割裂,导致情感的冷漠和彼此关系的对立。在主体的建构过程中如要消除这个不足,就不能忽视人与人的合理社会关系建构问题。
以用户为中心的设计和评估的最基本思想就是将用户时时刻刻摆在所有过程的首位[12](1)。在人机交互过程中,设计者只关注产品的功能以及用户的需求是否得到满足。就算法决策的设计而言,单纯以设计者或使用者为中心的自我主体性设计哲学,都将陷入自我与他人的利益和权利之争。比如网上购物平台的产品定价策略,算法设计者考量的是销售方的利益,通过设计算法评估用户的价格敏感性来决定产品如何溢价;平台使用者考量的是消费者的利益,要求平台方公布算法定价规则,以打破算法黑箱、算法霸权。设计的社会目标是增进社会的福祉,但在以自我为中心的设计理念中,这种社会目标常常被自我的需求和利益同一化。在设计者与用户利益和权力的较量中,用户成了设计者实现目的的手段,而不是设计的目的,这样的主体性设计思想是必须加以改善的。
为抵制自我主体性思想的唯我论倾向和同一性的暴力,伊曼努尔·列维纳斯(Emmanuel Levinas)提出从他者出发构建非对称的他者主体性。列维纳斯认为,自我是作为他者的自我,因为他者具有绝对的优先性,所以主体性不是指对自我负责,而是指对他人负责。在列维纳斯看来,责任不仅是哲学思考的对象,更是生活方式的践行。在哲学与生活的关系问题上,列维纳斯认为哲学源于现实的反思,因此负责任的生活比责任哲学更重要;在责任所指向的对象性问题上,列维纳斯提出为他的责任优先于为己的责任。在责任如何展开问题上,列维纳斯指出,回应(response)就是负责(responsibility),我有责任对他人的问询、命令作出回应,且回应不仅是负责任的言说(saying),而且要对所说的内容(said)担负责任,并且责任需要转化为行动。列维纳斯的责任概念有三个重要特征[13](37),第一个特征是无限性,他者的命令与我的回应是无限生长着的,自我对他者负有无限责任;第二个特征是被动性,责任是他者对我施加的命令,不是自我主动生成的结果;第三个特征是非对称性,我对他人负责,但并不因此要求他人对我负责,“我对‘他者’的道义和责任,并不意味着我要从‘他者’那里期待回报”[14](154)。以列维纳斯为代表的非对称性伦理关系的他者主体性理论,是主体性理论中不可忽视的重要内容。但他者主体性在反对以自我为中心的同一性暴力的过程中,滑向了他的对立面——以他者为中心。从他者出发构建的主体性理论,虽很好地化解了设计者与使用者的对立关系问题,但绝对的他者性又导致创新主体的消解,使得创新责任失去可以承载的根基。
首先,设计者作为产品的能动创作者,理应承担产品的设计责任,但是他者性理论要求的无限责任会成为设计者的沉重负担。列维纳斯坚持他者具有绝对的优先性,并把“为他”的责任置于一个绝对的、难以超越的高度,它接近于上帝的责任。在列维纳斯的他者性视域中,设计者与使用者的责任是绝对不对等的,只需要设计者为使用者负责,不需要使用者为设计者负责,且设计者要为使用者的所有责任负责,包括用户错误或者不理性使用产品的责任。
其次,设计者作为创新的推动者,在一种非对等的伦理关系中,作为创新主体的自我被消解了。列维纳斯认为,对他者负责不能掺杂任何对自我的回报,只有他者利益,没有自我利益。然而现实的主体在本质上是以自我的存在为前提的,他者作为行为主体其实就是自我,没有自我无法成就他人。试想,作为他者而言,如果他也是一个为他者理论的坚定信仰者,他就只会产生为他的责任,不会接受别人为他的服务,那别人的为他的服务又如何可能现实地发生呢?
与不对称关系的他者主体性不同,传统主体间性理论将他人视为与“自我”同样的主体。作为同样的主体,“他者”与“自我”具有对等的关系。马丁·布伯(Martin Buber)虽然也同样认可他者的优先性,但与非对称的观点不同,他倡导主体间的对等关系。这种主体间的对等关系体现在布伯的“我-你”关系与“我-它”关系的区分中。在布伯看来,“我-它”关系就是将他者视为同样的对象,“我-你”关系就是将他者置于彼此平等对称的关系中。他认为,“展现人的精神便是人对‘你’的响应回答”,“精神不在‘我’之中,它伫立于‘我’与‘你’之间”[15](57)。因此,主体间的这种对等关系是一种“我”与“你”互为主体的对称关系,这种对称关系意味着关系双方在完全平等的基础上相互回应。
我们认为,主体首先是以自我存在为基础的,他者的绝对地位会使作为创新主体的自我失去生存的土壤。自我主体性与他者主体性是主体性哲学的两种不同的实现路径,前者可以最大限度地激发主体的能动性和创造性,后者可以最大限度地顾及他者的社会公共福利,它们分别代表设计活动的两个目标维度,即创新和社会责任,将两者统一起来才能实现负责任的创新。温和的他者性是继承他者主体性的修正版本,修正了“无限性责任”和“单向性回应”观点,试图以调和的方式走出责任困境。
其一,温和的他者性是一种非对称的有限责任关系。“有限责任”区别于他者主体性的无限责任,只有部分责任是设计者必须承担的责任,比如设计中的某些社会责任。可见,非对称的责任伦理其实更加真实,它使自我与他者可以相互贯通,社会责任与创新责任的统一成为设计主体的伦理共识。
其二,在温和的他者性理论中,自我利益其实内含于“相互回应”关系之中。“相互回应”关系区别于他者主体性所主张的单向性责任关系(其本质是一种利他行为),在成就他人的过程中,他人以同样的利他行为成就着你,即社会中的每个人的相互利他,使得这个社会更加美丽。
人机交互是人与机器信息的协同处理过程,人体的发音、手指操作、体感姿势等控制行为与机器的键盘、鼠标、话筒、触摸屏、摄像头等输入设备交互,人体的眼睛、耳朵、皮肤等感知器官与机器的显示器、喇叭等输出设备交互。人与机器的混合系统构成赛博格系统。在工程师看来,人机交互中的人是一个信息处理模型,他在接受刺激信息后通过感知系统(perception)、认知系统(cognition)和反应系统(response)进行信息处理并作出行动[12](6)。对机器来说,人体就是一台信息处理系统,至少具有感知、认知和具身三种能力。人机交互时,机器的优势是具有执行重复任务效率高和信息处理快的特点,缺点是并不是所有任务都可计算。所以设计者的设计责任是最大限度发挥机器和用户各自的优势,在降低用户某些自主性的同时,通过设计增强用户的感知、认知和具身等能力。
人类感知世界的主要方式有眼睛看、耳朵听、身体触碰。信息处理模型将感知系统作为人体接收外界信息的输入端,把眼睛、耳朵和皮肤定义为人体的传感器,它们分别将接收到的光、声音、压力信号转化为电信号,然后在人体神经网络中传输,以此感知外界的变化。工程师的设计责任就是要增强身体的感知能力,使身体能更加全面地接收到外界的变化情况,与外界环境进行交互。比如,医院的CT 仪的设计目标是要强化医生“看”病的能力,所以工程师“为他”的设计责任是想方设法增强医生“看”的能力,通过不同方式呈现病灶,及时、准确显现病灶。很显然,“为他”的设计职责是增强用户的感知能力,或者给出准确置信度的预测值供用户参考,把决策的权利留给用户,工程师的职责是为用户提供全面、可靠的决策信息,拒绝提供武断的信息误导用户。
伊德认为,无论是在古代还是在现代,技术都以或简或繁的形式不同程度地出现,人类活动总是嵌于技术中。他从技术现象学的角度阐明,人类生活之所以不能离开技术,是因为它调节着人类经验和知觉的变化过程。换句话说,技术是人认识世界的方式。然而,人与技术的关系是复杂多元的,从最简单的具身和解释关系,到复杂的“他异”和背景关系,人自身的知觉系统被技术塑造的程度越高,人对机器的依赖性越大,自我思考的空间就越小。按照伊德对人与技术的关系的定义,他异关系就是“我”与技术成为两个客体,技术成为他者,技术完全可以按照自己的规律发展、运行。比如智能机器从传统的体力劳动者角色,慢慢过渡到脑力劳动者角色,主体人的某种客体化趋势不可避免。因此,批判的人与技术的关系是用户在与智能机器交互的同时能够保持自我思想的独立性,工程师“为他”的设计职责应该是增强用户的认知能力,升华其认知素养,而不是窄化其认知空间,把用户困在“信息茧房”中。
人在活动的同时需要借助身体来认识世界,而信息社会的海量信息超出了人身体各器官的自然认知能力,人需要借助算法延展身体的认知功能,算法由此成为我们认知世界的媒介,赛博格主体成为人类工作与交往的真正实体。盲人摸象的故事向我们展示了,每个人感知的世界可以是不一样的,且每个人感知的世界都不一定是真实或完整的。在海量信息面前,我们每个人对世界的感知犹如盲人摸象。因此,要增强用户的认知能力,就要在如何提供全面、真实的信息方面作出努力。同时,需要发挥自身创造性、能动性的认知意识,将自身视为信息加工的主体,而不是没有独立意志和批判精神的意见附和者。因此,算法设计的目标就是打破算法的权力运行机制,始终将用户的真实认知需要作为设计者为他的责任,始终将用户的认知能力提高作为设计者为他的设计责任,将用户自身的能力与发展放在首位,以提升用户的能力、保障用户的权利。
“具身”是指将身体置于世界之中,该词汇来自英文词汇“embodied”。在人与技术的关系中,词缀“em-”表示“置于……之内”“使处于……状态”。伊德认为,具身关系(embodiment relations)是“作为身体的我”(I-as-body)借助技术在世界中生存的最普遍关系,是一种特殊的使用情景,在这种使用情景中,技术以一种特殊的方式融入“我”的经验中,转化了“我”的知觉和身体的感觉[16](77-78)。从人机交互设计的角度看,技术必须满足使用场景的要求,工程师在设计上应该作出一些努力,使得技术的使用符合人的身体的认知习惯和行为方式,使技术与人的身体真正融为一体。比如佩戴眼镜的人,在身体适应它之后会忽视它的存在,正是设计精良的眼镜在使用过程中融入了使用者的经验,从知觉层面增强了身体置身于世界的能力,即具身能力,才使得个体在置身于世界的同时,与世界保持良好的互动。此外,技术对身体知觉的转换并不意味着主体要放弃意义思考的能动性。“在设计良好的具身化技术中发生的部分共生现象(symbiosis)保留了这种能动性,它可以被称为富有表现力(expressive)。”[16](85)具身能力增强的目标是从设计上提高使用者的身体知觉能力和能动性,以避免技术操控下的知觉能力和能动性的下降。
在智能技术构建的空间中,虚拟和现实的融合使得人的身体可以脱离物质性的控制,通过意念实现网络空间与物理空间的交互。随着脑机接口技术的发展,算法可以通过分析人体思考时的脑电波信号,更加精准地识别大脑潜意识的决定,突破人身体机械运动的局限性。大脑皮层的脑电波与网络信息的双向通信,技术上可以实现将意识接入网络,达到更加便利、精准的具身效果,设计者的责任是让技术增强使用者对身体的自由控制能力,从设计上避免技术的失控。在设计者看来,人在驾驶汽车的过程中,汽车增强了人的运动功能,车被人具身为赛博格的目的是使人更加安全、快速地移动。而作为一种更加负责任的设计,算法设计的目标是通过智能技术增强这种具身能力。
如柯瓦雷所说,当人把自然和自身作为控制和改造的对象时,他“在世界中失去了他的位置,或者更确切地说,人类失去了他生活于其中并以之为思考对象的世界”[17](1)。从设计哲学角度看,人机混合决策引发的最突出风险是主体性风险。从自我出发构建的主体性理论,无视他者的差异性,导致设计者权力膨胀、使用者权益受侵蚀,违背了设计增进社会福祉的社会目标;从他者出发构建的主体性理论,很好地化解了设计者与使用者的对立关系问题,但绝对的他者性又会导致创新主体主体性的消解,使创新责任失去可以承载的根基。温和的他者性从现实出发,在肯定非对称性的伦理关系的同时,修正了“无限性责任”和“单向性回应”观点,试图以调和的方式走出责任困境。在温和的他者性的设计哲学看来,人工智能的设计责任是一种非对称的有限责任,是一种附“丽”于利他的相互责任。
人工智能的伦理设计方向是增强人与人的交往能力,提高用户的认知和决策能力,改善用户主体自身的机能,以提升用户的主体性能力。人工智能的设计责任是主体性增强,且至少包含感知能力、认知能力和具身能力的增强,增强的限度是维系社会的公平正义。人工智能设计的总体原则是以人为目的,因此,康德提出的“人是目的,不能仅仅成为工具”的普遍法则,即使是一种道德理想,也应该成为人工智能设计的职业追求。它类似于教师与医生的职业追求,不同的是,教师的职业目标是培育人的灵魂,医生的职业目标是修复人的身体,而人工智能设计者的职业目标是完善人。人在创造性改造与使用机器的同时也在实现他自己的本质,正如马克思所指出的,“人以一种全面的方式,也就是说,作为一个完整的人,占有自己的全面的本质”[18](123)。