嵌入黑箱:一种人机协作的可能性及其问题

2023-11-27 16:34林建武
江汉论坛 2023年11期

摘要:在当代,人类的命运已经牢牢地与机器,尤其是人工智能机器的发展关联在一起。与此同时,智能机器的黑箱化也成为我们迫切需要面对的一个问题。这其中,像算法机制这种对人们生活产生全方位影响的“机器”原理,一方面对于普通人而言几乎就是一个难以理解的黑箱结构,另一方面又对我们的日常生活产生直接且重大的影响。然而,试图通过让智能机器变得更“透明”,更具有“可解释性”,对于缓解机器的黑箱状态并没有太大的帮助。人机之间良好协作关系的破坏往往不是由于机器的黑箱化导致的。人与机器在人机协作中存在各自目的与功能上的差异,因此更合理的思路是在充分理解人与机器各自功能的基础上,通过在人机在协作过程中建立一种崭新的,同时也基于人和机器各自“趋向性”的目的来保证人机协作的顺利开展。当然,要彻底消除智能机器黑箱化的威胁,我们需要在考虑人机功能和目的之差异的基础上推进一种人机之间嵌入式的协作机制,此种机制有可能通过赋予机器一种“实践智慧”来使其摆脱黑箱化的责难。

关键词:人机协作;黑箱化;嵌入式人机协作系统

中图分类号:TP249;TP182 文献标识码:A 文章编号:1003-854X(2023)11-0065-07

在今天,人类的快乐与幸福,或者说,人类的命运和危机,都已经牢牢地与机器,尤其是人工智能机器的发展密切关联在一起。而拥抱或者接受这一点的人迫切需要回应的基本问题是,我们应当如何与机器进行交互(互动),我们应当如何在机器进入我们生活时,处理机器相对于人的“异质性”?当机器发展出越来越强大之“超人”能力时,我们如何保证依然维持与其处于一种“协作”甚至“操作”关系而不被机器所吞噬,并因此避免我们的生活陷入不幸?甚至我们会十分担心,人类所看重的价值是否会在机器能力的迅速发展过程中被抹除和颠覆?假如我们相信信息哲学家的判断,“信息与通信技术正在极大地改变我们的世界,它们正在创造新的现实,并推动着对世界和生活的方方面面的信息化解读。……线上的数字世界正在逐渐溢出到线下世界,并渐渐融入其中”(1),那么,建构一种新型人机协作关系似乎迫在眉睫。

一、面对智能机器黑箱状态的人机协作可能性分析

当前,人机协作中一个重要且紧迫的困扰是,智能机器(2)相对于人来说往往处于黑箱状态。(3) 问题在于,我们如何能够安心地使用一个完全黑箱化的工具并且与之展开协作?不过,从技术发展历史来看,我们其实并不曾停止使用黑箱式的工具或者所谓的准黑箱式工具。一个工人不需要知道他所操作的机器究竟是如何运作的,他只需要知道如何操作机器,以及这样的操作将会带来什么样的功效。一般来说,做到这些就意味着,他能够利用工具进行工作,或者说,工人与机器处于一种良好的“协作”关系之中——无论如何,工具已然有效地“服务于”工人的工作。此时,机器的黑箱化对于工人并没有产生可见的威胁,可以说,工人依然“掌控”着机器。有人可能会指出,在工业革命时期,工人对于机器机制的不了解可能是导致工人在机器大生产中被机器所“异化”的一个原因。但实际情况是,资本的剥削力量才是给工人带来危机的根源,工人和机器之间的紧张关系不是因为工人不够“了解”机器,而是因为资本主义生产制度通过机器来对工人进行残酷的剥削压榨。那么,是否这意味着资本家相对工人而言就有了一个更加清晰的对于机器的“了解”,或者说,机器对于工人是黑箱而对于资本家而言是透明的?情况显然并非如此。资本家也不需要对于机器的“黑箱”状态有一个完全明晰的领会:他们只需要把机器买回来,然后强迫工人使用机器进行生产进而剥削工人的剩余价值。资本家是机器的拥有者,但不是机器专家。可见,在工业革命时期,完全清晰地理解机器既不是正常使用机器操作机器的前提,也不是拥有机器,利用机器进行剥削的前提。

今天,人们普遍认为,在机器变得更加智能化时,如果我们要让机器全面,彻底地进入我们的生活,甚至具有改变我们的生活,改变整个人类生活样貌的可能,也即,让一种智能机器更加密切地作用于我们的生活,我们就不得不警惕这种智能机器的“黑箱”状态。当然,智能机器和工业革命时的机器,其所谓的“黑箱”特质是完全不同的。智能时代的一个特征是,机器的“黑箱”状态和之前相比,对于人类(无论是机器的所有者还是机器的操作者)可能是一个更加纯粹意义上的“黑箱”,也可能会是一个更加重大的威胁。智能机器这种更加纯粹的“黑箱化”趋向来自于技术本身的高度专业化和复杂化。在工业革命时代,一个普通人或许可以通过自学掌握机械原理进而对机器有一个大致的理解;但在智能化时代,即使是信息专业人士,可能也无法完全清晰地说明智能机器的工作原理,尤其是在进入到深度学习和大数据时代之后。智能机器“黑箱化”相对于普通机器而言成为一个更加重大威胁的原因是,在今天的时代,不仅是人类的生产活动,而且人类的日常生活,都严重地依赖于此种智能机器的有效运作。这种深度依赖是不断叠加的,即,人类对智能机器的依赖推动了智能机器越发地强化自身的地位,而这种强化又会进一步增强人对智能机器的依赖。

那么,我们要如何应对今天遍布于我们生活中的智能机器的黑箱化趋势?一个自然的想法是提升智能机器的透明度,尝试建立人机之间更为清晰明确的关联方式,让更多的人掌握智能机器的运行机制和底层逻辑。但笔者认为这种意义上的透明度的实现是不可能的。理由是,在我们与智能机器的“交互”中,我们确实可以主张一种相对于机器操作者的“透明度”,因此,一些智能产品也会给用户很详细的说明书,上面可能罗列了机器的性能与详细参数。但这是一种广义上的透明度,因为正常情况下,我们很难告诉公众智能机器的运作原理(大多数人对此并不感兴趣)。毕竟,人机之间的所谓“接口”和“交互界面”从来都不是以获得更大透明度为主要目标。所有智能机器产品,其接口在设计时除了让用户更容易上手之外,更多的是以机器自身的目的和高效运行为考量的,绝非首先是为了让使用者能够更好地理解“机器”。

对人工智能机器的透明度的要求实际上等于说我们需要一种可解释的人工智能(explainable AI),而这暗含的一个预设是,只要我们在今天这个时代能够更好地“理解”人工智能系统的运作机制和决策过程,我们就会因为能对其行为进行解释和预测而提升对它的信心,进而在一种现实的层面上更加信任人工智能机器并展开更紧密的协作。这里需要澄清的问题是,透明是否等于可解释性?它是否可以破除机器尤其是智能机器的黑箱状态?在我看来,透明是一种较为笼统的说法,我们对智能机器的透明要求对应的是它所呈现的黑箱状态,也就是说,我们因着智能机器黑箱状态给我们生活带来的威胁而想当然地认为,要消除这种威胁需要机器实现某种意义上的“透明”;可解释性确实部分地关联于此种透明,例如,对于专业人士来说,程序的可解释性意味着它的运行机制能够被理解,因而在专业人士眼中会变得“透明”,但此种透明性依然不是公众所理解和要求的应对黑箱化威胁的透明。因此,我们只能说,智能机器的透明特性通过帮助专业人员理解机器、掌控机器,部分实现了公众对于透明特性解除智能机器黑箱化状态的希望。但在很多时候,可解释性并不能真正做到“破除智能机器黑箱化”所追求的更高层次的目标,即实现一种更加健康、良善的人机协作。例如,即使我们知道存在着某种通过AI而暗中实施的不正义(例如算法歧视,算法偏见),我们也很难仅仅通过追求人工智能机器的可解释性来解决这个问题。认为一个可解释的智能机器能够变得更道德,这完全基于一种将道德或者说所谓正当简化为理性认知能力的立场,认为对象只要足够理性,就不会做坏事;而机器只要足够透明,足够具有解释力,就能够避免做坏的事情。但实际情况是,理性的智能机器完全可以被濫用来做道德上不正当的事情而不违背自身的“可解释性”。

针对智能机器的可解释性对于破除黑箱状态,以及破除黑箱状态给人机协作带来的困扰并没有太大的作用。有些研究者提出了另外一种应对思路:为了让人机协作更加高效并且让智能机器在对人类的助益之中不会因着某种黑箱状态给人带来巨大的压力与威胁感,更为直接意义上的“好的”人机协作模式要求机器尤其是智能机器具有更高的灵活度,使之可以配合人类的主观目标,如此,我们只要保证人机协作中的“人”有着良善的目标,那么,灵活地与之协调,并努力配合人实现目标的智能机器似乎就可以在不追求透明状态下起到“好的”作用。这里的灵活度指的是,人们希望机器能够不断地依据实际情形与协作对象的变化对自身做出调整。例如,在对人工智能道德体的设想中,学者们就认为,“即使人工道德智能体未能进到对所有关系都起疑的世界中,但在与其他人或计算系统互动的过程中,它们需要具备动态地调整或摸索着去提高信任程度的能力”。(4)尽管这样一种判断是对于可能的“人工道德智能体”的想象,但也说明,人机之间的互动协作在未来的一个方向可能就是智能机器更高灵活度的实现。这种灵活度依赖于机器高速发展的计算能力,因为计算能力的提升才有可能带来实时动态的交互可能。然而,更灵活的交互似乎既不意味着机器在可解释性上的提升,也不意味着一种良善人机协作模式的唾手可得。原因如下:

首先,智能机器的灵活度与黑箱状态的破除没有关联。智能机器灵活度的提升往往被认为意味着它会更趁手、更便捷,就像一辆刚刚升级了最新智能系统的无人驾驶汽车会标榜自己“以更灵活的姿态满足用户的需求”。此时,从人工道德智能体的层面上说,“良好的行为依赖于对他人的意图和需求保持敏感性。自主道德智能体将需要知道人们想要什么。在它们与人类的互动中,机器人需要清楚与其角色相关联的社会习俗和期待”。(5)智能机器的灵活性大体与此类似。一种对于人类的“投其所好”当然会提升我们与机器之间交互的便利性,进而强化我们与机器的协作关系。但尽管在此种情况下,机器可能成为一个驯服的“奴隶”,但依然不见得是“透明清晰的”:它依然可能是一个“黑箱”,并不对“奴隶主”呈现完全的透明状态,但作为“奴隶”的智能机器会为了更好地服務“奴隶主”而提升交互性,提升自身的可利用度。同时,这个“奴隶”会不断提升自身的“技能”,变得更加具有灵活度,更加能够满足“奴隶主”的需求。此时,这个灵活的“奴隶”,这个智能机器似乎更像是处于一种可“协作”的黑箱状态中。

其次,智能机器更高的“灵活度”有时给予人的是一种“虚假的良善协作”的可能,即更灵活的智能机器看起来更听话,实际上却在人类的生活中孕育更大的风险。我将这个风险称作黑格尔主奴辩证法在智能机器层面上的具体展开。大致上说,一开始是智能机器通过提升自身的“灵活度”以便更好地实现人机协作,但随着智能机器变得越来越灵活,原先居于主导地位的协作者(人类)为了更高效地协作,为了适应高速发展的计算能力,调整自身以适应进而认同这种协作过程,从而让自身变得更加灵活,并习惯于对照智能机器来调整自身的协作目的与协作方式。具体的发生进程是,尽管机器的使用者(主人)是在操控(奴役)机器(奴隶),但是在机器不断发展自身以更好地满足使用者需求的过程中,它变得越发灵活,对于人来说可能也变得越发不可解释,越发“黑箱化”了。而这一“黑箱化”的外在显现却可能是,机器越发能够满足使用者的要求了,而且这种满足可能还是智能的。久而久之,使用者习惯了这种机器的巨大力量与对使用者需求的满足,他们虽然可能也想要让机器能够更透明,更加具有可解释性,但机器已经充满灵活性地将自身的性能与价值关联于这种“黑箱结构”,此时,使用者开始发现,一个能够进行深度交互的灵活机器(一个听话的能干的奴隶)可能正是一个不可解释的机器(一个心思深沉的奴隶)。而这导致的一个可能结果是,为了维持这种交互关系,作为使用者的主人开始尝试调整自身:一方面,使用者将去学习接受机器的黑箱化,甚至将不透明当作机器的本质属性;另一方面,他反而选择让自身变得更加可解释,更加透明,以此来实现机器与我们交互时的“高效灵活”,即为了更好地被服务,人要打开自身。

二、机器黑箱化与人机协作中的目的及功能分配

那么,我们究竟有没有在人机协作过程中应对机器尤其是智能机器黑箱化的办法呢?要实现这个目标,我们首先要搞清楚的一个问题是,当人机交互要实现真正意义上的协作时,交互与协作的目的到底是什么?或者说,智能机器性能的不断提升,智能机器界面的不断改进,最终是为了什么?一般来说,人们会赞同如下看法:“在人机交互过程中,信息与通信技术通常被用于创造、便利与改进人类使用者与计算机系统之间的交流。”(6)在一些学者看来,广义上说,机器或者说机器背后的技术,其本质就在于实现各种各样的属人目的:“技术的本质就是对自然的编程,它是一种对现象的捕捉,并驾驭这些现象为人类的目的服务。某个个体技术对许多现象进行‘编程,并精心安排策划这些现象,最后使它们能够密切配合以完成特定的目的。”(7) 在这个过程中,无论是对人机之间交流的改进还是对世界现象的“编程”,都不是技术、机器、智能机器本身的目的。

然而,一个进一步的问题是,如果在不考虑人的目的的前提下,机器可能有自身的目的吗——这个目的或许会要求机器处于黑箱之中?如果机器有自身的目的,这一目的是以一种什么方式区分于人的目的?以人工智能为例,倘若作为机器的人工智能有自身的目的,那么什么是具有此一目的的作为机器的人工智能“自身”?即,人工智能机器有没有一种关于机器自身的概念,或者说,人工智能机器能否将自身认同为一个“统一体”,这种对自身作为一个“统一体”的认知又能否让人工智能机器将自身作为目的?实际上,笔者认为,如果目的仅仅是一个向着某种状态的“趋向”,一个任务序列,那么机器可能相比于人会具有更强的“目的性”和“整体感”,因为在人工智能体这样的存在中,机器的运行机制本身已然是为了某个特殊目的而展开的。从这个角度说,机器相比于人在“作为趋向的目的论”的意义上只会更强调目的。我们总是设想着,人因为某种同一性、某种整全性而更可能接近目的;但我们忘记了人类行动者很多时候是脆弱的和难以预测的,即使存在着某种意义上的同一性,也不能保证人的目的的始终一致。

这里我们就遇到了另一个重要的问题,我们能否要求机器完全以人的目的作为自身的目的,而在这个过程中,我们又能够充分信任机器最终将会有助于而不是有害于人的目的?在智能机器出现之前,尽管人们也会担心机器力量过于强大可能导致一些滥用,进而带来对于人类整体福祉的危害(例如核武器),但这其中涉及的核心问题还是人的目的本身的问题,或者说是不同的人群将自身不同的目的寄托在机器身上导致的冲突与危害,而不是机器自身的可能趋向目的性给人带来的威胁。有关机器的危害的发生有时是因为利用这些机器的人错误地评估了自身的目的,或者出于邪恶的动机为自身设定了一个邪恶的目的,然后利用机器来实现它。然而在智能机器中,“如果给予多功能机器以信任,让它们脱离其设计者或主人去运行,并设计程序,使之灵活地对真实或虚拟世界中的环境做出反应,那么我们就需要相信它们的行为会满足适当目的。这超越了传统的产品安全问题。……如果一个自主系统要使伤害最小化,它就必须‘知道其行为可能的有害后果,并且必须根据其‘知识去选择行动,即使‘知道‘知识这些术语只是在隐喻意义上用于机器”。(8) 从瓦拉赫和艾伦的这个判断可以得出如下推论:(1)智能机器在“脱离设计者去运行”时,其趋向可能会与人的目的发生偏差;(2)这种偏差不等于一般意义上的机器出现“产品安全问题”,这种偏差可能意味着机器目的可被获得与凸显并有了与人的目的的可能分离。那么,如果我们要完全确定智能机器会以人类的目的为自身的目的,会维持一种健康良善的人机协作模式,那么,我们必须让其拥有某种所谓的关于人类目的的“知识”。而在某种深度学习和神经网络的意义上,我们还希望机器能够自己来获得这种“知识”,并且承认这种“知识”对于其自身的目的是有意义的。这就等于说,在出现了智能机器目的与人的目的的可能分离之后,我们要努力让智能机器的目的重新契合于人的目的。而这意味着,人工智能机器需要两种层次上的知识,一种是关于什么是人类目的的知识;另一种是关于如何实现人类目的的知识,或者说,需要一种关于“协作”的知识,这后一种知识(9)的获得才是此种状况中人机协作得以健康展开的保证,也是我们认为黑箱化的机器可能无法向我们清晰允诺的——黑箱化的机器可能能够保证自己是一台功能强大的机器,但无法向我们保证它是一台具有“实践智慧”的,有助于人机协作和人类福祉实现的“好机器”。所以,现在的问题是,我们如何让智能机器获得此种“实践智慧”从而更好地为人机协作服务?

笔者的一个基本判断是,在智能时代,智能机器的出现一方面可能因其有更复杂的不透明目的而对人的目的产生威胁,进而破坏人机协作的健康展开;但另一方面,智能也为我们提供了一种给予机器以“实践智慧”,使得它拥有在自身的运作过程中自发地将人类目的当作自身之趋向性和目的的可能。借用弗洛里迪在《第四次革命》一书中对于技术层级的划分,我们可以更好地理解智能机器如何在不丧失自身可能“趋向性目的”的前提下拥有有利于人机协作、充分考量人的目的的“实践智慧”。在弗洛里迪看来,信息与通信技术是一种被称为“三级技术”的东西,这种技术的目的在于“将低效率的人类媒介从技术循环的回路中去除”(10) ,它是一种沟通人(作为使用者)与二级技术(例如,前智能时代的机器)的桥梁。以智能家居为例,如果家中有一台扫地机器人,那么它是一种二级技术;如果以智能的方式将扫地机器人并入“智能家居”系统,使之成为“物联网”构造中的一部分,那这种智能化就是一种三级技术。我们很难想象在“二级技术”的层面上实现人类目的的置入,即,我们很难认为一台扫地机器人会将“人的目的”作为自身的目的,但我们可以将人的目的置入到“三级技术”中。实际上,厂商们往往宣称,整个“三级技术”构架的初衷就是以实现人的目的(比如家居的智能化)为目的的。智能机器的“实践智慧”可能就体现在此种“三级技术”之中。

除了目的,要应对智能机器可能的黑箱化威胁,实现基于人类目的的机器与人的良好协作,另一个关键点是,我们需要廓清机器与人之间的功能分配。功能本就关联于目的,不切实际地想要实现超出自身功能的目的会带来大麻烦。在今天,机器,尤其是智能机器的黑箱化趋向往往伴随着人机协作之中人与机器各自功用上的混淆与随之而来的目的错乱。所以,对于人机协作而言,为了实现良好的协作以达到“共同”的目的,人和机器各自需要干些什么必须得到澄清。当然,这种立场预设了一个重要的前提是,人类的思维模式和机器的思维模式(或者说机器的运行机制)在很大意义上是不同的。人们通常认为,人类的思维模式是一种发散思维,往往具有更多的创造力;而机器的運行机制基于一种分析思维,具有更强的逻辑推理能力。无论此种观点是否成立,必须要承认的是,在大多数人(包括机器的制造者和人工智能的训练者)看来,机器和人类在思维模式上是有差异的,因而二者在功能上也应当是有差异的。

问题是,人机之间在协作时应当如何依照各自的功能进行任务分配才是合理的,且有助于人机协作之目标的实现?过去的想法是,基于人机之间功能上的差异,机器将在协作中完成那些较为低级的任务,那些不需要创造力的任务,而人类则需要扮演统筹的角色,扮演最后的仲裁者和监督者的角色,同时主导创造性工作。这一点在无人驾驶汽车中体现得尤为明显。当前的无人驾驶汽车技术已经进入到一个极其成熟的阶段,但由于伦理责任上的划分问题,无论是公共舆论还是汽车厂商抑或是消费者,都无法接受无人驾驶汽车的智能系统作为最终“裁定者”的角色。人们更为认同的是,无人驾驶汽车要为人类司机留下最终的“裁定权”,即,最后需要由人类司机来对某些极端状况进行评估,做出裁定。这意味着,尽管智能机器的能力在不断提升,人们依然认为,人才是协作中最后做决定的一方。但一个机器进步论的支持者可能会提出如下的问题:假如我们已经承认,深度学习培养出来的围棋选手可以在围棋的计量上胜过人类(给出更优解),那么,深度学习培养出来的汽车驾驶系统为何无法在驾驶策略上胜过人类呢?对此,一种可能的回应是,能力上的“胜过”并不代表一种决策的必然正当性,人类的实践领域会受到多种要素的影响(比如各种复杂的价值观念),围棋策略并不能囊括人类实践领域的多样性。笔者的看法是,这样的一种反驳即使成立,也无法证明任何东西。因为,倘若我们承认任何能力上的提升都无法带来更好的决策机制,达到更好的决策后果,那么,我们无异于是在说,在人类的生活领域,并没有一个更优解可以给出:无论机器还是人,无论是更聪明的机器还是更聪明的人,都无法做到这一点。

三、嵌入协作:一种面向整体任务的人机系统与机器黑箱化的解决可能

如果我们要开创一种人机协作的新局面,即一种机器通过真正具有某种人类认可的实践智慧,并且在人类面前消除黑箱化的可能威胁,以更大的比重参与到人类目的的实现中,我们需要重新思考协作的方式与条件。人机协作本质上说,是要组成一个崭新的“实体”,或者叫组合体,为人机之间建立一种类似于人与人的关系,并且人类一方能够保证机器在协作过程中不会有不利于人类的目的、功能、决策、行动(而机器尤其是智能机器的黑箱化往往无法向人类保证这一点)。在这其中,协作的基本要素包括:(1)总体目标的设定;(2)协作双方的互动,且这个互动乃是以总体目标为指向的,或者说,是为了帮助对方更好地实现目标;(3)不同的参与者之间构成一个平等或者正常的关系,使协作得以有效延续。

然而,人们可能会质疑的是,机器会进行“协作”吗?协作首先是作为一种人类之能力被规定的。在德目表中,善于协作、具有德性精神被认为是一种好的品格,这意味着,如果我们想要让机器与我们协作,我们需要假设两点:(1)机器能够具有一种“德性”;(2)机器能够具有“协作”这样一种“德性”。问题是,机器不一定能够通过第一重测试,即它不一定具有我们所谓的“德性”。瓦拉赫与艾伦在《道德机器》中就明确指出,“人们对他人‘做正确的事的信任,源自于共享的道德情感基础。对于人工道德智能体的设计者来说,难就难在如何给一个‘冷冰冰的、无情的机器去设置这样的稳定性”。(11) 换句话说,机器要获得德性,需要具备某种情感;而当前机器的“无情感性”又被当作某种意义的“德性”(好的特征),这显然是自相矛盾的:要么否定情感作为德性基础的设定,要么否定机器需要一种德性,或者,直接认为机器的“德性”不同于人类的“德性”,而且,这不同性质的“德性”之间,还是可以互相协作的。如果我们认同这种协作,就意味着我们已经放弃了让机器通过进化的方式获得与我们“类似”之品格的可能。对此一个可能的解释是,我们希望在当下能够快速获得“协作”的效用,而不是要实现对智能机器某种“品格”与“德性”的养成:那太花时间了,太不确定了。因此,机器具有善于协作的“德性”目前来看很难被证明。

其次,人机之间的协作是否必定预设机器作为一个“行动者”的可能?笔者认为,这也并不是人机协作的必要条件。相反,机器的“行动者”预设往往伴随着对此一行动者黑箱状态的默认。因为,机器的“行动者预设”所指向的人机协作关系对照的是人与人的协作关系,而一个人类合作者对于另一个人类合作者来说有极大的可能是一个“黑箱”。此外,如我们在本文第二部分所指出的,人与机器之间在目的与功能上的差异也使我们在试图将机器预设为“另一个行动者”时困难重重。所以笔者的看法是,人机协作是可行的:这种可行性并不意味着我们需要将机器理解为一个对等的行动者,一个有着明确目的论趋向的情感性存在,或者一个可能具身化以呈现自身作为一个统一体的存在。

因此,我们需要构思一种新型的人机协作模式,笔者将这种新型的协作模式称为“嵌入式”的人机协作。它有如下几个特征:第一,嵌入式的人机协作不需要为机器在协作过程中是否具有明确的目的而担心。因为嵌入本就预设了人类具有一个关于自身的明确目的,机器只是凭着自身的独特功能而嵌入到人类实现自身目的的进程中来的,此时,我们不用担心机器会因着自身的目的而呈现出对人有威胁的“黑箱化”趋向。第二,嵌入式的人机协作能够解释并辩护今天机器对于人的深层次介入,其理由是,嵌入式的人机协作意味着今天的智能机器并不会在协作过程中成为人自身的“主宰者”与控制者,人并不会在人机协作过程中丧失自主性。第三,嵌入式的人机协作为人机之间的深度融合提供了一个空间。我们需要明确的是,嵌入式的人机协作并不意味着人消失在机器中(此时人面对机器的黑箱化与不可解释性无所适从),也不意味着机器消失在人中(此时机器很难基于自身的独特功能而真正在人机协作中发挥创造性的作用),它是在承认机器与人在功能与目的有所差异的前提下,通过一种融贯性的整合,重新构造出一种以人机有效协作为目标的整体,机器的不可解释性甚至黑箱化趋向会在此种崭新的协作整体中变得不再具有威胁。此时,机器尤其是智能机器就像我们自身的器官一样。我们想象一下,我们的手臂的运作机制可能对于人来说也是一个“黑箱”,但由于我们的手臂深度地嵌入到我们作为人的整体结构中,因此,我们并不会因为搞不清楚我们自身手臂的运作机制而如临深渊、惶惶不安。

一个嵌入式人机协作的范例是Iyad Rahwan提出的SITL模型(Society-in-the-loop)。按照Rahwan的解释,这种模型会产生“一个可被解释的系统,它能更好地融入崭新的算法社会契约,与人类共生存,而不必成为敌对的关系”。(12) 换句话说,这种嵌入模型是将社会契约作为一种“黏合剂”加入到人机的协作当中去。我们先不讨论这一黏合剂是否有效,首先必须承认的一点是,对于一个异质性的各个要素进入其中的協作系统来说,要实现一个良序的运转,我们确实需要一种优秀的“黏合剂”。而基于SITL模型的人机协作模式,将会要求把社会整体的价值观嵌入到某种智能机器中,嵌入到某种协助社会治理的算法之中。这种嵌入导致的一个结果是,我们能够在价值观的意义上对智能机器产生一种认同,而这种认同的建立类似于人体以及人体中的某个器官对于另一个器官的认同,从而黑箱化和可能的不透明在嵌入式黏合中不再具有威胁。

一般认为,SITL是一种对于HITL(human in the loop)的替代。按照HITL方案的基本方针,在设计出某个人机协作的模型时,我们需要“让不同的利益相关者参与设计自动学习系统或者机器学习系统”,从而共同建构一个协作方案。在HITL方案中,人作为操作者在人机协作的建构中扮演着决定性的角色,他们负责控制机器、监督机器,同时,他们也承担优化程序和维持人机协作整体的工作。这实际上是一种较为陈旧的人机协作模式。在HITL系统中,人的作用更大,人承担的责任也更多,他们往往就是那个负责任的实体存在。然而,随着技术的进步,当机器和智能机器开始呈现出人所不能够清晰领会的诸多特征时,HITL模型的这种运作模式将让人感到越发乏力,进而陷入一种面对机器黑箱化的掌控力消失体验。根本上来说,我们必须要承认,人作为操作者,其实很难再仅仅凭借自身的力量黏合自身与人工智能机器之间的关系。这类似于如下的状况,我们想为我们自身安装一只机械手臂,我们的大脑要求完全清晰地理解这条机械手臂的运作原理,让这条机械手臂能够符合HITL原则,否则,大脑将认为这条机械手臂处于黑箱状态而不可认知,进而排斥机械手臂与身体的有效协作。而按照SITL模型,重要的不是让大脑控制机械手臂或者理解接受手臂,重要的是将自身的运作机制,比如,大脑控制身体其他器官的机制与原理嵌入到这条机械手臂中,使得大脑能够在发现机械手臂已然被嵌入人体工作机制的前提下,自主地掌控这条机械手臂。此时,就算大脑完全不理解此条机械手臂的运作原理,它可能依然不会将其判定为“异物”。

具体来说,SITL实际上回答了如下一个问题,如果我们需要在人机关系中进行价值与观念嵌入,那我们需要嵌入到哪里,或者说,这个嵌入最后会得到一个什么东西。SITL的意义在于,通过社会契约(价值)的嵌入,人类的责任担当不是消失了,某种程度上反而是加强了,人不用再担心自身被机器左右,被机器吞噬;同时机器会被要求以此种社会契约(价值)为自身的导向,因而机器也不会再是一种对于人类责任的瓦解,机器的黑箱状态不再构成人机协作的巨大威胁,毕竟,尽管我们确实应当更加努力追求黑箱的澄明与透彻,但这是一个较为漫长的过程,我们完全可以在实现人机协作有效运作的前提下来追求澄明与透彻,并且只有在此时,智能机器的澄明与透彻对于人来说才是有意义的。

此外,SITL的嵌入模式还能够解释我们与机器之间的责任关系,能够将机器作为责任体纳入到责任考量中来。实际上,当我们说在人机协作过程中,人和机器承担着某种“共同责任”时,这种共同责任其实是一个放大了的责任体,是一个以人作为行动者和责任承担者的责任结构,机器在其中往往被忽视,或是被理解为制造者的投射。例如,在自动驾驶技术中,共同责任中的机器部分指向的就是软件设计者、汽车生产者的责任。但在SITL的嵌入模式下,我们可以更认真地考虑机器尤其是智能机器的“责任”。人机协作中的机器可以被转化为一种具有了设计者“实践智慧”的机器,而它的不透明性与黑箱特质在此状况中不会对合作者构成威胁,原因在于,共同责任的存在暗示了人与智能机器(都有“责任”)双方都被嵌入了某种社会契约(价值)的维度,他们可以在此一维度的基础上融合成为一个崭新的“整体”。

注释:

(1)(6)(10) [意]卢西亚诺·弗洛里迪:《第四次革命》,王文革译,浙江人民出版社2016年版,第49、12、37页。

(2) 我在这个地方所说的“智能机器”除了指那些与AI(人工智能)算法相关的技术,比如某种推荐算法、某个基于算法的服务平台之外,还包括那些在其运作模式中加入了人工智能技术的机器,比如无人驾驶汽车等。

(3) 我所谓的黑箱状态是指,当智能机器介入我们的现实生活,它在作出決策建议或者进行价值判断时,并不会告知人类参与者它如此做的详细理由,或者,它所给出的理由(比如“基于算法”的缘故)是人类参与者所无法清晰理解的。此时,对于人类参与者来说,机器就是在一个“黑箱状态”中作出决策建议和进行价值判断的。Propublica网站的一篇调查报告“机器偏见”,曾聚焦一个名为Compas的AI系统,此系统基于已有的犯罪记录,尝试预测被告再次被逮捕的概率。结果是,黑人被告得到更高分数的概率比白人被告多45%。然而,人们试图对此种结果进行解释时,发现这个AI系统得出此种略带偏见的结论并没有一个合适的理由,也就是说,AI系统只会告诉探究者,依据算法得出的结论就是黑人被告再次被逮捕的概率更高,至于为什么如此,并没有(对于机器来说也不需要)一个进一步的解释。

(4)(5)(8)(11) [美]温德尔·瓦拉赫、 [美]科林·艾伦:《道德机器——如何让机器人明辨是非》,王小红译,北京大学出版社2017年版,第99、142、12—13、106页。

(7) [美]布莱恩·阿瑟:《技术的本质》,曹东溟、王健译,浙江人民出版社2014年版,第227页。

(9) 我们或者可以将其称为智能机器的“实践智慧”,即智能机器所掌握的如何让自己所具有的功能与目的契合于人类目的的智慧。

(12) Iyad Rahwa, Society-in-the-Loop: Programming the Algorithmic Social Contract, Ethics and Information Technology, 2018, 20(5), pp.5-14.

作者简介:林建武,南开大学哲学院副教授,天津,300071。

(责任编辑 胡 静)