【摘要】作为生命科学和信息技术深度交叉融合的前沿新兴技术,脑机接口近年来发展迅猛,重大突破频现,同时也引发了诸多伦理争议。脑机接口对传统伦理原则提出的挑战涉及物理、心理与社会等多个层面。在侵入式脑机接口已获准进入临床试验阶段的背景下,如何构建合伦理的脑机接口正成为各国神经科学家、工程师和伦理学家的关注焦点。为了化解脑机接口伦理风险,我们有必要加强监督管理,提升伦理素养,深化跨学科合作,通过建立健全伦理规范与监管机制,确保脑机接口技术能够真正增进人类福祉。
【关键词】脑机接口 技术风险 伦理原则 伦理治理 跨学科合作
【中图分类号】G31 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.16.005
引言
国家科技伦理委员会人工智能伦理分委员会研究编制了《脑机接口研究伦理指引》(以下简称《指引》),不仅对脑机接口研究的基本原则和一般要求进行了规定,而且还为五种不同类型的脑机接口研究确立了相应的伦理规范。《指引》要求:“开展脑机接口研究需符合我国相关法律法规规定,遵循国际公认的伦理准则,以及科学共同体达成的专业共识和技术规范。”
然而,对究竟什么是“国际公认的伦理准则”,《指引》并未给出明确说明。事实上,随着脑机接口技术的蓬勃发展,与脑机接口有关的伦理争议日趋复杂。例如,2024年1月,埃隆·马斯克(Elon Musk)创立的“神经链接公司”(Neuralink)首次将脑机接口芯片植入一位瘫痪患者的脑部;[1]同年8月,埃隆·马斯克披露已经成功将脑机接口植入第二位人类患者体内。[2]这些事件引发了新一轮的脑机接口伦理争议。一部分人认为,在脑机接口尚存在诸多潜在风险的情况下,贸然对人体进行侵入式脑机接口实验,具有极大的安全隐患。[3]也有人对这一进展持乐观态度,认为“神经链接公司”的临床试验遵循了美国食品药品监督管理局(FDA)的规范,若为那些急切渴望获得脑机接口以提升生活质量的患者着想,伦理考量就不应成为脑机接口发展道路上的阻碍。[4]
由此可见,国际学术界仍未就脑机接口研究伦理达成高度共识。为了推动脑机接口研究的健康快速发展,有必要系统梳理近年来国际上关于脑机接口伦理研究的热点领域和前沿问题,以期为中国脑机接口的合伦理研究与应用提供有价值的参考。
脑机接口引发诸多伦理问题的技术根源
早在20世纪70年代,雅克·维达尔(Jacques J. Vidal)便提出了“脑机接口”(brain-computer interface)这一术语,并将脑机接口视作“在人机对话中利用大脑信号”和“作为控制外部器械”的设备。[5]近二十年来,脑机接口研究持续获得广泛的关注(见图1)。
进入21世纪以后,脑机接口研究不断取得新进展,以致人们很难对脑机接口的定义究竟是什么达成一致意见。若根据《指引》,脑机接口可定义为“在大脑与外部设备之间创建信息通道,实现两者之间直接信息交互的新型交叉技术”,其作用过程包括“记录装置采集颅内或脑外的大脑神经活动”“对神经活动进行解码”“解析出神经活动中蕴含的主观意图”“输出相应的指令”“操控外部装置实现与人类主观意愿一致的行为”“接收来自外部设备的反馈信号”等环节。[6]换言之,脑机接口主要包括大脑、外部设备、信息通道三个组成部分,旨在实现测定神经活动、解读大脑意图、由设备实现意图、反馈实现结果的效应。
在脑机接口的某个作用环节采用不同的技术实现方式,就会产生不同种类的脑机接口技术。在测定神经活动环节,脑机接口逐渐分化成两大类,一类是直接在头皮上测量大脑电活动的非侵入式脑机接口,另一类是需要通过开颅手术将电极植入脑中的侵入式脑机接口。最近还发展出一类通过颈部血管,将测定电极导入特定脑区,借以采集神经信号的脑机接口,即介入式脑机接口。在解读大脑意图环节,脑机接口研究者捕捉、解读并利用了多种脑电活动,如事件相关电位、[7]感觉运动节律[8]和慢皮层电位[9]等。当前,人工智能领域所使用的一些经典算法,如支持向量机和神经分类器,在21世纪初就被引入脑机接口的研究中。[10]近年来,人工智能领域中的“深度学习”之类算法创新深刻影响了脑机接口研究,尤其是对大脑神经信号的解码研究。可以说,脑机接口的研究进展与不同领域研究人员的协同创新、对新技术的不断整合应用有着很大的关联。
随着脑机接口研究的不断发展,越来越多的研究者开始思考脑机接口技术可能对人类产生的影响。从图1可以看出,脑机接口研究的论文数量出现快速增长之后,脑机接口伦理研究的论文数量也随之出现快速增长。毋庸赘言,脑机接口研究引发的伦理担忧是由脑机接口技术特点所决定的。由于脑机接口具有干预性、交互性与自动性等技术特点,以致脑机接口研究很难避免来自伦理方面的诘难。
干预性。干预性指的是脑机接口必然涉及对用户的干预过程,包括测量与控制用户的神经与行为。脑机接口重在将解析出的大脑意图信息传输给外部设备,以实现大脑对设备的控制。这意味着需要先采集大脑电信号或磁信号,对这些信号进行解码后再将其翻译为机器的控制信号,进而传输给外部设备。问题是,大脑神经活动能否仅通过电、磁信号进行测定?如何基于有限的信号解码大脑内复杂的神经活动?如何从不同的神经活动信号中排除干扰,解析出用户的主观意图?怎样才能把用户的模糊意图翻译为控制设备的清晰指令?以上问题亟待研究人员解决。
正是由于测定和控制大脑神经活动的干预性,脑机接口极易引发一些安全问题,并由此导致诸多伦理争议。尤其是侵入式脑机接口和介入式脑机接口,因在研究过程中需将异物导入颅内,故很容易引发长、短期安全风险。即使非侵入式脑机接口遇到的安全问题相对较少,也并不意味着非侵入的测定过程对大脑不会造成任何伤害。为了发现、控制、克服大脑神经活动测定过程中的安全问题,研究人员需要用模式动物做大量的实验,这又不可避免地会引发动物福利问题。并且,把动物实验的数据套用到人类身上,还会招致知识外推方面的质疑。即便研究人员解决了采集信号的安全问题,但在解码与解析电信号、磁信号等多种信息过程中产生的大量隐私数据,也有可能引发潜在的用户信息安全问题或隐私问题。
交互性。交互性指的是脑机接口需要在外部设备与用户之间产生交互。脑机接口需要向大脑及时反馈外部设备实现用户主观意图的结果,这一反馈既可以经由感官的刺激(如听觉、视觉信号)达成,也可以通过由脑机接口直接向大脑输入电信号来实现。而且在很多情况下脑机接口还需要将外部环境中的一些重要信息传输给大脑,这就需要先将外部环境中的相关物理信息设法翻译为电信号,然后再将这些电信号输入大脑。
在将电信号输入大脑的过程中,信号传输的安全性问题尤其值得关注。比起电脑被黑客入侵,“大脑被黑客入侵,进而控制用户本人”的后果更为严重。面对这一重大安全风险,《指引》中给出的规定非常严格,要求研究人员“严格控制干预人的思维、精神和神经活动过程的研究”,以保障用户的意识安全。[11]如果规定禁止通过技术干预人的意识,那么人工耳蜗是否同样也会干预患者能听到的声音?人工义眼是否会干预患者能看到的世界?两者会不会被黑客控制?很明显,当脑机接口成为用户大脑与外部世界进行交互的中介时,我们不可避免地会遇到如何保障用户意识安全的问题。
自动性。自动性指的是某些脑机接口具备一定的自动行为能力,并非时刻都得在用户主观意图的控制下才能运行。一些脑机接口可以采用较为复杂的模式识别手段和控制手段,通过收集大脑的自发活动信息自动运行。其潜在的用户群体多为患有中风、癫痫之类大脑功能障碍疾病的患者。此时,脑机接口将不再只是连接“主观意图”和“外部设备”的中介,它还扮演了与患者共同决策的“电子大脑”角色。在这种情况下,恐怕不能要求患者在使用脑机接口前就具有可清晰表达个体意愿的“意识”,对外部设备的控制恐怕也不能只基于“主观意图”。这就向研究人员提出了更高层次的技术要求。
对于这一类脑机接口,我们需要考虑很多问题。譬如,用户在使用脑机接口前后,是否发生了意识层面的变化;闭锁综合征患者该怎样去表达“同意使用脑机接口”的意愿;患者使用脑机接口后的“知情同意”是否能够代表那个没有借助脑机接口的自己,亦即使用脑机接口后的患者和未使用脑机接口的患者是否具有同一性。由此可见,这种超出《指引》定义的脑机接口类型,对信息和响应的自动化处理,引发了不少与人类意识、同意、自主等心理功能与特征相关的伦理问题。
脑机接口对伦理原则提出的挑战
脑机接口在不同的技术作用环节对多项伦理原则提出了挑战。接下来,笔者将从物理、心理、社会三个层面,[12]进一步考察脑机接口与传统的生命医学伦理原则之间存在的冲突。
物理层面的伦理挑战。在传统的生命医学伦理原则中,“不伤害原则”是一项重要的考量,即在医疗过程中需要确保患者的身心健康不会受到伤害。但是,正如前文所提到的,脑机接口中的一大类别是侵入式脑机接口。使用这种脑机接口需要通过开颅手术将电极贴敷到脑皮层表面或刺入脑皮层内部。相比于非侵入式脑机接口,侵入式脑机接口能够更好地识别脑神经电信号,也能更好地实现脑机交互。但这一操作会对患者大脑造成一定的损伤,甚至会影响患者的心理特征。
具体而言,植入电极的行为本身就会对患者造成一定的影响。例如,植入手术过程中可能发生感染,随着时间的推移脑内会逐渐形成包围电极的疤痕组织,电极长期使用后功效会显著下降等。[13]即使医生将电极顺利植入患者的大脑,患者也需要通过脑机接口与外部设备合作训练一段时间之后,才能精准控制外部设备实现目标。而在训练过程中,患者的思维习惯或多或少会发生变化,甚至性格都有可能发生不可逆转的改变。[14]由此可见,侵入式脑机接口在物理层面上的特性对传统的“不伤害原则”提出了挑战。
另外,脑机接口不仅可能给患者带来不可逆损伤的风险,其他人也可能存在被脑机接口使用者攻击而受到伤害的风险。斯蒂芬·雷尼(Stephen Rainey)指出,脑机接口使用者有可能会因所佩戴的假肢设备失灵而对他人产生攻击行为,即使设备本身没有失灵,脑机接口也可能会将脑中的冲动行为直接转化为物理行为,把“我简直想打人”实施为“我打人”。[15]若出于避免意图翻译不畅的目的给脑机接口增添一些意图确认环节,又会使脑机接口变得更加复杂,这将会给用户带来更多的不便。
但风险并非一项技术的全部,收益往往与风险并存。如何平衡风险与收益,是脑机接口研究人员和患者都必须面对的问题。图比格(Paul Tubig)等人采访了一些即将取出“癫痫治疗”脑机接口的患者,这些患者向采访人员表达了对“再度丧失人格”的担忧,并表示希望能够继续保留脑机接口。[16]《指引》要求严格控制具有成瘾性的脑机接口研究,但这些患者不是基于“快感”而是基于其他原因要求保留脑机接口,这是否可以视为一种“成瘾”?克莱恩(Eran Klein)等人则讨论了一名参加脑机接口实验的闭锁综合征患者因在实验过程中的治疗效果逐步减弱,以至于最终退出实验的过程。[17]
要而言之,如何面对脑机接口给患者带来不可逆损伤的风险,以及如何在这种风险中增进患者的收益,已成为脑机接口研究在物理层面无法回避的伦理挑战。可以预期的是,随着脑机接口技术的不断进步,这些伦理冲突会在一定程度上得到缓和,但要完全解决侵入式脑机接口给患者带来的伤害问题几无可能。这意味着至少侵入式脑机接口研究很难严格遵守“不伤害原则”。
心理层面的伦理挑战。在传统的生命医学伦理原则中,尊重自主原则被认为是首要原则,即必须保证患者能够自主地选择自己的思想和行为。换言之,尊重自主原则关乎患者与医疗技术交互过程中的切身感受和内在体验。而在使用脑机接口进行治疗的过程中,患者普遍会产生心理层面的改变,这对如何保障患者自主权提出了伦理挑战。
具体而言,脑机接口在心理层面带来的自主难题主要包含三个方面:一是脑机接口对患者的知情同意提出了更多的要求;二是脑机接口对患者的自我身份带来了改变;三是患者对脑机接口技术产生了依赖性。
首先是知情同意问题。生物医学伦理原则中的尊重自主原则,要求在生物医学实验中必须尊重患者的自主性,而知情同意程序则是尊重自主原则的具体体现。然而,在脑机接口研究与应用过程中,传统的知情同意程序可能并不足以保证患者的自主性。例如,有学者指出,闭锁综合征患者无法自主表达其意愿,正常的知情同意程序无法实施。因此,借助脑机接口对这类患者进行治疗需要允许“他人代患者表述知情同意”,或者允许通过大脑扫描等方法认定患者的知情同意。[18]然而,这样的知情同意程序真的能保障这些无法自主表达自身意愿的患者的自主性吗?
即便是能够自主表达自身意愿的患者,也有可能受脑机接口技术特点的制约,难以做到完全知情。在常规的知情同意程序中,脑机接口的提供者需要告知用户将会收集哪些大脑数据,为什么要收集这些数据,以及将如何使用这些数据等。一些脑机接口,如“脑脑接口”涉及的数据量十分庞大,且内容不易解读,在这种情况下,让患者充分理解脑机接口的数据细节显然不现实,实际上脑机接口的提供者也未必能做到对这些数据细节的充分理解。结果,患者往往是在不完全知情的情况下表示同意的。无疑,这给传统的知情同意程序带来了挑战。[19]
其次是自我身份问题。一方面,脑机接口的使用者需要通过脑机接口克服自身希望解决的困难,例如,治疗疾病等,这可能会带来身份的认同和转变问题;另一方面,患者可能又不希望自己的身份因脑机接口而产生彻底的变化,甚至成为脑机接口操纵下的个体。有案例表明,一些使用脑机接口的渐冻症患者通过脑机接口获得了与家人和朋友交流的能力,并表示愿意在脑机接口实验结束后保留设备;但也有相当一部分患者不愿保留设备,认为自己已经重新获得了交流能力,因此,有强烈的意图去恢复原来的“脱离脑机接口”的身份。由此可见,与脑机接口关联在一起的是用户个体对于自身是否属于“患者”的认知:一些患者认为自己使用脑机接口使得自身不再是“患者”,因而增加了自身的自主性;而另一些患者则认为,必须佩戴的脑机接口设备无时无刻不在提醒自己是一名患者,自己反而比未治疗之前显得更加沮丧和无助,这损害了自身的自主性。[20]它表明,患者的自我观念甚至是人格都因佩戴脑机接口而受到影响。
最后是过度依赖问题。当脑机接口能够为患者带来精神治疗效果时,一些学者便开始怀疑这项技术有可能会使患者产生过度依赖。一些使用脑机接口的癫痫患者表示,自从有了可以预测癫痫发作的脑机接口之后,他们似乎就可以去做任何想做的事情,而不必担心癫痫的随机发作。[21]脑机接口对患者本人心态固然会有所改善,但是这种对脑机接口的过度信任可能会导致患者忽略了自身本有的识别能力,反而给癫痫患者本人和他人造成更多的伤害。在这种患者与脑机接口的双向互动中,脑机接口本来只是患者预测癫痫的辅助工具,后来却演变成了预测癫痫的唯一工具,成为了癫痫判断的决策者本身。更甚之,问题不在于患者对脑机接口的依赖本身,而在于如果其他社会因素介入到治疗中,这种依赖性会进一步损害患者的利益。
综上,脑机接口对人类意识具有强大的控制与干预能力,由此在心理层面引发的伦理问题不容忽视。从知情同意的复杂性,到自我身份的转变,再到对技术的依赖性,这些问题都对传统的尊重自主原则和知情同意程序提出了新的挑战。因此,在未来的脑机接口研究、开发与应用过程中,我们必须探索更为细致、全面与更具可操作性的伦理框架,切实保护患者的自主性与心理健康。
社会层面的伦理挑战。脑机接口除了因其技术特点可能会给患者带来物理和心理层面的伦理挑战之外,还有可能会由于使用者的不当操作带来不少社会层面的伦理挑战,如解读大脑涉及的隐私问题、脑机接口使用者的污名化问题、发生事故时的责任归属问题以及脑机接口资源的公平分配问题等。事实上,关于传统伦理原则的讨论,往往采取个体主义的立场与诉诸直觉的研究进路,对伦理理论与道德实践之间的关系没有给予足够的关注,而这有可能忽视技术发展中的权力结构与社会不平等问题。[22]脑机接口带来了广泛的社会影响,使我们更加需要关注社会层面的伦理挑战。
首先,脑机接口需要收集大量关于用户神经状态的数据并作出频繁而复杂的解读,在这一过程中如何保护用户的隐私是一个必须正视的问题。一些伦理学家向科学家发放问卷,询问脑机接口的数据保护与其他类型的生物医学数据保护有何不同。[23]一些科学家表示,就现状而言,即使把神经数据提供给其他研究人员,恐怕也没有什么意义,因为这些数据只有在搭配特定工具和人员的情况下才会彰显其价值,甚至一些数据可能会对其他研究人员产生误导,进而伤害用户。因此,并非所有科学家都支持对脑机接口研究进行“数据共享”。一般认为,未来的脑机接口需要对神经状态作出更加细致且准确的解读,这意味着一旦黑客入侵脑机接口,将会给患者和他人造成更大的危害。[24]
其次,脑机接口的使用者可能会遭遇污名化问题。脑机接口设备可以类比为残疾人使用的轮椅或拐杖,因此,脑机接口使用者面临的污名化问题与残疾人所经历的污名化非常相似。约瑟夫·斯特拉蒙多(Joseph A. Stramondo)指出,脑机接口应被归类为像拐杖那样的“辅助技术”,而非像药品那样的“治疗技术”。辅助技术的使用者会被社会赋予“残疾身份”,而治疗技术则不具备这种特性。[25]一些使用脑机接口的癫痫患者认为,脑机接口的存在无时无刻不在提醒自己,“我是一名癫痫患者”。[26]这一情况表明,社会对残疾人的污名化已转化成了对脑机接口使用者的污名化。
再次,如果脑机接口的使用者对他人造成伤害,应该以谁作为惩罚对象?这便是脑机接口的责任归属问题。斯蒂芬·雷尼等人认为,身体之于个人与脑机接口之于个人有一定区别。比如,为了“接住一个球”,基于身体的行为是“目标导向”的,注意力集中在球上;而基于脑机接口的行为则是“控制导向”的,用户的注意力集中在“让设备怎样移动”上。[27]因此,脑机接口使用者造成的事故相比于个人直接造成的事故,须承担的责任相对较小。但问题的关键不在于“要不要承担全部责任”,而是“要承担多大程度的责任”。对于这一问题,学界尚未形成共识性的研究结论。如果责任归属问题迟迟得不到妥善处理,脑机接口就有可能引发更多社会乱象。
最后,脑机接口技术的发展还会引发如何公正地分配脑机接口资源问题。使用脑机接口进行疾病治疗具有很高的技术门槛,需要支付高昂的代价。因此,除富裕阶层或特定群体外,很少有人能够分享到脑机接口资源,这种资源分配的不均衡会进一步加剧社会的不平等。此外,脑机接口算法模型中也隐藏着不平等因素,而这些算法对使用者的行为却有着巨大的影响力。[28]随着深度学习等人工智能技术整合进脑机接口,算法“黑箱”带来的挑战愈发严峻,即使它是公开透明的,研究人员也很难甄别出隐含在算法中的歧视性条款。因此,脑机接口不仅需要公平的分配,以确保弱势群体对脑机接口的可及性,同时还需要一种“非歧视性编程技术”,以确保弱势群体不被脑机接口系统性歧视。
总之,在推动脑机接口技术进步的过程中,如何最大限度地规避其潜在的负面社会影响,有效应对隐私保护、污名化、责任归属以及资源分配等多重挑战,已成为脑机接口技术发展中不可忽视的伦理难题。这些难题不仅呼吁社会要对脑机接口技术进行更严格的规范和监督,还要求我们在技术发展中始终重视脑机接口对社会公平与正义的影响,确保技术进步能够惠及更普遍的人群。
脑机接口研究的伦理治理
如前文所述,脑机接口在研究过程中暴露出了诸多令人担忧的伦理问题,在物理、心理和社会等各个层面都对脑机接口的合伦理使用提出了挑战。随着脑机接口技术的迅猛发展,其应用前景也变得越来越广泛,未来可能出现的伦理难题也会变得日益复杂,我们对脑机接口进行伦理治理的需求也就更加迫切。这引发我们进一步思考:人脑与机器的融合究竟可以走多远、应该走多远?怎样才能尽可能规避脑机接口的伦理风险,使其更好地造福于人类?
近年来,国际上的许多学者都对这些问题作出了回应,“构建合伦理的脑机接口”已成为脑机接口伦理研究的前沿领域。面对“构建合伦理的脑机接口”的要求,许多研究者都对脑机接口的研究、开发和应用提出了建议,而这些建议可以归为三个主要方面,即加强监督管理、提升伦理素养与深化跨学科合作,以此应对脑机接口带来的伦理挑战。
加强监督管理。许多脑机接口领域的研究者都认为,政府和有关机构应制定相关的法律法规,对脑机接口的研究、开发和应用过程进行监管,并且这些监管手段应涉及数据隐私保护、用户知情同意的获取以及防止技术滥用等诸多方面。例如,《指引》中就提到,“在人体上开展脑机接口研究,应根据《涉及人的生命科学和医学研究伦理审查办法》等相关法规申请并通过伦理审查”“应严格遵守《中华人民共和国个人信息保护法》、《中华人民共和国数据安全法》等相关法律法规和标准规范”以保障脑机接口的数据安全等。而在国际上也有学者指出:“对神经设备的监管需要与快速发展的神经技术领域保持同步,或至少保持相关性。这不仅能确保市场利益最大化和避免潜在伤害,还能通过良好的实践激励行业遵守道德规范,推动创新。”[29]基于这样的考量,近期全球范围内有多项涉及脑机接口监管的政策性文件出台。美国食品药品监督管理局发布了多个涉及脑机接口伦理安全风险监管的指导性文件,包括用于瘫痪和截肢患者的脑机接口研发的“跨越式指南”,以及涉及非侵入式脑机接口风险评估的“从头分类路径”倡议等。[30]
在加强关于脑机接口的监管方面,研究者们提出了许多需要注意的伦理事项,大体上可以概括为以下三点。第一,在脑机接口研究过程中需要加强相关的伦理审查。研究人员和开发者在设计和研究脑机接口时,需要考虑其研究是否符合伦理审查的要求;伦理委员会在批准相关研究时,需要确保所有实验和应用都符合伦理标准,保护参与者的权益和隐私。例如,“神经链接公司”在猴身上运用脑机接口技术,引发了实验动物福利保护者们的担忧;“神经链接公司”在人体上进行脑机接口实验时,因其实验设计缺乏透明度和相关副作用不明确而受到公众和伦理学家的指责。[31]这意味着伦理审查与科学研究前沿脱节,如果不能让伦理监督紧跟科学实践,科学研究将面临失控的危险。第二,立法机构需要建立和完善相关法规,为脑机接口技术的研发和应用提供指导和规制。美国2040脑机接口设备工作组认为,脑机接口带来的责任归属问题亟需完善相应的立法,以规避脑机接口普及后可能带来的各种法律问题,通过法律途径对“制造商、雇主或用户何时应对脑刺激的意外后果负责、谁应该对脑机接口和用户相互适应所导致的行为负责”等问题作出规定。[32]这些法规可以避免脑机接口技术被不良商家滥用,减轻了科学家对自身成果负面社会效益的担忧。第三,在临床中,我们也应该实施更严格的知情同意程序,以增进用户对脑机接口相关风险与收益的理解。这一过程不仅涉及向用户提供详细的信息,还应确保他们充分理解所涉及的风险、收益以及可能的替代方案。鉴于脑机接口服务对象有其特殊性,我们需要采用特别设计的沟通方法,如使用辅助技术或依赖熟悉患者情况的医护人员进行解释,以确保患者真正理解相关信息。[33]这并不是违反伦理原则,恰恰相反,这些基于伦理原则的替代方案,才是因地制宜地遵守科技伦理要求、降低研究人员接受伦理审查非必要成本的重要手段。
面对脑机接口的技术发展与伦理限制之间的张力,以美国为首的发达国家并没有教条地维持原本的伦理程序,而是采取了富有弹性的策略。在脑机接口的研究过程中,美国人类研究保护办公室以及各机构的伦理审查委员会负责确保脑机接口的技术研发不会对人类受试者产生危害;美国食品药品监督管理局、美国消费品安全委员会和美国联邦贸易委员会则负责对脑机接口产品的销售与使用进行监管。其中,所有的侵入式脑机接口和某些非侵入式新脑机接口都由美国食品药品监督管理局监管。由于传统的审批流程非常缓慢,因此,美国食品药品监督管理局推出了“突破性设备计划”(BDP),便利了相关脑机接口设备的安全审查,使得脑机接口技术从研发到应用的过程大幅缩短,力求以这种方式在伦理保护和技术发展之间找到一个平衡点。
提升伦理素养。加强对脑机接口研究的监管是必要的,但监管手段常常滞后于技术的发展速度,以致一些不符合伦理原则的行为可能会逃脱现有的监管框架。[34]因此,单纯地依赖“他律”的手段可能不足以应对这一问题,提升伦理素养作为一种“自律”的手段显得尤为重要。这不仅意味着脑机接口领域的研究人员需要进一步增强伦理意识,还意味着公众对脑机接口技术的基本认知以及对自身权利与义务的理解都需要提升。
一方面,对于脑机接口的研发人员和开发脑机接口的科技公司而言,科研伦理与商业伦理素养的提升至关重要。图比格等人指出,脑机接口研究人员和公众之间存在一定程度的知识、权利地位不平等现象,而科技公司在利益驱动下有可能给公众安全带来威胁,这就要求研究人员能够识别脑机接口可能带来的加剧社会不平等、侵犯精神隐私、创造新的剥削形式等伦理问题,并且要求研究人员面对这些不确定性因素作出负责任的行动,“履行维护公众信任的义务”。[35]还有学者指出,脑机接口技术的发展也对研究者们的伦理教育提出了要求,匹兹堡大学和卡内基梅隆大学的神经科学团队都进行了类似的尝试,召集神经科学家和神经技术工程师每月参与一次半结构化讨论,对神经科学与神经技术中出现的争议性伦理案例进行研究与批判性反思。[36]这种教育形式有助于脑机接口研究者们自觉遵守伦理准则,以高度的社会责任感,审慎运用技术,尊重用户的权益和隐私,维护公众的信任。
另一方面,对于脑机接口的使用者来说,科技和伦理素养的提升也能帮助用户规避脑机接口带来的相关风险。我们可以预想,脑机接口可能会在未来进入工作场所,人们可以通过将大脑与计算机直接连接,更高效地操控设备、处理信息,进一步提高生产力和工作效率。然而,一些学者指出,将接口纳入工作场所可能存在诸多伦理争议,相关问题必须得到审慎的讨论。[37]有学者提出了公民享有“神经权”(neurorights)的倡议,呼吁民众要意识到自己拥有“神经权”,其中包括决定自己的数据是否被共享、在没有外部神经技术操控的情况下作出自主决定、确保自己的心灵隐私不受侵犯、平等地获得脑机接口等神经技术以及免受偏见和歧视等权利。[38]
除了伦理素养外,公众对科技的认知和态度也将直接影响脑机接口技术的推广和应用。有研究显示,公众更容易接受非侵入式脑机接口,而对侵入式脑机接口保持警惕,这可能会影响脑机接口的发展趋势。[39]因此,科普教育和公众参与在脑机接口技术的发展过程中起着至关重要的作用。通过透明的信息披露和积极的公众参与,可以提高公众对脑机接口技术的理解和信任,减少对脑机接口的盲目恐惧,在一定程度上避免用户误用和滥用脑机接口,以此促进脑机接口技术的发展。应通过教育和宣传活动,提高社会整体对脑机接口技术的认知水平,帮助公众正确看待和使用该技术,同时促进公众在脑机接口技术发展中的参与和监督。[40]
深化跨学科合作。脑机接口作为一个多学科交叉的研究领域,所涉及的科学与技术领域包括认知心理学、医学、生物工程、电子工程以及人机交互技术等。不同领域对于脑机接口的关切点不尽相同。譬如,医学与生物工程更关注大脑结构和相关电信号的捕捉技术;认知心理学和人机交互技术更侧重于关注用户的认知、体验与感受;伦理学家更关注脑机接口对自主性、责任、同一性等传统伦理原则的挑战;科学家则更关注安全和风险问题。因此,我们在开发合伦理的脑机接口时,同样也需要跨学科合作,以共同解决脑机接口研究、开发与应用过程中遇到的伦理难题,推动脑机接口健康有序的发展。
一方面,在伦理规则制定过程中,我们需要关注脑机接口研究、开发与应用中不同利益相关方的核心伦理关切,促进各方沟通。例如,患者和用户可能会担心数据隐私和安全问题,需要确保他们能够掌控自己的大脑活动数据,避免这些数据被商家滥用。然而,最近的一项调查结果显示,相关技术研发者对脑机接口数据隐私权的态度是复杂的,他们既承认个人应该对自己的神经数据拥有一定的控制权,但又不应该是“无限的控制权”,否则相关研究将很难展开。[41]可见,在脑机接口的研究、开发与应用过程中,不同利益相关方之间存在着一定的利益冲突。因此,需要利益相关方在构建合伦理脑机接口的过程中展开对话,增进各方对脑机接口研究、开发与应用伦理的理解。诺普夫(Sophia Knopf)等人曾指出,将脑机接口技术专家引入伦理框架之中并不一定能够反映商业公司所关切的“伦理现实”问题,为此,神经技术企业也需要根据自己的价值需求与伦理设想参与到脑机接口的伦理监管原则的制定中来。[42]因此,伦理学家可以提供契机,让用户、企业、科学家共同参与伦理原则的制定,避免因为忽视某一方,形成不合理的伦理负担。
另一方面,在脑机接口伦理的理论反思方d31d179d90e0b0c2bb438a82655d3b35面,我们同样需要加强不同学科之间的合作,唯有这样我们才能更加全面地评估脑机接口技术的潜在风险和收益。例如,我们在关于伦理的讨论中,需要从简单描述伦理问题的阶段,推进到对不同伦理问题进行权重分配的层面。我们需要解释哪些伦理问题具有最高的优先级,哪些伦理问题拥有中等重要性,以及哪些伦理问题在脑机接口未来的发展中可能具有较低的优先级。[43]这种权重分配,不仅需要技术伦理专家深入社会,考察公众对脑机接口的道德态度与关切,还需要脑机接口一线科研人员和临床工作者在脑机接口的实际研发与应用中就相关伦理问题进行反馈,以确保脑机接口伦理能够切实指导脑机接口技术的发展。此外,还需要社会学家开展相关实证研究,调查脑机接口用户与潜在用户的需求,这有助于使脑机接口与用户的切身利益保持一致,确保脑机接口的研究、开发与应用不会与社会的价值规范发生冲突。[44]
因此,只有在多方协作的基础上,我们才能更好地应对脑机接口技术带来的各种伦理挑战,确保脑机接口技术能最大程度地满足用户、企业、研究者等多方利益,最终实现造福全人类的目标。
结语
2022年3月,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》明确指出:“将科技伦理要求贯穿科学研究、技术开发等科技活动全过程,促进科技活动与科技伦理协调发展、良性互动,实现负责任的创新。”[45]这一指导意见也为中国脑机接口伦理治理指明了航向。作为生命科学和信息技术深度交叉融合的前沿新兴技术,脑机接口以其干预性、交互性和自动性等技术特性,在物理、心理和社会层面带来了更加复杂的伦理挑战。为了有效应对这些挑战,我们亟需加强监督管理,提升伦理素养,深化跨学科合作,从而确保脑机接口领域在合伦理的框架内实现负责任的创新和发展。
当前,中国的脑机接口技术正在飞速发展,信号解码与行动控制的精细程度不断提升,相关应用场景也在持续扩展,并有望在不久的将来成为新质生产力的重要组成部分。在大国博弈和“认知战”愈演愈烈的背景下,脑机接口等前沿神经科技的战略地位和应用价值日益突出。面对这一趋势,中国有必要在持续加大脑机接口研发投入的同时,加快建立具有前瞻性的脑机接口伦理规范和监督机制。
制定切实可行的脑机接口伦理规范,离不开结合中国实际对国际伦理治理经验的积极借鉴,以及对技术走向的精准预判。构建协同高效的脑机接口监督机制,既要依靠政府机关审查人员,也要依靠科技伦理专家,更要依靠积极支持科技伦理治理的广大科学家。总之,脑机接口伦理治理,需要采用自律与他律相结合的方式稳步推进。唯有这样,才能确保脑机接口技术能够持续健康发展。
(本文系教育部人文社会科学重点研究基地重大项目“当代认知哲学基础理论问题研究”的阶段性成果,项目编号:22JJD720007;北京大学哲学系博士研究生杨军洁、北京大学哲学系硕士研究生梁泽仁对本文亦有重要贡献)
注释
[1]E. Mullin, "Watch Neuralink's First Human Subject Demonstrate His Brain-Computer Interface," Mar. 20, 2024, https://www.wired.com/story/neuralink-implant-first-human-patient-demonstration/.
[2]Reuters, "Neuralink Has Implanted Second Trial Patient with Brain Chip, Elon Musk Says," The Guardian, Aug. 4, 2024.
[3][31]D. Hurley, "Ethical Questions Swirl Around Neuralink's Computer-Brain Implants," Neurology Today, 2024, 24(10).
[4]L. Drew, "Elon Musk's Neuralink Brain Chip: What Scientists Think of First Human Trial," Nature, 2024(2).
[5]J. J. Vidal, "Toward Direct Brain-Computer Communication," Annual Review of Biophysics and Bioengineering, 1973, 2(1).
[6][11]《〈脑机接口研究伦理指引〉和〈人—非人动物嵌合体研究伦理指引〉发布》,2024年2月2日,https://www.most.gov.cn/kjbgz/202402/t20240202_189582.html。
[7]L. A. Farwell and E. Donchin, "Talking off the Top of Your Head: Toward a Mental Prosthesis Utilizing Event-Related Brain Potentials," Electroencephalography and Clinical Neurophysiology, 1988, 70(6).
[8]J. R. Wolpaw, D. J. McFarland, G. W. Neat and C. A. Forneris, "An EEG-Based Brain-Computer Interface for Cursor Control," Electroencephalography and Clinical Neurophysiology, 1991, 78(3).
[9]N. Birbaumer, N. Ghanayim and T. Hinterberger et al., "A Spelling Device for the Paralysed," Nature, 1999, 398(6725).
[10]C. S. Nam, A. Nijholt and F. Lotte, Brain-Computer Interfaces Handbook: Technological and Theoretical Advances, CRC Press, 2018.
[12][16][30]V. Dubljević and A. Coin, Policy, Identity, and Neurotechnology: The Neuroethics of Brain-Computer Interfaces, Cham: Springer International Publishing, 2023, pp. 101-16; pp. 27-41; pp. 253-269.
[13][17]E. Klein, "Informed Consent in Implantable BCI Research: Identifying Risks and Exploring Meaning," Science and Engineering Ethics, 2016, 22(5).
[14][24]O. Müller and S. Rotter, "Neurotechnology: Current Developments and Ethical Issues," Frontiers in Systems Neuroscience, 2017, 11.
[15][27]S. Rainey, H. Maslen and J. Savulescu, "When Thinking is Doing: Responsibility for BCI-Mediated Action," AJOB Neuroscience, 2020, 11(1).
[18]E. Klein, B. Peters and M. Higger, "Ethical Considerations in Ending Exploratory Brain-Computer Interface Research Studies in Locked-in Syndrome," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).
[19]E. Hildt, "Multi-Person Brain-To-Brain Interfaces: Ethical Issues," Frontiers in Neuroscience, 2019, 13.
[20]F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).
[21]M. Sample, M. Aunos and S. Blain–Moraes et al., "Brain-Computer Interfaces and Personhood: Interdisciplinary Deliberations on Neural Technology," Journal of Neural Engineering, 2019, 16(6); F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).
[22]L. B. Andrew, "The Method of 'Principlism': A Critique of the Critique," The Journal of Medicine and Philosophy, 1992, 17(5).
[23]S. Naufel and E. Klein, "Brain-Computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).
[25]J. A. Stramondo, "The Distinction Between Curative and Assistive Technology," Science and Engineering Ethics, 2019, 25(4).
[26]F. Gilbert et al., "Embodiment and Estrangement: Results from a First-in-Human 'Intelligent BCI' Trial," Science and Engineering Ethics, 2019, 25(1).
[28]A. Wolkenstein, R. J. Jox and O. Friedrich, "Brain-Computer Interfaces: Lessons to Be Learned from the Ethics of Algorithms," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).
[29]I. C. McCall et al., "Owning Ethical Innovation: Claims about Commercial Wearable Brain Technologies," Neuron, 2019, 102(4).
[32]K. S. Gaudry et al., "Projections and the Potential Societal Impact of the Future of Neurotechnologies," Frontiers in Neuroscience, 2021, 15.
[33]M. Ienca and P. Haselager, "Hacking the Brain: Brain-Computer Interfacing Technology and the Ethics of Neurosecurity," Ethics and Information Technology, 2016, 18.
[34]A. D'Aloia and M. C. Errigo (eds.), Neuroscience and Law: Complicated Crossings and New Perspectives, Springer Nature, 2020, pp. 273-290.
[35]P. Tubig and D. McCusker, "Fostering the Trustworthiness of Researchers: SPECS and the Role of Ethical Reflexivity in Novel Neurotechnology Research," Research Ethics, 2021, 17(2).
[36]E. Hildt et al. (eds.), Building Inclusive Ethical Cultures in STEM, Cham: Springer International Publishing, 2024, pp. 245-262.
[37]M. Ahmed and P. Haskell-Dowland (eds.), Cybersecurity for Smart Cities: Practices and Challenges, Springer International Publishing, 2023, pp. 31-46.
[38]P. López-Silva and L. Valera (eds.), Protecting the Mind: Challenges in Law, Neuroprotection, and Neurorights, Springer International Publishing, 2022, pp. 157-161.
[39]S. Sattler, and D. Pietralla, "Public Attitudes Towards Neurotechnology: Findings from Two Experiments Concerning Brain Stimulation Devices (BSDs) and Brain-Computer Interfaces (BCIs)," PloS one, 2022, 17(11).
[40]J. Kögel and G. Wolbring, "What It Takes to be a Pioneer: Ability Expectations from Brain-Computer Interface Users," NanoEthics, 2020, 14(3).
[41]S. Naufel and E. Klein, "Brain-computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).
[42]S. Knopf, Sophia, N. Frahm and S. M. Pfotenhauer, "How Neurotech Start-ups Envision Ethical Futures: Demarcation, Deferral, Delegation," Science and Engineering Ethics, 2023, 29(1).
[43]N. Voarino, V. Dubljević and E. Racine, "TDCS for Memory Enhancement: A Critical Analysis of the Speculative Aspects of Ethical Issues," Frontiers in Human Neuroscience, 2017.
[44]O. C. van Stuijvenberg et al., "Developer Perspectives on the Ethics of AI-Driven Neural Implants: A Qualitative Study," Scientific Reports, 2024, 14(1).
[45]《中共中央办公厅 国务院办公厅印发〈关于加强科技伦理治理的意见〉》,2022年3月20日,https://www.moj.gov.cn/pub/sfbgw/gwxw/ttxw/202203/t20220320_451049.html。
责 编∕肖晗题 美 编∕周群英