张 青 杨卫敏 徐一峰
人工智能用以描述计算机系统模拟认知过程,这一概念1956年在达特茅斯(Dartmouth)最早提出,定义为人工智能是用机械和电子装置来模拟和代替人类的某些智能,也称“机器智能” 或“智能模拟”[1]。近两年人工智能发展迅猛,多国提出人工智能发展战略,中国政府则在2017年7月宣布下一代人工智能发展计划,推动人工智能技术及相关规制、伦理法则、安全性等方面研究[2]。公众对人工智能应用持正面态度,但也存在隐忧,如担心人工智能对工作和就业的影响[3],伦理及哲学学者则关注人工智能技术对人类尊严、自由意志等人的本体存在性的影响[4]。
人工智能在生命医学领域的应用已触及多个方向,包括精神卫生、影像病理、居家养老等。在脑健康及精神医学领域,尽管有学者认为人工智能应用尚缺乏完备的伦理守则和可行的指导策略[5],但“聊天机器人”、在线心理咨询已有实践,又如使用人工智能进行抑郁症患者追踪,通过语音语义识别、面部表情以及交互式聊天等方式,帮助抑郁症患者在线支持[6-9]。人工智能在危机干预与自杀预防中具有积极意义[10],如自杀干预项目,“树洞救援团”通过算法识别语义和语用,识别具有高自杀风险的人员,给予及时人工干预,作为生命支持系统和危机干预的应用得到推广[11]。
医学影像是人工智能应用的热门领域:基于人工智能的影像读片,辅助诊断提高医学影像数据处理能力[12-14]。在生命情感支持中,人工智能机器人通过人脸识别、情绪识别,以及高仿真的柔性材料使用,愈发呈现出人“情感”特征,如陪伴机器人可能承载孤独老人晚年的情感寄托[15],或是缓解远方子女因无法陪伴的愧疚。人工智能机器的演进,已远超越哈洛恒河猴实验中裹着绒布的装置,在交互体验中被尝试性地赋予价值和人文关怀,并必然对医疗组织运行、医疗决策、医患关系等产生深远影响[16]。机器在不知不觉中融入人的日常生活,引发人工智能发展进程,对机器之芯和人类之心[17]、公平与正义、价值评估与歧视、安全与隐私、道德义务规制[18]等的忧虑与反思,或许真如海德格尔[19]所说的:有一天人类连自身都交付给了技术。
人类历史上历次技术革命都涉及人与机器、人与人的关系改变,特别是近代工业革命肇始,人与机器关系复杂而对立,机器“任劳任怨”且生产效率高,冲击就业而导致人类对机器的愤怒。随着人工智能发展,新技术革命不仅冲击人与人、人与机器的关系,同时提出机器与机器关系的新命题。
在医学领域人工智能将引起医患关系的深刻变化。协助医疗决策的人工智能机器已远不是一个X光机或排队叫号软件,人工智能通过可准确读识的医疗信息进行算法分析,提供诊疗建议从而解放医生时间[20];但也不乏导致医生群体的困扰,如当患者拿着网上检索的疾病诊疗知识咨询医生时,医生觉得其行医过程被干扰与冒犯。传统医患关系因此正被迅速异化为患者-机器-医生多元关系。又如,基于互联网的轻问诊被广泛推广,人工智能替代传统导诊,部分承担起接诊、分诊功能,成为患者与医生接触的“中间人”,甚至通过自动应答,完成在线咨询。新技术同时增加了患者与患者直接联系,如各类患者俱乐部提供虚拟网络社区;医生建立患者“粉丝”群以增进患者黏性并提供线上指导;通过人工智能从网络社群中提取特定语义词汇,主动寻找高危自杀人员并采取干预,这些应用服务都深度融合了人工智能算法的支持。
信息化时代的万物互联提出了人工智能机器之间的关系问题,机器与机器发生指令冲突时依据怎样的规则或如何确定指令的优先等级,各类传感器采集的生命体征信息是根据证据等级还是其他原则进行采信,人与人的关系模式是否可以套用到机器之间的关系处理中,诸如此类问题都需要批判性考察。人工智能的算法技术目前仍不透明,由此产生对主体间、主客体间、客体间关系的影响将是深远的。这些变化将引起关系边界的重新确立、道德责任的变化、争议与冲突机制的重构问题等。
医疗环境和生命系统都具有极大不确定性,人工智能如何能够应对诸多不确定,是否具有程序自洽且符合伦理原则的决策系统?如何将各类经由可穿戴传感器、智能终端产生于复杂环境的医疗及健康数据整合形成一体化的数据集?研究复杂环境下机器学习和数据挖掘技术,对人工智能开发具有重要意义[21]。面对不确定性,《人工智能创新发展道德伦理宣言》客观地指出:人工智能发展在深度与广度上都是难以预测的[22]。这种困难不仅是技术层面上发展的不确定性,更是生命支持及医疗应用场景中的不确定性。正如2019年LancetGastroenterolHepatol发表的关于人工智能与计算机辅助诊断在结肠镜检查的应用系统综述所指出机器学习面临的挑战:如学习数据基于回顾性研究,机器深度学习需要构建更大样本量的数据库,以应对临床实践中不确定性的挑战[23]。
算法与决策制定总希望在一个相对确定的前提下进行,人工智能如何通过一个非稳态的模型建构和学习,产生相对确定的行动决策?决策基于何种预设的价值系统以符合生命伦理的道德律令?这些问题的回答需要在算法中植入基于情境的道德代码,正如有研究者提出的:在机器中加入明确的伦理维度,使其具有伦理决策功能和社会帮辅功能[24]。
法律意义上对人作为法律主体界定是明确的,但当人类由纯粹自然演进走向基因编辑、人类智能模拟时代,传统民法约定的主客体边界正发生动摇[25]。人工智能伦理主体问题,美国达特茅斯学院哲学系教授摩尔[26]根据智能机器的自主性程度,将机器划分出四种人工道德主体:有道德影响的主体、隐性道德主体、显性道德主体和完全道德主体。隐性伦理规则作为普遍性伦理共识成为人工智能发展早期伦理规约,显性伦理规则以代码形式被编制进人工智能算法规则。也有人认为由于人工智能主体缺乏自主性、意识以及动机,因而不符合道德主体的特征[27]。
以康德道德哲学审视机器道德主体合法性,康德[28]认为理性与自由意志是判定道德行为主体的重要特征,《人工智能创新发展道德伦理宣言》认为人工智能自主意识非自由意志属性[22],即不承认人工智能的道德主体地位,这如同卢卡斯-彭罗斯利用哥德尔不完全性定理所提出“人心胜过机器(图灵机)”,认为心灵是不可计算的[29]。但相反观点如米歇尔·巴洛恩(Michael Byron)认为:以人的自我认知革命为特点的第四次革命正日益挑战人类所独有的自由意志以及自我认知能力[30]。
技术主体性的提修斯之船(Ship of Theseus)在多大程度上脱离而形成新的自我,使人类丧失独占的主体性自我,冲击人类中心主义的伦理底线?人工智能发展提出了生命个体边界问题,当雷·库兹韦尔(Ray Kurzweil)预言的“奇点”一旦出现,比人更聪明的人工智能将真正冲击人的本体存在地位[31]。
技术通常被认为是价值中立的,技术应用结果的善恶取决于使用者的价值立场,但人工智能在道德价值判断上是否仍旧是中立的,特别当智能算法日益冲击人类自主意识,使人工智能机器越发具有逻辑推理能力的类道德主体时,这种价值中立的立场是否依旧成立?瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)[32]认为弱人工智能道德更是一种“操作性道德”,但随着人工智能交互性的提高,将出现“功能性道德”,甚至完全道德行为,价值问题势必成为新的伦理挑战。
人工智能作为技术的价值中立立场动摇时,人类是否依旧对技术本身给予信任?这一问题早在1942年阿西莫夫通过“机器人三大原则”进行约定:(1)机器人不可以伤害人或者通过不作为,让任何人受到伤害;(2)机器人必须遵从人类的指令,除非那个指令与第一定律相冲突;(3)机器人必须保护自己的生存,条件是那样做与第一、第二定律没有冲突。三原则是人类以近乎上帝视角与机器人订立契约,机器人成为听命于人、随时准备为人类“牺牲”的臣民,但问题是:为什么智能机器必然需要听命于人类?
Taddeo[33]提出对人工智能信任需满足的三个条件:(1)行动者的交互;(2)交互中基于共同的规范与伦理准则;(3)交互中的各部分可识别。Herman分析Moor对人造机器信任等级的划分,提出不同场景下信任等级确定的三条特征:自主性(与独立机器相关)、风险/脆弱性(与人机系统中的机器相关),以及交互性(人主体与机器之间直接或间接交互性)[27]。
目前,人工智能数据来源于不同场景下开发的各种应用,医学领域中人工智能通过深度学习,形成一套算法模型,机器学习数据来源于精巧设计的临床研究或真实世界,前者所谓循证医学数据缺乏普遍性,但后者数据又可能混杂大量冗余信息,大数据的人工智能转向将如何规制[34]?此外,数据采集过程中所包含的地区社会文化传统习俗,及可能潜隐其中的不公正甚或歧视,通过人工智能学习,使这样一些现实问题被承继到算法中,从而通过一种拙劣的模仿将人类缺点[35],凝固在未来算法中,这是否使人工智能继承了人类的“原罪”?
医疗数据所有权关涉隐私保护,但所有权问题也并非是显而易见的,如加拿大医疗数据所有人包括患者个人以及收集医疗信息的医疗机构、政府部门等,也有观点认为患者拥有具有身份信息的医疗数据所有权,医疗服务提供者及政府相关部门具有脱敏后去身份信息的数据所有权[36]。非直接用于临床的回顾性数据使用需要较大样本量的情形,及具有明确社会利益且低风险的数据使用,被认为可以在脱敏情况下二次使用并免除知情同意,加拿大在2014年修改《人相关伦理行为和研究》,提出对于二次使用的脱敏数据非必须知情同意[37]。我国于2016年10月发布的《涉及人的生物医学研究伦理审查办法》,规定医学研究要遵循知情同意原则,对已同意捐献样本及相关信息可用于所有医学研究的,允许经伦理委员会审查批准后,免除签署知情同意书[38],但对于人工智能数据的使用规则并未做明确规定。
人工智能需秉持公平与客观,摒弃带有偏见的数据和算法,杜绝可能的歧视性结果,但通过算法识别,实现精准营销和价格歧视政策[39],为特定消费者提供特定产品及不同的价格已事实存在。数据挖掘导致的歧视不仅限于商业利润最大化,还有因民族、宗教、社会文化习俗差异所导致的不公平。层出不穷的软件应用,通过后台信息收集,对用户画像和标签化并针对性推送信息,从而产生信息茧房效应[40],经机器选择的信息传播中,被精准推送的人偏向于只能接收到与自己价值观、偏好相关的信息,从而导致信息闭塞。另一个是所谓过滤泡问题,那些不符合用户喜好和与群体或个人价值观念不符合的信息被自动过滤[41]。
人工智能有助于医疗资源使用效率和效果提升,如通过电子病历的数据挖掘,对于住院患者的诊疗、疾病进展预后,开发机器学习算法[42]。医疗数据整合需要不同数据产生部门形成有效交互的数据体系,如患者、医疗服务提供者、保险公司、政府管理部门等,通过数据分析、优化患者治疗,提高人工智能时代的医疗公平性[43]。医疗决策行为本身的不确定性特点,以及人工智能学习黑箱性质(black box)[44],甚至有时程序员自身也不完全明了机器算法的内在过程,使得人工智能辅助医疗决策存在风险,影响患者利益。
人工智能算法存在风险,其所给出的临床诊疗决策错误,由谁来承担相应责任?美国和欧盟对人工智能应用风险及责任采用等级评估规制,如美国对人工智能实施三级风险评估,不同风险等级的技术应用对安全性及有效性给予不同的监测,甚至实行产品的全生命周期管理[45],欧盟也就人工智能技术应用进行规则制定及提出需要建立完善的培训机制[46]。
人工智能为数据安全提出严峻的现实问题,在人工智能仍处于类似于库恩所提出的科学发展阶段的“前范式”期,亟待通过建立一种伦理审查制度,使人类与智能机器相互信任原则得到制度性保障,使人工智能成为人类生活的福祉。人工智能伦理审查机制,在《一般数据保护条例》(General Data Protection Regulation,GDPR)及《阿西洛马人工智能 23 条原则》都提出有规约,但是人工智能基于算法与代码,伦理审查是深入到编码过程,还是仅审查算法执行效果?前者从过程管理对人工智能加以约束,是更为实质的前置性审查,后者更多地有赖于程序员自身的伦理道德自律,采取后置性审查方式。
人工智能在生命科学领域应用的伦理审查,因技术复杂性和应用场景多样性,需要由来自于不同领域专家组成,包括医学、生命科学、计算机科学、伦理学、法律等学科,设置伦理审查委员会应当成为人工智能时代伦理治理的重要制度性安排,Winfield等[47]提出的伦理治理策略,考虑计算机工程、机器人、信息与交流技术等方面:制定操作性伦理法则、全员覆盖的科研伦理培训、负责任的创新及伦理风险评估、公开透明、非预警式有助于价值提升的伦理治理策略,构建积极前置有能力应对潜在技术伦理问题的伦理治理体系。
时代前进的步伐不会因为怀旧或者恐惧而停止,历次工业革命表明支撑性技术发展和革新是无法阻挡的,对技术迎接和拥抱同时又怀有畏惧和抵抗,是人类永恒面对的存在性命题。后现代生命伦理境遇的启幕,人工智能时代的降临,人的生命正被数字革命重构,这终将是一个极富挑战的领域[48],尽管尚难以判断这是一场灾难的序曲还是一个伟大自由时代的黎明,人工智能对于既有关系颠覆将是全方位的,甚至是一种对于人的本体存在的根本性质疑,无论人类是否已经准备好,人工智能终将向着尼尔森(Nilsson)所说的坚定不移的强人工智能的方向发展,能够独立自主完成任务的智能机器人将必然出现。
因此,需要构建人工智能社会生态系统,在生命哲学与道德哲学对于人之本体存在的高度自觉中,建立一个善的人工智能社会伦理基础架构和实现规则。无论人工智能作为生命支撑性技术或者作为朝向具有人类自由意志的方向演进,科技的伦理治理,都不应遗忘亚里士多德所提出的:伦理学的目的是让“人类生活得好”。