上海交通大学马克思主义学院副教授,上海交通大学数字化未来与价值研究中心研究员,哲学博士、法学博士后,耶鲁大学全球正义研究中心高级访问学者。
2024年8月,欧盟《人工智能法案》(AI Act)正式生效,成为当前第一部旨在促进人工智能安全发展的区域性法律文件。该法案的实施促使多个国家和地区探讨制定适合各自国情和地区特色的人工智能法律或具有强制性的规范性措施。
在人工智能治理的讨论中,责任问题一直是核心议题,同时也是治理过程中面临的主要挑战。欧盟委员会在制定《人工智能法案》的过程中,考虑到人工智能技术的复杂性,提出《人工智能责任指令》的构想。这一指令构想旨在解决人工智能系统在造成损害时如何判定民事责任的问题,力图减轻受害者在诉讼过程中的举证责任。显然欧盟《人工智能法案》的实施以及《人工智能责任指令》的提出,标志着人工智能治理在责任问题上的重要进展,为人工智能技术的安全发展提供了法律保障。同时,这一法案和指令的制定也体现了人工智能治理的复杂性,以及需要多学科、跨领域的合作与研究来解决的责任问题。
随着人工智能技术的飞速发展,人工智能技术已经全方位介入到人类社会生活各个层面,成为社会发展的一个重要因素。随着智能体涌现性和自主性不断增强,对人工智能的社会地位、人机关系、伦理与法律产生巨大的影响。技术哲学家汉斯·约纳斯很早就意识到不受控制和约束的现代技术带给人类文明发展的同时,也会给社会带来难以估量的危害。他在《责任原理》一书中着重强调在推进技术发展的同时,需要对技术行为后果的责任问题进行深入的探讨。
相较于其他现代技术,人工智能技术发展中的责任难题具体体现在:(1)责任鸿沟问题。技术哲学家马蒂阿斯指出:基于神经网络、基因算法、能动设计的自主学习机器的研发,人工智能的制造者、操作者原则上不再能够预测未来人工智能的涌现行为,因而也不能为其担负全部的责任。(2)责任分散问题(也被称为“多手问题”)。在传统的责任理论中,代理行为与其所承担的责任是密切相关的。但在复杂的AI系统中,技术组件可能由不同的团队或公司开发,每个组件的问题都可能导致整体系统故障,当出现错误、事故或伦理问题时,责任归属难以确定。“多手问题”模糊了人工智能技术中的行为主体与行为结果之间的因果关系,导致责任主体的模糊化、分散化。(3)责任空场问题。在复杂的AI系统中,涉及多个利益相关者,每个利益相关者都有可能对系统的行为和结果产生影响。人工智能系统的复杂性和自主性使得责任归属变得模糊,责任归属的不明确、责任承担者缺失,且现有的法律和伦理规范无法完全覆盖人工智能系统可能造成的损害时,责任空场现象就容易出现。(4)责任推脱问题。当人工智能系统的涌现性和复杂性不可解释,责任归属难以确定时,不同利益相关者对人工智能责任归属就会产生较大的分歧,也会成为责任推脱的理由。
虽然人工智能体在责任问题上有很多难题,但越来越多的国家和人工智能企业意识到责任的重要性,将“负责任创新”作为人工智能有序发展的重要伦理原则。2019年,中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”的人工智能治理原则、框架和行动指南。2022年6月,美国发布《“负责任的人工智能”(RAI)战略与实施路径》文件,从“治理、信任、开发、验证、AI生态系统、劳动力”等多个方面对未来人工智能发展进行规划、部署和监管。2024年3月,联合国193个国家通过的首个全球AI伦理协议,倡导各国开展负责任的AI技术开发和部署。2024年5月新加坡发布《生成式人工智能模型治理框架》,将“问责制”作为培育构建可信AI生态系统的首要原则。2024年5月,经济合作与发展组织(OECD)制定和更新人工智能发展原则,旨在促进技术创新的同时,确保AI的发展符合伦理标准和社会责任。
在人工智能未来的发展中,负责任创新是主要议题。要将负责任创新实施落地,在学理上不能回避技术发展的“科林格里奇困境”。大卫·科林格里奇认为技术发展与社会发展之间容易出现不协调:“技术的社会后果是很难在技术发展的早期做出准确预测的。”因为“当技术的改变相对容易时,其影响却是难以完全预见的;而当对技术需要变动的要求变得强烈时,这种改变却已经变得非常昂贵、困难和费时了”。“科林格里奇困境”很好地描述了新技术在社会融合整个过程中的关键问题,即人们对新技术介入社会的影响和后果的评估难以准确,而且新技术潜在的社会属性和逻辑可塑性在尚未与社会紧密融合之时是无法充分展现的。如何突破这一困境?科林格里奇建议从分析和引导科学与技术发展的目标、计划和动机等问题入手,寄希望于提高对社会技术评估与预测的能力。马克·科克伦伯格指出要从责任的条件入手,提升人在技术发展过程中负责的认知条件和控制条件。人工系统越智能,对其行为的责任要求就越高。
“负责任的人工智能”重点强调人作为技术发展的责任主体,无论是人工智能的开发、设计、测试还是使用都需要考虑人类的责任和义务,并且确保机器智能(AI的软件、硬件)在特定使用环境下的行为是符合人类伦理和法律规范的。“负责任的人工智能”是一个人、机、环境有机统一的智能生态系统,要求人工智能系统在设计、开发、管理、使用和维护过程中,所有相关的角色(包括设计者、开发者、管理者、使用者、维护者等)承担其行为的伦理、法律和社会责任,形成社会技术系统的责任体系。
人工智能对整个社会体系的颠覆性影响,也意味着人工智能技术中责任体系的构建是复杂的。汉斯·约纳斯认为:在“伦理真空”的技术时代,越是复杂的技术,越凸显人类责任的重要性。这种责任不单是单个人的责任,还有整个团队的集体责任;不单是当下的责任,还有对未来社会的前瞻性责任;不单是某一行业、某一领域的责任,还有整个社会技术生态链的集体责任。人工智能技术——作为复杂技术的典范,其责任归属涉及源点到节点、再到分布式图景中的一整套社会技术生态责任体系。
在负责任的人工智能的社会技术生态责任体系中,“元责任”(meta-responsibility)构成了责任体系的核心要素,其概念的深度和广度均超越了传统的责任范畴。Meta在希腊语中意味着“超越”“在……之后”或“变化”。这一概念在信息科学中也常被使用,例如:“元数据”“元信息”“元语言”。在人工智能领域,“元责任”不仅涵盖了人工智能整体发展方向、伦理框架及责任归属的根本性责任,而且还深入涉及人工智能系统从设计、开发、部署、使用到监管的全过程责任考量。以“元责任”为起点的人工智能责任体系的构建以现有的人工智能伦理原则为基础,与当前的法律体系相兼容,构建全面和有效的责任机制。在人工智能系统的早期规划与设计阶段,引入元责任考量,确保系统的设计与开发符合伦理和法律要求。在人工智能系统的运行过程中,适用元责任的评估要求,建立持续的监控机制,及时发现和解决潜在的问题。在发生意外或损害时,依据元责任框架进行问责,并总结经验教训,用于指导未来的系统改进和优化。
“元责任”是一个很重要的人工智能责任体系构建视角,是构建“负责任”人工智能的基石。总的来说,对人工智能的责任问题不应纠结于人是否为有限主体,而是需要研究如何以元责任为起点,推动人工智能责任体系的构建,以确保人工智能的发展以“负责任”的方式造福于人类社会。
(本文系2023年度教育部社会科学研究重大课题攻关项目招标课题《数字化未来与数据伦理的哲学基础研究》[项目号23JZD005]的阶段性成果)
编辑:薛华 icexue0321@163.com