内容提要:人工智能的发展有赖于用户能够对其理解、信任和管理,但人工智能算法的潜在不透明性导致用户与人工智能产品的信任危机日益加重。人工智能算法可能会带来法律风险,如侵犯用户的知情权、决策权与隐私权,以及算法歧视、算法对抗等不利后果。目前,我国已初步具备算法规范,但人工智能算法信任机制还未成体系。以信义法规范调整人工智能与用户间的权利义务关系,具有制度优越性。同时,应从算法备案制度着手,完善算法授权机制,及时进行算法纠偏,保障用户的算法选择权。在宏观层面,建立可解释性人工智能规范体系亦是核心举措。总而言之,人工智能算法信任机制应是系统性规范体系,并能促进人工智能产业健康有序发展。
关键词:算法信任 信义义务 算法监督 可解释人工智能
在数字经济飞速发展的今天,人工智能已成为各个领域重要的生产工具。人工智能产品不断创新和普及,改变了人类社会的运行模式,也带来了巨大经济效益。一般而言,人工智能主要借助机器学习自主进行信息获取、感知、学习、决策以及行动,算法是其重要的底层逻辑。当前,我国算法技术发展已达到关键节点,成为建设数字中国的重点发展领域。我国不断创新发展人工智能产品的同时,也意识到了一些潜在问题:鉴于人工智能潜在的不透明性,用户难以理解算法的运作过程时,就无法充分信任该合作伙伴,新的法律风险及伦理问题由此产生。人工智能的广泛应用,很大程度上取决于用户能够对其理解、信任和有效管理。因此,人工智能算法信任机制如何构建,已成为实务界和学术界均亟待解决的问题。为了化解人工智能用户与算法设计者、算法服务提供者间的信任危机,在现有规范体系的框架之下,本文基于算法的本质,讨论我国人工智能算法信任机制构建,并从不同视角讨论法律上的可行路径,以期为化解算法信任危机提供些许建议。
一、问题的提出
一般而言,算法是应用于数学与计算机科学领域的、为解决某一特定问题而采取的有限且明确的操作步骤,具有通用性、有效性、有穷性及确定性的特征。参见刘友华:《算法偏见及其规制路径研究》,载《法学杂志》2019年第6期。】自动驾驶、医疗机器人、智能投顾、社交应用等人工智能产品,均需要算法作为其技术核心。但是,人工智能算法有其自身局限性:一方面,算法可能存在技术缺陷,决策错误的可能性始终存在;另一方面,由于算法模型的复杂性,用户可能无法理解算法的运行流程,抑或对其中一些步骤和潜在的风险并不明晰,从而对人工智能系统的输入数据和输出结果之间存在无法洞悉的“隐层”,【参见许可:《人工智能的算法黑箱与数据正义》,载《社会科学报》2018年3月29日,第6版。】算法黑箱、算法偏见等诸多问题由此产生,并进一步造成算法信任危机。从法律的角度看,算法信任危机会带来如下法律风险。
第一,算法黑箱侵犯用户的知情权与自主决策权。一般而言,人们自主对私人与公共生活作出选择,但不透明的算法可能无意中成为决策主体。【参见丁晓东:《论算法的法律规制》,载《中国社会科学》2020年第12期。】有观点认为,算法透明是消费者知情权的一部分,而算法黑箱实际上是一种信息不对称,无形中会导致消费者知情权受损,从而影响其自主决策权。【徐凤:《人工智能算法黑箱的法律规制——以智能投顾为例展开》,载《东方法学》2019年第6期。】同时,当算法的开发者与消费者存在利益冲突时,算法黑箱可能作出更有利于开发者的决定,难以保证独立和客观。不过,人工智能的算法模型何时能够算作黑箱,并没有明确的阈值。具有易于理解的结构以及有限数量和参数的简单模型,如线性回归或决策树,通常并不需要额外解释算法。相比之下,复杂的模型较容易被视为黑箱。因此,黑箱模型必须借助于事后解释,通过全局解释或局部解释的方式,提高自动化算法的透明度,破解潜在的黑箱问题。
第二,算法侵犯个人隐私权风险。例如,在数据画像领域,为尽可能使数据画像精确,商业机构需收集和处理大量个人数据。商业机构依赖自动化算法作出决策时,算法的运行过程很多时候对用户都是黑箱:在数据收集环节,用户对此环节常不知情,商业机构可能过度收集与其服务无关的信息;在数据处理环节,对个人信息挖掘和对比可能会分析出用户不愿披露的全新信息。这些行为都存在侵犯用户个人隐私的风险。
第三,算法歧视风险。算法是由人类开发的,因而几乎无可避免地带有开发者的判断和价值衡量。据报道,自动招聘工具存在歧视申请软件开发工作女性的情况,因为过去的数据表明,从事类似职位的男性表现更优。【Ziad Obermeyer et al. ‘Dissecting racial bias in an algorithm used to manage the health of populations’ (2019) 366 Science 447, 453.】为了使算法更为客观,人工智能算法开发者近年来致力于制定检测和减轻偏见的具体标准,尽可能地避免偏见。同时,常识在多大程度上可能属于偏见这一问题也并未解决。例如,在智能投顾产品中,算法可能认为年轻且精通技术的投资者对智能产品有所偏好,这种常识可以在推销新产品时发挥作用,但同时使违反人工智能伦理的可能性大大上升。
第四,算法权力导致人与技术对抗性增强。目前,算法已经逐步具备了一定的公共、行政力量的特征,超越了传统意义上政府才能具备的权力,并使以国家为中心的纵向权力模式向横向权力模式发展,进一步加强权力主体去中心化倾向。【参见郭哲:《反思算法权力》,载《法学评论》2020年第6期。】这种算法权力会通过算法的执行形成对人类社会的规训,网络监视、信息茧房就是算法权力的现实映射。【参见袁康:《可信算法的法律规制》,载《东方法学》2021年第3期。】如果人类与技术之间的权威地位发生偏移,就会导致二者间出现对抗,甚至导致人与人之间的对抗。
目前,各地均试图通过提高人工智能算法的透明度来提升用户对算法的信任程度。从技术上看,解决算法黑箱、算法歧视等不可信任问题可以通过数据管理、模型训练、模型预测等方式提高算法的透明度。与此同时,法律规制亦是破解人工智能算法无法被信任、理解和控制的必由之路。我国于2021年相继出台了《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》,在算法规制方面有了长足发展,也是世界范围内对算法挑战作出全面回应的体系性尝试。【参见许可:《算法规制体系的中国建构与理论反思》,载《法律科学》2022年第1期。】如上规范为我国人工智能算法规制奠定了良好的规范性基础,但对构建我国人工智能算法信任机制尚未作出全面部署。实际上,人工智能算法信任机制应当包括完整的体系化治理。首先,从私法角度看,符合标准的人工智能需要承担一定的信义义务,这种义务是法定义务,信义法调整权利义务责任的框架可以因此适用;其次,从行政法角度看,行之有效的算法监督制度能够为人工智能算法监管提供基本框架,同时应赋予用户一定的算法选择权;最后,从体系性规范角度看,应当在宏观上构建可解释性人工智能治理体系和人工智能伦理机制。
二、人工智能算法的信义法治理
人工智能算法与用户之间的不信任,实际源于二者交互时可能产生的利益冲突。这种利益冲突可能隐藏在算法中,且没有被合理披露。为提高人工智能算法的透明度和高效性,应明确人工智能算法服务提供者应当履行的信义义务。目前,我国人工智能算法规范多从产业政策促进、扶持和发展的角度提供指导,采用分散式立法模式,【杨东:《监管科技:金融科技的监管挑战与维度构建》,载《中国社会科学》2018年第5期。】尚未深入涉及私法治理模式。实际上,信义法治理模式是一种基于权利义务责任的私法治理模式,可在监管前优先适用,以弥补传统监管方式在人工智能时代的应对乏力。【Simon Chesterman,‘Artificial Intelligence and the Limits of Legal Personality’(2020) 69 ICLQ 819-844.】本部分讨论人工智能算法服务提供者与用户间的信义关系。【本文讨论的对象不包括超人工智能。】
(一)信义关系的产生机理
历史上,“受信人”一词起源于拉丁语“fiducia”,有信任之意。从罗马法的角度来看,“fiducia”的字面意思是财产持有人对财产的义务。直到20世纪70年代,信义关系才被定义为在一方处理另一方财产时双方间独立的法律关系。一般而言,信义关系是信义责任的前提,实践中,法院也常将信义关系作为承担信义责任的关键因素。【汪庆华:《人工智能的法律规制路径:一个框架性讨论》,载《现代法学》2019年第2期。】不过,判断信义关系是否产生,一直呈现多元化特征,且未形成统一标准。一般而言,典型的信义关系包括代理人与委托人、受托人与受益人、监护人与被监护人、董事/高管与公司、律师与委托人以及医生与患者等。还有人试图区分法律上的信义关系和现实中的受信关系,以扩大信义关系的范围。近年来,人们提出了多种检验信义关系的方法,但或多或少存在缺陷,难以适配多元的信义关系。同时,将这些检验方式应用于适用人工智能算法的场景中,由于技术性因素的存在,可能面临更多障碍。
现阶段,美国学者彼得·米勒教授提出的受信权力理论或可在一定程度上提供参考。在该理论中,信义关系是一种基于授权产生的独立法律关系,既可基于事实产生,也可基于法律产生,其结果是受信人对委托人的利益行使自由裁量权,且在程度上有所差异。受信人的权力来源较为多元,如缔结合同、收购和投资资产、许可、承担责任等,并根据受信人的自由裁量权大小确定受信人的法律行为能力。基于这种逻辑结构,当用户具有完全民事行为能力时,这种权力就会在其委托相关活动时转移给人工智能算法服务提供者。这种信义关系虽源头上属于事实关系,但仍需要法律加以确认,使该种信义关系成为法定关系,且当事人不能通过合同约定解除。
此外,受信权力理论在判断人工智能算法服务提供者能否作为受信人上有很大帮助。只有当人工智能算法服务提供者拥有自由决策权时,受信关系才会产生,即如果其只是提供建议而没有获得处理具体事务的自由裁量权,则不能被视为受信人。例如,在金融领域,券商型的智能投顾就不能归入受信人范畴,而能够作出可持续金融活动决策的智能投顾才可被视为受信人。因此,具有不同功能的人工智能算法服务提供者承担着不同程度的信义义务内容。判断人工智能算法服务提供者能否承担信义义务,并在多大程度上承担信义义务,对建立人工智能的信义法治理路径具有重要意义。
(二)信义义务的主要内涵
一般而言,信义义务的主要内容包括忠实义务和注意义务,以及延伸出的勤勉义务等其他内涵。具体在人工智能算法服务提供者的场景下,忠实义务和注意义务具体体现为如下方面。
忠实义务通常体现为禁止性规定,包括禁止自我交易、禁止夺取机会和禁止私密获利。在人工智能算法应用的场景之下,算法服务提供者通过算法黑箱隐秘地进行自我交易、夺取用户的交易机会,难以被察觉,违反忠实义务的风险相对较高。例如,智能投顾平台可能通过同时扮演理财产品销售者、资产管理者或券商中介的角色,将交易规则隐秘地隐藏在算法中,从而使投资者选择特定的理财产品。因此,现有规范通常要求算法平台全面、客观、公正地披露信息,特别是具有利益冲突的内容,以及人工智能模型参数、算法功能描述、关联风险等,【参见狄行思:《论数字金融平台的信义体系构建》,载《金融理论与实践》2022年第4期。】但这类规范在许多领域尚未细化,是立法者亟待解决的问题。
注意义务则是对受信人工作提出尽职尽责的要求,包括审慎经营义务、适当性义务及按照委托人最佳利益行事义务等。【王琦:《资管业务中受托人信义义务的内涵与功能》,载《经济法论丛》2020年第1期。】注意义务的落实有赖于人工智能算法服务提供者的数据收集和分析判断能力,这与人工智能算法模型的质量密切相关。目前,注意义务的标准仅表现为一定的原则性规范,有待落实到具体的应用场景中。因此,如何明确人工智能算法履行注意义务的标准,还需结合具体案例判断。
(三)人工智能算法的信义治理路径
传统上的信义原则属于软法范畴,受信人可以在基本理解原则的前提下,根据实际情况作出具体判断,调整自己的行为方式。但在人工智能场景下,该问题变得十分复杂。因此,需要采纳原则与具体规则相结合的方法实现治理。实际上,信义法治理模式与算法监管模式有相通之处,因而可借鉴算法监管中的原则监管和规则监管,尽可能创造有利的人工智能发展环境。
一般来说,信义规则通常包括禁止行为(不能)和允许行为(应该或必须),分别适用于不同情形。这种要求具体到人工智能中,则表现为当人工智能算法服务提供者了解到用户出现意外情况时,需要及时作出反应。例如,在金融领域,如果投资者出现需要大笔额外支出的情况,那么算法就应当自动选择风险较低的投资计划。此外,信义原则可以间接转移到其他监管要求。从比较法上看,欧盟《通用数据保护条例》第22条规定了知情同意原则,指出“数据主体应有权不受仅基于自动化过程的决定的约束”,即在一定程度上表达了忠实义务;美国则在特定领域规定了信义义务的标准,例如,2016年美国通过的《利益冲突最终规则》,其中包括智能投顾被视为受信人的标准,表现出监管机构对人工智能算法服务提供者采取了审慎的态度。
同时,需要明确人工智能算法服务提供者在违反信义义务时应承担信义责任。在“电子代理人”的框架之下,信义责任应当由人工智能算法服务提供者来承担。信义责任呈现出私法责任(经济性赔偿)与公法责任(行政责任)相结合的特征,正是这种混合型责任,在人工智能治理的道路上将发挥着不可或缺的作用,既能充分重视市场主体间的私法法律关系,又充分发挥监管作用,及时矫正人工智能市场中可能出现的不安全、不诚信和消费欺诈问题。
三、人工智能算法监督体系的多层次构建
纵观我国现行的规范性文件,有关算法的规范主要关注两类原则:一类是公平公正原则、诚实信用原则、合法原则、尊重社会公德原则及遵守商业道德等普遍适用于所有民商事法律行为的原则;另一类则是特别适用于算法领域的原则,包括透明性原则及可解释性原则。这些原则不仅包括调整平等民事主体法律关系的私法原则,也包括从公共利益角度出发的行政监管原则。为增强算法透明度、破解算法黑箱,算法公开必不可少。作为算法运用过程中的重要一环,算法公开同样应当遵循前述两类原则,尤其是特别适用于算法的透明性原则及可解释性原则。例如,我国《互联网信息服务算法推荐管理规定》第4条指出,“提供算法推荐服务应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则。”同时,该规定第12条鼓励算法推荐服务提供者优化规则的透明度和可解释性。此外,我国《个人信息保护法》第24条第1款规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正。”这些原则为算法公开提供了规范性基础,并由此延伸至具体的算法监督制度。
(一)建立算法备案制度
我国算法备案制度目前还未成体系,但是在部分规范性文件中已有规定。《关于加强互联网信息服务算法综合治理的指导意见》规定,具有舆论属性或者社会动员能力的算法推荐服务提供者需要履行算法备案的义务。之后,《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》又重申了此项要求,后者还专门规定了“提供具有舆论属性或者社会动员能力的生成式人工智能服务”的主体应当进行算法备案。算法备案制度即要求算法开发者或者服务提供者在一定范围内备案其服务领域、算法类型、算法自评估报告、拟公示内容等,以达到对算法的有效监管。算法备案实际是通过披露算法运算和分析过程中的因果透明及程序透明,来证明算法决策的正当性。【参见唐林垚:《人工智能时代的算法规则:责任分层与义务合规》,载《现代法学》2020年第1期。】该制度以明确算法使用主体的告知义务为起点,通过算法参数报备,标准化数据收集和处理的标准,再到适度可理解的源代码公开,为事前透明提供程序化、标准化的路径遵循。
算法备案的规范价值是保障遭受算法侵害主体的救济权利。被侵权人有权要求算法服务提供者进行算法公开,进而能够向算法服务提供者对其损害主张承担赔偿责任。该制度不仅有助于保障公众的算法知情权,还可以督促算法运营者主动进行算法风险评估,并保留算法运行记录,有效督促算法开发者和服务提供者从研发到运行的全周期内关注算法合规问题。当纠纷发生时,在诉讼举证方面,算法备案还可以起到减轻信息主体举证负担的作用,在一定程度上固定侵权的证据,保护用户的知情权。实践争议中,监管部门可以通过算法备案标准来认定算法服务提供者是否履行了解释算法以满足用户知情权的义务:对于涉及用户不利影响的算法,算法服务提供者应证明其已经向监管部门进行算法备案,同时应尽最大的努力,以通俗的语言向用户说明算法的运行逻辑以及可能的算法决策结果;对于不涉及用户不利影响的算法,算法服务提供者仅需证明其已经向监管部门进行算法备案。
(二)完善算法授权机制
目前,大多数人工智能的算法授权是默认可以使用用户同意授权之前的数据信息的,即用户在某个时间点允许某算法的运行时,该算法使用的数据不仅包括了该授权节点之后,还涵盖了授权节点之前。此处的矛盾显而易见:对于民事法律行为而言,同意只能意味着待当事人双方达成合意后生效,并不具有向前的溯及力。因此,人工智能算法的授权行为很多并没有受到有效监管,导致算法服务提供者侵犯用户权益的情况时有发生,双方的信任危机日益加剧。
这一问题在生成式人工智能算法领域尤为突出。生成式人工智能算法可以通过爬取互联网上的已有数据对自身进行训练,并借助互联网上已有的数据进行创作。例如,网易图片社区LOFTER曾于2023年3月上线了具备人工智能绘图功能的“老福鸽画画机”,用户可以通过关键字词生成绘画作品。该产品上线后,受到了许多创作者的质疑:平台人工智能绘图功能会使用创作者的绘画作品作为素材,创作者的著作权无法得到保护。实际上,创作者对人工智能算法的担忧并非仅仅局限于著作权问题,他们还担心人工智能算法利用自己已有风格作品进行创作,从而取代自己依靠创作生存的权利,这比传统的剽窃著作权危害性更为巨大,对行业的影响也更为深远。目前,平台创作者仅能在现有的算法授权机制下,声明拒绝人工智能使用自己的作品达到训练目的,但这种拒绝效力微乎其微。人工智能算法上线后创作者的抵制与声明,至少可以看作是一种意思表达。但对于在人工智能算法上线前已经在互联网上流传的作品,平台几乎是可以不经过任何同意和授权就进行使用,这种使用往往伴随着平台的收益行为。因此,构建针对算法特性的、具有明确时间节点属性的授权机制,对于保护仍然在著作权保护期限内的作品至关重要。目前,哥伦比亚大学开发了一种名为“GLAZE”的工具,可以对上传至互联网的画作进行数据处理。该工具可以在不影响艺术家原作品的情况下为作品施加一层“隐形风格水印”,进而限制AI机器的模仿和学习,保护作者的创作风格不被模仿。【《反击人工智能!艺术家新工具防止画风被AI“抄袭”》,载《游民星空》,https://www.gamersky.com/tech/202303/1577619.shtml,2023年12月28日访问。】此类工具可以推广应用于算法授权领域,也就是说,在算法授权时间节点上,可以由技术实现对拒绝授权的信息加上“数字标识”,这类授权将比签署冗长的用户知情同意书更具有可实施性。
由此可见,算法授权机制需要引入技术性手段、以更高级别的算法管理手段予以解决,真正实现“通过算法管理算法,通过算法管理数据”。该机制并不应仅局限于部分人工智能算法平台,还应当通过建立由国家掌控的高级别算法及高级别数据库,对一些有过高风险的商业算法进行一定程度的限制,促进用户对算法的信任,减少用户对创新的后顾之忧。
(三)落实算法纠偏体系
在大数据环境下,数据、算力、人工智能框架和模型框架均对人工智能系统运作起着关键作用,也会在很大程度上影响算法结果。【参见刘泽刚:《论算法认知偏差对人工智能法律规制的负面影响及其矫正》,载《政治与法律》2022年第11期。】因此,有效的人工智能算法监督需要借助算法纠偏机制予以辅助,即在算法有效评估的基础上,及时矫正算法,并落实相关主体的责任。一般而言,算法纠偏机制应当由常态化和特殊化两部分组成。常态化的纠偏建立在算法备案的基础之上,备案与监管部门可以定期通过输入数据检测输出结果,判断某人工智能算法是否存在违规问题,如价格歧视与算法默示共谋等。特殊化的纠偏机制是指在算法侵害用户合法权益时,被侵权人和主管部门有权要求算法主体对算法进行更正。从责任角度看,算法纠偏机制的责任性质并非民事责任,而是具有强制性和公共性的特征,其责任主体是算法的开发者、服务提供者、关联使用者。
算法纠偏机制实质上是从源头对算法权力进行前瞻性、强制性和全程化的约束,且借助算法治理的基本原则及时予以纠偏。例如,算法开发者可将道德规范具体化为固定标准,以代码形式写入模型源头,结合机器深度学习功能,促使算法不断进化,打造具备道德敏感性的算法审核系统。与此同时,在技术上植入兜底性、保护性的算法代码,以实现畅通的算法纠偏路径,达到对算法相对人的保护,维护全社会对算法技术的信任。
(四)保障用户算法选择权
在算法诞生初期以及相当长的一段时间里,由于训练和改进算法的需要,算法适用一直处于“全有或全无的状态”,使用者在使用某一算法工具时,只能完全接受或拒绝全部条款,不能选择接受其中部分条款而拒绝另一部分。当使用者注销某平台账号时,平台并不会彻底删除该账号曾经上传的信息。由此可见,构建人工智能算法与用户的信任机制,还需从用户角度出发,赋予其选择算法的权力,真正建立起人工智能算法与用户的平等关系。本文认为,用户的算法选择权应包括如下方面。
第一,自动化决策拒绝权。在数字社会,个人对特定数字化应用或结果享有抵制的权利。【参见韩旭至:《认真对待数字社会的个人拒绝权》,载《华东政法大学学报》2023年第1期。】个人拒绝权一般包括个人信息删除权、被遗忘权、离线权等,自动化决策拒绝权亦是其中之一。我国目前对自动化决策拒绝权的规定,主要体现在《个人信息保护法》第24条第3款。同时,该法第25条规定用户可以拒绝“通过自动化算法决策进行信息推送、商业营销”。此二条确立了自动化决策拒绝权的请求权基础,但是在规范解释上较为模糊,有待完善具体的实践路径。【参见王苑:《完全自动化决策拒绝权之正当性及其实现路径——以〈个人信息保护法〉第24条第3款为中心》,载《法学家》2022年第5期。】目前,只有一部分算法服务提供者对用户的拒绝权进行了尝试,但实质上只在算法推荐作了部分掩盖处理,并非真正赋予用户算法拒绝权。这就意味着当前算法对于数据分类获取、管理并未细化,自动化决策拒绝权规范尚不成熟。
用户的自动化决策拒绝权是提升其对人工智能算法信任度的重要途径。自动化决策权拒绝的对象,应包括算法本身及其结果。首先,在自动化决策开始之前,算法服务提供者应当将用户的隐私保护融入产品设计,具体可参考欧盟《通用数据保护条例》中要求的“在最小必要原则的指引下设定默认选项”。不过,该条款仍为原则性规范,在解释上较为模糊,还需要在更为具象的层面增加可操作性。其次,对于个人使用者而言,算法服务提供者应当对其提供细化的、多元化的算法服务选择协议,允许用户自主选择部分算法功能,而非“全有或全无”。如果用户在使用之前未能了解自动化决策方式,而是在使用过程中知道的,这一处理则需要暂时停止。算法服务提供者进行解释说明后,用户仍然拒绝的,需要尊重用户的选择。最后,在自动化决策已经作出后,根据《民法典》相关规定,完全的自动化决策方式在一定情况下会导致某些决策不能发生民事法律效力,产生无效或可撤销的后果,这就间接保障了用户的自动化决策拒绝权。
第二,算法退出机制。该机制是算法拒绝权延伸出的应有之义,能够转变算法服务提供者因用户“不知情同意”授权而一劳永逸的行为,有利于提升算法服务的合规性。【参见李丹:《算法歧视消费者:行为机制、损益界定与协同规制》,载《上海财经大学学报》2021年第2期。】其不仅应当从数据收集的源头来规制,还应当包括算法禁用的规范机制,从多角度赋予用户选择退出特定算法的权利。具体而言,在数据采集阶段,尽管绝大多数人工智能算法机构使用的是“默示同意规则”,但应确保用户确实知悉且未明确反对收集数据的行为。在算法的适用阶段,人工智能算法服务提供者应为用户提供“选择退出”的选项。同时,用户在感知到自身权利受侵害时,应当保障其可以要求有关平台或者算法相关方删除或者禁止他人访问这些信息,如果数据积累到一定数量时,还可以通过物理销毁存储介质以实现完全意义上的数据销毁。例如,据报道,某大学男生盗用女生照片造谣侵害其名誉,虽然该案件已经定案,但该女生图片依然在某些社交平台被不正当传播。因此,人工智能算法服务提供者应当建立过滤与识别机制,在个人使用者注销其账号时,也应当对相关信息进行相似处理,而不仅是停留于用户主页的无法访问,其账号之前所产生的信息数据均应当被过滤屏蔽。对于涉及人数众多、数据量巨大的特殊情形,应当进行公开的、专业的数据销毁。对于某些影响力巨大的不良算法本身,应当限制该算法作为财产权的转让和适用,甚至是予以封禁和销毁,以算法退出作为最严厉的手段,建立高级别、强有力的算法信任机制。
四、发展可解释性人工智能与人工智能伦理
除从多个方面加强人工智能算法监管及保障算法相对人权益外,本文最后一部分提出宏观框架方面应当作出的改进,即发展可解释性人工智能的路径(Explainable AI,又称XAI),并辅之以人工智能伦理。可解释性是表达人工智能系统为何作出特定决定、建议或预测的能力,其对于实现人工智能模型的可解释性和问责机制至关重要,是社会解释权的重要实现路径。发展可解释性人工智能,实际上是风险预防原则的体现,【参见郑戈:《算法的法律与法律的算法》,载《中国法律评论》2018年第2期。】也是实现算法可解释性的实体化路径。人工智能伦理可以在法律规范之前起到先导性作用,为人工智能产品本身或其开发者进行伦理指引,同时可为后续规范形成提供法源。【参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期。】
(一)可解释性人工智能概述
人工智能的可解释性指“让人工智能系统的结果可以理解,并提供阐释说明”,也包括“各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果”。【联合国教科文组织:《人工智能伦理问题建议书》,载https://unesdoc.unesco.org/ark:/48223/pf0000381137_chi,2022年11月23日。】从分类看,事前解释指可被人类直接查看和理解的算法模型,如决策树、回归模型等,而事后解释通常由其他软件工具或人工方式生成,旨在描述、说明特定算法模型如何运作或特定输出结果如何得出。事后解释可以让相对人了解决策的规则和因素,在排查具体决策适用的规则是否包含歧视或非法问题的同时,还可以让相对人知道作出相关决策的原因,在破解算法黑箱上起到关键作用。【参见张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学(西北政法大学学报)》2018年第3期。】发展可解释性人工智能,对增强用户与人工智能系统间的信任、减少或消除算法黑箱带来的负面影响、建立可持续且可靠的人工智能系统,均具有重要意义。从解释内容看,英国《解释人工智能的决策》率先提出了解释的主要内容,包括原理解释、责任解释、数据解释、公平性解释、安全和性能解释以及影响解释。这一标准对具体化人工智能的解释领域提供了参考。
目前,美国国家标准与技术研究院制定了人工智能可解释性的四项原则,方便人们更好理解人工智能模型的工作原理。这些原则相互独立适用,并以其自身的权利进行评估。具体包括:(1)人工智能系统应该提供有证据支持的解释;(2)解释应该以人工智能系统用户可以理解的方式进行;(3)解释应该准确描述人工智能系统运作的过程;(4)人工智能系统应在其设计的范围内运行。对于有证据支持的解释,美国国家标准与技术研究院概述了几个类别予以判断:旨在通过告知用户输出结果使用户受益的解释、旨在获得社会信任和接受的解释、旨在满足监管和合规要求的解释、有助于维护和开发AI算法的解释以及对系统所有者有利的解释。有效性和准确性原则,则在不同层面对解释的内容作出了具体要求。上述原则中最后一项,“可限制性”是为了防止系统超出其限制时可能出现的不准确的结果。这些原则可以为其他地区制定自身可解释性原则提供指引。
(二)人工智能伦理的立法进展
为了应对人工智能伦理问题带来的挑战,目前,许多地区都提出了人工智能道德准则。欧盟《可信赖人工智能伦理指南》将可解释性作为可信赖人工智能的四个伦理原则之一。联合国发布的首个全球性人工智能伦理协议《人工智能伦理问题建议书》,将可解释性亦列入人工智能系统生命周期的所有行为者都应遵守的四个原则之一。该准则通过人为控制人工智能的方法提供相关的法律保护,以人为参与、人为干预和人为掌控的方式予以治理。这类准则成为创设人工智能伦理软法的基础,在一定程度上有助于创建人工智能硬法,但仍然缺乏具有可操作性的规则和标准。由此,各地区试图创设出人工智能伦理的具体政策和规范。
以欧盟为例,2017年以来,欧洲议会在《关于人工智能技术的民法规则委员会建议的决议》[2015/2103(INL)]中明确指出,“指导道德框架应基于善意、无恶意、自治正义的原则”,引入了《欧盟运作条约》中的价值观,包括“尊严、平等、正义和公平、不歧视、知情同意、隐私、数据保护”,以及欧盟法中的其他原则,包括“非污名化、透明化、自主、个人责任和社会责任”等。不过,该决议仅简单列出了人工智能监管中的关键伦理要素。2018年《欧洲人工智能》文件出台之后,人工智能高级别专家组于2019年制定了《可信赖人工智能伦理准则》,并于2020年制定了欧盟关于识别可信赖人工智能的方法。2020年2月,欧盟委员会发布的《人工智能白皮书——追求卓越和信任的欧洲方案》则更为先进,其中写明了人工智能治理的政策框架和未来监管框架的关键要素。《制定人工智能统一规则和修改特定欧盟法案》于2021年4月出台,其中智能顾问等产品被归入高风险人工智能类别。
我国亦采取了类似的做法。目前,我国关于可解释人工智能立法主要体现在《个人信息保护法》第7条的公平、透明原则,第44条的知情权、决定权,以及第24条对基于个人信息的算法自动化决策的专门规定。2017年7月,国务院印发了《新一代人工智能发展规划》,提出了人工智能“三步走”战略目标,其中第一步是到2020年“初步建立人工智能伦理规范和部分领域的政策法规”。除了官方文件外,中国人工智能行业组织也有所贡献,并在许多自律性文件中提出了人工智能伦理基本原则。这些文件包括《人工智能标准化白皮书(2018版)》《新一代人工智能治理原则——负责任人工智能的发展(2019)》《新一代人工智能伦理(2021)》等。
此外,实务界也在尝试将伦理原则解释为实用指南,积极建立内部人工智能伦理委员会,并且在人工智能伦理审查标准和认证、最佳实践和技术工具方面已经取得了一些进展,以下为其中的典型案例(见表1)。
从上述实例可见,监管机构、行业组织和企业均致力于发展人工智能伦理。毋庸置疑,建立具体可靠的人工智能伦理监管架构还有很长的路要走。有人指出,这些原则过于宽泛且无法解决实际问题,而关于理解负责任的人工智能的定性研究则更多建立在对各种公司和行业工作的人工智能从业者的采访基础上。【Pin Lean Lau,‘The Extension of Legal Personhood in Artificial Intelligence’ (2019)46 Revista de Bioetica Derecho 47.】不过,许多看似可行的建议很难落地,因为可能会使企业在实践中承担过于繁重的义务。因此,如何平衡人工智能创新发展和企业应履行的义务,是值得深究的课题。
(三)可解释性人工智能及人工智能伦理的规范路径
可解释性人工智能的规范构建是当下亟待解决的重大法律问题,防范人工智能的技术性风险,不仅涉及技术升级和优化,还需要建立起以社会监管为核心的政策体系。我国目前对可解释性人工智能及人工智能伦理的规范体系还不健全,应在制度构建上作出如下努力:第一,应在国家层面统筹人工智能发展战略,尽快制定人工智能伦理章程,借鉴比较法上的相关规范,结合国情制定我国人工智能规范;第二,适时进行可解释性人工智能专门立法,明确解释主体、解释的内容及原则,保障用户的知情权和公平交易权。尽管算法黑箱等问题难以避免,但通过事前风险防范机制和事后问责,提高算法透明度,设立合理有效的机器伦理制度,可以有效建立起人工智能技术和伦理的评价体系,健全事后问责机制,从而化解用户权利无从救济的困境。
五、结语
数字中国建设过程中的人工智能算法信任机制,是一场数字革命下深刻的、全方位的社会变革,更是社会力量的重新分配与社会架构的重新组建。以数字技术为基础发展起来的互联网、大数据和人工智能必然带有政治性。【黎敏:《人工智能时代的法律与政治问题慎思》,载《中国社会科学报》2023年12月6日,第A07版。】基于这样的严肃政治性特征,法律规范必不可少。人工智能算法的法律规范进路,实质上是通过相应的公私法手段,使算法变得可理解、可控、可靠。因此,必须从监管者和用户层面双向入手,建立起人工智能算法服务提供者和用户的信任机制。一方面,需逐步建立起一整套组织架构完善的、理念先进包容的、可靠信任的管理型算法体系;另一方面,应当全方位确保用户对算法的拒绝和退出的权利。同时,宏观上建设可解释性人工智能体系必不可少。面对人工智能算法带来的挑战,法律界应致力于促进技术发展和信任建立,鼓励公民遵守法律、维护自身权益,协同各方力量,共同促进算法社会健康发展。
Abstract:The development of artificial intelligence depends on users being able to understand, trust and manage it, but the potential opacity of artificial intelligence algorithms has led to an increasing crisis of trust between users and artificial intelligence products. Artificial intelligence algorithms may bring about legal risks, such as infringing users' right to be informed, decision-making and privacy, as well as algorithmic discrimination, algorithmic confrontation and other adverse consequences. Although China has initially had the algorithm regulatory regime," trust mechanism of artificial intelligence algorithm has not yet been established. Regulating the relationship of rights and obligations between artificial intelligence and users by fiduciary law has many merits. At the same time, we should start with algorithm filing system, improve the algorithm authorization mechanism and timely algorithm correction, and ensure the user's algorithm choice. The establishment of an explainable AI specification system at the macro level is also a core initiative. The trust mechanism of artificial intelligence algorithm should be a systematic normative system, and can promote the healthy and orderly development of the artificial intelligence industry.
[责任编辑 邢峻彬]