摘要:近年来随着算法决策运用增多,如何规制算法决策引起了学界广泛的关注。表面上来看,算法解释权是打开算法黑箱,使算法决策过程透明化和可理解的理想手段。然而,算法解释权并非国际立法之通例,可行性不高,难以发挥实际作用,重要性和必要性不足,在既有法律体系下,其旨在实现的功能和目标,均可为其他法律规制手段所实现,无须另行创设算法解释权。用法律引导和规制算法,需要从注重公私法合力、充分利用现有法律规范、根据行业特点制定各类安全标准、细化告知披露义务等多方面着手。
关键词:算法决策;算法黑箱;算法解释权;算法规制
作者简介:辛巧巧,中国政法大学博士后(北京 100088)
基金项目:中国法学会民法学研究会青年学者研究项目“我国公共不动产役权制度研究”(2018MFXH005)
DOI编码:10.19667/j.cnki.cn23-1070/c.2021.03.011
一、问题的提出
人类进入21世纪以来,智能工具和算法应用日益广泛,深刻影响了大众的日常生活。算法决策,尤其是自动化算法决策,以其高效、客观、便捷的特点,广受欢迎。在商业领域,企业使用算法决策为用户提供个性化新闻推荐、精准广告推荐、智能语音、图像识别等服务。在公共领域,政府机构使用算法决策进行自动化行政办公,为公众提供线上自动化行政服务,司法机构使用算法决策进行智能审判,如虚假诉讼甄别、证据判断、智能庭审记录、类案推荐、量刑辅助、文书生成,等等。
随着算法应用的增多,算法决策中存在的问题和隐藏的风险也日益显现。人们发现,算法决策结果并非绝对的公平公正,算法决策结果也可能带有歧视和偏见,也可能是不公正的。然而,面对机器学习算法具有自主学习和难以解释的特点,传统法律规制方式似乎力有不逮。因此,如何规制算法问题成为了当前法学界研究的热点问题。
针对机器学习算法复杂且难以理解的特点,以及由此引发的算法“黑箱”问题,算法解释权的呼吁和探讨兴起。一般认为,算法解释权是对算法输出进行解释的权利,对个人法律或经济上有重大影响的算法决策进行解释的个人权利。算法解释权直观地承诺使算法更加透明和可理解,从而有利于及时发现算法决策中存在的问题,并提出异议和质疑,提高算法的可责性,化解算法危机。因此,一些论者主张在我国法中设置算法解释权作为新型的算法权利。更有论者认为,可解释性原则是算法治理和算法规制需要坚持的第一原则。1
本文旨在探讨,算法解释权是否可以有效地实现算法透明和促进算法理解,算法解释权是否规制算法的可行措施或最佳措施,进而揭示,算法解释权既不可行,也无必要,而且,设置算法解释权旨在达成的目标,可以采用其他更为合适的方法和途径完成。
二、算法解释权理论之提要
(一)算法解释权的提出
2018年欧盟颁布的《通用数据保护条例》(GDPR)被认为首次在立法中提出和创设了算法解释权。该法在序言第71条指出,对个人法律或经济上有重大影响的自动化决策应当受到适当的法律措施的约束,这些措施包括向数据主体提供具体信息以及获得人工干预、表达意见、获取决策如何做出的解释和对决策提出质疑的权利。其中首次提及“解释”(explanation),即数据主体有权要求对个人法律或经济上有重大影响的自动化决策进行解释的个人权利。为此,欧盟学者就GDPR是否设立了算法解释权以及有无必要设置算法解释权展开了争论,在该规定和相关研究的启示下,我国一些学者也呼吁我国立法引入算法解释权。
在国内,对于算法解释权尚无统一定义,以算法决策作为解释客体,有学者强调解释与具体决策的相关性,认为算法解释权是包括异议、解释、更新、更正的一系列权利;2也有学者强调解释决策得出的过程,仅强调解释的权利。3但不管持何种观点,算法解释权的核心是“解释”,即寻求特定算法决策结果的原因和理由。同时,在类型上,学者依据解释的对象和解释的时间的不同,将算法解释权中的解释分为以系统功能为中心的解释与以具体决策为中心的解释,以及具体决策做出前的“事前解释”与具体决策做出后的“事后解释”4。
(二)对算法解释权的呼吁及其理由
目前,支持算法解释权的理由主要有:
第一,算法解释权可以打开算法“黑箱”,实现算法透明,提高算法的可责性,解决“算法歧视”“算法不公”等问题。这种观点认为,算法“黑箱”导致了算法决策责任性的缺失,算法解释权可以增强算法透明度,使复杂的算法决策为人所理解,从而增强算法的责任性。5算法解释权可以使相对人了解决策是如何做出的,进而发现决策过程和结果中存在的歧视和不公问题。
第二,算法解释权有助于矫正商业算法决策中权力地位不平等的状态,解决“算法暴政”“算法霸权”問题。这种观点认为,算法解释权可以矫正商业自动化决策中的信息不对称,平衡自动化决策者和相对人的地位不平等状态,限制算法权力,从而实现合同平等、自由和正义。6算法解释权可以体现对相对人意思自治的尊重,1关乎用户的自主、尊严及人格,有助于消弭数字鸿沟,对抗“算法霸权”2。
第三,作为规则的算法需要解释。这种观点认为,算法与传统法律均属于规则,作为规则的法律需要进行解释,同样作为规则的算法也需要解释。
第四,算法是可解释的。这种观点认为,多数算法具有可解释性。3而且,可解释性的机器学习方法正在成为计算机科学中一个活跃的新兴热门领域,这为算法解释权的可行性提供了技术基础。
第五,通过特定的解释方法,可以回避解释上的技术难题和认知上的理解难题。这种观点主张,算法解释权追求的是可理解的解释权4和“可理解的透明度”,即没有算法专业知识的普通大众也可以独立地理解。5具体实现途径为:一是通过“反设事实解释”的方法予以解释,即不关注算法内部运作逻辑,而是关注输入数据和输出结果之间的关联关系,告知哪些事实影响了最终的输出结果。6二是通过简明的自然语言、可视化图表等普通人能够充分理解的方式予以解释。7
第六,通过限定解释对象和解释范围,明确解释条件,可以避免算法解释权带来的弊端。为避免泄露知识产权和商业秘密,有学者主张,算法解释权寻求的是“适当透明性”,不用完全公开算法,只用“对算法模型的逻辑和有意义的信息”进行解释,8例如,做出具体决策所参考的数据、主体画像、数据权重等信息。9也有学者主张,算法解释权寻求的是“有法律意义的信息”,解释的内容不用包括技术细节。10还有学者主张,“在解释对象上算法仅向某些特定群体进行小范围的公开解释,在解释范围上核心算法可以不解释不公开,在解释条件上由法律明确规定”11或者“仅在个案中向单个数据主体披露”12。
第七,通过限制算法解释权的适用,化解算法解释权面临的难题。这种观点认为,可以通过设置权利行使的门槛,防止权利滥用,避免设置解释权所带来的较高的解释成本和对决策效力的影响。具体而言,即仅当决策结果与合理预期不相符时才可主张这一权利,并在有关机关内部设置单独部门对解释请求做形式审查。13
第八,算法解釋权在欧美法中已经是法定的权利。这种观点通常认为,2018年生效的欧盟《通用数据保护条例》(GDPR)第13条、第14条、第15条、第22条和序言第71条,14美国《信贷机会均等法》(ECOA)与《公平信用报告法》(FCRA)中规定的不利行动告知条款,以及2017年《关于算法透明性和可问责性的声明》中提及的算法解释原则,从立法上肯定了算法解释权。
从上述理由来看,算法解释权直观地承诺可以打开算法“黑箱”,促进算法透明和理解,提高算法问责的可能性,似乎是一种具有吸引力的、可行且有必要的规制方式。但实际真的是这样吗?
三、算法解释权的实然性和可行性质疑
(一)算法解释权的实然性质疑
第一,算法解释权在欧盟法中是否是实然的法定权利还有较多争议,即使是也存在着重大缺陷。欧盟GDPR仅在序言第71条提及“解释”,由于序言对欧盟各国不具备直接的法律约束力,1在欧盟各国能否得到承认还有疑问,这导致了法律的不确定性。GDPR第13条和第14条规定的是知情权,第15条规定的是访问权,第22条规定的是拒绝权、异议权,也难以直接作为算法解释权的法律依据。即使肯认GDPR设立了算法解释权,这一权利也存在着适用范围有限,适用标准不明确,甚至自相矛盾的缺点。2具体而言:其一,算法解释权仅适用于基于个人数据做出的、非公共决策的、对个人“法律或经济上”有“重大”影响的自动化决策,这使得大多数算法决策争议案件都不能适用这一权利。3其二,对于何为算法自动化决策,何为“重大”的算法自动化决策,没有明确标准,而且,也未规定算法解释权的行使规则和算法解释所需要达到的标准。其三,GDPR第22条(1)规定,如果算法决策对数据主体有法律效力或者重大影响,那么这种决策不应纯粹由算法做出。结合上述其一可能导致这一权利无适用对象。可见,即使从形式上而言,这一规定也存在着重大缺陷。将其直接引入我国值得商榷。
第二,算法解释权在美国法中尚未被承认。美国法中被学者们视为算法解释权法定依据的条款,实际上并未赋予个人算法解释权。根据美国《信贷机会均等法》等的规定,只要是不良信用记录均需要说明原因,并非仅针对算法生成的信用记录,而且,是通过对信用机构施加一般性的说明告知义务的方式而非赋予个人算法解释权的方式来实现的。《关于算法透明性和可问责性的声明》,鼓励使用算法决策系统的机构主动对算法过程和特定决策提供解释,也并未赋予用户算法解释权。考虑到解释的技术可行性难题,该项声明中提及的七项算法治理原则,除解释原则是“鼓励”之外,其余六项均为“应该”达到的。4
总之,算法解释权并非国际立法之通例,欧盟法中的现有规定也尚不足以支撑我国引入这一新型权利,还需要从可行性和必要性等更为本质的角度进一步讨论。
(二)算法解释权的可行性质疑
第一,机器学习算法的可解释性较弱,即使是设置算法解释权也难以执行。算法解释权行使的前提是算法解释在技术上的可行性。简单算法的解释尚属可行,但机器学习算法,尤其是深度学习算法,很难解释其模型输出结果产生的原因。基于数据驱动的机器学习算法模型,可以从海量数据中直接提取特征,进行分析运算,生成预估。其中,深度学习算法更是一种拥有自主学习能力的动态算法,在算法工程师选择了最初的算法模型后,算法会不断地吸收新的信息并构建更为复杂的算法模型,有时结果的生成还会参入随机因素,这使得即使是算法设计者也无法解释自己所设计的算法模型结果生成的原因。因此,对于机器学习算法而言,即使设置算法解释,也难以执行,易流于形式、形同虚设,5无法实现规范的目的。
第二,可解释性的机器学习方法也难以支撑算法解释权。其一,可解释性的机器学习方法难以从技术上为法律上的解释权提供充分的支撑。可解释性的机器学习方法虽然可以帮助了解算法决策是如何做出的,帮助推导输入与输出之间的因果关系,但很大程度上,这种因果关系只是统计意义上的,而非规范意义上的,二者之间存在着难以跨越的价值鸿沟。1其二,可解释性的要求需要以准确性为代价,强行设置算法解释权会影响算法决策的效率和准确性。算法的准确性通常随其复杂性而变化,算法越复杂,准确性越高,解释就越困难。目前,可解释性的要求需要以牺牲准确性为代价。这使得可解释的算法应用场景有限,因为仅在少数领域可解释比准确性更重要,在多数场合下,可解释性的要求不能以牺牲或约束性能、扼杀效益为代价。例如,对于自动驾驶而言,能够解释事故重要,还是避免事故更重要?解释事故关系到事后法律追责,而避免事故直接关系到乘坐人员的人身安全。可解释性的机器学习方法虽然为机器学习算法的解释提供了可期待的技术基础,但不得不面临可解释性与准确性之间的折中选择和权衡。强行设置算法解释权客观上可能牺牲算法决策的准确率,提高算法应用的开发成本,减缓行业发展,牺牲市场效率。
第三,即使是赋予用户算法解释权,许多用户也难以获得理解。机器学习算法具有高度的专业性和复杂性,机器学习算法模型中充满了专业术语表达和复杂的非线性函数计算。对于算法模型最终输出结果的原因和理由,许多具有专业知识背景的人士也难以完全理解并提出质疑,更不用说大多数非专业人士。即使完全公开算法模型,许多公众和行政管理人员也难以获得理解,更别说从中发现系统设计的偏见和不公因素。算法部署者可能还会通过模糊的、晦涩难懂的算法运行逻辑以及冗余混杂的数据信息来推卸责任,使算法解释权成为逃避自身责任的工具,2从而妨碍追责。
运用简明的表达方式或“反设事实解释”也难以实现“可理解”的解释权和“可理解”的透明度。其一,从信号输入角度来看,算法作为一套可执行的计算机准则,是以计算机的语言和逻辑表达的,将机器的推理过程转化为人类可认知、理解和表达的逻辑还存在着困难。机器学习算法模型中所提取的许多特征或变量,可能并不是如同“年龄”“性别”一般清晰,而是更加抽象的行为序列、模拟信号数字化等,一些特征或变量可能缺乏清晰的人类理解和解释,难以用清晰的自然语言或可视化工具予以表达。3其二,在复杂的机器学习算法模型中,变量多而复杂,每个用户可能拥有数以百万甚至上亿计的变量,任何输入或计算都难以被称为主要因素,全面概述或解释模型输出结果的影响变量、权重、逻辑在技术上是不可能的。即使是采用“反设事实解释”也无法回避这一难题,因为“反设事实解释”依然需要能够说明影响决策结果的关键值、主要特征、权重占比。4而且,“反设事實解释”是一种简化的主逻辑的解释,对于主逻辑之外的非核心因素及其复杂变换也难以提供有效的解释。
第四,算法解释权在权利保障上是低效的、不经济的,即使赋予用户算法解释权,也不足以矫正算法权力。算法决策中的透明性和权力地位不平等问题,通常关系到用户群体的利益,个体用户行使权利难以保障群体用户的权益,个体赋权式治理的碎片化特点甚至有可能还会阻碍集体行动的达成,5导致权利保障的低效和不经济。个体赋权式治理还面临着个体能力有限的问题,往往不足以对抗强大的资本,矫正现实社会中存在的权力地位不平等问题,难以实现真正的意思自治和交易自由。例如,算法解释权行使的前提是知晓算法决策,但现实中,相对人可能不知对其产生影响的决策是由算法做出的,更不用说发起算法解释权。
第五,设置算法解释权不利于社会多元利益保护。商业算法决策系统中通常会有一些公司商业秘密、知识产权、个人隐私数据。政府部门的算法决策系统中除了个人信息、隐私数据之外,还可能会有一些国家秘密。设置算法解释权有可能会造成个人隐私、商业秘密、知识产权等数据的泄露,不利于数据安全或国家安全,也难以防止黑客攻击、算法恶意利用、竞争对手剽窃和效仿等风险,长远来看会抑制算法应用的研发投资和产业创新。即使限制算法解释权的解释对象、范围、条件,或仅提供“有法律意义的信息”,也难以避免知识产权和商业秘密等数据的泄露。允许公司“适当”地公开或提供解释,为公司留出了一定的解释空间,却难以保证解释和实际情况的一致性,更难以证明具体决策的正当性,仍然无法解决公众的信任问题。而且,算法解释权能否发挥作用对用户个人能力依赖较强,用户的技术理解能力差异使得解释的“可理解”性会因人而异,这使得解释的限度和程度难以确定,何为“有法律意义的信息”和“适当”的信息也难以分辨。这些方式难以化解算法解释权与多元利益保护之间的紧张关系。
第六,设置算法解释权会加重用户和公司平台双方的负担。对于个体用户而言,享有难以实现理解的解释权,会增加权利行使成本和认知负担。对于企业而言,承担大量难以实现的解释义务,会增加企业的解释成本和负担。防止解释权滥用而设置的门槛,提高了用户获得解释的难度,却不一定会减少解释权的主张,反而会增加企业设置部门与形式审查的成本,而且也难以保证企业内部部门审查的公正性。
总之,实践中,面对机器学习算法,算法解释权的可行性不高,难以发挥实际作用。难以破除算法“黑箱”,带来算法理解和算法透明,解决信息不对称问题,也难以矫正算法权力,难以完全重塑算法决策的可责性。即使设置算法解释权,也可能会流于形式,成为“僵尸权利”,甚至会引发新的问题,如影响算法决策的效率,不利于社会多元利益协调,带来较高的解释成本。
四、算法解释权的重要性和必要性质疑
(一)算法解释权的重要性质疑
第一,从算法决策问题的根源来看,算法“黑箱”,甚至算法,都并非唯一的或最主要的因素。算法决策中的“歧视”与“不公”,主要源于算法模型对现实社会中歧视与不公的吸收和实然反映,以及设计者的价值偏向渗入及其对算法方法选择的不合适。算法“黑箱”带来的信息不对称与处理过程不透明,会导致算法决策中的问题难以被及时发现和监督,从而加剧和放大算法决策风险,但不能将算法应用危机的根源完全归根于算法“黑箱”。而且,算法仅是算法决策涉及的技术和因素之一,算法决策中的许多问题并非来自于算法,数据、代码程序、架构设计等系统其他的组成部分,以及外部环境变化、第三方干扰、人为破坏、恶意使用等,都可能导致算法决策结果出现问题。将注意力集中在算法上,将难以发现与算法决策相关的事实全貌。仅解释算法,打开或破解算法“黑箱”,提高算法透明度,并不能完全重塑算法决策的可责性,也不能从根本上解决各类算法决策的风险。
第二,人类社会中大多数决策并不需要做出解释。“黑箱”广泛地存在于人类社会中,大多数时候并不需要解释。在私人生活中,个人所做出的很多决策,并不需要向他人解释。在市场经济中,企业所做出的很多经营决策,同样并不需要向消费者进行解释。商业领域的自动化算法决策,许多是诱导性的而非强制性的,动态生成的、个性化的,此时,决策能够在多大程度上影响用户,往往与用户个体自身本来的意愿息息相关,而且,用户通过改变自己的个人行为,如点击次数、阅读时长,即可改变算法决策结果。虽然这些决策可能会对他人或消费者产生经济上或法律上的影响,需要法律加以规制和治理,却没有解释的必要。换言之,许多决策有规制必要,却没有解释的必要,解释权难以成为规制算法决策的通用工具。
总之,即使可以获得理解,解释权也难以成为治理算法最重要的工具,“可解释原则”也难以成为规制算法的“第一原则”。
(二)算法解释权的必要性质疑
现代社会复杂问题的决策通常不能不证自明,了解决策做出的理由、过程、优点、不足、风险,通常可以提高对于决策结果的信任和把握。从法律上让算法决策更易理解、更具可责性,也具有重要意义,但算法解释权所预期达成的目的和功效,在很大程度上,可以被其他更适合的规制方式所实现。
第一,设置算法解释权的直接目的是提高算法的透明度和可理解性。透明和可理解要求,在法律领域一直存在,并非只有算法决策的场景才有的新需求,但一般并不会通过解释权的方式实现。其一,虽然法律规则需要解释,但法律并未赋予个体法律解释权,而是通过程序和法律规范保障立法的科学性和严谨性,通过司法解释来发展和完善法律,通过裁判说理的方式展现裁判依据和事实、理由,通过裁判宣读和文书送达、上诉等程序机制以及裁判文书公开等制度保障诉讼当事人的权益。其二,行政领域重在规范权力运行的正当性,一般通过法定义务和正当程序、信息公开等方式来约束公权力的运行,保障公众的合法权益,兼顾结果公平和过程公平。如我国法律规定了行政处罚告知义务、行政复议告知义务、行政信息公开制度,并通过程序性的规则保障公众的知情、参与、异议和救济的权利。其三,商业领域重在保护消费者的意思自治和交易自由、交易公平,主要采用知情权等个体权利以及告知义务等法定义务来纠正市场信息不对称,为消费者提供更多的市场信息,从而促进实质上的交易自由与交易公平。例如,我国《消费者权益保护法》规定消费者享有知情权和选择权,要求经营者承担如实说明义务和风险警示义务,并对应当说明告知的具体事项、内容、方式进行了列举和约束。1在医疗、证券、金融等对个人权益影响较大、关涉市场秩序或公共利益的领域,有关法律也规定了医务人员的说明告知义务,发行人、上市公司的信息披露义务。2
第二,设置算法解释权的最终目的是提高问责和及时提供救济,3但这在很大程度上可以被事后面向结果的问责所实现。理解和解释算法决策是如何做出的,或许对于厘清事实能够提供一些帮助,但即使无法解释原因和过程,算法部署者也应对其所使用的算法运行结果负责。虽然算法具有了一定的学习能力,但总体上而言,算法依然是人类的工具,算法输出结果依然可以为人类所控。而且,即使是在技术上,对于机器学习算法模型的评估、管理和优化,也不是通过监督其内部结构和算法来实现的,而是通过约束其外部表征、结果和目标来实现的。如果预测的结果不正确或不符合设计目标,就会对模型进一步调试和修正。相较于原因的难以解释,算法决策的目标和结果都是容易识别和判断的。大多数算法决策结果可以用常识推理识别,进行合理性评判和规范评估。从法律上而言,对于这种复杂的算法模型系统的规制,相较于通过监督其内部的算法和技术细节,直接约束其输出结果更为合适和更具可行性。应更加注重算法决策结果的公正性,而非对结果的解释。4面向结果的问责也能倒逼算法部署者、设计者改善系统设计和技术措施,预防算法风险和危害。1
第三,从算法解释权的核心内容和功能来看,是向相对人提供“解释”。其一,以具体决策为中心的解释,以纠纷解决机制中的举证责任分配机制替代更为合适。当人们寻求解释时,往往是在质疑算法决策的正当性和合理性,寻求更为正当的、公平的决策。而算法决策的正当性和合理性,不能以某一方的认知作为评价基础,需要中立的第三方,将具体事实与规范相联系,对决策结果进行个案分析和价值评价。因此,需要在纠纷解决机制中,结合归责原则、过错认定规则等,要求算法部署者负担相应的举证責任,证明决策结果的合理性。在必要时还可以配置专家证人辅助审判人员、诉讼当事人理解。可要求系统对决策关键数据作以记录并保存一定时间,为纠纷解决提供数据证据。其二,以系统功能为中心的解释,旨在提供对算法决策系统功能的一般性说明解释,以知情权和说明告知等义务的规范方式替代更为合适。这至少有以下优势:一是事后对系统功能的解释说明,往往不如事前的说明告知及时和有意义;二是对于算法部署者而言,仅需依据法律规定的事项、框架和方式履行相关义务,行为标准清晰,具有较强的行为指引性和可预见性,可以避免承担过重的技术成本和解释成本;三是有利于克服用户个体能力的局限性,保障用户群体和社会公众均能获取有用的信息,对于矫正权力地位不平等和信息不对称现象更加有效;四是其在内容上与知情权有较大的重合,采用知情权和告知等义务的规范方式,有利于沿续法律规制的传统,避免法律冲突、权利内容发生重叠。
第四,从算法解释权的其他内容和功能来看,与知情权、异议权、更正权等权利在内容上发生了较大的交错重合。算法解释权不能代替这些更具针对性的、独立的权利,反而其功用可以被这些权利所分担和承接。增设权利边界并不清晰的算法解释权,反而会造成法律冗余,与既有法律规范产生适用上的重复甚至冲突。2
总之,算法解释权并非最为适合的规制方式,具有高度的可替代性。不赋予算法解释权并不意味着放任不公开、不说理、不可理解,也并不代表不可救济。在当前各领域均存在大量法律规范的情形下,解释的功能和目标基本上已经被其他法律规范所分担。而且,这些规制方式,在不对算法决策运行逻辑和结果进行解释的情况下,较好地平衡了用户权利保障与算法部署者利益保护之间的关系更为恰当。即使有解释的需要,即使可以获得理解,也无须以解释权的方式实现,无设置解释权的必要。
五、算法解释权之外的可行路径
算法解释权表面上看似是规制算法决策与解决算法决策不公问题的理想手段,但实际上并不能提供有效的帮助。为了更好地实现算法决策公平,需要在充分利用现有法律资源的基础上,探寻其他解决路径弥补现有法律规制的不足之处。
第一,要注重公私法合力规制。当人们寻求解释时往往是在寻求更为正当的决策,仅仅提供“解释”难以满足相对人寻求正当决策的目的和意图。不能孤立地看待解释需求,解释需求的满足是一个系统功能,需要多项法律规范统合性的规制。而且,面对强大的人工智能平台、高度复杂的机器学习算法,以及算法已全方位渗透社会生活的现实,将权利救济的希望寄托于个体赋权式的救济之上是不切实际的,期望依靠单项权利或单一法律制度解决算法黑箱和算法不公问题也是难以实现的。整合性地运用公法和私法规范资源,通过法律、伦理、政策、行业规范等多种规制手段进行多领域多层次的统合规制,以及公私合力,政府、市场、社会力量共同参与,发挥行政规制、市场调控、社会自治多元机制的作用,多管齐下,才能在算法治理中形成体系性的周全的规制。
第二,要充分利用现有法律规范。由于算法技术和应用发展快速,容易大规模地投入使用和普及,规制缺失或规制不足时更容易造成较大的社会危害。而改变法律和伦理滞后于算法技术和业务发展的现状,形成成熟而健全的规范体系,尚需要一段时间。在新的规范形成之前,有必要尽可能地利用现有法律资源,援用已有法律原则和条文规定,运用好既有治理框架、治理机构、治理技术,减少无规范状态,引导算法规范化应用。具体到黑箱问题和透明性要求上,一些法律规则应当依然可以适用。因为如果某一事项需要保持透明或公开,那么无论是否使用算法或其他技术来达成该事项,都应如此。例如,司法裁判文书不论是由法官还是自动化审判系统做出的,都需要依法公开,并对相关的司法文档进行保存。现行法律规定有告知义务、信息披露义务、信息公开义务的事项,如果是智能算法做出的,也应当履行相关义务。例如,行政处罚不论是不是自动化行政系统做出的,都需要履行依法告知义务。
第三,要根据行业特点,明确人工智能系统的设计和部署要求,制定具体的监管标准、设计标准、性能标准、安全标准、隐私标准,规范上线风险评估和安全审查标准与流程。例如,自动驾驶系统、临床决策支持系统、智能投诉等,除了需要遵循汽车、医疗、金融等领域既有的安全规范和监管规范,还需要由相关部门结合系统特点有针对性地出台具体的性能标准、质量标准等,保障系统上线入市使用前,性能经过充分的测试,具备准确性、稳定性、可靠性、安全性的基本要求。其中,要特别注意公共治理领域人工智能系统设计标准中的算法方法选择要求。公共治理领域往往涉及公共秩序和公共利益,对于透明度的要求较高。在人工智能系统部署时就需要采用可理解性较强、能够生成和输出关键信息的算法,以化解算法黑箱与司法公开、行政公开的冲突。在算法部署时就应采用可理解性较强的算法模型,而非事后追求对不可解释模型的强行解释。如果一种可解释的算法和一种不可解释的算法所能实现的性能效果一样好,宜优先选择可解释的算法,因为这更有助于后续理解、判断和改进算法决策模型及结果。1
第四,要结合人工智能的特点,有针对性地细化告知义务、披露义务等法定义务的内容、标准和框架,对过往没有的新型算法决策有针对性的立法。例如,对于行政处罚告知义务可以结合算法决策的特点进一步细化,要求对行政处罚算法决策的结果和主要依据保持透明。当对相对人做出的具体行政决策是由算法系统直接做出的,需要对算法输出结果和支持的关键值保持透明。当算法结果仅是具体行政决策的支持,该项行政决策结果及包括算法结果在内的理由需要依照相关的规定以易获取和易懂的方式向相对人予以说明或给出答复。值得注意的是,不仅算法,数据训练、代码编程、计算机架构体系等对于普通群众而言也是难以理解的,告知、说明或披露义务不宜过于关注具体的技术细节,而应关注用户使用该人工智能所受到的影响及其主要影响因素的告知、说明或披露。
第五,要完善数据主体的数据权利。数据对于人工智能最终输出结果有着重要的影响。如果输入的数据本身就包含歧视和偏见,就会被算法所“學习”并带到输出结果中,控制好数据输入能够较好地预防算法决策结果偏差。在商业领域,可采用数据收集利用知情同意规则,2赋予用户更正权、删除权、可携带权等个人权利,尊重用户的数据利用意愿和提高用户对个人数据的控制能力。在公共领域,可采用法定数据收集使用机制,由法律明确规定数据收集来源、范围、主体,主要目的和用途,以保证正确的、相关的数据输入,防止不合理的、歧视性的数据随意录入。当用户发现数据错误或对结果不服时,可以提出异议、申诉,要求对错误进行更正。
第六,要明确平台责任,加强平台监管。网络平台是我国商业化人工智能应用的主要场所和实施主体,也是最有能力控制算法模型结果、预防算法技术风险的主体。以平台为抓手,明确平台应承担的法律责任,加强平台监管,可以较好地引导平台自我规范,也有利于提高监管效率、落实监管责任。在平台治理理念上要兼顾算法产业发展、消费者权益保护与算法规制,注重平台、多方用户的利益平衡。
第七,要建立良好的沟通反馈机制。社会不断发展变化,不断有新的现象和诉求产生,人工智能需要不断地更新优化和升级才能满足社会需求。有必要通过国家、行业、社会公众多方面的力量推动平台的自我反思和各界互动,促进平台对算法持续性的优化,对智能算法系统不断地更新、优化、升级,以满足不断发展变化的社会诉求。具体而言,在制度层面要建立和提供沟通反馈机制,及时根据公众反馈、社会建议以及检查监督情况优化改善系统,促进人工智能提供更具人性化和社会适应性的服务。
结 语
人工智能时代,智能工具和算法的运用在给人类社会带来极大的福利的同时,也带来了隐患。算法决策中的歧视和不公现象会损害相对人的权益。对此,算法解释权被认为是一种有效可行的路径。然而,实际上,算法解释权难以成为规制算法的可行路径和必要解决方案,更不能成为规制算法最重要的工具。算法解释权并非国际立法之通例。从技术可行性、权利效用、社会多元利益保护、权利设置的成本上,算法解释权也不具有可行性。强行设置算法解释权,有可能流于形式难以执行,即使执行也会代价较大,影响市场效率,不利于多元利益保护,还可能与既有法律规定产生重合甚至冲突。而且,设置算法解释权旨在实现的功能和目标,可以通过知情权、说明告知等义务、面向结果的问责机制等规制方式所分担和承接,这些规范方式可以在不对算法决策结果或算法运行逻辑进行解释的情况下,较好地平衡用户权利保障与算法部署者利益保护之间的关系,是较算法解释权更为合适的规制方式。总之,无须另行创设算法解释权。为了更好地实现决策公平,有必要公私合力,在充分利用现有法律资源的基础上结合算法决策的特点有针对性地完善相关规范,并分别结合商业算法决策和公共治理领域算法决策的特点进行有重点的规制,形成反思优化机制,促进算法应用与社会的良性互动。
[责任编辑 李宏弢]