算法解释权的构造与法治保障路径
——以社会信用体系建设为场景*

2021-11-02 09:39:40梁振文
关键词:解释权信用权利

梁振文

(湘潭大学 法学院,湖南 湘潭 411105)

自2014年国务院发布《社会信用体系建设规划纲要》以来,我国正稳步推进社会信用体系建设。社会信用体系建设本质是一个在几乎任何人、任何事上使用声誉机制的工程[1]。在大数据时代,依托于大数据分析的算法技术迅速发展,算法自动决策对社会信用体系建设的影响日益明显。一方面,高效、精确的算法有助于提高决策的效率与精准度,维护社会信用秩序,但另一方面,算法“黑箱”、算法权力的产生增加了算法决策给社会信用体系建设带来的风险[2]86。因此,推动社会信用体系建设既需要充分利用算法技术,也须对算法决策保持警惕。作为可规制算法,提高算法透明度与决策可责性的法律手段,算法解释权获得了较多关注与认可。

2018年5月25日生效的《欧盟一般数据保护条例》(下文简称为GDPR)是目前影响较大的算法解释权立法先例。GDPR序言(Recital)第71条提出解释权是数据主体“在任何情况下都应受到适当的保障,其中应包括关于数据主体的具体资料和获得人为干预,表达其观点,获得对这种评估后作出决定的解释并对该决定提出质疑的权利”。就此,有研究认为,算法解释权的实质是立法者设计的促进算法透明度的个性化措施,能够较好地依据算法应用的多元化场景为个人提供灵活和及时的制度保障[3]1438。这些诠释反映了对算法解释权的不同解读。算法解释的对象为自动化处理的算法决策,从权利的目的来看,算法解释权是法律赋权于数据主体,由其请求人工干预算法决策及表达异议并获得相应解释,以此实现制约算法权力,保障数据主体权益的权利。

算法解释权为约束算法权力而提出,以域外立法为参考,我国正在探索以设定平台算法义务为主、赋予个体权利为辅的复合型治理路径[4]。立法确认算法解释权是以权利约束权力的选择,算法自动决策已广泛应用于社会信用体系建设场景,需要算法解释权对其进行规制。本文以此为切入点,通过分析算法解释权的构造及具体信用场景的应用,就算法解释权法治保障的困境及路径作出探讨,以期抛砖引玉。

一、社会信用体系建设场景中构建算法解释权的动因

社会信用体系建设进程中,信用信息数据是社会信用制度的基础[5],信用评价的客观、公平也取决于信用信息数据的客观公正。因此,对信用数据的治理需充分发挥其客观性[6]。然而大数据算法逐渐占据统治地位的算法社会[7],由于诸多原因,信用信息的客观公正越来越难以保证,信用主体需要借助算法解释权来规制算法,保障自身权益。

(一)信用信息收集与使用的正当性与合法性面临挑战

算法技术的应用拓展了信用信息的深度和广度,也导致信用信息的客观性难以保证。这首先体现在信用信息的内涵扩大、类型增多。从信息来源方式看,信用信息既包括市场信用信息,也包括政府部门等在履职过程中形成的公共信用信息。此外,与日俱增的网络用户产生的线上信息,如搜索、浏览记录以及社交媒体记录等都可能被收集并用于作出影响主体权益的算法决策。其次,信息提供者、使用者的来源更广泛。新兴技术降低了信息收集、存储、处理和传输的成本,信息的流动和共享更加便利,除银行等传统金融机构外,信息提供者、使用者扩及公共部门乃至普通人。再次,信用信息的准确性、完整性以及获取途径的合法性面临挑战。现代网络日益普及与发达,但缺乏严格的身份认证和审查机制,用户线上交易和社交信息等极易被泄露和盗用。信息广度与深度的新变化使信用信息收集与使用的正当性与合法性遭受新的挑战,仅依赖行业惯例或革新技术已不足以保证信用信息的客观公正性。实现新时代对信用主体的权益保护,需要通过更合理的制度设计加强对信用信息收集与使用等环节的法律规制,从而有效应对完善社会信用体系建设的难题。

(二)信息不对称的加剧,导致权力-权利之间的不匹配

信息不对称是信息经济学的一项重要理论,指某些信息缔约当事人一方知道而另一方不知道,甚至第三方也无法验证,即使验证,也需要巨大的人力、物力和精力[8]。同时,这种不对称也将激发陌生人之间交易的不确定性和机会主义行为,随之产生的信息成本又成为了交易成本的一部分[9]。成本的增加反过来加剧了信息的不对称,而“数据是新型石油”[10],谁掌握的基础数据量大,谁就拥有更大的算法权力,谷歌、亚马逊、Facebook、阿里巴巴、腾讯等网络巨头的涌现即是明证。显而易见,目前这些数据控制者与数据主体之间呈现的信息不对称史无前例。根据海量信息,数据控制者可以设计、使用算法对广大信用主体进行评价并作出决策,却只对决策结果负通知义务。如美国广泛采用的自动化信用评分系统被认为对女性与少数民族裔等弱势群体构成了系统性负面影响[11]14-15。但这些负面影响如何形成、如何消除,相对人群却知之甚少也束手无策。正如有学者所言,数据控制者无视监视参与者的同意和知识,以及这种监视所带来的安全性,却独享信息和情报收益,这是一种典型的未经授权的入侵[12]。这种入侵亦会出现在信贷场景中,在贷款申请人看来,信贷流程就是一个黑箱,他们知道提交的材料和得到的结果,却不知道里面发生了什么[13]。算法的日益高端化和算法决策的复杂性,使信用主体面对的信息不对称远高于以往,而其所享有的权利却没有相应改变。这导致了两者之间权力—权利的不匹配,因此需赋予信用主体相应的法律权利来改变这种不匹配的状态。

(三)信用主体的信息自决权被削弱

信息自决权是指每个人基本有权自行决定是否将其个人信息交付和提供使用的权利[14],包括使个人信用信息免受监控和审查以及对个人信用信息的自由转让[15]。理论上,信用主体知晓并同意个人信用信息的自由流转,算法才能在对个人信用信息筛选整合的基础上进行信用评价并作出决策。信息自决权的实质也是每个信用主体有权选择是否将个人信息“让渡”出来,交由金融机构、征信机构和互联网平台进行整合、筛选,完成信用评分和风险评估。这是增强社会的信用风险防控能力,维护市场交易秩序的必经程序。可见,信息自决权与算法自动决策紧密关联,信息自决权的实现关乎着公共利益与私人利益。然而也正因如此,出于算法决策的需要,相对强势的信息控制者往往无视信息自决权的存在,擅自使用与处理信息,这就导致信用主体信息自决权被限制与削弱。社会信用体系建设讲究诚信、公正,即使是政府主导建设,也不能以削弱甚至忽视信用主体的正当权利为理所当然。算法解释权赋权于信用主体,是能使信息使用与处理的决定权从信息控制者向信用主体适当倾斜的有效手段。

我国信用体系建设要求全覆盖,算法社会中的每个信用主体的行为都会作为信用数据被记录,由算法监控、整合、使用并作出决策,算法决策直接关系信用主体的利益。自然人作为主要的信用主体,本就相对弱势,若决定其信用评价的信用信息客观公正性无法保证,且只能单方面承受与服从算法权力,则其基本的信息权益得不到保障,显然不利于建设公平公正的社会信用体系。赋予信用主体算法解释权既是保障其权益实现的重要手段,也能为我国顺利完成社会信用体系建设添砖加瓦。

二、社会信用体系建设场景中算法解释权的构造

构建算法解释权,须明晰其权利构造。国外针对算法解释权内部构造的研究不多,大多集中于从GDPR相关规定的角度对算法解释的可行性和算法解释权的外部属性阐述观点[16]。国内有学者立足于商业自动化决策对算法解释权的权利主体进行了分析[17]72。本文联系GDPR相关条款,对社会信用体系建设场景中的算法解释权主客体以及权利内容进行解构。

(一)主体

从我国民法学上法律关系的角度来看,算法解释权的主体可一分为二,即权利主体和义务主体,前者是针对算法决策可以获得解释的权利人,后者是指作出相应算法解释的义务人。就设计算法到算法运用至作出决策的整个过程来说,算法解释权的主体应包括算法设计者、算法使用者和算法决策相对人。前两者是解释权的义务主体,算法相对人为权利主体。

社会信用场景中,信用主体是算法决策相对人,鉴于目前我国相关规范性文件如《个人信息安全规范》中“系统自动决策机制”条款的保护对象限于个人,本文仅讨论以自然人为算法相对人的信用主体。具体来说,可能是凭借信用向银行借贷的申请人,由算法自动评估而被决定聘用与否的求职者等。而算法设计者或使用者不管是自然人、法人或其他组织,其开发或运用算法围绕相对人进行信用评价,以获得决策结果为目的,故而是应承担算法解释的义务人,包括征信机构、金融机构、民间借贷企业、保险公司等。另外,算法设计者与使用者在一段时间内可能具有同一性,但随着社会分工的细化,算法设计者的开发工作与算法使用者的决策工作之间的关联也渐趋复杂,二者往往会趋向于不具同一性,此时,算法设计者仍负有协助解释的义务。

(二)客体

对权利客体和权利对象是否应相区分,学界尚存争议。通常来说不区分“权利客体”与“权利对象”,权利的客体是物、行为、信息等具体对象。但有学者认为应该区分权利客体与权利对象,因为前者是一个抽象的范畴,是指体现在各种权利对象上的人格利益或财产利益;后者是一个相对具体的范畴,包括承载各种财产利益或人格利益的物、行为、信息等载体。对特殊权利对象可以同时给予人格权和财产权双重权利保护,从而为个人信息商业价值的法律保护提供有力的理论依据[18]。这与“信用兼具人格属性与经济价值”[19]的观点不谋而合。这样的区分逻辑对探讨社会信用场景中的算法解释权大有裨益,可视算法解释权的权利客体就是它本身,具体表现为算法相对人权益可能或已受到不利影响时,请求算法设计者、算法使用者为或不为一定行为,它兼具人格利益和财产利益的双重属性。而算法解释权的权利对象则是算法使用者、设计者就算法决策作出的解释。解释的内容关涉个人信用,应予以双重保护。

(三)权利内容

通常认为,对算法的解释一般遵循两种模式,一种以模型为中心,另一种以主体为中心。前者要求算法使用者承担设置信息、性能指标、预估的全局逻辑以及处理信息等解释义务;后者要求围绕主体的敏感度、具体案例、绩效为中心作解释[20]。以模型为中心的解释可以在决策作出前或之后进行,而以主体为中心的解释主要发生在决策作出后。有观点提出可将针对算法决策的解释内容构建成两个层次,一为事后具体解释,二为事后更新解释[17]72。这是将算法解释适用第二种模式,即认为对算法决策作出后的具体解释才是有意义的解释。这样的考虑固然有一定的道理,但对算法解释两种模式的划分并非意味着行使算法解释权时只能对两者之一选择适用,而是意在明确各阶段的算法解释标准与内容。若只着眼于对具体决策作事后解释,不仅有割裂算法运行整体逻辑与特定决策结果间的紧密联系之虞,而且不利于保障数据主体的事先知情权。

分析GDPR相关文本,换个角度也可以发现,以算法决策的作出为分界点,算法解释权并非仅限于事后解释,还应包括事前解释。GDPR第13条第2款第6项指出:“数据控制者至少应提供关于决策所运用逻辑的有用信息、该处理的重要性以及对数据主体可能造成的后果。”这一规定意在创建数据控制者的通知义务[21],是从义务主体的角度对数据控制者在决策前的告知事项提出要求。GDPR第15条第1款第8项要求“数据主体至少有权获得有关逻辑信息、该处理的重要性以及该处理对数据主体可能造成的后果。”这是从权利主体的角度反向规定了数据控制者的事前解释义务,两个角度相互印证。且根据以上条款的表述,应将文本中“决策所运用逻辑的有用信息”与“对数据主体可能造成的后果”理解为并列的意思表达,即设计者或使用者拟对相对人使用算法前,应对整个算法决策所涉逻辑信息、决策的重要性以及可能造成的后果明确告知,便于相对人就算法过程形成大概了解、预测可能的结果以及决定是否行使其他数据权利。

算法相对人享有的算法解释权应包含事前解释,这点在信用场景中尤为必要。社会交往日益讲究诚信,信用主体可能明白何为失信行为,对失信行为引起的后果的严重性却不一定了解。譬如信用卡的使用,哪怕逾期欠款仅一角也会影响个人征信,持有者将长时间内无法办理如房贷等重要银行业务。一种可能的实现方式是,无需设定特定的信用主体为得到告知性解释的相对人,而将相对人预设为不特定的目标人群,广而告之,争取将事前解释的作用最大化。目标人群接收事前解释后仍进行相关行为即代表其初步认同与接受算法的运用与决策。当决策产生不利影响,相对人可再度要求算法解释义务主体针对特定决策环节作更为具体的解释。信用场景中的算法解释权应包含两个阶段的解释,即事前一般的告知性解释和事后特定的针对性解释,更能形成算法解释权在特定领域中的完整逻辑。

三、社会信用体系建设场景中算法解释权的应用

社会信用体系建设涵盖政务、商务、社会诚信以及司法公信等领域,随着算法的广泛应用,两者的交集愈加密切与深入。当前,算法决策已经应用到金融信贷、线上交易、教育、医疗等诸多行业,且在广度上还将不断拓展。本文选取金融信贷、保险服务、求职就学三种常见且与大众密切相关的场景,考察算法解释权应用于社会信用体系建设场景时权利主体与义务主体之间的关系及算法解释权的作用,各具体场景对应的主体见表1。

表1 社会信用场景中的算法解释权主体

(一)金融信贷

随着互联网业务的不断更新升级,很多线上信贷公司借助用户的社交媒体和购物记录等信息对金融消费者作信用评价,以此决定是否对其发放信贷、确定额度高低。此外,银行、保险、证券、信托、基金等行业的传统金融机构也在应用算法进行信用评估,以更好地指导风险预测、评估和防控。信贷公司、金融机构通过购买、共享服务等方式,与芝麻信用、腾讯征信等信用评分系统或征信机构合作,对金融消费者的借贷意愿及还款能力作出评估,继而为其提供快速授信及现金分期服务。这种情形下,算法设计者、使用者虽不具有同一性,作为信用主体的金融消费者仍可以选择向算法设计者行使解释权。因为作为第三方的征信机构或信用评分机构实际参与到了算法决策过程中,也应纳入算法解释权义务主体范围。

算法解释权要求金融机构、信贷公司等承担对算法决策的解释义务,这在一定程度上可以抵制算法设计者与使用者的歧视性做法。金融市场的歧视性做法主要表现为价格歧视和市场分割。以价格歧视为例,这是一种向负担得起的人出示高价,向负担不起的人出示低价的差别做法。表面上看它似乎是购买力较低的消费者的福利,然而,并非所有的价格歧视都有益。信贷公司可以利用价格歧视向陷入重大财务困境的信用主体发放高息贷款,因为算法精准地预测此时信用主体愿意“付出”更多来寻求可能的转机,但是这种愿意并非因为其实际购买力提升,而是出于解决问题和走出困境的迫切心理,若盲目选择贷款,信用主体将很可能陷入财务状况的恶性循环。根据前文所提算法解释两种模式的内容,信贷申请的场景中,信用主体在决策作出前可以要求获得解释,以普通人可理解的方式获知算法的功能和运行的逻辑(比如影响决策的信用信息类型、特征)、算法的目的和意义,以及预期后果(是否发放贷款以及额度、利率的确定)。通过详细解释,信用主体可以判断自己是否遭受了价格歧视,从而谨慎决定借贷与选择机构。

(二)保险服务

保险服务通过签订保险合同确定。保险合同是保险人和投保人约定保险权利义务关系的书面协议,通常以格式合同的形式签订,因而具有高度的信息不对称性。保险合同中的投保人处于信息劣势方,即便保险人遵照格式合同的规定主动履行告知义务,但实践中保险人的告知通常以签订合同为目的,其导向往往是夸大投保人利益保障、回避自身责任,因而导致告知保险事项时避重就轻、含糊其辞。合同签订后,若产生争议,最终解释的标准和决定权在保险人一方,被动的投保人容易陷入无处说理的境地。算法解释权是纠正信息优劣方在算法决策中不平衡关系的有效工具。投保人享有解释权,能有效促使保险人在原本告知事项基础上,谨慎履行事前与事后就决策尤其是不利决策的形成和原因的解释义务,也有利于提高大众对保险行业的信任度。

以保险服务中的车险为例。假设甲想给汽车投保,保险公司A在与甲签订合同之前要对甲进行信用评分。A的算法决策系统收集与分析甲以前驾驶行为(例如是否发生过车祸或其他交通违法行为)的信用数据,并按既定的标准评级。根据评分结果,A将决定是否与甲订立保险合同,确定可以向甲提供的保险费率。在A根据甲以往驾车的信用信息画像,得出信用评分的自动决策前后,甲都应有权获知自身驾驶行为与保险金额、费率之间的关系,并了解和预知违约责任和争议处理等重要事项的信息。A与甲合同中的这些重要事项关乎甲的人身权与财产权,不论合同签订前或签订后,甲要求A公司就影响这些事项的决策因素与逻辑作出适当解释,既符合保险合同所应遵循的最大诚信和有力解释原则,也是可以规制算法决策正当且必要的保障程序。

(三)求职与就学

求职与就学这两者不是典型的信用场景,一并归于此讨论是因为,近年来失信行为对求职与就学的不利影响受到越来越多关注。个人信用虽不是获得任职或就学资格的决定因素,却能对资格的失去产生重要影响。这两种场景中,个人能力、学历、成绩排名等是用人单位或学校录用时首要且着重考虑的因素,良好的信用似乎只是锦上添花,但这并不意味着可以忽略信用因素对求职与就学的影响,因为不良的信用记录可能使其功亏一篑。求职的场景中,若算法认定应聘者存在拒服兵役、频繁跳槽或涉及商业秘密纠纷等行为,这些往往会成为决定对其不予录用的关键原因。而就学场景中,申请者的准入门槛以成绩排名为基本标准,但若存在考试作弊、学历造假或家长被列为失信被执行人等情形,也会导致其失去就学资格。

当算法决策应用于招聘筛选与审批求学申请,如果招聘单位或学校没有任何人为干预自动拒绝网上应聘或申请,应聘者、求学者有权就此提出异议。但对他们来说,仅仅反对并不能解决问题。若享有算法解释权则大不一样,他们可要求应聘单位或学校就拒绝的决策原因作解释说明,并就他们认为有疑义、错误或不公的决策予以更正或删改。这有利于改善就业与求学歧视,提高求学、就业机会的公平。可以发现,求职与就业场景下,与信用有关的算法自动决策不仅影响公权与私益的权衡,还事关招聘单位与教育机构的公信力。美国著名的教育平权案件Grutter案、Gratz案和Bakke案,反映了高校招生的政策既是维护基本权利的法律问题,也是一个算法问题[22]。设置算法解释权为普通民众提供一个了解招聘规则与招生政策的正当途径,可以适当兼顾这种权衡,为求职、求学者平等享有基本权利提供有力的保障,也有助于提高招聘单位和高校等教育机构的公信力。

四、社会信用体系建设场景中算法解释权法治保障困境

算法解释权应用于社会信用体系建设场景,能有效发挥防止算法歧视、促进信息公平、保障相对人权益的作用,但要实现这一新型权利的本土化构建仍存在很多困难。实现算法解释权作为法律权利的制度化是首要解决的难题。其次,当面对多类型的社会场景如信用体系建设场景时,算法解释权的适用还面临两个主要的问题。

(一)算法解释权的适用标准尚不明确

随着人工智能的飞速发展,算法在自动决策体系中的主导地位将毋庸置疑,在算法自动决策对我们的生活形成全方位渗入的情况下,算法决策相对人首先必须知悉算法解释权的适用标准,才能明白如何进一步维护自己的权益。况且,倘若权利的启发点即适用标准不明,相对人动辄频繁行使解释权,只会使算法义务主体陷入无尽解释的循环中,即使技术上可行,也会在实践中增加解释成本,造成资源浪费。因此,需要设置合理的适用标准,作为维护权益、行使解释权的“敲门砖”,也为防止权利滥用把关。GDPR第22条是目前公认的关于规定解释权适用标准的条款。即针对完全基于自动化处理的、对数据主体“具有法律影响或类似重大影响”的决策,数据主体享有反对权。此外,GDPR第71条也提及对“产生显著效应”的算法决策,可以请求算法解释权。但遗憾的是,根据这两个条款的表述,我们尚无法明晰关于“法律影响或类似重大影响”或“显著效应”所代表的确切意思。因此,严格来说,GDPR中对解释权适用标准的规定还不够明确。

我国尚未有涉及算法解释权的正式法律出台,但2020年10月1日实施的《个人信息安全规范》第7条第7款中规定,个人信息主体有权“对个人权益造成显著影响的(例如自动决定个人征信及贷款额度,或用于面试人员的自动化筛选)自动决策结果”进行投诉,且可以申请“人工复核”。这在一定程度上可以视为有关算法解释权内容的初步规定,然而其“造成显著影响”的适用标准指向亦不够明确,实践中容易掺杂过多主观因素。我国10月21日公布的《个人信息保护法》(草案)对解释权有所提及,即第四章第48条:“个人有权要求个人信息处理者个人信息处理规则进行解释说明。”这是我国对个人信息保护立法一大进步。草案条文赋予个人提起解释的主动权,在一定程度上肯定了个人对信息处理规则的知情权,但一方面草案的解释权仅针对信息处理规则,未扩及整个算法自动决策,另一方面亦未对信息处理规则解释的适用标准作进一步细化规定。

(二)算法解释权的适用阶段与界限模糊

算法决策并非一蹴而就,整个过程包含的内容专业且庞杂,相对人无法在短时间内接受,权利的可行性会大打折扣。为了最大限度保证解释权的实现,具体解释的内容如何循序渐进分阶段进行,前文第二章已略有提及。对一些特殊的尤其是涉及商业秘密的算法决策,解释的界限在哪里?目前尚无定论。GDPR实施以来,欧洲各地的法院判例中并未明确划定算法设计者或使用者必须披露的信息类型与范围。德国SCHUFA59判决显示,信用主体无权彻底调查基于自动处理的信用评分的准确性,因为其基础公式受商业秘密的保护[23]。以此看来,解释权的适用目前大概率被要求止步于知识产权与商业秘密。正如国内有学者的研究指出,知识产权或商业秘密是算法解释权的禁区[24]。但这个禁区因美国威斯康星州卢米斯上诉一案受到广泛质疑而逐渐打破。涉案被告人卢米斯在上诉中质疑COMPAS软件的准确性与科学性,要求获知影响自己评分的因素所占权重以及软件运行逻辑。但其诉求被软件开发者以此类信息属于商业秘密,具有专有性为理由拒绝。威斯康星州最高法院最终驳回卢米斯的上诉,维持原判。然而,同时主审法官也承认,在未来的案件审理中应对风险评估算法的使用提供充足的程序性保障措施,包括在预测报告中明确评估的优势、相关性以及不足。威斯康星州最高法院没有支持卢米斯获知软件运行逻辑的诉求,表明相对人的知情权仍不足以对抗算法设计者对商业秘密的独占性,但是显然法院也意识到了相对人的知情权与知识产权之间存在僵持的关系需要调和,否则难以体现程序正义和法律对算法相对人正当权利的保护。

我国司法实践中一些审判表明司法机关在涉及商业秘密的案件中已重视算法解释,保护相对人的正当权利。如庞理鹏与北京趣拿信息技术有限公司等隐私权纠纷案中,庞理鹏上诉,其通过北京趣拿信息技术有限公司(以下简称趣拿公司)与中国东方航空股份有限公司(以下简称东航)的旅客服务系统购买机票后,姓名、电话、行程等个人信息被泄漏并遭遇诈骗,要求两公司承担侵犯隐私权责任。二审北京互联网法院认为,一审法院虽认定事实清楚,但举证责任分配不当。庞理鹏作为旅客,对信息及证据的掌握尤其是趣拿公司与东航旅客的服务系统方面明显处于极不对等的劣势地位,应由两公司就自身系统无漏洞或其员工不存在侵权行为负举证责任。但两家公司未能就此举证,因而无法排除其所用系统泄漏旅客信息的高度可能性,最终北京互联网法院判决支持了庞理鹏要求两家公司向其赔礼道歉的诉求。正如有学者提出,使用算法自动决策,至少应该向受算法决策不利影响的当事人进行充分且有意义的说明,使其有机会介入算法评估过程,了解算法预测类型、输入数据以及算法逻辑等信息,以便他们对阻碍其获得信贷、工作、住房或其他重要机遇的算法决策提出质疑或挑战[11]26-27。近年来,类似案件如任甲玉诉百度网讯科技公司名誉权纠纷案的判决也表明,我国司法实务中,司法裁判者在审理有关算法决策的案件时,已关注到算法解释的重要性,并且在个人权利保护与商业秘密、知识产权相抗衡的问题上,开始呈现适当倾向于保护个人权利的趋势。

五、社会信用体系建设场景中算法解释权法治保障路径

沿着规制算法权力、保护信用主体权益的逻辑,构建算法解释权并为其提供法治保障,乃是一种积极的探索。对算法解释权施以法治保障不能对域外立法相关内容全盘接收,而应结合我国的具体国情,有选择、有鉴别地予以参考。国内有不少学者对此发表了高见,或结合算法解释权蕴含的规范价值对其本土化路径提出了建议[3]1437-1444,或围绕多元化的算法决策规制手段建构周边相应机制[25]192-193,或探究社会信用体系建设场景中算法解释权的适用路径[2]84-102,但对算法解释权法治保障路径的研究鲜见。基于此,结合算法解释权适用所面临的困境,可从以下三个方面探讨为社会信用体系建设场景中的算法解释权提供法治保障的问题。

(一)明确算法解释权的法律地位及适用标准

权利就是法律要保护并且予以强制执行的主张[26]。法治国家中,一种权益只有被法律认可才能转变为真正受保护的权利。因此,必须在立法上引入算法解释权,这需要先为算法解释权这一权利定位。

有研究指出,创制算法解释权是为了平衡算法使用者和相对人之间的不平等,为相对人提供额外救济制度,以达成实质平等[27]。另有研究提出,算法解释权应被理解为个人数据“权利束”的一部分,其内含于“个人数据保护权”,强调本人对个人数据及其处理的控制[25]187。上述观点中,将算法解释权视为救济权是针对商业自动化领域原本处于平等关系的使用者与相对人提出,视为意思自治的民事合同出现损害结果时设置的补救方式,这无可厚非,却不适用于所有的信用场景,譬如求职、就学等存在不平等关系的场景中,当不可逆的算法伤害已经产生,再寻求救济可达到的补救效果毕竟有限。而以个人数据“权利束”为算法解释权定性有一定道理,但应用于信用领域的算法解释权也不能完全视为个人对其相关数据拥有控制权。算法解释权行使初期表现为一种知情权,如前文所言,权利的适用标准按GDPR的规定具有不确定性。鉴于算法规则及决策本身也须以信用主体的信任与接受为基础,不妨将算法解释权适用标准的决定权适当让位于作为相对人的信用主体。即只要信用主体质疑某项决策可能或已对自身构成法律上或其他不利影响,可向使用者表达异议,获得相关说明与解释。其后,当信用主体进一步请求更正错误或不当的算法决策时,算法解释权不再是一种纯粹的请求权,继而随之触发其他多项数据权利,例如更正权、反对权、删除权等,这些可随之行使的相关权利在GDPR第13-14条、第16-17条、第21条等条款中亦有涉及。综上,行使算法解释权的信用主体拥有了解算法、提出异议乃至对不当决策要求更正或删除的权利。因此,算法解释权实质上更倾向于是一种糅合了多方面权利的复合型权利,当信用主体质疑某项决策可能或已经对自身构成法律上或其他不利影响时,即可要求算法使用者履行解释义务,并视情况行使后续权利。

数据是构成算法决策的核心元素,算法决策建立在对数据进行自动化处理的基础上。GDPR对算法解释权的规定聚焦于数据,绕开直接规制复杂的算法,转而赋予数据主体获得算法解释的权利,从而把算法的规制问题放在数据保护的法律框架内进行。我国可以参考这种立法经验,在已进入立法规划的《个人信息保护法》中予以借鉴。个人信用信息包含于个人信息,《个人信息保护法》也是社会信用体系建设进程中的一部重要法律,可进一步在个人权利的章节中细化相关内容作为算法解释权立法的切入点。一方面,明确信用主体可能受到决策不利影响或已受到不利影响时有权向算法设计及使用方提出异议,获得解释。另一方面,对使用者的解释义务作相应规定,减少自动决策过程中的歧视与侵害风险。同时还应考虑到,算法解释权并非用来增强信用主体对个人信息的绝对控制权,不能妨碍信息的平等自由以及公众必要的知情权,也须注意防范信用主体滥用解释权。

(二)完善算法决策事前事后解释的具体设计

算法解释权上升为法定权利后,需对其具体设计作进一步规定。学界的研究目前大多聚焦于如何完善算法解释权的事后解释,达到权利救济的目的。如本文第二部分所述,以算法决策是否作出为分界点,可将信用场景中的算法解释划分为事前、事后两个阶段,在不同的阶段应匹配相应的解释内容。事前的算法解释须对算法决策运行过程作整体说明,具有抽象性。而事后的解释则是对产生不利影响的特定决策环节作出解释,更为具体。即实现算法解释权可以遵循这样的流程:对算法相对人作出自动决策之前,算法设计者或使用者应告知其拥有行使算法解释权的请求权利,此时算法相对人可以选择请求事前或事后解释。选择事前解释,则算法决策形成前义务主体应主动提供告知性解释。这种解释无须由相对人提起请求,应具有一般性与代表性,使相对人知晓自身参与的算法决策系统的设计目的、影响决策的因素等,做好积极应对算法决策可能带来的影响的准备。而事后解释主要针对特定算法决策如何作出而提供详细的说明,这是由特定相对人按照一定程序提出,此时的解释可以同时面向系统和特定决策[28],为相对人表示异议后维护权益打好基础。

当算法应用于信用体系建设场景,算法解释权的实现可通过这样的流程保障。算法事前的一般解释应包括个人信用画像的获得,算法决策的依据、理由以及作出决策的规则与程序等。通过这一阶段的解释,信用主体可以知晓形成的信用画像是否客观,算法是否合法,是否存在歧视因素以及可预估的算法决策结果及影响等问题。而事后的特定解释则是算法使用者应信用主体要求,在事前解释的基础上就其对产生不利影响的决策结果存疑或认为有误之处作出更具针对性的解释,例如:信用主体某些关键信息在信用画像中所占的比重、比重设置的原因及合理性等必要事项。经过针对性解释,信用主体清楚自身具体信用行为对算法决策的影响程度,以及所得信用评级产生的原因。当然,这些解释事项不强制要求包括有关知识产权的内容,因为保护商业秘密等知识产权本是遵循社会信用的应有之义,制度设计中可将算法解释涉及的这类内容划为不予披露的事项,作为解释的界限。但这只限于需要大范围披露商业秘密的情形,倘若仅是在个案中则应审慎处理。如卢米斯案中,COMPAS软件开发者作为算法设计者未直接参与算法决策,可不负主要的解释义务,但一审中威斯康星惩教署按照软件评估将卢米斯的风险等级认定为“高风险”,且提出以此作为量刑参考,威斯康星惩教署作为软件使用者应承担解释软件算法原理的义务。况且,若只是单独向受到算法决策不利影响的信用主体披露相关信息,既没有证据表明也并不必然会对使用者的利益造成损害或阻碍创新。毕竟类似可能产生的危害还能以要求信用主体遵守保密规定的方式来避免[29]。总之,为算法解释权提供法治保障既应实现事前、事后解释的无缝衔接,也应注意避免一刀切地以知识产权为界限制其适用,如此,才能避免“架设空中楼阁”。

(三)配备算法解释权主体的监督机制

权利的另一面是义务,违反法定义务必然要负法律责任,然责任不明、不受监管的法定义务容易变成一纸空文。社会信用体系建设场景中,算法相对人或设计者及使用者都是建设的参与者,其权利的实现或义务的履行须有相关监督机制保证。

算法设计者与使用者作为义务主体,是主要的被监督对象。若其拒绝履行算法解释义务,也是一种失信。因此,有必要对其义务的履行进行督促。征信管理机关可以对相关机构、企业进行预先算法评估,并且指定具备资质的机构对其是否履行应尽义务进行监管。对于拒绝提供合理解释的义务主体,根据法律责任条款,由主管机构实施惩罚性措施,以保护信用主体合法权益。《数据安全法(草案)》第六章“法律责任”(第41-48条)对负有数据安全保护法定义务的主体违背法律规定所应承担的责任作了比较详细的规定,算法解释义务主体履责的规定可对此进行参照。

另外,算法相对人虽是权利主体,但并不代表其请求解释的权利可以任意行使,对其加以适当的监督也非常有必要。算法解释权在初期表现为一种知情权,而在知情权保护的实践过程中,存在滥用知情权的情形[30]。因而,监管机构可以对算法解释的请求进行初步审查,审查的内容包括该请求是否符合权利适用的标准与范围,同时还可视具体情况要求相对人就自己受算法决策不利影响的客观情况负必要的举证责任,以便减少时间成本,防止浪费社会资源。

社会信用场景中涉及的贷款、就业、保险等信用信息具有特殊性和敏感性,以此为基础的算法自动决策直接关乎个体的切身利益,不能仅仅依靠算法设计者或使用者的自律,也不能忽视相对人滥用解释权的可能,必须借助外部力量进行监管与督促,以保障算法解释权在法治轨道内正当行使。

六、结语

大数据与算法结合的现代社会,算法权力已成为新型社会权力,算法的设计者、使用者无疑是这一新型权力的“拥有者”。算法决策能有力推进社会信用体系建设,但反过来也可能侵害信用主体的权益。为了抑制与平衡算法社会中信息不对称、地位不对等的态势,赋予信用主体算法解释权不失为一个良策。社会信用体系建设覆盖面广,又兼涉公益和私益两端,算法解释权作为一种预设的新型权利,其构造与法治保障应考虑到这一点。算法解释权的行使可以触发多项权利的提起,一方面,倘若将算法解释权仅仅作为一种事后救济机制远远不够,在适用阶段上,算法解释权应适当前移方能较全面地维护信用主体权益,达到抑制与平衡的效果。另一方面,与掌握信用信息的算法使用者相比,信用主体处于弱势地位,为确保解释权的实现,及时的监督介入非常有必要。同时,为了避免解释权的滥用,对信用主体行使解释权加以必要的限制也不可缺。总之,社会信用体系建设背景下加快为算法解释权提供法治保障,有利于规制算法权力,促进社会利益与个人权益的良性互动。以此为契机,算法决策亦能与社会信用体系建设达成共识和共赢。

猜你喜欢
解释权信用权利
党内法规解释权授权的规范反思及完善
法律方法(2022年1期)2022-07-21 09:20:40
为食品安全加把“信用锁”
我们的权利
信用收缩是否结束
中国外汇(2019年9期)2019-07-13 05:46:30
论不存在做错事的权利
法大研究生(2018年2期)2018-09-23 02:19:50
信用中国网
信用消费有多爽?
权利套装
Coco薇(2015年12期)2015-12-10 02:43:39
理解我国法律解释权的“监督”向度
法律方法(2013年1期)2013-10-27 02:27:04
最高院司法解释权的经济分析
法律方法(2013年1期)2013-10-27 02:27:00