□尹锋林,李玲娟
(中国科学院大学 公共政策与管理学院,北京100049)
传统上的算法概念主要存在于数学范畴,是指解决一个数学问题的一系列步骤。随着计算机的问世和快速发展,人们不仅可以直接利用计算机通过算法完成复杂的数值计算问题,而且还可以用数值表达文字,进而利用计算机通过算法解决某些非数值计算问题,比如对温度进行控制,识别用户的门禁权限,对用户咨询的问题进行分析并应答,根据用户指令向第三方转账等。在信息社会,算法已经不再局限于数学范畴,算法对社会、经济甚至政治生活的影响越来越广泛和深入,对算法进行治理的需求也相应地越来越迫切[1](p8)。
从治理主体角度进行分类,可以将算法治理分为公共治理和私人治理两大类。算法公共治理是指公权机构为了实现公平公正和社会效率而对算法进行治理的行为,比如立法机关通过立法对算法进行规范,行政机关通过具体行政行为对算法进行纠正等[2](p17-22)。算法私人治理是指公民、企业等私权主体依法对算法进行治理的行为,比如企业对自己开发的算法进行修改完善,公民对政府或企业的算法行为提起诉讼等。由于私权主体是算法的直接受影响者,可以最先且最直观地感受到算法的影响和好坏,同时,也最有动力纠正不合理的算法,因此,算法私人治理不仅是私权主体维护自身权益的重要手段,而且对于实现公平公正、维护社会公共利益具有重要意义。
算法私人治理的治理主体可以分为以下三种类型:一是开发或使用算法的企业;二是行业协会;三是受算法影响的企业或公民。
在很多情况下,开发或使用算法的企业为了自身经济利益有动力对其算法进行自我治理。比如,为了便利或吸引更多的用户,企业会时常修改其算法来优化服务流程,或者修正其算法以减少对用户个人信息的过度索取[3]。当然,企业对其算法的自我治理是以其利润最大化为前提的,企业优化或修改其算法的主要考量因素是其短期、中期和长期利益。企业治理算法除了要考量治理收益之外,还会考虑到治理的成本。企业算法自我治理成本既包括对算法进行修改或完善所需要投入的直接成本,如方案设计论证成本、程序员工时成本等,还包括算法改变后未来收益的可能损失等间接成本。
在考量企业算法自我治理的收益与成本时,还应考虑到相关法律政策和受算法影响的主体对企业现有算法的容忍程度。如果法律政策对企业算法的规制力度较弱,企业违规成本很低,这样,如果一个企业对其自身算法进行比较严格的自我治理而其他竞争性企业不进行自我治理,那么进行自我治理的企业就有可能在市场竞争中处于劣势地位,从而出现“劣币驱逐良币”的问题。同样,如果大多数用户对算法问题容忍度高,不对算法开发者或使用者采取积极的应对措施,那么也会变相纵容企业不对其算法进行严格的自我治理,进而形成“坏”算法—用户默许—企业获利—竞争者跟进—“更坏”算法的恶性循环。
行业协会是同一行业的企业、个体商业者及相关单位自愿组成的民间性、自律性的组织。行业协会具有民间自治性的特点,即行业协会根据有关法律法规,自主地享有应有的权利,实行自我管理,开展各种与宗旨相符的活动,独立承担相应的责任;同时,行业协会还通过内部组织机制的运行,规范其成员的行为,实现其团体内的秩序,并使其团体内秩序与法律秩序相协调、相补充[4](p198)。在算法私人治理过程中,行业协会的作用至关重要。
行业协会汇集了同行业的竞争者,代表本行业经营者共同的长远利益,因此,在单个企业担心出现“劣币驱逐良币”现象而对其算法进行自我治理的动力不足的情况下,行业协会就可以组织竞争者讨论并形成对相关算法进行自我治理的行业标准或行业最佳实践。这些由行业协会组织制定的有关算法的行业标准或行业最佳实践,能够在一定程度上摆脱单个企业的自身利益考量,实现企业、竞争者、用户各方利益的平衡。例如,为了防范互联网金融企业过度索取用户个人信息,特别是防止企业通过“爬虫”程序违规搜集用户个人信息,2019 年11 月中国互联网金融协会向会员单位发布了《关于增强个人信息保护意识依法开展业务的通知》。该通知事实上就是一个行业规范,从互联网金融行业整体利益角度对相关企业获取用户个人信息行为做出了明确规范和指引,进而解决了仅靠单个互联网金融企业难以实现的对“爬虫”算法进行自我治理的问题[5]。
受算法不利影响的企业或公民对算法具有最强烈的治理意愿。当用户受到经营者算法的不公平对待或不利影响时,其第一想法显然都是应对该算法进行治理和完善,以维护自身权益。但是,在现实中又存在一个奇怪的现象:一方面受影响的主体对算法有强烈的治理意愿,另一方面受影响主体主动对算法发起治理行动的案例又极少。之所以存在这一现象,主要原因在于受影响主体对算法进行私人治理的成本与收益不对称,进而导致其进行私人治理的内在动力不足。受影响主体对算法进行私人治理的成本包括时间、精力、经济等成本,特别是当受影响的主体是弱小的个体而开发或使用算法的主体是大型互联网平台的情况下,受影响主体对算法成功进行私人治理的成本会更加巨大。与此同时,受算法影响的主体并非仅是对算法进行私人治理的一个个体,而是包括千千万万个个体,这样,一个个体对算法进行成功的私人治理就具有巨大的正外部性,即一个个体对算法进行私人治理取得了成功,受益者就不仅局限于私人治理个体本身,而且还包括其他受算法影响的大量个体。
因此,在建立算法治理的政策和制度时,就应当认真考虑是否需要鼓励受影响主体对算法进行私人治理的问题。如果经过利弊分析之后认为应当对受影响主体的私人治理行为进行鼓励,那么相关政策制度就应确保受影响主体私人治理的收益应大于其治理成本。受影响主体私人治理的收益可以来自两个方面:一是由被治理的开发或使用算法的企业提供。由于受影响主体私人治理的治理成本是由被治理企业引起的,因此,由被治理企业承担治理成本是合理的。二是由治理后的受益者提供。算法私人治理的受益者是受算法不利影响的其他个体,由于他们并未采取实际的治理行动而同时又享受到了他人算法私人治理行为的惠益,所以由他们共同向算法私人治理主体提供一定的利益,也是合理的。当然,由于算法私人治理的主要结果是算法的改善,受益者一般不能从治理行为中直接获得现金利益,因此,如果让受益者自己拿出货币给予私人治理个体,有可能会被大多数受益者所抵制。所以,从现实角度而言,由被治理主体承担治理个体的收益则更加可行。
同时,需要注意的是,企业或公民不仅有可能会受到其他企业等市场主体算法的不利影响,而且还有可能会受到政府部门等公权机构的算法的不利影响。企业或公民在受到公权机构算法的不利影响时而对之做出的积极应对,亦属于算法私人治理范畴。由于公权机构算法相比市场主体的算法而言,其影响更具有普遍性,其效力更具有强制性,因此,对公权机关算法的治理亦应属于算法私人治理的重点和关键。
与公共治理相比,算法私人治理更关注的是治理者的个体权益。算法私人治理的主要目的在于通过对算法进行完善,从而使受算法不利影响的企业或个人的合法权益获得保障。因此,相较于程序正义而言,算法私人治理更加重视的是实体正义和个体正义,即更加注重私人治理对治理者的最终结果。所以,算法私人治理的内容主要涉及与治理者个体利益相关的问题,具体包括算法歧视、个人信息保护等问题。
算法歧视是算法私人治理的主要问题。歧视是指基于某个人或某类人群的特征而给予的不同于他人的、不合理的区别对待。歧视是人权法上的一个重要概念。任何形式的歧视都是基于区分,而区分的基础则是个人或群体的特征。人权法所关注的歧视区别特征主要有种族、肤色、性别、年龄、语言、宗教、国籍、财产、身份、社会阶层、政治观点等。在这些区别特征中,有的是天赋的且不可改变的,如种族、肤色、性别等,有的则是可以改变的,如国籍、语言、财产等。个人或群体的这些特征是发生歧视的前提,但并不是所有形式的区别对待都是歧视性的,人权法所反对的区别对待是建立在不合理的、不公正标准之上的区别对待[6](p143)。在信息社会,算法已经成为政府与企业、政府与公民、企业与企业、企业与消费者和公民之间进行交流和事务处理的重要的辅助手段。算法在辅助处理社会主体之间的各种事务时,看似没有主观感情,不会故意区别对待相关社会主体,但是,由于算法决策是一种自动化的系统,因此,一旦算法本身存在歧视问题,那么就会迅速产生系统性的歧视问题。这种系统性的歧视问题,不仅隐蔽,而且难以纠正[7]。
导致算法歧视的原因主要有两个方面:一是算法之内的原因;二是算法之外的原因。算法之内的原因,是算法自身存在的问题而导致的歧视。算法自身存在的问题又可以分为两种情形:一是算法设计者故意设计存在某种歧视的算法。比如网络销售平台通过对消费者的消费情况和退换货情况进行统计,而系统性地对消费次数多且退货换货次数较少的消费者给予比其他消费者更高的商品报价[8](p17-19)。二是算法设计者本身没有进行歧视的故意,但是由于非故意或算法的内在客观原因不可避免地导致歧视。比如网络销售平台向消费者提供多种网络支付方式供消费者选择,而由于不同的网络支付方式的便利程度有所区别,那么在这种情况下,拥有不同网络支付方式的不同消费者就可能产生不同的网络购物体验。
美国司法系统使用的COMPAS 系统主要作用是预测被告未来的再次犯罪率和危险程度,并根据该系统给出的评估结论决定被告人刑罚的轻重。由于美国黑人犯罪率以前相对较高,因此,COMPAS系统通过对以往犯罪数据的统计,特别是通过机械学习的方式来统计犯罪嫌疑人的某些特征与再犯罪率或危险程度的权重参数,那么就必然会得出黑人种族比其他种族更高的犯罪危险程度权重。根据非营利机构ProPublica 对COMPAS 评分数据的统计分析,也确实得出了“黑人被告有45%的可能比白人被告得到更高的分数”的结论[9](p29-42)。
由于人工智能的本质是通过以往事物的大数据得出事物各因素之间的关联参数,然后再运用这些关联参数对未来进行预测,因此,当事物发生变化时,人工智能得出的结论就会与真实世界产生较大偏差。所以,算法如果仅是根据人工智能得出的结论做出决策,那么就有可能发生“失之毫厘,谬以千里”的现象[10]。
算法本身之外的因素也可能会间接导致歧视问题。特别是当某个特定的算法决策涉及公共服务或准公共服务之时,即使算法本身不存在歧视问题,但是由于算法的使用必须在一定系统和设备上运行,因此,如果该公共服务或准公共服务与算法紧密联系,要享受该公共服务或准公共服务就必须具备能够运行该算法的系统或设备,那么,在这种情况下,算法的存在和使用就会导致对那些没有相关系统或设备的社会主体的歧视。比如,在新冠肺炎疫情期间,有些地方乘坐交通工具要求出示健康码,如果不能出示健康码就不允许乘坐交通工具,那么,在这种情况下,一些老年人由于接受新知识、新科技的能力的限制,不能使用智能手机获取健康码,进而这些老年人就会在事实上被排除到公共交通服务之外[11]。
人是社会关系的总和。个人信息则是公民建立社会关系的基础元素。同时,个人信息随着科技进步而不断丰富、发展和变化。在1876年美国人A.G.贝尔发明电话机之前,电话号码不可能成为一个人的个人信息;而在电子邮件系统发明之前,电子邮箱信息显然也没有必要作为个人信息给予保护。当前,随着信息网络技术、人工智能技术的发展,与自然人安宁、安全有关的个人信息越来越丰富,比如上网记录、地理位置、发布或浏览的信息等内容均有可能成为一个自然人的标识性信息。这些信息一方面涉及个人的安宁、安全和尊严,另一方面又有可能具有重要商业价值[12](p153)。在人工智能时代,无论是对于个人还是信息收集者、信息使用者而言,这些信息均有可能具有显著的实用价值[13](p59)。因此,如何有效保护个人信息数据,既是人工智能技术健康发展和商业利用所面临的重要课题,更事关公民的切身利益。
为了有效保护个人信息,我国于2021年1月1日起生效的《民法典》专门设立了一章来保护公民的隐私和个人信息。《民法典》第1034 条对个人信息的内涵和外延做出了明确的界定。根据该条规定,个人信息是指“以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息”;个人信息具体可包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等信息[14]。
上述个人信息均是算法的处理对象,算法在处理个人信息时必须注重和保障个人信息的安全。根据国家标准化管理委员会发布的《信息安全技术个人信息安全规范》(GB/T35273-2020),算法在处理个人信息时,主要涉及以下几个环节并应遵循如下规则:
第一,个人信息的收集。算法开发者或使用者要处理个人信息,首先就需要收集用户的个人信息。收集个人信息应坚持知情同意原则、合法原则和最小化需求原则。除法律规定的例外情形之外,收集个人信息需要获得被收集信息用户的授权同意。如果间接获取个人信息,则需要对个人信息来源的合法性进行确认。如果收集的信息涉及个人敏感信息,则收集者应取得个人信息主体的明示同意,并应确保个人信息主体的明示同意是其在完全知情的基础上自愿给出的、具体的、清晰明确的愿望表示。另外,收集个人信息不得采取欺诈、诱骗、强迫手段,不得隐瞒产品或服务所具有的收集个人信息的功能,不得收集法律法规明令禁止收集的个人信息。同时,收集的个人信息的类型应与实现产品或服务的业务功能有直接关联,不得捆绑个人信息来强迫用户接受要求,且应以实现产品或服务的业务功能所必需的最低频率、最少数量进行收集。
第二,个人信息的保存。算法的开发者或使用者在保存个人信息时,亦应坚持最小化原则,即个人信息保存期限应为实现目的所必需的最短时间,超出上述个人信息保存期限后应对个人信息进行删除或匿名化处理。同时,在收集个人信息后,个人信息控制者在可能的情况下应立即进行去标识化处理,将去标识化后的数据与可用于恢复识别个人的信息分开存储,并确保在后续的个人信息处理中不重新识别个人。另外,如果存储的个人信息是个人敏感信息,则应采用加密等安全措施,特别是存储个人生物识别信息时,应在采用技术措施处理后再进行存储,例如仅存储个人生物识别信息的摘要。
第三,个人信息的使用。算法系统在使用个人信息时,应该按照最小授权原则对被授权访问个人信息的内部数据操作人员进行使用限制,使其只能访问职责所需的最少够用的个人信息,且仅具有完成职责所需的最少的数据操作权限;对个人信息的重要操作应设置内部审批流程,如批量修改、拷贝、下载等;应对安全管理人员、数据操作人员、审计人员的角色进行分离设置;对个人敏感信息的访问、修改等行为,应在对角色的权限控制的基础上,根据业务流程的需求触发操作授权。同时,算法的开发者或使用者亦应对个人信息的展示、访问、更正、删除等活动设计合理的规则。尤其是在涉及通过算法自动决策而做出显著影响个人信息主体权益的决定时,算法的开发者或使用者应向个人信息主体提供申诉方法[15](p15-18)。
算法开发者或使用者以及相关行业协会是算法私人治理的首要主体,他们对其算法的治理主要是一种自律的方式。比如算法开发者或使用者可以制定算法开发或使用的企业标准,并在开发和使用算法过程中严格贯彻其企业标准,以保障受算法影响主体的合理利益。行业协会亦可以组织企业制定算法治理行业规范,以促进和提升行业内算法开发者或使用者的自律水平。在算法开发者或使用者通过自律方式难以保障受算法影响主体的正当的合理利益时,就需要受算法影响主体通过“他律”的方式纠正算法开发者或使用者的相关行为。这种“他律”的治理方式,更能针对问题的实质,也更能促使问题获得真正的解决,因此,更应重视“他律”治理方式的构建和完善[16](54-58)。诉讼是受算法影响主体对算法进行私人治理的主要方式。具体而言,主要包括以下几种诉讼行为:
在很多情况下,受算法影响主体是算法开发者或使用者的用户,受算法影响主体与算法开发者或使用者之间存在书面的或非书面的合同关系,故二者之间的权利义务应主要由合同条款进行确定。如果合同中有关于不歧视和个人信息保护的明确约定,并且这种约定属于合理、合法的约定,则当算法开发者或使用者违反这些约定时,受算法影响主体自然可以通过合同违约之诉获得救济。
在实践中,一些算法开发者或使用者有可能会在其提供给用户的格式合同中约定用户需要接受其基于用户信息而给出的不同的交易条件;另外,算法开发者或使用者还有可能以拒绝交易为条件要求用户提供与其服务不相关联的个人信息,并在格式合同中约定算法开发者或使用者有权以任何方式使用或处理这些个人信息。受算法影响主体在起诉算法开发者或使用者合同违约之后,算法开发者或使用者则会通过上述格式条款进行抗辩不构成违约。针对上述格式条款,受算法影响主体可以依照我国《民法典》通过下列三种途径进行应对:
第一,受算法影响主体可以主张对其不利的格式条款不构成合同内容。根据《民法典》第496条规定,提供格式条款的算法开发者或使用者应当遵循公平原则确定当事人之间的权利和义务,并采取合理的方式提示对方注意免除或者减轻其责任等与对方有重大利害关系的条款;同时,如果合同相对方要求解释说明格式条款的具体含义,算法开发者或使用者应对相关条款予以明确说明。如果算法开发者或使用者未履行提示或者说明义务,致使对方没有注意或者理解与其有重大利害关系的条款的,则对方可以主张该条款不成为合同的内容。
第二,受算法影响主体可以主张相关格式条款无效。根据《民法典》第487条规定,受算法影响主体在以下三种情况下,可以主张算法开发者或使用者的格式条款无效:一是符合民事法律无效一般规定的格式条款应被认定为无效。例如,算法开发者或使用者与无民事行为能力人订立的合同。二是算法开发者或使用者不合理地免除或者减轻其责任、加重客户责任、限制客户主要权利的格式条款无效。例如,算法开发者或使用者与客户约定完全免除其保护客户个人信息的义务的格式条款,由于该格式条款不合理地免除了算法开发者或使用者的主要责任,因此,应该被认定为无效的格式条款。三是算法开发者或使用者排除客户主要权利的格式条款无效。
第三,当格式条款存在多种解释时,受算法影响主体可以主张对其有利的解释。《民法典》第498条规定:“对格式条款的理解发生争议的,应当按照通常理解予以解释。对格式条款有两种以上解释的,应当作出不利于提供格式条款一方的解释。格式条款和非格式条款不一致的,应当采用非格式条款。”因此,在有关格式条款模糊不清,需要进行解释时,则应参考相关行业规范、惯例并从有利于客户的一方对格式条款进行解释。
受算法影响主体在难以通过违约之诉获得救济的情况下,可以考虑通过民事侵权之诉进行救济。对于利用算法进行歧视或损害用户个人信息权益的行为,受影响主体主要可以通过以下诉由主张权利:
一是滥用市场支配地位。根据《反垄断法》第17 条规定,如果算法开发者或使用者对其用户通过算法进行歧视,并且其在相关市场同时具有市场优势地位,那么算法开发者或使用者的歧视行为就属于《反垄断法》意义上的滥用市场支配地位,受影响的主体可以通过反垄断之诉要求算法开发者或使用者纠正其算法并给予相应的赔偿。同时需要注意的是,算法开发者或使用者构成滥用市场支配地位的一个重要前提是其歧视行为或差别待遇行为没有合理的理由;换言之,如果算法开发者或使用者具有合理理由对用户给予差别待遇,那么就不属于滥用市场支配地位,比如,算法开发者或使用者针对新用户的首次交易在合理期限内开展的优惠活动[17](p22)。
二是不正当价格行为。我国《价格法》第14条规定,提供相同商品或者服务,对具有同等交易条件的其他经营者实行价格歧视,属于不正当价格行为,应当受到禁止。因此,在算法开发者或使用者不具有市场支配地位,且没有合理理由对用户进行价格歧视或差别定价时,则受影响主体可以依据《价格法》主张算法开发者或使用者构成侵权[18](p58)。
三是侵犯消费者公平交易权。我国《消费者权益保护法》第10条规定:消费者享有公平交易的权利。消费者在购买商品或者接受服务时,有权获得质量保障、价格合理、计量正确等公平交易条件,有权拒绝经营者的强制交易行为。因此,如果算法开发者或使用者通过算法给消费者进行画像,并依据画像结果对消费者进行不公平的区别对待,那么消费者就可以依据《消费者权益保护费》寻求救济。值得注意的是,除了法律有明确规定的之外,区别对待行为一般应被认定为不公平行为。因此,在是否构成不公平的区别对待的举证责任问题上,消费者仅对区别对待问题负有举证责任,而算法开发者或使用者应举证证明该区别对待行为具有正当性,否则,就应认为该区别对待行为不具有正当性。
四是侵犯个人信息权益。个人信息权利是我国《民法典》所规定的一项重要民事权利。算法开发者或使用者在收集、保存、利用个人信息时如存在不当行为,受算法影响主体则可以侵犯个人信息权利为由获得救济。《民法典》虽然自2021年1 月1 日生效,但在此之前,我国已有法院明确保护个人信息权益的案例。例如,“微信读书”软件因在未获得用户有效同意的情况下获取用户的微信好友关系,并为用户自动关注微信好友且向共同使用“微信读书”软件的微信好友默认开放其读书信息,“微信读书”软件的用户因此而认为该软件侵犯了其个人信息权益。北京互联网法院一审判决认为“微信读书”软件运营方侵害了原告的个人信息权益,继而判令“微信读书”软件停止收集、使用原告微信好友列表信息的行为,删除“微信读书”软件中留存的原告的微信好友列表信息,解除原告在“微信读书”软件中对其微信好友的关注,解除原告微信好友在“微信读书”软件中对原告的关注,停止将原告使用“微信读书”软件生成的信息(包括读书时长、书架、正在阅读的读物)向原告的微信好友展示的行为[19]。
由于算法影响的人数众多,算法私人治理具有较强的外部性,因此,对算法的治理不应只依赖于单独的个体提起民事诉讼,同时,还应鼓励适格的公益组织通过民事公益诉讼的方式参与算法的治理。《民事诉讼法》第55 条规定,对污染环境、侵害众多消费者合法权益等损害社会公共利益的行为,法律规定的机关和有关组织可以向人民法院提起诉讼。由于受算法影响主体中的相当一部分属于消费者,如果这些消费者因为算法存在歧视或个人信息权益问题而受到大面积的侵害,那么消费者公益组织就有通过民事公益诉讼维护消费者利益的必要。另外,《民事诉讼法》第55 条进一步对检察机关民事公益诉讼作出规定。根据该条规定,检察机关民事公益诉讼的管辖范围是:“破坏生态环境和资源保护、食品药品安全领域侵害众多消费者合法权益等损害社会公共利益的行为。”由于该管辖范围的规定中有一个“等”字,确保了检察机关民事公益诉讼管辖范围的可拓展性,即只要是侵害众多消费者合法权益的损害社会公共利益的行为,检察机关均有职权进行民事公益诉讼[20](p16)。因此,检察机关对于利用算法实行大范围的消费者歧视行为或损害个人信息权益行为亦可以提起民事公益诉讼或对消费者组织的民事公益诉讼行为支持起诉。
在当代社会,随着人工智能技术的快速发展和广泛应用,行政机关不仅对各类主体的算法拥有监管的法律职责,同时,行政机关也是一些算法的开发者和使用者,并越来越广泛地采用人工智能技术辅助行政决策与行政管理工作。因此,受算法影响主体在以下两种情况下可针对行政机关提起行政诉讼:
第一,行政机关未对相关主体的算法履行法定监管职责。根据我国《行政诉讼法》第12 条第1款第6 项规定,申请行政机关履行保护人身权、财产权等合法权益的法定职责,行政机关拒绝履行或者不予答复的,公民、法人或其他组织有权向人民法院提起行政诉讼[21](p35)。我国有很多法律、法规为行政机关设立了法定监管职责。例如,根据《消费者权益保护法》第56 条第1 款第9 项规定,对于侵害消费者人格尊严、侵犯消费者人身自由或者侵害消费者个人信息依法得到保护的权利的行为,市场监督管理部门应责令改正,并可以根据情节单处或者并处警告、没收违法所得、处以违法所得一倍以上十倍以下的罚款,没有违法所得的,处以50 万元以下的罚款;情节严重的,责令停业整顿、吊销营业执照。又如,根据《价格法》第40条规定,对于利用虚假的或者使人误解的价格手段、诱骗消费者或者其他经营者与其进行交易或者提供相同商品或者服务、对具有同等交易条件的其他经营者实行价格歧视等行为,有关行政主管部门应责令改正,没收违法所得,且可并处罚款,对情节严重的,应责令停业整顿,直至吊销营业执照。另外,我国立法机关正在制定《个人信息保护法》和《数据安全法》,这两部拟制定的法律亦规定了行政机关对公民个人信息的保护职权。如《数据安全法(草案)》规定:对于数据活动存在较大安全风险的,有关主管部门应履行数据安全监管职责,可以对有关组织和个人进行约谈,被约谈组织和个人应当按照要求采取措施,进行整改,消除隐患;开展数据活动的组织、个人如未健全数据安全管理制度、履行数据安全管理义务、发生数据安全事件,或采取不合法、不正当的方式收集、使用用户个人数据,有关行政主管部门应责令改正,给予警告,并可以对单位及其直接负责的主管人员给予罚款。因此,如果行政机关未按照法律、法规规定对算法履行行政监管职责,那么受算法影响的公民、法人或其他组织即可以对行政机关提起行政诉讼,要求人民法院判决其履行法定职责。
第二,行政机关使用的相关算法损害了行政相对人的权益。随着行政机关越来越普遍地运用自动化办公系统以提升行政办公、公共决策和公共服务效率,行政相对人受到行政机关自动化办公系统算法的影响越来越大。一旦行政机关的算法本身或使用时产生问题,那么就会对行政相对人产生系统的、广泛的影响[22](p62)。例如,美国密歇根州政府利用一款反诈骗系统对该州失业补贴领取者进行审核,并对申请者是否存在诈骗进行判断和处罚。据称该系统错误率高达93%,并最终引起了该州4 万名居民对州政府提起了集团诉讼。又如,美国纽约州曾使用一种算法系统以预测家长对其子女是否具有“严重家暴倾向”并据此做出决策。该算法系统一度导致该州上万个家庭父母同其子女被迫分离,最终纽约州政府放弃了该系统的使用[23](p58)。行政机关开发、使用的算法系统针对行政相对人所做出的自动化决策和服务,属于行政机关的行为,因此,当算法系统的自动化决策或服务导致行政相对人合法权益受损时,行政相对人即有权据此对行政机关提起行政诉讼。
同时,按照我国《行政诉讼法》之规定,我国检察机关对于行政诉讼活动亦有法律监督之职权。根据《行政诉讼法》第25 条第4 款规定,人民检察院在履行职责过程中,如果发现对算法领域负有监督管理职责的行政机关违法行使职权或者不作为,致使国家利益或社会公共利益受到损害的,应当向行政机关提出检察建议,督促其依法履行职责。如果行政机关在收到检察建议后仍不依法履行职责的,人民检察院应当依法向人民法院提起行政公益诉讼。因此,受算法影响的公民、法人或其他组织如果认为算法存在问题且会导致国家或公共利益受损,那么在行政机关不作为的情况下,可以请求人民检察院向行政机关提出检察建议或向人民法院提起行政公益诉讼。
在算法治理的各相关主体之中,受算法影响的公民、法人或其他组织显然最有意愿和动力对算法中存在的不当问题进行治理。因此,算法私人治理在整个算法治理体系中应占有重要地位。但是,在强调和重视算法私人治理作用的同时,并不能因此而淡化其他主体对算法治理的责任和义务。由于受算法影响主体的治理主张并不能自动地获得实现,受算法影响的主体必须与算法开发者、使用者进行协商或通过行政机关、人民法院的救济才有可能实现其治理目标。由此可见,算法的开发者和使用者是算法治理的关键,行政机关和人民法院作为公共管理者和居中裁判者则为算法的公正治理提供了基础保障。因此,为了实现算法的良性治理,则必需算法开发者与使用者、受算法影响主体、行业协会、行政机关与司法机关共同努力,构建一个由受算法影响主体的私人治理活动作为主要驱动力且各相关主体各负其责、各司其职的算法治理体系。