摘 要:算法渗透执法将改变传统平台自主治理的游戏规则,有效地将执法和裁决权力集中到少数几个大型平台手中。基于平台私人化以及利益驱动的特性,导致算法自动化决策极有可能带有偏见。在算法渗透执法主要通过架构规制、数据集合实现公共治理功能的背景下,算法渗透执法恐导致执法过程中侵权认知不充分、社会公众接触信息不自由、执法程序不透明。意将算法问责制贯穿算法应用全过程,需结合算法应用前的数据来源处理原则及知情原则、算法应用中的可审计原则及检验和测试原则、算法应用后的解释原则及访问和救济原则共六大原则进行全方位考察,通过促进算法渗透执法的透明度与正当程序来实现算法问责制。
关键词:算法问责制;算法透明;数据来源;知情原则;解释原则;平台责任
中图分类号:D 923.4 文献标志码:A 文章编号:2096-9783(2024)04⁃0115⁃12
一、问题的提出
新一代人工智能技术的研发与部署,是以算法为核心,以数据和硬件为基础,以提升感知识别、知识计算、认知推理、运动执行、人机交互能力为重点,形成开放兼容、稳定成熟的技术体系[1]。从Facebook到Twitter,从Coursera到Uber,在线平台已经深254a81b55bd0a7a27fe17ad81ed5a1924b13faa93ccb330bea86a49cb759a728入并广泛参与公共活动。因此,它们已开始在实现与这些活动相关的重要公共价值观和政策目标方面发挥至关重要的作用,包括公共安全、透明度和社会经济平等。整个20世纪,西欧的国家机构主要负责公共空间的组织和维护公共价值观。此后,由于经济自由化以及公共机构和服务的私有化,这种社会安排面临着越来越大的压力[2-4]。在线平台形式数字中介的兴起和算法等新技术的加入正在加速这一趋势,并使这一趋势进一步复杂化。平台引入算法,本是平台为履行内容审查等注意义务过程中,为提高标记侵权内容效率时借助的技术工具。如今,平台算法有权力决定什么样的内容能够在平台上保留,甚至无需像执法权或者裁判权一样通过法律规定或授权取得,使得本应是“义务”承担者的平台,通过算法从平台自治渗透至执法活动中,承担一部分公共治理职责。最终,平台监管或审查义务的背后,隐藏着将此类“义务”扭曲为“执法或者裁决权力”的危险。在现有法律未对新技术的治理作出规定时,应当如何协调技术治理与法律治理的关系?有学者针对算法治理与法律治理的关系,将算法治理总结为个体赋权、外部问责和平台义务三种主要范式[5]。从这种权利义务分配与责任承担的划分方式上来看,算法渗透执法已经影响了社会公众对自己行为的预期。为应对算法权力执法的不可知性,有学者主张平台运用算法时应当秉持透明原则。但也有学者批判算法透明原则,认为比起本质主义、事前规制的算法透明,以实用主义为导向、事后规制的算法问责制则更为妥当[6]。
我国算法渗透执法过程中的算法透明度、算法解释、算法归责等问题已经逐渐显现。即使存在《算法推荐管理规定》这样正式的结构化准则,该规定在条文设置上仍存在表述空泛、偏向原则性指引、规制主体范围相对狭窄等缺陷,且鉴于算法的不可预见性、快速扩展性与不可知性,平台规制算法渗透执法的行为更为困难,导致平台利用算法规范社会公众的在线行为变得更为复杂和不可预见。除此之外,其他规范性文件中也零散地提及算法责任、平台责任等与算法问责制相关的规定,如2023年8月15日生效的《生成式人工智能服务管理暂行办法》第四条第二款,在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止歧视,以及第四条第五款的规定,“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”。
现有规范性文件虽然对算法类服务提供者,或者在服务中引入算法技术的人工智能服务提供者应当为平台治理履行的义务作出了规定,但多停留在原则性指引,并未释明法律背后的价值意义,与先前的网络服务提供者审查义务、披露义务、平台责任等规范产生了断连。而实际上算法提供者、人工智能服务提供者、网络服务提供者存在高度交叉竞合关系。平台引入算法后对平台治理进行的实质性变革,并未体现在现有的规范性文件中,尚缺乏算法问责、平台责任等指导实践的具体规定。从比较法的视角来看,2017年9月14日,美国公共政策委员会(USACM)举办了一场关于“算法透明度和问责制”的小组活动。该活动为利益相关者和领先的计算机科学家提供了一个讨论论坛,讨论算法决策和算法模型的技术基础对人类社会日益发展的影响。小组成员讨论了《算法透明度和问责制声明》的重要性[7]。而后,2017年12月美国计算机协会(Association for Computing Machinery)作为算法治理的业界权威,公布算法治理七项原则1,提出算法决策机构应当为算法的程序以及应用的算法负责[8]。2022年2月,美国提出《2022算法问责法案》承接之前关于算法治理的初步探索,成为算法治理专门立法的里程碑。我国算法治理的规范性文件并未对算法治理进行统一的梳理,但根据现实需求逐步引出的算法指引性规定都没有突破这七大原则。能够预见的是,算法的立法规制在逐步前进,加强对算法的监管是全球各国监管部门的“共识”与未来的趋势。
二、算法协助平台类执法功能实现
平台引入算法进行架构规制、信息获取、信息推荐,用于满足不同用户对于信息感知的需求,以及防止上传涉嫌非法的内容或删除不必要的表达。人工智能过滤器为内容审查提供了一种在上传前删除、屏蔽或者过滤的技术策略[9]。这种规范设置和执法的戏剧性转变,可能会改变传统平台自主治理的游戏规则,有效地将执法和裁决权力集中到少数几个大型平台手中。这些平台是追求利益最大化的私人实体,而且可能带有偏见。尽管中介机构在形成对在线内容的访问和促进公共话语方面发挥着关键作用,它们仍然很难对算法的执行负责。我们根本不知道哪些涉嫌侵权的材料触发了算法决策,也不知道算法如何做出有关内容限制的决定,谁在引导算法做这样的决定,以及目标用户如何能够影响这些决定。算法的不透明和动态的特性造成了监督的障碍,并且隐藏了关键的价值选择和权衡。由此,在线中介机构的算法渗透执法缺乏足够的措施来确保算法的问责制。算法问责制体现在两个方面:一方面是算法控制者、使用者有义务报告与证明算法设计、算法决策的正当性,并有义务减轻算法可能带来的负面影响或者潜在的危害[5];另一方面,算法相关实体对算法渗透过程中的错误或失败的行为承担相应的法律责任[10]。
(一)架构规制
网络环境与物理环境的差别不仅在于法律规制,还有来自市场的监管、组成网络空间的基本沟通语言架构、代码,以及社会规范的约束[11]。算法技术在组织中的广泛应用,引发关于算法如何重塑组织控制的问题。平台对算法技术的引入,将输入数据转换为期望的输出,其方式往往比引入之前更具包容性、即时性、交互性和不透明性[12]。
首先,平台利用算法的标记触发司法审查功能。商业(私人)功能和执法(公共)功能一一嵌入在同一个机器学习系统中,使用相同的数据,并受相同的特征支配[13]。一方面,社交媒体的兴起与发展,打破了旧媒体时代主体只能在有限范围内建立互动关系的界限,使媒体共用成为可能。比如,微博等社交媒体平台从错综复杂的网络生态中崛起。但随着这些平台的发展,混乱和争论很快又回到它们身上。原因很明显:无论是鼓舞人心还是应该受到谴责,个体的表达都渴望通过共同平台与其他人形成交流或者至少有人倾听。社交媒体平台让更多的人相互之间可以直接接触,为他们提供了新的机会,与更广泛的人交谈和互动,并将他们组织成网络公众。正因如此,为使平台能够长期运行和发展,平台经营者应当设立一定的规则予以约束,而不应当置这个开放平台于乌托邦、无秩序的状态。平台经营者或网络服务提供者在发现版权侵权时,利用算法技术对是否存在侵权内容进行标记时,已经触发了司法审查职能。而后平台主动履行审查义务,或者通过审查来自权利人或者第三方的“侵权投诉或者通知”,为防止侵权损失的扩大,平台采取“删除、封禁账号”等必要措施,实际上是直接替代公权力机关,对发布“侵权内容”的用户履行了类似执法的自治职能[13]。另一方面,平台引入算法推荐技术真实目的是提供更优质的服务来吸引用户和促进平台经济发展。表面上,平台通过算法推荐技术熟知用户的情感偏好,依托算法技术为用户提供自由生成内容的空间,并与用户建立更深层的情感联系。更深层次地,用户得益于算法及时有效地获取价值信息,并与平台建立长期稳定的联系。比如,新媒体平台经营者将用户生成内容转换为交换价值[14],或者利用用户数据作为人工智能和机器学习的资源,以解决越来越多的问题[15]。由此可见,平台对于内容的审查,与平台鼓励社会公众健康、积极辩论的初衷背道而驰,除非这些评论已经威胁到平台继续提供服务的能力,否则,平台没有动力去排除有利于自己经济收益但实际上侵权的内容。
其次,算法创新信息分发传播机制。算法的海量通知、算法采取“必要措施”的自动化决策、算法过滤、算法推荐等算法行为,通常涉及各种传感器的大规模数据收集、算法的数据处理以及自动化性能[16]。本质上,算法允许通过“广泛使用数据、统计和定量分析、解释和预测模型,以及基于事实的管理来推动决策和行动”,并对信息进行更复杂的分析[17],它创新了信息分发传播机制,使信息的选择从“作品价值”转向“用户兴趣”。算法执法在网络上特别普遍,该行为本质上是由计算机代码调节的。事实上,网络空间所构建的软件和硬件对人们的行为方式造成了限制[11]。例如,互联网用户是否必须输入密码才能访问,他们在使用某个特定网站时必须保持多大的活跃度才能继续登录,或者用户可以根据其隐私偏好查看彼此的数据程度。随着算法逐步渗透版权执法过程,信息法学者Joel Reidenberg提出了“Lex Informatica”技术标准,为信息政策规则提供了技术解决方案[18],主要通过进一步细化劳伦斯·莱斯格(Lawrence Lessig)教授创造的“代码就是法律”的网络空间架构[11],详细阐述了算法如何在规范某些行为方面取代法律。在线中介在管理在线行为和保护互联网用户的权利方面发挥了重要作用[19]。算法执法由在线中介(如搜索引擎或托管网站)实施,它们提供了一个自然的控制点,用于监控、过滤、屏蔽和禁止访问内容使执法更加有力。也有学者认为,法律与算法分属不同的系统,每个系统具有自己独立的语言沟通体系,对算法法律规制的原理必须建立在场景化的基础之上[20]。
最后,算法技术性指令与执法正当程序性存在天然契合关系。一方面,利用算法过滤防止疑似侵权内容上传至平台或者在接到通知后利用算法海量删除某些材料时,算法的版权执法已经起到了私人执法的作用,为算法版权执法的问责制创造了合理适用的空间,即决策者应在多大程度上向那些受到这些选择影响的人证明其选择的合理性,对其行为结果负责。另一方面,鉴于算法的技术性,美国学者尝试发展“技术正当程序”的制度来解决这一问题,即通过强调编码公开、开发公众参与程序、系统软件测试等来实现程序所要求的透明化、公开和可问责等要求[21]。问责制确保决策者以公平有效的方式行使权力,可以通过事前机制产生,这种机制通过结构化的指导方针和标准限制决策者的权力,也可以通过事后透明度机制产生,允许审查决策者的行动及其决定的结果,或者两者兼而有之[13]。此外,还可以通过正式授权实现,如限制决策者执行权力的法律规则或条例[22],和(或)通过非正式手段,如市场力量,检查决策者的自由裁量权,并通过促进对其选择和相关结果的自愿披露实现问责制。就目前而言,在网络服务提供者执行算法的情况下,试图利用不同机制设置达到规范算法问责制的效果,仍然是相当具有挑战性的。
(二)数据集合
首先,平台通过数据集合形成对资源的调配,实际上在网络空间形成了一种事实上的技术权力②。一般来说,在线平台可以被定义为社会技术架构,它能够通过用户数据的收集、处理和流通来引导用户实现交互和通信[23]。这些平台通常似乎很少在获得公共机构帮助的情况下促进公共活动。因此,它们被誉为“参与”文化、“共享”或“协作”经济的工具[24]。在线平台有望让个人有效发挥公共产品和服务生产者的作用,并成为自主和负责任的公民。但实际上,迄今为止,在线平台尚未兑现这一承诺。相反,在许多情况下,它们似乎进一步加剧了市场对重要公共价值观的压力,如服务提供的透明度和非歧视、公共沟通的文明性以及媒体内容的多样性。平台的商业利益和相应的战略动机并不总是与公共机构的利益相一致,而平台作为社会公众经济社会活动的重要领域,需要在关键公共价值观方面发挥组织和监管参与者的作用。
其次,算法在学习与训练中通过数据集合的方式持续渗透执法。一方面,算法渗透执法使得执法机制更客观量化。算法过滤与人的过滤机制不同③,一般情况下无法基于价值选择、情感表达予以过滤。这就导致社会公众对社会的预测需要从依托于对人的信任转化为对算法收集的数据或数据集合以及数据分析结果的信任。算法决策过程中,后续的工作和预测可能并不单单受算法设计者的控制,还与训练算法的数据以及算法的深度学习有关。如今,算法识别大规模数据集合并进行分类和预测的方法被认为比人类更准确,深度学习技术也被称为具有“超人”的准确性和洞察力,但是由于从输入到输出的非线性路径等原因,目前还缺乏能够解释为什么深度学习技术在模式检测和预测方面如此有效的理论[25]。另一方面,算法渗透执法加剧执法过程的复杂性与不透明度。机器学习算法的速度、复杂性和透明度有限使得算法文化的研究更具挑战性。在社会环境中,深度学习系统有望产生更准确的分类,或做出更理性的决策,甚至允许我们避免非理性的人类偏见[26]。与此同时,这些系统似乎违反了祛魅的认识论④,即世界上不再有“神秘”的力量在起作用。矛盾的是,当深度学习的祛魅预测和分类如人们所希望的那样发挥作用时,我们看到了大量乐观的话语,将这些系统描述为吸引着神秘力量和超人力量的神奇系统。这种神秘化掩盖了深度学习系统在应用于人类和社会机构时可以加强歧视性或有害的预测和分类方式[27]。因此,深度学习既强化了对觉醒的诊断,也挑战了对觉醒的诊断[25]。以谷歌为例,为使用户“意图输出目标”与搜索引擎“实际提供输出目标”达到高度一致性,一方面,需要提升企业开发人员理解算法设计、算法深度学习、算法决策的能力[28-29];另一方面,搜索引擎作为谷歌、广告商和互联网用户之间的交互点[30],不仅需要提升搜索引擎收集数据的效率,还要不断改进算法在目标搜索引擎结果页面中的其他功能[31-32]。
最后,通过数据集合实现算法权力控制,还体现在平台与平台间的数据共享。数据共享是利益竞争与合作利益最大化双重驱动下的产物。于平台端而言,理想竞争市场是指,众多企业努力优化其商品和服务以在竞争中脱颖而出。但是,当数据成为现代经济中的关键资源时,掌握了数据优势的企业不仅可以在自己的行业中睥睨众人,纵向并购的大门也将为它们敞开。甚至当这些企业收集到更多有关产品使用者的政治态度与立场的数据时,通过巧妙操纵搜索页面的内容呈现,它们有望成为影响政治生态的强大舆论力量[33]。于公众一方而言,信息在大众之间传播和流通,有利于消除认知偏见和建立公众沟通的桥梁,维持社会稳定结构。媒体通过“广播、网上和面对面”的形式向受众传达可信的信息,已经成为公共社会服务的一部分。许多创作者从网络所承诺的自由中获得启发或至少希望从中获利,这些自由承载和扩展了所有的参与、表达和社会联系。算法推荐技术的加入使得信息的扩展重新回到了有秩序的信息选择,增加了信息的可用性,但随着私人特征和属性可以从人类行为的数字记录中预测出来,人类的社交网络活动和信息接触也趋近于同质化[34]。这个过程也使得发源于个人的数据、信息披露在公众视野中,个人信息的利用极有可能不受数据发出者、所有者的控制,而最终导致个人利益受损[35]。
三、算法渗透执法复杂化平台治理
算法的有限性和有效性与法律在形式上的特征不谋而合,这也是促成算法渗透执法的重要原因。算法的有限性(finiteness)体现在执行有限步骤后必须终止,有效性(effectiveness)则体现在算法执行的步骤是可分解、可执行的操作步骤[36],与法律追求的效率价值与正义价值的有限保障可谓殊途同归。但算法渗透执法也使得平台治理问题变得更为复杂。
(一)算法渗透执法的认知不充分
第一,算法认知不能等同于个体行为认知或网络服务提供者的认知。人对信息的认知存在“认知障碍”,而算法认知实际上是数据叠加、数据收集、数据分析整理的过程。但由于算法认知总是受“即时满足”这一原则的指引[37],所以看似绝对理性的算法实际上只是有限、局部理性,而人的认知是理性与感性认知的叠加。“算法认知”是基于主体“人”认知的二阶观察,是对人观察行为的二次观察,并不单纯是对平台“提供内容”的直接分析,这个过程实际上是算法参与了人的社会活动,作为人与平台内容互动的链接。第二,算法透明不等于算法认知。人类对社会生活质量的追求逐步提升,随即对算法的分工提出更精细化的要求,大量算法变得愈发复杂和不可知[6]。计算机领域著名的莱斯定理(Rice's Theorem) ,就论证了某类算法的不可知性[38]。算法渗透执法在深度和广度上的增加,使得算法执法变得更加不可知与不可预测,这将更有可能导致社会公众对可能产生结果的不可预估,从而无法根据对结果的期待来调整自己的行为。第三,算法认知不充分导致的公平性缺失愈发严重。一般而言,算法内容审核是一个异构的实体集合,其中一些是社会的,另一些是技术的[39]。平台运用算法推荐技术对数据集合的管理与运用,应当以增进社会公众的福祉为出发点。预测算法通过挖掘个人信息猜测个人可能的行为和可能造成的风险,一个人的线上和线下活动被转化成分数。这将原本kFb3EVEppRAkyULSdrDCkA==个体或者群体基于实际沟通建立信任的格局完全打破,转化为以“中间网络服务提供者提供的沟通平台”作为信任基础和未来选择的依据。尽管算法预测经常以武断和歧视的方式损害个人的生活机会,但私人和公共实体仍然依赖预测算法的评估结果做出关于个人的重要决策。平台引入算法实际上是将原有的人类认知下的干预与非人类认知下的技术干预相结合,可能导致原有的政府、社会公众与互联网平台之间权利关系重构[40]。
(二)算法渗透执法的信息不自由
算法导致的信息不自由是由算法的认知偏见导致的,主要有以下两个主要矛盾:第一,算法训练数据来源偏见最终导致决策偏见。算法的本质是寻求终极最优解。无论是预测还是解决问题,算法寻求的结果是每一次过往经验的归纳最优解[37],但“归纳法”本身的局限性在于无法创造出解决社会问题的新方法或者新认知,所以算法影响了信息的可利用程度以及传播渠道的开放,使得人们获取信息的方式从完全自主、自生自发的秩序发展到有限自主,最终直到这种认知方式影响到人们的就业机会等具体化的公众社会生活时,就导致算法参与决策的信息不自由。第二,算法的加入势必会掠夺一部分消费者对信息自由选择的空间。算法根据用户信息选择的历史记录,干扰用户未来选择。算法推荐技术的参与使得个人、集体与市场之间的关系发生微妙变化,并具体作用于算法、经营者、消费者、数据,以及它们之间相互控制与抵制控制的相互关系上[41]。从保护消费者出发,平台要保证消费者对差异化信息的自由选择和对特定信息的高效筛选的双重需求。势必需要分析算法表达如何干预越来越多的现有消费集合,尤其是如何对这些元素进行整合与建立联系[42]。第三,算法本身的局限性会导致技术治理效果的局限性。比如算法自动过滤机制是根据关键信息标记或者与原作品比对重复率进行的初步筛选,可能将不属于侵权的内容直接屏蔽。一般情况下,由于无人知晓是否错误标记或错误识别或非法标记内容的合理使用,且社会公众根本无法获取该部分信息,即使屏蔽的内容实际上并不侵权,也无法获得该有的救济[43]。这种技术治理方式极有可能占据更多公有领域空间,最终导致社会公众在不付费或不受许可时,可获取的信息范围遭到限缩,从而侵犯公民的信息传播权、隐私权和言论自由[44]。
(三)算法渗透执法的程序不透明
算法渗透执法的不透明加剧了社会公众权利再分配的不正义。第一,从运行机制上看,平台与用户之间也形成了一种法国哲学家福柯所称的“全景敞视主义”机制: 国家(或者平台管理者)拥有隐而不显而又无处不在的单向监视权力,通过技术处理,能够单向、全面、持续不断的监视网络用户利用平台处理、记录、存储个人信息以及其他的行为痕迹全部暴露在平台管理者面前[45],社会公众被控制的领域甚至多于算法渗透执法之前的状态。更可怕的是,当政府控制了技术,当权者以自己的标准来设计代码并强加给网络用户时,技术很有可能带来“代码暴政”[46]。福柯曾把统治权分为两种:现行政府命令和隐性行使。如果说法律属于前者的话,那技术受到权力控制后成为了后者,甚至当算法技术渗透执法全过程,能够在不知不觉中对社会权利进行再分配。那么,一般社会公众对政府公正执法的信任将转移到对算法结果导向的信任,这对社会关系、人与人之间的信任以及一般公众的权利都会造成影响。算法的加入加剧了社会的不信任和不透明,更有可能激化社会矛盾和不正义。第二,从运行程序上,Content ID允许内容提供商上传视频或音频作品的数字化副本,YouTube的服务器使用这些副本创建一个数字参考,用于扫描网站上的所有其他视频。如果其他视频的一部分与样本视频或音频内容相匹配,视频就会被标记为包含有版权内容。因此,Content ID可能会非法标记内容的合理使用或最低限度使用。由于Content ID的阈值没有公开,用户无法理解它如何行使权力。事实上,Content ID识别程序的不透明性,使得被指控的侵权者无法知晓他们的视频是因为被指控盗版,还是因为算法的错误识别而被标记。相比之下,以法律规范约束平台经济社会生活,无论是执法还是司法过程,至少需要保证程序与实体的双重正义,还受到执法者、司法者的行为道德约束、社会公序良俗的约束。虽然做到结果正义很难,至少追求机会正义是“纸面法律”与“行动法律”共同追求的目标。本意上,平台意图通过“算法”实现罗尔斯主张的关于正义的两个原则,这两个原则分别区分社会体系的两个方面:一是确保公民的平等自由;二是制定与建设社会经济不平等的方面⑤。平台恰好是一个小型的社会体系,通过技术和经济要素引导着用户互动,但同时也塑造着社会规范。平台为实现去中心化的新运营模式,引入算法进行监管,实际上是把对平台运营影响的技术因素(算法)又重新融入到权力监管的体系中,并不一定使监管更为有效,反而增加了提供服务与执法的复杂性和不透明度。
四、算法渗透执法的算法问责制构建
在尽可能保证算法公正和透明的前提下,利用算法自动化决策承担一部分社会治理功能。算法的迭代升级与机器学习能力已经表明,算法能够处理图像、文本、音频、视频等更加复杂的数据,这使得内容审核过程中算法的强制执行能够在更广泛的维度上发挥作用。平台使用算法推荐技术可以生成和量化有风险的概况和内容,以求通过排除有害因素确保信息流通的良好管理[40]。自动化控制的监管语言至少揭示了通过自动化系统严格执行风险管理目标的组织能力的核心信念。事实上,正如监管者、供应商和用户所描述的,技术系统可以被合理地描述为一种强大的管理工具,可以根据组织需求和普遍遵从性进行调整,灵活地应对变化,可以增加业务流程的可见性和强化监督。在算法问责制的中心原则指导下,平台作为主要的算法服务提供者为算法的自动化决策、算法版权执法负责,并贯穿至算法设计、执行、应用的全过程。
(一)算法应用前的全方位审查
1.数据来源处理原则
算法设计者应该描述收集训练数据的方法,以及在数据收集过程中可能引入的偏差。虽然数据的公共监督最有利于矫正数据错误,但出于隐私保护、商业秘密保护、避免算法披露后的恶性博弈等原因,可以只对适格的、获取授权的个人进行选择性披露[47]。数据来源处理原则应当从以下几个方面予以应对:第一,数据处理时合法合规、安全优先。习近平总书记在2023年中国国际服务贸易交易会全球服务贸易峰会上发表视频致辞时指出,要“推动数据基础制度先行先试改革”。已有规范性文件对试点改革提出了具体要求,如《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》要求“创新技术手段,推动个人信息匿名化处理”。无论算法的训练还是算法模型的优化,皆是在大规模数据的基础上展开的,数据质量直接决定了算法预测与决策的能力。由此,规范数据清洗、去标识化、匿名化处理,有助于提升数据的可用、可信、可流通、可追溯水平,削弱因数据集合不全面导致的算法决策不公正。故而,推动数据要素强化优质供给,是建立合规高效场内外结合的数据要素流通和交易制度的重要内容⑥。第二,适用统一的算法披露标准。当前,越来越多的国际及国内利益相关方意识到,不统一的可持续信息披露标准,不仅增加企业披露成本,也会影响可持续发展的政策制定和投资决策。因此,建立具有一致性、可比性和可靠性的信息披露指标,已成为监管机构、投资者、专业机构共同努力的方向。国际层面,2023年6月26日,国际可持续准则理事会(International Sustainability Standards Board,ISSB)正式发布了两份国际财务报告可持续披露准则,作为全球可持续披露基线准则建设中的重要里程碑文件,ISSB两份准则的发布对于提升全球可持续发展信息披露的透明度、问责制和效率具有重要意义[48]。第三,数据处理时应当将技术与管理手段相结合,形成数据有效溯源管理。平台应用数据时应当明确各环节的数据处理权限和流程,对数据清洗、去标识化、匿名化设置访问控制程序,采取措施记录数据处理过程的细节、适用的参数和控制措施,及时发现出现的偏差或不当操作,支撑后续对数据处理过程进行维护、审计和追溯[49]。算法的优化是对数据的识别与输出结果的优化,因此,规制算法实际上也是加强主体对数据的控制与保护[50]。
2.知情原则
根据霍菲尔德式(Hohfeldian)体系的权利形式,权利与义务具有“相关”关系,即当某一主体被赋予权利时他人就有责任履行相应义务[51]。故而,可将“知情原则”放在权利与义务的一体两面之中去理解。一方面,知情原则体现了被应用算法的网络用户具有知晓算法决策可能导致不公平结果的权利、拒绝算法偏见的权利,以及社会公众作为平台社会活动最主要的参与者,以“协同治理重要监督者”身份进行监督的权利。平台应用算法实际上是将个人的数据财产或者精神价值部分转换为企业再生产的资料,在此过程中难免占据个人权利空间,尤其是算法推荐对用户浏览信息的筛选多采用“协同过滤算法”,它基于用户的行为数据(user-based CF)或者物品的属性数据(item-based CF)来发现用户的兴趣和相似性,进而为用户推荐个性化的内容或者物品。此种情况下,当算法推荐行为可能对社会公众信息自由造成不良影响时,应当以保证公民人身权利优先。如《中华人民共和国电子商务法》第十八条规定,对用户的推荐或提供搜索结果不应当针对个人特征,这种关闭个人特征的推荐方式实际上就属于法律上事前对平台的监管,要求平台不得对用户使用“协同过滤算法”。另一方面,从平台交易形式的变化来看,多方参与带来的新型交易形式也为多主体协同管理平台带来了新的机遇。针对网络用户的知情权,具有相关利益的算法所有者、设计者、操控者或其他利益相关者,都有可能承担披露算法设计、执行、适用过程中可能存在的不公平决策、潜在危害和可能造成偏见的义务。再者,基于平台互联互通、平台从竞争走向合作的产业运营模式,算力服务更需要一种能够集中各类算力资源并进行统一出售的平台,来解决单一算力资源无法突破的瓶颈。平台负责多方算力资源的统一接入、编排调度、计费核算等核心环节,是云服务向算力服务演进的全新角色[52]。
(二)算法应用中的全方位监管
一方面,自愿分享信息可能导致发布带有偏见和误导性的信息。另一方面,平台合法商业利益极有可能损害执行执法任务所涉及的职责,如社会公众受到不公平的对待。建立平台自我治理的公共监督机制,让网络服务提供者对算法版权执法负责,实际上是对使用类政府权力的平台进行必要的检查和监督。
1.可审计原则
互联网以及算法技术的发展使得个人数据更加公开,数据流动更加自由。算法是将个人数据聚合产生较大经济价值的典型技术,个人数据的保护与利用模式直接影响产业经济的发展[53]。但许多人忽视了将算法引入商业和社会的缺陷,如果不加以控制,嵌入数字和社交技术中的人工智能算法将进一步扩大社会偏见,加速谣言和虚假信息的传播,放大公众舆论。确保正义的社会价值反映在算法和人工智能技术中的创造力并不亚于开发人工智能技术本身。算法可审计原则就是确保来自“黑箱”的报告没有重大错报,对模型、算法、数据和决策结果应有明确记录,以便必要时接受监管部门或第三方机构审计。例如,欧盟的《通用数据保护条例》要求应用算法的组织能够解释他们的算法决策。第一,审计的任务应该是确保人工智能系统符合社会主义核心价值观、政府规范性文件以及现行法律法规的规定,可以考虑成立独立的机构,审议和发布行为标准。这种基于科学依据和伦理的算法审计方法是建立可靠的人工智能治理、审计、风险管理和控制系统的重要组成部分[54]。第二,审计依赖算法备案制度。自《算法推荐管理规定》实施以来,国家网信办先后三次公布了《境内互联网信息服务算法备案清单》[55],社会公众可以从清单中了解到算法名称、发布主体、应用产品、主要用途和备案编号等信息[56]。
2.检验和测试原则
检验和测试原则是指,使用算法的机构应该采取有效措施来检验算法模型,并记录检验方法和检验结果。尤其应该定期采取测试,审计和决定算法模型是否会导致歧视性后果,并公布测试结果。通过比较世界各国算法治理方法发现,已经有国家在算法监管与算法归责方面迈出重要步伐。一方面,监管机构应当对算法分层管理。德国数据伦理委员会将“与人类决策相关的人工智能系统”划分为“基于算法的决策”“算法驱动的决策”和“算法决定的决策”三种类型,并提出人工智能算法风险导向型“监管金字塔”,将人工智能算法风险进行1-5级评级,对于评级为无潜在风险的人工智能算法不采取特殊监管措施,并逐级增加规范要求,包括监管审查、附加批准条件、动态监管以及完全禁止等措施[57]。在具体算法执法时,也应当考虑比例原则的适用,至少应当维护合理使用制度在互联网领域的沿用。算法强制执行可能不适当地限制用户访问、体验、转换和共享创造性材料的自由,如科学出版物、文化资产和新闻报道[58-59]。这些对知识的学习和教育、信息自由的接触存在合理使用的支持。但公民对于信息的自由获取与表达作为一项基本人权不应当被合理使用完全掩盖⑦。机器算法的深度学习与迭代升级过程中,也存在对平台数据库信息的汲取和挖掘,虽然算法输入内容会依据算法设计者的偏好设置不同的关键词进行抓取,但在得出输出结果之前,算法设计者并不实际知晓具体抓取的结果。当然,算法对数据的抓取还会导致另一个可能的后果,即不同平台之间可能通过数据交换实现对数据或知识的重新整合,这个过程中还有可能产生新的数据或知识。信息技术的出现(如电子数据交换)允许企业更密切地协调活动[60],从而减少信息不对称和机会主义。电子数据模块信息的交换,使得企业间关系得以改善。这些信息技术降低了交易成本,从而改善了分类系统的管理[61]。分类系统通常是通过算法管理得以实现,在平台监控与版权过滤方面起到至关重要的作用。算法管理是算法推荐平台常用的商业模式之一,即根据匹配或预测对用户生成内容进行分类,从而导致不同的决策和治理结果(如删除内容、删除账户)。就此,“算法”管理“算法”的目标得以实现。另一方面,利用技术工具监管与评估。2022年5月,新加坡通信媒体发展局和个人数据保护委员会发布《人工智能治理评估框架和工具包》,成为全球首个官方的人工智能检测工具,该工具结合技术测试和流程检查对人工智能技术进行验证,并为开发者、管理层和业务伙伴生成验证报告,涵盖人工智能系统的透明度、安全性及可归责性等人工智能伦理要求,并积极吸收不同机构的测试建议,完善评估工具[57]。
(三)算法应用后的全方位救济
1.解释原则
解释原则鼓励应用算法的组织解释算法的操作步骤和具体的决策结果。平台对其应用技术要素以及运行规律的认知解释,直接决定了平台治理能力。平台作为一种互动交流的机制和通道,其产生、存在和作用发挥都蕴含着鲜明的技术性特质[62],这就决定了平台运用算法治理的过程,实际上是将技术要素注入法律秩序当中并与之融合的过程,那么算法解释就是使得算法渗透执法从“黑箱”转变为一般公众或者特定授权主体可理解的表达。第一,算法本身不具有可责性,算法的解释是应用算法的主体为免除自己责任而履行的义务⑧,但算法解释依然无法解决商业秘密、知识产权与算法解释之间的冲突。实践中,算法解释的可执行性还受到举证规则的影响。例如,在Viacom和YouTube之间的版权纠纷案中,法官并未强迫YouTube向Viacom提供计算机源代码,该代码控制着YouTube的搜索功能和谷歌的互联网搜索工具“Google.com”。原告Viacom主张制作和审查源代码是确定YouTube的搜索算法是否有效地提高了据称侵权材料相对于非侵权材料的排名或可见度的唯一办法,但并未提供充分证据证明披露的必要性。基于此,法院最终以“涉案算法包含的商业秘密没有被披露的必要”为由,驳回了Viacom要求迫使YouTube公布源代码的请求,批准了YouTube商业秘密保护令的请求⑨。要求披露算法商业秘密的主体必须对算法披露的必要性予以举证。这实际上与数据三大悖论—透明化悖论、身份悖论和权力悖论—具有浑然一体的关系⑩,依然是平台治理与发展的难题。第二,算法解释主体应当是将算法嵌入具体服务的主体,而不应当是算法设计者、研发者和算法最终用户。我国《算法推荐管理规定》也将责任主体限定为算法服务提供者,说明判断平台为其提供的算法决策承担怎样的责任时,应当揭开“技术中立”的面纱,就平台应用算法时提供的具体服务,具体认定责任承担的主体与责任承担方式。
2.访问和救济原则
访问和救济原则意味着,应当确保受到算法决策负面影响的个人或组织有权对算法提出质疑和补救[6],其中包括获得算法解释的权利、更正或修改数据的权利、退出算法决策的权利等[63]。在算法应用中,算法偏见、算法歧视不应当作为侵犯个人权利的理由。在所有个人权利中,德沃金认为,最重要的是关怀和尊重的平等权利,即每个人都享有“作为平等的人对待”的权利,或者“社会应当予以尊重,承认其尊严和平等考虑”的自然权利,个人权利观念起源于平等观念[64]。一方面,算法训练过程中,企业应当对数据来源进行严格审查,不应以算法不成熟对抗算法结果不正义。保证社会公众获取信息的自由,不因平台引入算法导致加剧信息不对等。另一方面,企业应当承担算法应用后的解释义务。算法解释义务与企业商业秘密、知识产权之间发生冲突时,如何确保不损害企业对算法的开发前提下,接受算法审查、算法监督并保障个人权利获得救济,是亟待解决的问题,重点则放在了如何把握算法透明度的边界上[65]。
五、结语
简言之,算法收集数据与决策过程中融入了平台决策者的自主意志,该意志导致的社会不公平现象不应当由算法设计者或者算法使用者承担责任,而是应当由意图通过算法遮蔽真实决策意图的算法服务提供者承担责任。故而,算法解释与保障受算法侵害的主体获得救济的责任,也应当由背后的真正自由意志表达的主体承担。
参考文献:
[1] 国务院. 新一代人工智能发展规划[EB/OL]. (2017-07-20)[2024-01-04]. https://www.gov.cn/zhengce/content/2017⁃07/20/content_5211996.htm.
[2] GARLAND D. The limits of the sovereign state: strategies of crime control in contemporary society[J]. The British Journal of Criminology, 1996, 36(4): 445⁃471.
[3] DEAN M. Governing societies[M]. New York:McGraw-Hill Education (UK), 2007.
[4] MILLER P, ROSE N. Governing the present: administering economic, social and personal life[M]. Cambridge:Polity Press, 2008.
[5] 张欣.从算法危机到算法信任:算法治理的多元方案和本土化路径[J].华东政法大学学报,2019(6):17.
[6] 沈伟伟.算法透明原则的迷思——算法规制理论的批判[J].环球法律评论,2019(6):20⁃39.
[7] Association for Computing Machinery US Public Policy Council(USACM).USACM Panel on Algorithmic Transparency and Accountability[EB/OL]. (2017-09-14)[2024-01-08]. https://www.acm.org/public-policy/algorithmic-panel.
[8] Association for Computing Machinery US Public Policy Council(USACM).Statement on Algorithmic Transparency and Accountability[EB/OL]. (2017-12-12)[2024-01-06]. https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf.
[9] GILLESPIE T. Custodians of the Internet: platforms, content moderation, and the hidden decisions that shape social media[M]. New Haven:Yale University Press, 2018.
[10] 袁康. 可信算法的法律规制[J]. 东方法学,2021(3):18.
[11] 劳伦斯·莱斯格. 代码2.0:网络空间中的法律(修订版)[M]. 李旭,等译. 北京:清华大学出版社,2018:233.
[12] KELLOGG K C, VALENTINE M A, CHRISTIN A. Algorithms at work: the new contested terrain of control[J]. Academy of Management Annals, 2020, 14(1): 366⁃410.
[13] PEREL M, ELKIN-KOREN N. Accountability in algorithmic copyright enforcement[J]. Stan. Tech. L. Rev., 2015, 19: 473.
[14] POSTIGO H. America online volunteers: lessons from an early co-production community[J]. International Journal of Cultural Studies, 2009, 12(5): 451⁃469.
[15] CASILLI A, POSADA J. The platformization of labor and society[M]// Society and the Internet: How Networks of Information and Communication Are Changing Our Lives. Oxford: Oxford University Press, 2019: 293⁃306.
[16] BAMBERGER K A. Technologies of compliance: risk and regulation in a digital age[J]. Tex. L. Rev., 2009, 88: 669.
[17] DAVENPORT T, HARRIS J. Competing on analytics: updated, with a new introduction: the new science of winning[M]. London: Harvard Business Press, 2017.
[18] REIDENBERG J R. Lex informatica: The formulation of information policy rules through technology[J]. Tex.L.Rev., 1997, 76: 553.
[19] HERMAN B D. A political history of DRM and related copyright debates, 1987⁃2012[J]. Yale JL & Tech.,2011, 14: 162.
[20] 丁晓东. 论算法的法律规制[J]. 中国社会科学,2020(12):152.
[21] CITRON D K. Technological due process[J]. Washington University Law Review, 2008, 85(6): 1249⁃1313.
[22] RABINOVICH-EINY O. Technology's impact: the quest for a new paradigm for accountability in mediation[J]. Harv. Negot. L. Rev., 2006, 11: 253.
[23] VAN D J, POELL T, DE WAAL M. The platform society: public values in a connective world[M]. New York:Oxford University Press, 2018.
[24] BOTSMAN R,ROGERS R. What's mine is yours: how collaborative consumption is changing the way we live[M]. London: Harper Collins Publishers, 2011.
[25] CAMPOLO A, CRAWFORD K. Enchanted determinism: power without responsibility in artificial intelligence[J]. Engaging Science, Technology, and Society, 2020(6): 1⁃19.
[26] KLEINBERG J, LAKKARAJU H, LESKOVEC J, et al. Human decisions and machine predictions[J]. The quarterly journal of economics, 2018, 133(1): 237⁃293.
[27] BOWKER G C, STAR S L. Sorting things out: classification and its consequences[M]. Cambridge:MIT Press, 2000.
[28] MAGER A. Algorithmic ideology: how capitalist society shapes search engines[J]. Information, Communication & Society, 2012, 15(5): 769⁃787.
[29] GAVER B, SENGERS P. The presence project[M]. London: Goldsmiths Press, 2020.
[30] SHARMA T S, WASKO M C M, TANG X, et al. Hydroxychloroquine use is associated with decreasedincident cardiovascular events in rheumatoid arthritis patients[J]. Journal of the American Heart Association,2016, 5(1): e002867.
[31] DPAULLADA A, RAJIL D, BENDER E M, et al. Data and its (dis)contents: a survey of dataset development and use inmachine learning research[J]. Patterns, 2021, 2(11): 1⁃14.
[32] KOTRAS B. Mass personalization: predictive marketing algorithms and the reshaping of consumer knowledge[J]. Big Data & Society, 2020, 7(2): 1⁃14.
[33] 阿里尔·扎拉奇,莫里斯·E.斯图克. 算法的陷阱:超级平台、算法垄断与场景欺骗[M]. 余潇,译,北京:中信出版集团, 2018: 102⁃104.
[34] KOSINSKI M, STILLWELL D, GRAEPEL T. Private traits and attributes are predictable from digital records of human behavior[J]. Proceedings of the National Academy of Sciences, 2013, 110(15): 5802⁃5805.
[35] 李晓华. 数字时代的算法困境与治理路径[J]. 人民论坛,2022(Z1):64⁃67.
[36] 蒋舸. 作为算法的法律[J]. 清华法学,2019(1):64⁃75.
[37] 佩德罗·多明戈斯.终极算法: 机器学习和人工智能如何重塑世界[M].黄芳萍,译. 北京:中信集团出版社,2017:282.
[38] RICE H G. Classes of recursively enumerable sets and their decision problems[J]. Transactions of the American Mathematical Society, 1953, 74(2): 358⁃366.
[39] LATOUR B. Reassembling the social: an introduction to actor-network-theory[M]. New York: Oxford University Press, 2007.
[40] CROSSET V, DUPONT B. Cognitive assemblages: the entangled nature of algorithmic content moderation[J]. Big Data & Society, 2022, 9(2).
[41] AIROLDI M, ROKKA J. Algorithmic consumer culture[J]. Consumption Markets & Culture, 2022, 25(5): 411⁃428.
[42] CANNIFORD R, BAJDE D. Assembling consumption: Researching actors, networks and markets[M]. London: Routledge, 2015.
[43] 理查德·斯皮内洛. 铁笼,还是乌托邦———网络空间的道德与法律[M]. 北京:北京大学出版社,2007:58.
[44] 郑智航. 网络社会法律治理与技术治理的二元共治[J]. 中国法学,2018(2):108⁃130.
[45] 姜方炳. 制度嵌入与技术规训:实名制作为网络治理术及其限度[J]. 浙江社会科学,2014(8):73.
[46] 胡颖. 技术与法律的博弈——网络空间治理之道探究[J]. 福建师范大学学报(哲学社会科学版),2013(3):59⁃62.
[47] ACHARYA T, RAY A K. Image processing: principles and applications[M]. Hoboken: John Wiley & Sons, 2005.
[48] 中国信息通信研究院,中国互联网协会,中国通信企业协会.互联网行业可持续信息披露发展报告(2023年)[EB/OL]. (2023-11-29)[2024-01-08]. http://www.caict.ac.cn/kxyj/qwfb/bps/202311/t20231129_466794.htm.
[49] 中国信息通信研究院产业与规划研究所,北京国际大数据交易所. 数据清洗、去标识化、匿名化业务规程(试行)[EB/OL]. (2023-11-14)[2024-01-08]. http://www.caict.ac.cn/kxyj/qwfb/ztbg/202311/t20231117_466028.htm.
[50] 姜野. 算法的规训与规训的算法:人工智能时代算法的法律规制[J]. 河北法学, 2018(12):148.
[51] WESLEY N H. Some fundamental legal conceptions as applied in judicial reasoning[J]. Yale L. J, 1913, 23(1):16⁃59.
[52] 中国信息通信研究院. 云计算白皮书(2023年)[EB/OL]. (2023-07-25)[2024-01-08]. http://www.caict.ac.cn/kxyj/qwfb/bps/202307/t20230725_458185.htm.
[53] 欧盟《一般数据保护条例》GDPR(汉英对照)[M]. 瑞柏律师事务所,译.北京:法律出版社,2018:54.
[54] BOLIN G, ANDERSSON S. Heuristics of the algorithm: big data, user interpretation and institutional translation[J]. Big Data & Society, 2015, 2(2): 1⁃12.
[55] 国家互联网信息办公室关于发布互联网信息服务算法备案信息的公告[EB/OL]. (2022-08-12)[2024-01-08]. http://www.cac.gov.cn/2022⁃08/12/c_1661927474338504.htm.
[56] 张吉豫. 论算法备案制度[J]. 东方法学,2023(2):86.
[57] 中国信息通信研究院知识产权与创新发展中心,中国信息通信研究院科技伦理研究中心.人工智能伦理治理研究报告(2023年)[EB/OL]. (2023-12-02)[2024-01-04].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202312/t2023 1226_468983.htm.
[58] TEHRANIAN J. The new censorship[J]. Iowa L. Rev., 2015, 101: 245.
[59] TUSHNET R. Content moderation in an age of extremes[J]. Case W. Res. JL Tech. & Internet, 2019, 10(1): 1⁃19.
[60] MANZI J. Computer keiretsu: Japanese idea, US stylee[N]. The New York Times, 1994-02-06(3).
[61] QUINN J B. The intelligent enterprise a new paradigm[J]. Academy of Management Perspectives, 1992, 6(4): 48⁃63.
[62] 张新平. 网络平台治理立法的反思与完善[J]. 中国法学,2023(3):135.
[63] 张凌寒. 算法权力的兴起、异化及法律规制[J]. 法商研究,2019(4):74.
[64] 高鸿钧. 德沃金法律理论评析[J]. 清华法学,2015(2):96⁃138.
[65] 程莹. 元规制模式下的数据保护与算法规制——以欧盟《通用数据保护条例》为研究样本[J]. 法律科学(西北政法大学学报),2019(4):51⁃52.
The Algorithm Infiltrates the Law Enforcement Algorithm
Accountability System
Wang Xuefan
(Institute of Intellectual Property, Southwest University of Political Science and Law,
Chongqing 401120, China)
Abstract: Algorithmic penetration of law enforcement will be a game changer for traditional platform autonomy governance, effectively centralizing enforcement and adjudication power in the hands of a few large platforms. Based on the privatization of platforms and the profit-driven nature of the platforms, this leads to a high likelihood of biased automated algorithmic decision-making. In the context of algorithmic penetration law enforcement, which mainly realizes public governance functions through architectural regulation and data aggregation, algorithmic penetration law enforcement threatens to lead to insufficient knowledge of infringement in the law enforcement process, unfettered access to information by the public, and non-transparent law enforcement procedures. The intention is to carry out algorithmic accountability throughout the entire process of algorithmic application, which needs to be examined in an all-round manner by combining six principles, namely, the principle of handling data sources and the principle of knowledge before algorithmic application, the principle of auditability and the principle of inspection and testing during algorithmic application, and the principle of interpretation and the principle of access and relief after algorithmic application, so as to realize algorithmic accountability by promoting the transparency of algorithmic infiltration law enforcement and the due process.
Keywords: algorithmic accountability; algorithmic transparency; data sources; informed principle; interpretive principle; platform responsibility