唐林垚
党的二十大报告指出:“中国式现代化是全体人民共同富裕的现代化。共同富裕是中国特色社会主义的本质要求,也是一个长期的历史过程。”〔1〕习近平:《高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告》,2022年10月16日。“随着中国逐步迈入数字经济时代,未来共同富裕必然以数字经济为依托”。〔2〕赵申豪:《数字经济时代下共同富裕的现实挑战及其法律对策》,《人民法院报》2022年5月26日。技术进步通常是经济增长的动能来源,数字经济时代的共同富裕,天然具有“技术驱动”的底色,离不开科技创新发展的有效支撑。〔3〕张文显:《论中国式法治现代化新道路》,《中国法学》2022年第1期。作为“塑造社会秩序的重要力量”,〔4〕马长山:《数字社会的治理逻辑及其法治化展开》,《法律科学》2020年第5期。替代自然人决策的算法决策是一切广义人工智能技术的核心(包括但不限于自动驾驶、人脸识别、内容推送、情感计算、智慧金融乃至元宇宙虚拟人塑造等),〔5〕参见唐林垚:《“元宇宙”的规制理论构建及中国方案》,《上海大学学报》(社会科学版)2022年第5期。必将成为共同富裕政策下技术普惠的重要支点。反过来,共同富裕倡导区域协同合作、产业跨界融合以及企业融通发展,〔6〕参见陈劲等:《共同富裕视野下的中国科技创新》,《改革》2022年第1期。也必将在构架和应用层面影响算法决策的内核,使之从结构单一、流程固定的数据处理范式朝着渠道多元、内涵综合、生态融合的方向实现“范式升维”。遵循怎样的完善路径,才能为算法决策的范式升维提供最优法律制度安排,无疑是共同富裕时期值得学界关注的重大问题。当务之急是深入解构共同富裕视野下传统算法决策的范式转变,在系统性阐释共同富裕核心要旨的基础上,证成新发展趋势对算法决策范式的深刻调整。以此为基础,才能够澄清算法决策新范式存在的全新法律问题,从规范构建和风险规避的视角,探讨算法决策范式升维契合共同富裕政策所不可或缺的法律保障。更进一步,有必要从共同富裕与算法规制的互促互进以小见大,抽象出政策嬗变和技术变革双重外部因素变化下,法律规则“适应性”完善与演进的一般方法论,以期为“百年之未有大变局”和新兴技术层出叠见的新时期的法律制定,贡献独特的理论支撑和立法参考。基于已有理论理解共同富裕视野下算法与法律的关系,当前研究更多地聚焦于通过法律促进科技向善,进而为可分配的社会财富奠定物质基础这一视角,对于如何在富裕的物质基础上藉由算法决策更好地推动“三次分配”,以及算法和法律在实现共同富裕中的相互作用机理等,尚需进行视角补充与转换。
古典自由主义经济学理论最早将技术变革纳入经济增长函数的要素组合之中,同时也意识到技术变革的外部性效应对经济增长的抑制性作用。〔7〕Daniel M. Bernhofen & John C. Brown,Retrospectives:On the Genius behind David Ricardo’s 1817 Formulation of Comparative Advantage,Journal of Economic Perspectives,Vol.32:4,p.227-240 (2018).新古典经济学家们突破了此前的分析框架,提出了生产和物质资本积累过程中劳动生产率提高和技术外溢的“干中学效应”。〔8〕Arrow Kenneth,Economic Welfare and the Allocation of Resources for Invention,in The Rate and Direction of Inventive Activity:Economic and Social Factors,Princeton University Press,1962,p.609-626.创新理论的开创者熊彼特则更加直接,认为技术进步与科技创新能够驱动新的要素组合,以“创造性破坏”的方式带来经济结构的全新质变。〔9〕Robert G. King & Ross Levine,Finance and Growth:Schumpeter Might Be Right,The Quarterly Journal of Economics,Vol.108:3,p.717-737 (1993).上世纪60年代后,一轮又一轮的科技进步和产业革命席卷而来,广义的创新理论逐渐被狭义的创新理论所补充,“后熊彼特主义”下的创新主体不再局限于资本家主导的创新体系,而是被纳入更广阔的宏观和中观视野,强调开放式环境中多样社会主体共同促进技术升级与价值创造,进而衍生出了用户创新理论、区域创新理论、国家创新理论、产业创新理论等。这些理论虽有差异,但无一例外对于法律的正面保障作用予以承认。例如,曼斯菲尔德将科技创新简化为一个相互作用的复杂过程,解释了穿透式法律规则之于技术“黑箱”的矫正意义;〔10〕Mansfield Edwin,Industrial Research and Technological Innovation,W. W. Norton & Company,1968.卡曼和希瓦兹注意到了寡头企业的“赢者通吃”垄断外部性,揭示了反垄断法的必要性。〔11〕Morton I. Kamien & Nancy L. Schwartz,On the Degree of Rivalry for Maximum Innovative Activity,The Quarterly Journal of Economics,Vol.90:2,p.245-260 (1976).
从科技创新与经济增长的线性关联来看,经济发展的质量将越来越取决于其中的科技含量。共同富裕立足于科技创新驱动经济和社会的高质量发展,最重要的莫过于将“用户—社群—产业—国家”驱动的科技创新与技术进步纳入国家经济发展与国家治理能力现代化的理论框架之中。共同富裕代表了“共同善”(Common Good)意义上的“公益”和“共益”发展趋势,是在“彼此信任、相互合作、主动利他”等原则支配道德价值观引领下的时代追求。法律作为共同富裕增长函数中的重要变量之一,其与技术间的理想关系并非单方面的“技术驱动法律进步”或“法律左右技术发展”,而是“法律与技术双向奔赴”直至“法律与技术相互增益”。
前述讨论,是从纵向证成科技创新和共同富裕之间传导关系,凸显知识溢出和规则之治之于价值创造的发展意义。此处将通过与现有新兴技术的一一对应,尽可能直观地澄清算法决策范式升维的未来发展趋势。
共同富裕的关键在于“富裕”,难点在于“共同”,故而,科技创新拉动经济效益增长的单一使命将逐步让位于兼顾社会责任和公共利益的混合使命,〔12〕参见郭丹丹、苏昕:《共同富裕目标下相对贫困治理的逻辑与机制》,《浙江工商大学学报》2021年第5期。这一使命转型直接衍生到算法应用的价值目标选择,表现为自动化决策回归高质量发展和可持续发展的规则软约束,从“量”的增长转向“质”的飞跃。通过大数据技术,三次分配实现反映“实质公平”的精准收益分配,有望解决长期存在的数据收益的分配不公问题;在非信任主体数据相互保密的前提下进行高效融合计算的多方安全计算(Multi-party Computation),是跨行业、跨部门算法决策“提质增效”的应用典范之一。例如,针对明文禁止金融行业共享黑灰名单的法律困境,多方安全计算能以名单“可用不可见”的方式输出涉及个体的联合计算结果,这无疑也将提高整个金融行业风险的联防联控能力。〔13〕唐林垚:《数据合规科技的风险规制及法理构建》,《东方法学》2022年第1期。
共同富裕强调所有市场主体都能享有更大的发展机会,在“蛋糕”做大的同时,拥有更大范围共享发展成果的权利,因此,科技创新不再局限于先锋企业或企业家的市场嗅觉、发展品味与战略视野,而必然将从倚重私人场域的市场导向型创新向涵盖国家逻辑、社群逻辑与社会逻辑的公共创新、行业创新和万众创新转型。创新场域的变化将直接影响模型的训练过程,基于“私域流量”的数据挖掘将被更能发挥“群体智慧”的模型训练方式替代,前沿技术为联邦学习(Federal Learning)。联邦学习可在不共享数据的前提下实现算法决策的“干中学效应”。例如,各国个人信息保护法律均针对生物敏感数据的使用设立较高门槛,联邦学习能够协同多个平行机构开展“智慧医疗”的模型集训,有利于优质医疗资源的更大普惠。
共同富裕有赖于知识溢出的创新红利雨露均沾,只有从“狭路相逢”的内卷逻辑过渡至“合作共赢”的共生逻辑,才有可能在市场主体间形成资源互补的创新生态。深入推进数字经济领域改革、激发市场主体活力等综合目标的达成更多地依赖于大平台向中小平台的“技术下沉”,〔14〕黎峰:《国内垂直专业化分工与区域间技术差距:基于地区—行业层面的分析》,《商业经济与管理》2021年第3期。最典型的渠道是低代码开源(Low-Code),即利用可视化应用开发环境降低对原生代码编写的需求,达到便捷构建应用程序的目的。低代码开源能够降低软件开发门槛、缩短项目交付周期,符合“后熊彼特主义”所推崇的开放式环境中多元创新主体的价值共创,实现知识溢出的即时推广。
共同富裕的最终价值归宿是人民。发展依靠人民、发展为了人民以及发展成果由人民共享的关键,在于要素资源的有效动员、合理配置和充分投产。共同富裕本身并不遵循整齐划一的平均主义,不是无差别的同步、同等富裕,但就促成中间大、两头小的橄榄型分配结构而言,共同富裕旨在缩小而非加剧分配差距。在计算资源的分配上,算力决定了数据处理能力的天花板,但由此产生的数据利用不平衡不充分问题,倘若完全通过产业基础设施优化的方式解决,成本将过于高昂。作为云计算发展趋势之一的边缘计算(Edge Computing),为实现资源高效分配,就近发起算力响应,从而提供了数据源头的解决方案,〔15〕Chen Jiasi & Xukan Ran,Deep Learning with Edge Computing:A Review,Proceedings of the IEEE,Vol.107:8,p.1655-1674 (2019).既可以保护知识产权,同时也可弥合具有硬件优势的“少数人”和被禀赋限制想象力的“多数人”之间的发展鸿沟。
全国信息安全标准化技术委员会公布的《信息安全技术个人信息安全规范》第9.1、9.2条曾对个人信息委托处理和共享转让作出相应限制;中国人民银行印发的《个人金融信息保护技术规范》第7.1条详细规定了个人金融信息在共享转让、加工处理和汇聚融合方面的安全义务。前述几类技术,显然有助于突破现有法律禀赋,真正落实国家发展改革委和中央网信办《关于推进“上云用数赋智”行动培育新经济发展实施方案》中有关建立跨界融合的数字化生态的呼吁。算法决策的上述范式升维尽管在现实层面进展缓慢,但它在理念上早已发生,且已经逐渐在优化社会控制、提升国家治理、促进公平分配等领域崭露头角。具而论之,算法范式升维将在四个方面超越传统的算法决策。其一,极大地改善了算法服务的性价比,特别是通过算力和模型的交流共享促进了知识溢出的红利分享。其二,均衡地协调了存在潜在利益冲突的市场主体间的差异化价值诉求,为涵盖政府、社会、行业的多元利益相关方创造了效率价值与共享价值。其三,推动创新主体的价值创造与战略行为走向新的高阶均衡,放大了各市场主体的价值创造空间并修复了技术应用与所处社会环境之间的割裂。其四,以技术手段实现不同规模、不同类型市场主体在创新过程中的要素融通以及成果共益,强化了个人与组织、市场与政府以及社会与国家之间的多重链接。
无论是强化要素资源配置,还是实现新要素组合驱动的经济发展,算法决策的范式升维必然深刻嵌套于共同富裕的全局视野之下,为赋能社会生产力提升提供新的模式遵循,且强力支撑着共同富裕以及科技强国的整体性实现。在这样的背景下,作为解决“固定计算问题的特定数理路径”的传统算法应用,〔16〕Sarah Valentine,Impoverished Algorithms:Misguided Governments,Flawed Technologies,and Social Control,Fordham Urban Law Journal,Vol.46:2,p.365 (2019).已日益无奈地显现出“过时性”。正因为如此,过去构建于传统算法范式的法律规则,开始承受着来自行业发展和国家政策的“双重重压”,针对算法规制的法律变革已是“箭在弦上”。面对“任重而道远”的共同富裕追求,唯有通过对算法决策“过程流变”的精当描述与风险识别,才能穿透技术发展趋势的实然,去“重新发现”未来良法善治的应然。
生产力与生产关系的更好适应、资源分配的公正合理、效率与公平的有机统一,均离不开法律规则对算法范式升维的引领和钳制。如欲系统性讨论共同富裕时期算法范式升维的法律保障,必先系统性检视算法范式升维的具体风险,考察这些风险背后的安全需求及规制逻辑。
算法范式升维的风险成因是复杂的,主要存在于以下四个方面。
1. 模型脱嵌——目标失范、内控脱焦
算法决策的范式升维导致了结果输出、模型训练、代码编写的“去中心化”。与其说机器学习不再需要“环境固定”这一条件,毋宁意识到数据驱动的新范式克服了主体壁垒的客观障碍,催生了“模型脱嵌”的现象。正因为如此,各类新兴技术的“射幸性”尤其明显,能否切实促进共同富裕,还有待检验。
《互联网信息服务算法推荐管理规定》第6条要求算法服务提供者坚持主流价值导向、优化算法推荐服务机制、促进算法应用向上向善。但是,模型脱嵌极有可能导致算法决策目标失范和内控脱焦。所谓目标失范,是指算法决策的实际目标可能完全脱离原本的设计目标。即便算法范式升维的多项技术具备“风险内化”的法律特征,但算法利用方仍可能在整合各项技术的过程中对法律价值和权利保障目标疏于考虑。所谓内控脱焦,是指算法服务提供商无法通过内部监控机制的提升对因时间、空间等联结形成的特定对象的合法权益提供更精准的保护。易言之,算法范式升维的潜在损害是多因素、多种作用的和合,应对此类风险不可能如同应对传统技术风险那般采取加强动态监管、提升平台义务、监控关键环节等方式。如何针对模型脱嵌的算法决策新形态进行“强弱项、补短板”,现有研究欠缺答案,留待未来法律规制予以回应。
2. 异源同构——转译偏差、责任虚化
算法决策的范式升维可在不与现有《个人信息保护法》冲突的条件下,有效解决运算数据的匮乏问题。不过,数据渠道的拓宽亦带来了不可忽视的风险。首先,互联网等外部渠道数据的来源合法性无法保证;其次,共享模式下数据使用权的流转更加复杂和难以控制,数据使用边界不可揣度;再次,由于数据收集方式趋同、筛选标准僵化,算法决策范式升维的数据聚合过程可能放大数据集的原本瑕疵。
《新一代人工智能伦理规范》针对数字应用提出了包括透明性在内的多项伦理要求,中国国家互联网信息办公室等9个部门联合发布的《关于加强互联网信息服务算法综合治理的指导意见》也将“透明可释”作为算法应用的基本原则。而多渠道和合的“异源同构”数据处理模式,必然将导致转译偏差和责任虚化。新增流程和中间步骤带来了衔接和协作的系统性问题,代码转译过程中的偏误和耗散将更为严重,致使算法决策不连贯、低稳定、难解释。由此产生的另一个结果是,责任虚化问题将异常严重。传统的算法规制都基于这样一个前提:数据处理活动有着明确的合同相对性,责任主体单一、侵权手段明确、损害可以揣度,基于该前提的算法规制和个人信息保护规则呈现出明显的“技术方问责制”的倾向。〔17〕参见唐林垚:《人工智能时代的算法规制:责任分层与义务合规》,《现代法学》2020年第1期。算法范式升维之后,由于有为数众多的参与方横亘在主导方和用户之间,数据处理的层层委托极易演化为“层层甩锅”。如何将以数据主体为保护对象的法律关系在算法范式升维语境中进行重构,是未来法律规制的重点命题。
3. 决策并联——数据回推、人机对抗
算法范式升维带来了“你中有我、我中有你”的运算格局,各参与方之间是“决策并联”的共生关系,牵一发而动全身。虽然对外呈现出不可窥测的“黑箱”状态,但对于内部参与者而言,算法范式升维具备半开放特性,各参与方都能接触到完整的运算参数,攻击者同样可以利用该特性伪装成善意参与方图谋不轨。
《App违法违规收集使用个人信息行为认定方法》明令禁止“未经同意向他人提供个人信息”“未明示收集使用个人信息的目的、方式和范围”“违反必要原则,收集与其提供的服务无关的个人信息”等,但算法范式升维的“决策并联”特性,将可能产生两类相关技术隐患。首先是数据复原隐患。处于并联地位的参与方可能滥用技术手段窥测他方信息,回推并占有用户敏感数据;更有甚者,还可能从单独运算结果同多方计算结果差异、本地模型更新与全局模型迭代、低代码模块组运算过程残余、边缘计算的数据优化记录中,获取相当丰富的推论知识,实现对商业机密的“剽窃”。此外,值得关注的还有人机对抗隐患。参与方可能利用数据投毒、病毒植入等手段强行突破算法系统,获取商业秘密和个人隐私。〔18〕A.Schwarzschild et al.,Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and Data Poisoning Attacks,International Conference on Machine Learning,p.9389-9398 (2021).如何将参与方非均衡性考虑在内,为算法范式升维建立包容激励的风控机制,是未来法律规制的重中之重。
4. 理性前置——执行异化、脱离问责
纵观算法范式升维的全流程,自然人理性几乎完全集中于前端,整体方案的制定、主导方和参与方的意思表示一致等,均在数据聚合、算力投入之前完成。作为中端的数据处理过程以及作为后端的结果输出过程,几乎不再需要自然人的理性介入。一旦进入运算过程,各参与方没有“半途而废”的余地。〔19〕例如,现有联邦学习技术就不支持用户掉线。参见路宏琳、王利明:《面向用户的支持用户掉线的联邦学习数据隐私保护方法》,《信息网络安全》2021年第3期。
《互联网信息服务算法应用自律公约》提出了规范算法应用行为和落实主体责任的建议,但自然人的理性前置将导致执行异化和脱离问责。方案构建是一切算法范式升维的起点,目的在于将抽象的数据处理需求,经由目标对象的选取、安全手段的搭配、合作框架的完善,逐步转变为可操作、可描述、可推广的整体解决方案。但是,居于主导地位的算法服务提供商在方案构建时享有对理性的“绝对垄断”,天然具有将自身利益前置于公共利益的激励。例如,主导方可能将收益作为首要考虑因素,或在选择参与方时采取就近原则、任人唯亲;或在制定安全方案时瞻前顾后、罔顾数据安全。更极端的情况是,主导方可能明面上“以科技创新促进共同富裕”,背地里却“以合法形式掩盖非法目的”。执行异化之外,算法范式升维前端、中端、后端的耦合过程通常只可观察却不可意会,算法服务提供商存在脱离问责的可能性。传统算法规制依赖“算法可解释性”落实算法问责、实现算法公正。然而,传统算法的有限可解释性尚且只能“削足适履”地实现,〔20〕参见许可、朱悦:《算法解释权:科技与法律的双重视角》,《苏州大学学报》(哲学社会科学版)2020年第2期。算法范式升维后环环相扣的全过程可解释性几乎是“痴人说梦”,“客观运行结果与主观预期”之间无法咬合。〔21〕参见苏宇:《优化算法可解释性及透明度义务之诠释与展开》,《法律科学》(西北政法大学学报)2022年第1期。如何缓解因算法范式升维导致的传统人工智能风险泛化,是未来法律规制的终极目标。
算法范式升维的上述风险并非互不关联,它们共同揭示了共同富裕时期政策制定者所面临的全新挑战。对于传统算法风险的法律规制,我国法学界已经不乏探讨,重点关注算法的平等权、生命权风险,〔22〕参见郑戈:《算法的法律与法律的算法》,《中国法律评论》2018年第2期。行为自由、公平裁量风险,〔23〕参见汪庆华:《人工智能的法律规制路径:一个框架性讨论》,《现代法学》2019年第2期。个体权利、正当程序风险,〔24〕参见杨东、武雨佳:《智能投顾中投资者适当性制度研究》,《国家检察官学院学报》2019年第2期。数据安全、社会安全风险等,〔25〕参见裴炜:《刑事跨境取证中的数据安全风险及其应对》,《国家检察官学院学报》2021年第6期。提出了双重筛选的算法责任归因标准、〔26〕参见刘宪权:《涉人工智能犯罪中的归因与归责标准探析》,《东方法学》2020年第3期。以人之主体性而非规制工具效用性为基础完善算法规制谱系〔27〕参见苏宇:《算法规制的谱系》,《中国法学》2020年第3期。以及巧用沟通信任原则重塑算法解释权等解决方案。〔28〕参见丁晓东:《基于信任的自动化决策:算法解释权的原理反思与制度重构》,《中国法学》2022年第1期。在此基础上渐次成型的动态监管理论、场景区分建议、全周期监管学说,被《个人信息保护法》《数据安全法》所吸纳,并直接促成了《互联网信息服务算法应用自律公约》《互联网信息服务算法管理规定》等具有严控数据流动倾向的规范性文件的适用。
与上述立场形成鲜明对比的是,共同富裕所提倡的“统筹数据开发利用”,顺应了“东数西算”等国家工程的发展趋势,与《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中“推进数据跨部门、跨层级、跨地区汇聚融合”的顶层设计相回应。数据是新型生产要素,已被各国政府所承认,〔29〕参见杨东、臧俊恒:《数据生产要素的竞争规制困境与突破》,《国家检察官学院学报》2020年第6期。助推传统产业转型升级、打造新产业新业态新模式、壮大经济发展引擎,均以充分发挥数据要素对其他生产要素的“倍增作用”为先决条件。共同富裕时期,有必要兼顾算法规制在数据效能释放和个人信息保护的权衡取舍方面同过去算法规制大异其趣的判断标准,以便对未来算法决策的法益衡量体系予以补充和细化。此外,基于个人信息保护的算法规制措施的实际效率同既定场景中潜在施害者能够获得数据的丰裕程度、个人信息同集体信息的联络水平反向相关。《个人信息保护法》第5、6条奠定的数据处理的“最小必要原则”正是通过降低信息丰裕度和联络度的方式打断算法的过度约束。然而,升维至更加高级范式后,传统的规制措施即暴露出保护能力的短板。随着价值创造共享的“三次分配”,海量数据多源头聚合是算法决策范式升维的必然常态,数据、代码乃至硬件环境事实上的“交互联通”将愈发不能缓和社会之于技术可控的忧虑。〔30〕参见唐林垚:《隐私计算的法律规制》,《社会科学》2021年第12期。
过去的法学研究过度集中于“算法权力异化”的恶果避免,对“算法过程异化”的风险防范呼吁则让位于“塑造良善的智慧治理秩序”的价值追求。〔31〕苗梅华:《智慧治理的时代面向与挑战》,《国家检察官学院学报》2020年第1期。与之相区别,接下来的讨论将深入算法“过程异化”的各个阶段,重点关注传统算法规制的路径依赖难以覆盖的风险盲维,以及公权力、私权力和私权利间的“结构性转换”。〔32〕唐林垚:《公共治理视域下自动化应用的法律规制》,《交大法学》2022年第2期。在共同富裕政策的推进过程中,各“算法密集型”行业必然产生新旧秩序的更替——以企业或平台为边界的科技创新,将逐步融为公私互助、跨行业跨区域融合的数字生态的一部分。诚然,任何技术的“创造性破坏”并不当然指向专门立法或特别监管,但就算法范式升维而论,法律回应不应简单地建立在风险增量基础上,而应当深入审视安全需求的内涵发生的变化。
为推动真正意义上价值创造共享的“三次分配”,算法决策新范式呈现出“去中心化”“扁平化”“透明化”等多重特性,但归根结底,其最重要的全新特征是“融贯性”。融贯性既不同于“融合性”,也不同于“一贯性”,是指名义上各自独立的数据处理环节在内部规则的协调下进行网状联结和动态交互,从而实现环环相扣的算法目的的规整和统一。
回归到具体的技术层面,共同富裕导向下的算法自动化决策升维内含四层融贯性。第一层是系统融贯,即升维后的算法自动化决策系统具有全面性和“前后一致性”,〔33〕Jaap Hage,Law and Coherence,Ratio Juris,Vol.17,p.90(2004).各参与方之间能够形成相互支持关系。第二层是周期融贯,即算法自动化决策的各个流程能够有序地“胶合在一起”,〔34〕Neil Mac Cormick,Coherence in Legal Justification,in Scott Brewer ed.,Moral Theory and Legal Reasoning,Garland Publishing Inc. Press,1998,p. 267.并在整体上产生全新的意义。第三层是环境融贯,即算法决策的“编码层”具备横向扩展性和纵向兼容性。第四层是利益融贯,即算法决策的创新价值分配转变为多元利益相关方的共赢共益式分配,商业价值与社会价值从假性对立走向和谐统一。
算法决策范式升维的融贯特性源于技术发展逐渐形成的复合型运营构架。从升维路径观察,能够促进共同富裕综合目标实现的算法范式须至少包含三个交叠递进的构架维度:决定基本功能和最终目的的方案构建维度,决定技术手段和实施方式的关系扩张维度,决定数据来源和合作主体的平台交互维度。各维度间的“彼此串联”和“内在连续”,是实现高效优质算法决策的关键。可见,法律介入算法决策范式升维的治理过程,应以弥合各个维度间的关联区隔和逻辑断裂为基本目标。随着各个构架维度的不断细化以及维度间的互动不断加深,共同富裕视野下的全新算法范式对应着三重前所未有的安全需求:一是方案构建的目标安全,禁止技术优势方以“共同富裕”之名行“中饱私囊”之实;二是关系扩张的技术安全,在提升“知识溢出”的同时尽量减少“风险溢出”;三是平台交互的数据安全,即算法决策范式升维的“创造性破坏”不得动摇继续加强个人信息保护的整体共识。三重安全横跨个体、技术方和国家,共同构成了共同富裕视野下算法决策范式升维的总体安全需求。
精确把握算法范式升维所依托的各项新兴技术的性质、样态和趋势是未来法律完善的基本前提。正确的切入方法应该是,以静态视角观察传统算法决策、以动态视角观察新兴技术的涌现,并以融贯的视角观察传统算法决策为满足共同富裕的要求而发生的范式升维。据此方法,共同富裕时期算法决策的法律保障既包括传统算法规制的制度延伸,也包括针对新兴技术的动态规制,还包括顺应未来发展趋势的法律准备。概而言之,算法范式升维的法律应对不能仅作“头痛医头、脚痛医脚”式的探寻,而需将算法升维的大势所趋和由此引发的过程流变纳入考量视野,以发展的眼光寻求“以变应变”的治理之道。
共同富裕依赖“技术赋能”促进“三次分配”,算法决策也因此朝着“多重融贯”的趋势发展。然而,此番趋势越是加深,算法应用的场景增量和法律规则的固有存量间的张力便越发凸显,这源于循序渐进的国家法律在面对日新月异的技术变革时,存在立法理念滞后、规制思维局限以及风控意识欠缺等问题。为消除算法范式升维的风险盲维,宜在宏观层面确立适应共同富裕需求的算法治理理念,逐步探索贴合中观发展趋势的规制方略,最终在微观层面构建精细、开放、统合的法律规则。
算法范式升维在横向扩展和纵向兼容方面的融贯性,可能将非其直接受众的芸芸众生都“卷入”其中。例如,算法决策的“精密化”趋势天然排斥观点的多样性,致使公共决策名不副实,最终受害的是每个独立的个体以及组建于个体之上的国家。〔35〕参见齐延平、何晓斌:《算法社会言论自由保护中的国家角色》,《华东政法大学学报》2019年第6期。在“减贫”和“均富”导向下,算法决策的新范式通常具有普惠、包容、精准等优势,但其潜在外部性也可能导致难以估量的社会成本向弱势群体的不合理转嫁。这就好比产能增长能给工厂和工人都带来更好的收益,但由此加剧的环境污染问题,却由工人和工厂周围的居民概括承受。增产导致工人过劳,工人尚可主张工厂赔偿,而环境污染的恶果可能需要历经多年才能逐步显现,待当事人觉察再行救济,早已过了“亡羊补牢”的最佳时机。有鉴于此,越是契合“共同善”的算法范式升维,就越应当警惕在当下难以察觉、在未来积重难返的潜在算法“公害”。
笔者以“涉众”的称谓,统摄算法范式升维的直接、间接和潜在利益相关者,主张以“涉众”而非“受众”为中心重构传统算法规制体系。“涉众”的概念外延宽于“受众”,后者通常仅指算法决策相对方,即智能服务的用户、平台经济的消费者、数据处理活动中的数据主体等;“受众”同算法决策提供方之间是直接的合同关系,受明示的“知情同意框架”的约束。前者则囊括了一切在当下、在未来同算法范式升维息息相关的主体,包括但不限于受算法调配指挥的社会公民、被技术进步所感化的普通大众以及长期缺乏话语权乃至被数字技术“边缘化”的落后群体。〔36〕截至2022年2月,我国尚有27%的人口无法接触到互联网,农村地区的互联网普及率仅为57.6%。参见中国互联网络信息中心:《第49次中国互联网络发展状况统计报告》,2022年2月25日。“涉众”可能同算法服务提供方之间无合同关系,但可能在未来的某一时期间接被算法范式升维的“技术规约”所涵盖。从保护“受众”向保护“涉众”的理念转变,反映了对方案构建目标安全的内在追求,有助于解决因模型脱嵌和理性前置导致的新问题。兹列举两则具体建议,为未来制度构建抛砖引玉。
1. 推进涉众集体诉讼的市场化监督体制
集体诉讼是解决群体损害、保护用户权益、节约司法资源的灵丹妙药。新《证券法》规定,投资者保护机构可在受50名以上投资者委托时以代表人身份参加诉讼,2020年7月公布的《最高人民法院关于证券纠纷代表人诉讼若干问题的规定》将证券纠纷代表人诉讼分为 普通代表人诉讼和特别代表人诉讼,允许受损害投资者作为代表人,依照“明示加入”原则,代表其他众多因同一证券违法行为遭受损害的投资者提起民事损害赔偿。〔37〕吴黎华:《资本市场投资者保护开创新格局》,《经济参考报》2021年12月1日。面对算法范式升维的潜在危害,集体诉讼同样可为零散的“涉众”提供便利、低成本的维权渠道,其“积铢累寸、聚沙成塔”的赔偿效应能够对算法范式升维的监管套利行为形成强大的威慑力和高压态势。更重要的是,面对异源同构所导致的转译偏差和责任虚化等问题,数名相同境况“涉众”遭受“共同损害”的事实有利于建立算法决策和损害发生间的因果关系,即便算法新范式缺乏可解释性,法官亦能基于“昭然若揭”的“现实经验”进行合理的责任推定。例如,在联邦学习中,不同来源数据的强搭和错配可能对模型共训的联合数据造成扰乱,导致单个数据主体不易察觉的“隐形算法歧视”,但当海量“涉众”都面临极其不利的算法决策结果时,假借模型共训之名、从数据向结果蔓延的群体伤害便不再隐秘。
2. 以“可阐述”取代“可解释”的透明度标准
在提供精准“受众保护”的同时兑现更大范围“涉众保护”的承诺,将使得传统的算法透明度标准从“可解释”向“可阐述”转变。这一方面是由于算法可解释性本身就是一种代偿性策略;另一方面则是出于对“解释”行为本身的质疑。从字面上来看,解释系“分析阐明含义、原因、理由”,〔38〕中国社会科学院语言研究所词典编辑室:《现代汉语词典》,商务印书馆2012年版,第666页。其意义在于通过观察和思考最终超越事实本身,提出新的见解。〔39〕[美]《国家科学教育标准》科学探究附属读物编委会:《科学探究与国家科学教育标准—教与学的指南》,罗星凯等译,科学普及出版社2004年版,第26页。可见,解释是基于本体的认知对客体进行因果联结,由此产生的一切形式的因果规律都负载着主体的主观意识。而“阐述”则正好相反,聚焦于对事实和可以被观察到的状态的“明晰地陈述”,不需要主体对此有任何演绎和论证的过程。
算法范式升维产生了一个个相互堆叠的技术黑箱,各项新兴技术普遍存在“解释不能”的情形,更何况,事后添加的解释,其说理方式极易“合乎情理”地演化为对政治和经济目的的盲目顺从:在诸多可能的解释中,出于自身利益或合规要求的考虑,选取一种最能够自圆其说的解说,但受众或涉众对此均无法证伪。〔40〕参见唐林垚:《公共卫生领域算法治理的实现途径及法律保障》,《法学评论》2021年第3期。事前的知识是理解的基础,但即便是科学方法也不足以解释真相。〔41〕参见[德]汉斯-格奥尔格 · 伽达默尔:《诠释学:真理与方法》(下卷),洪汉鼎译,商务印书馆2021年版,第150-166页。将理解视为人的“存在方式”,伽达默尔认为,对话可以使“理解”变得从容和简单,通过“你来我往的言说”“在视野中呈现”真理。〔42〕同前注[41],第575-579页。
为减少算法服务提供商执行异化和脱离问责的可能性,算法范式升维的“可阐述性”应当满足“相关者融贯”标准,具体划分为五个对话层次。第一层次针对的是用户和受众,即直接数据主体,要求算法服务提供商通过尽可能简单的语言,清晰阐述算法决策背后的技术 原理、数据调用的大致范围以及可能存在的系统故障等。第二层次针对的是技术共益方,即各参与方,要求算法服务提供商就方案构建的具体考量因素、流程安全的特别保护措施以及数据清洗的统一处理规范进行阐述,尽量减少算法范式升维中的“精致利己行为”。第三层次针对的是政府和监管部门,要求算法服务提供商主动阐述算法应用的安全性和可问责性等,并阐述采取了何种措施来保障算法利用是善意的、负责任的。第四层次针对的是业内行家和技术专家,要求算法服务提供商对所使用的各项技术进行细致入微的信息披露,包括但不限于各项技术的合理性、适用范围以及历次优化记录,尤其是未经时间验证的新兴技术的使用缘由、潜在风险及风控措施等。第五层次针对的是广大涉众,即非直接数据主体,要求算法服务提供商着重阐述算法决策背后的各项理念,以及服务盈利的基本模式、企业社会责任等,并就此作出算法决策不违背公序良俗、不危害公共利益的公开承诺。
马克思指出:“人的本质……是一切社会关系的总和。”在传播学界,被广泛接受的关于“人设”的精准表述是:“身份是自我展现的社会镜像。”〔43〕Roosendaal A.,Digital Personae and Profiles in Law-Protecting Individuals’ Rights in Online Contexts,Wolf Legal Publishers Press,2013,p.20.无论升维与否,算法决策依赖机器学习模型通过海量大数据“温故而知新”,在算法看来,数据主体既是“一切数据关系的总和”,也是“透过数据展现的数字镜像”。数据主体的个人信息之所以得到保护,是因为其体现了自然人的可识别性;而个人信息保护的对象,并不局限于个人信息本身,更包括“个人在各种社会关系中身份构建的自主性和完整性”。〔44〕陆青:《数字时代的身份构建及其法律保障:以个人信息保护为中心的思考》,《法学研究》2021年第5期。
为实现关系扩张的技术安全,个人信息保护的重点须从运算结果的“输出端”向数据服务的“过程端”转变,亦即,在保护个人信息“数字身份”的同时,额外注重对个人数字身份“生成方式”的保护。具体而言,在“输出端”,法律着重保护的是个人数字身份的完整性和准确性,预防碎片化的信息搜集通过差强人意的算法决策给数据主体的生活和发展带来不利影响在数据服务的“过程端”,法律应着重保护的是数据的聚合过程和叠加方式,特别是自由数据与第三方数据的交互和化合过程,可能给个人数字身份构建带来哪些积极或者消极的变化。由于个人数字身份具备一经显化即附着于复杂社会关系的虚实关联性,恢复性的救济方式无法在实质上消除负面影响。〔45〕参见叶名怡:《个人信息的侵权法保护》,《法学研究》2018年第4期。与单纯聚焦运算结果“输出端”的法律制度相区别,关注“过程端”的制度构建将额外做出两点改变:一是在预防性上下功夫,追问协同合作与融通发展愿景下的数据处理机制,尤其是集体数据的“涌入”将在何种程度上干预算法范式升维的决策过程。二是赋予个人信息保护以团体性价值,进一步整合公法和私法层面的保护措施,制定“受众”“涉众”双双受益的差异化规则。
1. 个人信息保护影响的参与方“共同评估”
在算法范式升维的过程链条上,某些参与方可能因为对梯度数据等过程数据的处理而成为“次数据处理者”,也可能因为受主导方委托代为处理数据而成为“从数据处理者”,还可能因为促成了数据供需方的数据交换而成为《数据安全法》第33条所定义的“数据交易中介服务机构”。无论是上述哪种情形,参与方都必须履行《个人信息保护法》第55条规定的“个人信息保护影响评估”,主动检验数据处理活动的合法合规程度。为了更好地保障平台交互过程中的数据安全,除第56条规定的“目的和方式是否合法、正当、必要”“对个人权益的影响及安全风险”“所采取保护措施是否与风险相匹配”等内容,针对算法范式升维的“个人信息保护影响评估”还应增加以下“共同评估”内容:其一,各方清洗后的数据是否做到了编码、口径、格式方面的统一,是否会加剧整体数据集的原有缺陷;其二,主数据处理者和次数据处理者、从数据处理者、中介服务机构之间是否存在有效的科层制约,彼此之间是否预设单向合理的权限递减机制以精准把控数据的流动范围。此外,通过法律的因势利导,建立各大算法圈层内部适用的参与方声誉机制,对于过程安全性的提升亦十分重要。
2. 平衡权力结构的平等权利设计
在结果输出之前,允许数据主体适当阻断对自身不利结果的输出过程,是缓解因技术优势滥用导致权力分配失衡问题的关键所在。考虑到个人数字身份具备脆弱性和损害不可撤性等特点,可在符合算法新范式流程的基础上设置行权效果强于传统“删除权”和“被遗忘权”的“解除权”,允许数据主体将个人信息从算法范式升维的过程中“抽取”出来并自由决定其个人信息在不同数据处理者之间的流转。为此,《个人信息保护法》中“个人信息转移权”制度须同数据销毁制度等结合,向上框定个人“可转移”的权利客体范围,向下完善“归于消灭”的数据处理流程末端的“最后闭环”。在理想情况下,数据主体还可主动行使“归并权”,即,以明示同意允许其个人信息在特定数据处理者之间“为实现更精准算法结果”的合并和协同处理。不过,“归并权”对数据规整程度的要求极高,需要来自数据主体的更高配合。遵循保护个人数字身份生成过程的全新理念,可酌情赋予数据主体在特定时间节点行使的“陈情权”,就不公正的算法决策请求公平聆讯和行政复议的机会,让“同为自然人”的政策制定者和专家委员会充分关注算法范式升维可能存在的过程风险,并相应制定出更加智治为人、以人为本的技术规则。为了杜绝权利滥用,“解除权”“陈情权”的行权主体应为算法“受众”而非算法“涉众”,但权利教育的普及对象应从“涉众”抓起,以便最大限度减少“权利的睡眠者”。〔46〕相应的,应当在行政法层面建立具备“开放性、调试性、统合性的法律控制体系”,以便“超越单纯的个案考量,形成处理不确定性问题的积累型框架”。苏宇:《面向不确定性的行政裁量及其法律控制》,《经贸法律评论》2020年第4期。
每种技术都将在一定程度上重塑人类的感性生活,构造出不同的组织方式,进而改变人与人、人与物之间的关系。当算法决策与共同富裕等宏观目标相勾连时,算法决策就已经脱离了具体的、可见的、简单的“物”,成为“社会文化现象”投射的一部分。在埃吕尔看来,虽然人能够赋予技术方向和定位,并为此目的而控制它,但技术同样具有自身的目的,其“自主逻辑”是如此深刻地影响着整体社会的价值和意义,以至于“处在技术系统中的人们的行动和思考都被技术因素改变”。〔47〕Jacques Ellul,The Technological Society,Alfred A. Knopf Press,1964,p.140.海德格尔将技术视为通过创作和产出将新物“带出”和“达乎显露”的解蔽方式,关注到了技术解蔽对其他解蔽方式的倾轧,并以“集置(Ge-Stell)”的隐喻描述“那种把人聚集起来、使之去订置作为持存物的自行解蔽者”的促逼,〔48〕参见[德]马丁 · 海德格尔:《演讲与论文集》,孙周兴译,三联书店2005年版,第20页。而万事万物只有作为被订置的“持存物”才有其立身之所。
技术对自然的促逼源于“技术把主体性形而上学的主—客对象性关系展开为一种人与自然的暴力关系”,〔49〕孙周兴:《技术统治与类人文明》,《开放时代》2018年第6期。但技术对人的促逼远甚于此。技术可能通过帮助人类实现特定目标,再反过来将人类纳入“集置”之中,而人类对此可能浑然不觉。例如,人类自以为自己是算法的操纵者,是利用算法实现特定目标至高无上的主体,集置着有利于社会发展的一切。殊不知,当人将特定目标作为其努力和奋斗的目标并试图通过算法手段予以实现时,人本身何尝又不是一种被算法所占用的“解蔽方式”呢?换言之,算法技术为了自身的“安身立命”和“繁殖”,促逼着人要求人把特定目标当做一个阶段性任务来完成,人已经更为先验地归属于被订置的“持存物”而履行某种功能;此即算法范式升维的第五层融贯——社会融贯,即算法凭借其“准公权力属性”反过来对社会大众产生持续而全面的规训效应。此时,算法技术作为订置着的解蔽,已不再是纯粹的人类自主行为,恰恰相反,难逃算法“魔爪”的人们在事实上以一种特别的方式被促逼进入了解蔽之中。
此外,算法技术还可能超越人和自身以及存在者的关系,对人类社会产生危害。任何占统治定位的订置,均有激励去驱逐其他解蔽的可能性,甚至遮蔽具有“产出”意义的技术进步本身,亦即,遮蔽任何具有解蔽意义的解蔽。以算法范式升维对应的既有新兴技术为例:2020年7月,欧盟法院判决欧盟—美国隐私盾无效,〔50〕Commissioner v. Facebook Ireland Limited,Maximillian Schrems(Case C-311/1).为了缓解两大经济体之间的“数据荒”,欧洲数据保护委员会(EDPB)于同年11月印发《补充传输工具以确保遵守欧盟数据保护水平措施的建议》,将多方安全计算、联邦学习、边缘计算等涉及数据的“拆分或多方处理”的技术手段视为跨国数据处理主体主动合规的证据。各国纷纷跟进,前有英国《公共部门数据使用信任问题解决方案》,后有美国《促进数字隐私技术法案》等,均将算法范式升维视为值得信赖的数据利用模式。由此观之,无论是作为共同富裕的技术支撑,还是各国数据主权博弈的合规手段,各类支撑算法范式的新兴技术均是具有一定“排他性质”的订置物,非其不可满足共同富裕的数据效用追求亦或是跨境数据交流的区域安全观,这就将遮蔽其他可能存在的解蔽方式,反而可能导致数字社会的发展停滞甚至退步。在政策嬗变和技术变革双重外部因素作用下,应对未来技术挑战的法律准备可从以下两个方面着手。
1. 鼓励全面多元的技术发展路径
在“集置”的牵引下,技术所体现的科学性已经不仅仅局限于技术使用者对世界的科学认知,而是在技术发展演进过程中,技术对周遭智力资源、社会财富以及政策投入的“虹吸”和“卷入”,让个体和社会都被集置在高度系统化的技术逻辑中,进而被促逼着去贴合、顺应这种集置的“科学需要”。对此,“后熊彼特主义”下的国家创新理论和产业创新理论带给我们的启示是,务必警惕将产业政策和财税工具的优惠过渡集于某一主体或技术、使其科技实力在短期内迅速攀升的作法,而应强调政府部门和私营部门之间的协调与衔接,通过权责清晰、约束力强、可执行性高的法律指引,最终形成科技创新、社会发展、环境改善、产业振兴协同耦合的政策合力。为了缓解共同富裕国策下部分示范性技术对其他技术的排挤,应当允许地方政府根据自身优势和禀赋制定行政法规或发展规划,鼓励有条件的创新主体在人工智能垂直细分领域开展全域自研,对于长期从事非直接实用性基础研究的企业和机构进行专门认定并给予配套支持,最终形成有利于多元化技术发展的创新 生态。
2. 确立智治为人的法治建设目标
算法决策的范式升维固然是科学技术进步发展的体现,但与此同时,我们也应时刻警惕算法技术在发展得更为先进之后,形成具备科学性超验的价值系统,并通过打消个体主动认识世界的主观能动性,使之逐渐被限定于集置的超验价值观中,进而不得不完全听任“算法网络实时监测和指挥”。〔51〕[以]尤瓦尔 · 赫拉利:《未来简史》,林俊宏译,中信出版社2017年版,第296页。换言之,算法的技术规程虽秉承于人的自由意志,但当人的思想表达必须遵循算法建立的社会规范而展开时,这便是另一种真实存在却又“表里不一”的自我言志。为了防止算法范式升维的“本末倒置”式滥用与“作茧自缚”式扩张,有必要对未来技术应用的法治建设目标进行梳理与排位。共同富裕旨在对人的全面发展有所促进,使人处于幸福感高位,而不是处于安德斯在《过时的人》一书中描绘的当人意识到“不如自己创造的机器”时那种惶恐不安的状态。〔52〕[德]京特 · 安德斯:《过时的人》(第1卷),范捷平译,上海译文出版社2010年版,第6页。所以,未来法治建设的首要目标在于遏制算法因升维导致的“跑偏”和“变味”,坚持以人为本,将“智治”与“德治”充分结合。此外,个体挣脱被动性服从的要点是避免“真善美”的价值判断被技术所垄断,有鉴于此,未来法治建设的另一重要目标便是为“科学性超验”而非科学性本身提供可能的指导和庇护,通过更加充分的规则准备迎接算法社会的“奇点临近”。
算法决策的范式升维,有助于提升人民群众的幸福感、获得感和安全感,反映了前沿科技提升国家治理水平、支撑共同富裕的美好愿景。前瞻研判算法自动化决策的范式升维,使之在法治轨道内安全、合规地发挥支撑共同富裕以及推动社会主义现代化强国建设的作用,是新发展阶段下法学界应予以充分关注和仔细研究的重要问题。即期内行之有效的强监管手段,可能在远期抑制产业的创新活力,不符合共同富裕的高质量发展需求。以融贯视角审视 算法范式升维的三重安全需求,传统算法规制的各项制度可以经由“涉众—受众”“结果—过程”“遮蔽—解蔽”的认知方法论予以改良,使新时期算法决策的法律规则在保留既有制度功能及优势的同时,又符合共同富裕时期技术治理的发展需要。在滚滚向前的技术洪流面前,政策制定者宜秉持“有为”和“有不为”的开放态度——法律真正应当回应的是如何使算法权力朝着预设轨道合理行使,而不是如何根除算法权力的异化风险。