肖红军 商慧辰
随着平台商业化的逐步深入,大数据和人工智能技术的研发和应用逐渐集中于大型平台。数据、算法、算力相辅相成,在平台的运用下以颠覆性和变革性的节奏将我们带入算法时代。拥有核心算法的大型平台可以迅速获知互联网平台用户的信息和轨迹,对市场行情作出精准判断并轻松获取市场竞争优势地位。算法使得平台在市场信息收集、用户偏好判断、资源配置优化、交叉网络外部性构建等方面存在以往技术难以替代的计算优势,算法成为驱动平台资本主义运行的“内燃机”。借助算法的力量,平台与用户和社会保持着看似“轻链接”的中立关系,平台行为表面上是算法自动化决策的结果,在运行过程中却因算法技术自身因素和平台价值偏好引发系列算法失当问题。对于消费者来说,基于用户行为的推荐与过滤算法导致的个性化排名和差异化定价,通过向用户提供碎片化认知操纵用户轨迹,实现价格歧视,侵害消费者福利;对于平台竞争业态来说,不仅平台和企业自身可以通过算法压制竞争对手曝光度、排斥新进入者,平台之间、企业之间亦可以通过算法实现隐性或显性合谋,损害市场公平竞争环境。算法黑箱的存在以及各式各样的算法歧视、算法合谋、算法霸权等算法失当行为引发了学术界和业界对于平台算法的信任危机,针对平台算法的监管迫在眉睫。
平台经济下的算法监管引起了国内外政府和社会的高度重视。一方面,关于普适性算法监管的制度供给不断涌现。2018年5月,欧盟全面施行《通用数据保护条例》,提供了有关算法自动化决策的行为指南,以个体赋权为主要形式的算法治理路径由此展开。2021年4月,欧盟委员会公布了《关于“欧洲议会和理事会条例:制定人工智能的统一规则(人工智能法案)并修订某些联盟立法”的提案》,确立了算法应用主体和政府在算法应用过程中应遵循的底线原则,并界定了基于风险等级的算法应用场景。相应地,美国于2017年12月签署通过了美国立法史上第一个对公用事业领域算法进行问责的法案,即《算法问责法案》;2019—2022年,美国立法者相继提出并持续更新《算法责任法案》,旨在为软件、算法和其他自动化系统带来新的透明度和监督方式。中国近年来也愈加意识到算法监管的重要性。2021年,《国务院反垄断委员会关于平台经济领域的反垄断指南》《中华人民共和国个人信息保护法》《关于维护新就业形态劳动者劳动保障权益的指导意见》印发,对算法自动化决策亮起了“红灯”,以保护用户数据隐私,维护劳动者权益;国家互联网信息办公室等部门联合印发《关于加强互联网信息服务算法综合治理的指导意见》,以加强互联网信息服务算法综合治理。另一方面,监管机构逐步认识到平台作为算法的设计者、拥有者和使用者的角色地位,针对平台算法的制度供给进入公共治理视野。2020年12月,欧盟委员会发布《数字市场法》与《数字服务法》提案,对其互联网领域的规则进行全面改革,构建了网络平台特别是大型平台的梯度算法责任体系。中国也于2021年逐步加强了针对平台算法的制度规制。2021年10月,国家市场监督管理总局公布《互联网平台落实主体责任指南(征求意见稿)》《互联网平台分类分级指南(征求意见稿)》,推动平台企业落实其算法规制责任。同年12月,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合发布《互联网信息服务算法推荐管理规定》,将应用算法推荐技术向用户提供信息的算法推荐服务提供者特别是大型平台作为算法治理对象。为响应《互联网信息服务算法推荐管理规定》,国家互联网信息办公室牵头开展“清朗·2022年算法综合治理”专项行动,重点检查具有较强舆论属性或社会动员能力的大型网站、平台及产品,推动算法综合治理工作常态化和规范化。但是目前特别是国内平台算法监管仍处于起步阶段,针对平台算法监管的系统性研究不足,平台算法监管的逻辑起点尚未明晰,在如何达到适度的监管强度与合意的监管模式等方面仍存在一些争议,平台算法监管仍存在较大的研究空间。
随着平台算法监管实践的不断推进,理论界也在不断探索平台算法监管的完备体系与理想模式。现有对平台算法监管的研究集中于以下方面:其一,部分学者针对特定的平台算法议题进行研究,一方面重点关注平台应用算法推荐技术带来的伦理学风险,认为算法推荐技术会逐步让人类社会陷入“技术拜物教”的泥潭,并相应地提出了伦理风险治理方案;另一方面则关注平台算法应用带来的社会经济议题及其治理方案,如从算法合谋的类型、危害、治理方式,算法黑箱的成因、风险和规制方案,算法歧视的分类、界定、治理模式等具体算法议题出发,试图剖析各类危机产生的机制,探索危机治理方案。其二,另有一些研究重点关注平台算法的特定应用场景,如针对人工智能医用软件平台、第三方支付平台等算法应用场景提出相应的风险控制与算法治理方案。其三,学术界也开始系统性关注平台算法监管模式、平台算法监管实现路径等方面,对欧美以及中国的平台算法监管 体 系 进 行 剖 析 和 梳 理,并 试 图 从 法 律 规制、技术监管以及协同治理等角度探索平台算法监管的理想方案。尽管学术界对于平台算法监管作出了多条路径的积极探索,对平台算法监管具有重要的理论和实践价值,但目前平台算法监管仍存在许多理论探索的空间,尤其是对平台算法监管的逻辑自洽性和全景式监管模式的刻画,有必要进一步进行深入探究和讨论。
探究平台算法监管的逻辑起点,是为了明确平台算法监管的紧迫性、正当性与自洽性,即回答为什么要针对平台算法进行监管。平台算法监管的逻辑起点主要可以从技术逻辑、发展逻辑、现实逻辑和责任逻辑四个方面予以解读。
现代计算机算法概念主要来自20世纪英国数学家图灵提出的图灵论题,即一种通过在无限长的纸条上进行打孔计算的计算机假象模型,算法则是这个计算机抽象模型解决不同问题的不同方法和程序。随着迈入人工智能领域,机器学习算法成为主流,其通过设定某些参数条件使计算机自动生成算法,即“算法的算法”,逐渐类似于人类大脑学习的方式,从而使算法能够自我改进、自我学习、自我强化。具体到平台情境,平台算法作为平台功能得以实现的技术载体,体现为人机交互的决策机制,而平台算法监管的正当性恰好与算法在人机交互过程中是否中立的认知密切相关。部分学者坚持技术中性论,哈佛大学教授梅赛纳的观点即技术中性论的代表性观点,其认为技术应用的目的和其产生的经济社会影响,均与技术本身固有的性质无关,而与“人”通过技术来做什么事情紧密相关,因此只需要对操作算法的“人”进行监管。但是,在人工智能技术成长的各个阶段,不可解释性、不确定性、鲁棒性较差等特征一直伴随着算法的发展且从未被完全解决,算法难以在运行中保持完全中立。
一方面,平台内算法黑箱的存在成为平台算法社会问题生成的内生逻辑,平台算法背后的决策逻辑难以进行理解、预测和评估。某些时候,算法与云数据、深度学习等前沿技术结合后会带来技术不确定性和不稳定性,在算法自动化决策运行和资源配置过程中,算法歧视、算法权力扩张等成为算法运行过程中内生的技术隐忧,并在深度学习中不断加强和固化,最终造成难以察觉、预测和纠正的恶性经济社会影响。另一方面,尽管技术本身是自由的、中立的、去中心化的,在当前平台应用情境下,算法可以通过系列指令产生自动化决策逻辑,自由地对平台内数据流和信息流进行处理。但处于弱人工智能发展阶段的算法仅具有“异质自治权”,这一能力是在一定范围之内为算法提供最高程度的决策自由,而非无限自治权,其决策过程中仍然隐含承载着平台的价值观和主观决策意图,这种主观决策意图偏见可能来自编程者无意识的编入,也可能来自输入数据自身反映的社会偏见。总之,随着资本力量的介入,算法和技术的可规制性、中心化程度会越来越强。以上问题的出现主要源于技术理性的内在悖论,技术理性可划分为工具理性与价值理性两个维度,而平台算法作为技术与平台、用户互动的产物,其在运行过程中必然会纳入“人”的价值和需要。若价值理性克服工具理性,则会催生算法“技术向善”,技术发展和应用逐步契合于人类社会的总体价值取向;一旦平台内部以经济目标主导的经济逻辑相对于社会逻辑占据主导地位,工具理性占上风,算法设计应用过程就倾向于将算法视为牟利工具,算法失当行为可能就会出现,催生出社会公平正义被破坏、个体权利不对称、伦理行为异化等社会风险。平台算法在数学计算指令中隐藏着来自技术自身、输入的数据或者平台赋予的价值偏好和价值歧视,导致价值理性与工具理性两大维度之间的固有矛盾成为平台算法运行难以保持中立的重要原因。因此,对算法进行监管,对保证平台算法决策结果的合意性和平台运行的稳定性具有重要意义。
随着计算机编程语言不断丰富,算法应用场景也逐渐从信息传播扩散至自动驾驶、虚拟现实、区块链、公共管理等多重领域。社会分工的存在更使得算法研发呈现分散、便捷、多样化等特征。算法的可得性逐渐增强,相应地,其运行过程中的衍生风险也逐渐增长。由于算法的应用而产生的算法风险则开始从特定的算法应用开发者和网络平台逐步分散至独立的算法研发专业人员以及利用算法模型进行训练的算法用户。甚至在没有商业资质的情况下,算法的研发和应用依然可以被迅速搭建。平台算法风险不仅来自平台经营者本身,而且来源于在平台之上应用算法的分散式的算法开发者,爬虫算法以及各类信息技术知识社区的存在使得平台算法风险范围进一步扩大。
在深度学习领域,基于人工神经网络结构的复杂层级使得输入数据与输出结果之间存在监管审计机构、社会公众甚至开发人员难以触摸和理解的“黑箱”,算法技术开发设计、系统数据输入、平台算法部署、算法自动化决策、决策结果输出等任一环节的缺陷都会引发难以估计和预测的系统风险。平台在算法技术层、算法基础层、算法结果层之间分别产生技术类风险、数据类风险、决策类风险,三个层次之间相互依存、相互传导。此外,算法设计运行的逻辑逐渐隐于暗处,表现出不可知性,体现为决策结果的算法外延与通过程序代码和内在计算过程实现的算法内核逐步分离,算法运行目的的隐蔽性逐渐增强。而对于平台运行内在机理的监管需要极高的技术水平和专业知识,当算法决策变得不可解释时,决策结果将会面临质疑,算法决策将会变得失控,算法信任将会面临危机。例如,在司法或者医疗领域,一旦算法决策产生的结果无法通过现有认知进行解释,其所产生的司法判决或医疗诊断就难以令人信服,平台算法的权威性就会受到挑战。
更进一步地,发展至宏观层面,算法黑箱、算法失当可能会产生扭曲消费者决策、损害市场竞争、影响收入分配功能等经济性风险,以及侵犯个人隐私、引发社会歧视、甚至损害生命健康和危害公共安全等社会性问题。因此,当人工智能发展逐步深化、算法应用场景逐步多元化、算法开发应用逐步分散化、深度学习模式逐渐隐蔽化时,为防止算法在发展过程中产生更多的技术、数据、决策类风险,就有必要厘清算法风险转化条件和转化逻辑,针对算法全生命周期建立完善的纵向监管机制,不仅对算法失当行为进行纠偏,而且对算法权力的过度膨胀进行约束,以防止算法在发展过程中扩大衍生风险。
国内算法监管实践仍聚焦于对算法应用的开发者及平台进行规制,算法监管的假定对象主要还是提供信息科技及互联网服务的平台企业。但是,随着算法在商业社会生活的深度嵌入,平台算法的自动化运行可能会产生“责任鸿沟”。“责任鸿沟”这一概念于2004年由安德利亚斯·马提亚提出,即算法可以进行自主学习和自动决策,使得算法技术的设计开发者、部署应用者和拥有者无法预测算法运行后果,个体无法对技术产生足够的控制权,即个体与算法运行过错结果之间存在“责任鸿沟”。
一是问责机制模糊。尽管《中华人民共和国个人信息保护法》《关于维护新就业形态劳动者劳动保障权益的指导意见》《互联网信息服务算法推荐管理规定》等均规定平台算法服务提供者承担维护用户合法权益、保护用户数据信息安全、保证消费者公平交易等责任,但由于平台始终躲在所谓“算法中立”的掩体之后,平台通过算法的底层逻辑捕获数据、吸引流量,算法为平台充分实施交易市场规则以及各类市场主体之间的链接规则提供了技术支持,在平台交易界面内,传统的生产、消费、分配等过程中的中间环节被消解,这为平台利用算法自动化决策逃脱监管的牢笼提供了可能。在算法自动化决策运行机制下,当自动化决策的结果占主导地位而削弱人的主导性时,“机器”而非“人”的过错的论调甚嚣尘上。此外,算法引发的危机可能不仅仅由平台引发,而是由算法、数据、平台相互联结而产生的结果。因此,平台主观过错认定机制模糊不清的问题在人工智能时代进一步加剧,平台监管下问责机制的完善面临着挑战。
二是监管节点滞后。由于平台运行过程中难以对其不同责任主体进行责任认定,针对平台的监管往往会产生监管节点滞后的问题。监管机构只能从其决策结果导致的危害程度和危害范围对平台进行事后惩罚,平台监管沦为“被动监管”“运动性执法”,以致不仅难以达到事前监管的预防效果,而且会因监管无效削弱监管机构的权威性。
三是监管机制粗浅。由于单纯的平台监管难以摸清平台算法的运行机制,算法所特有的不透明性和隐蔽性导致社会公众难以理解平台运行的内部逻辑,平台算法技术的高度隐蔽性以及算法技术知识的高度专业化导致社会用户在面对平台算法技术的各类歧视行为、算法霸权行为、算法垄断行为时难以清晰观察,尤其是在平台个性化推荐与机器学习算法驱动下能够实现社会用户的三级价格歧视,且社会公众由于知识距离以及信息不完全等造成社会治理失灵,甚至可能会产生其聚焦点与问题点的社会治理错位、社会期望过分扩张、社会诉求超过平台企业释能边界的治理过度问题。因此,在监管过程中可能会出现“一刀切”、野蛮式监管,即过度强化平台的主体责任和社会责任,忽略算法运行的一般规则,人为拓宽平台的责任边界,以致监管过度,扼杀平台经济发展的活力,进而给平台经济发展带来较大的负面影响。
总之,“责任鸿沟”的出现导致平台监管存在问责机制模糊、监管节点滞后、监管机制粗浅三大问题。平台监管难以实现对算法失当行为和责任缺失行为的有效监管,针对平台运行的底层技术逻辑“平台算法”的监管迫在眉睫。
平台企业控制着不可替代的核心算法,将平台各个模块嵌入由平台企业制定规则与提供交易服务的平台之上,平台双边用户成为算法逻辑下的具体参数且被全面数据化。从技术角度出发,平台企业履行社会责任的过程本质上是以数字智能技术为底层技术支撑,通过大数据建构、算法创新以及平台服务界面等实现商业运作与社会运作,形成算法、技术驱动的社会责任履责模式。
2021年9月,中国发布《新一代人工智能伦理规范》,将“增进人类福祉”列为人工智能的首要原则,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本伦理要求。《数据安全法》第二十八条规定:数据新技术研究开发,要“有利于促进经济社会发展,增进人民福祉”。《互联网信息服务算法推荐管理规定》提出,算法推荐服务提供者应当坚持主流价值导向,积极传播正能量,促进算法应用向上向善。随着人工智能的发展和机器学习的深化,人工智能算法深度应用的平台企业逐步成为数智经济时代下履行社会责任的主要经济载体,在数据、算力和算法的加持下,互联网平台在国民经济体系中的经济重要主体地位、资源配置能力和社会责任履责能力愈发凸显。
平台企业在“算法管理”过程中,通过算法这一底层技术对平台用户所需的信息进行分类、筛选、组合,并根据平台用户和多维利益相关方的需求在平台上对财力、人力等资源进行跨区域的分配与安排,这一算法管理行为就是使算法由抽象的数学概念走向具体实际应用的过程,其目的是实现资源、信息最优配置,创造社会福祉。但在平台算法自动化决策过程中,可能会造成平台用户个人隐私泄露升级,因群体偏见、种族偏见而造成就业歧视加剧等算法歧视,还会使得平台从业者因被算法支配而过度劳动、工作自主权受限。在算法的工具主义导向驱动下,平台可能会偏离其社会责任使命,产生算法责任的缺失与异化问题。而算法黑箱的存在使得各利益相关方和监管机构被所谓“自主性”运行和决策欺骗,难以识别算法技术异化的内在机理和引发的社会责任问题。平台算法作为平台企业获取用户数据,与用户、社区等多元利益相关方进行互动的“代理者”,需要将社会责任融入自身,构建负责任的平台算法成为构建负责任的平台企业的关键。为防止平台企业社会责任异化,亟须对平台算法本身及其设计开发、部署应用、决策过程,以及算法在平台经济领域的扩张进行监管,将算法责任纳入企业社会责任认知、实践与监管框架之内,保证平台算法决策对社会负责任。
建立合意性的平台算法监管模式,需要厘清目前平台算法监管中存在的问题和面临的困境,并予以针对性破解。在此,基于对平台监管逻辑起点的讨论,剖析现有平台算法监管过程中存在的监管认知的非对称性、监管对象的分散性以及监管重点的不确定性三类挑战。
实现多方协同有效监管,需要建立清晰且一致的监管认知,而目前平台监管过程中存在两类认知非对称性,分别是不同认知主体之间的监管认知非对称性以及抽象的法律与清晰的算法之间的非对称性,不同认知主体之间的非对称性又包括不同监管主体之间的认知非对称性和监管主体与平台之间的认知非对称性。
第一类是不同认知主体之间存在的非对称性。目前,平台监管主体主要可以划分为政府机构、行业协会、社会公众、用户等利益相关者,不同监管主体的知识水平、政治站位、技术储备存在差异,因而对于算法监管的认知也不尽相同。在监管过程中,外部技术专家关注算法技术本身的技术风险稽核,政府和行业协会等关注算法可能带来的法律风险和社会风险,平台用户则关注自身福利等是否受到侵害。即使监管目标在经济、社会、环境问题上达成一致,对算法的不同认知也会使得不同监管主体表现出不同的监管思路。多方之间自说自话,不同主体之间对于治理的理解和方式存在错位,导致监管注意力和监管资源的不合理配置。此外,平台与各监管主体之间也难以在算法监管上达成协同,这种矛盾主要来源于算法黑箱的存在。算法本身具有的高度技术复杂性和专业性,而出于商业机密保护或者逃脱监管制裁的考虑,算法技术没有办法达到完全透明,信息的不对称使得平台监管主体相较于平台而言处于劣势地位,难以对平台算法运算步骤、技术原理和评价指标进行深入探究。因此,如何把不同监管主体放到同一交流框架之下,并产生一致的监管认知,成为目前平台监管模式达成多方协同的重要前提。
第二类是抽象的法律与清晰的算法之间存在的非对称性。算法顾名思义,即“计算方法”,尽管机器学习和深度学习使得算法运行逻辑陷入黑箱之中,但其本质上是一种固定的“输入—输出”机制。从价值导向来看,算法的设计者几乎完全被“价值无涉”的保护伞所掩护,能够在追求“算得更好、算得更快”的过程中探索、认知和运用计算规律,而法律则需要持续回应平台自身、社会公众以及其他利益相关方的价值诉求,反而体现出与计算方式几乎无关的话语体系。具体而言,就是法律将具有浓厚价值意义的经济、社会和环境效益视为目标立法,而算法可能在工具理性主义下将其视为盈利手段,目标与手段在监管过程中形成冲突和僵持,可能走向伤害平台活力或者法律完全失效的极端。从计算方法来看,尽管法律也具有算法提高认知效率的特征,但法律难以像算法一样将所有的社会问题转化为计算问题,越是价值和行为难以进行客观界定,法律的规定就越抽象,对具有明确计算方法论的算法的立法规制就越没有针对性。算法开发和应用主体在这类法律规制下,可能无法对如何进行改善和自我管理产生清晰认知,也可能会在模糊的法律制度下产生为自己开脱于法律制裁的投机行为,以致算法监管难以落地。
从监管过程来看,目前平台监管陷入事前监管不足、算法追责困难的窘境。现有的平台算法监管的设计思路始终遵循“主体—行为—责任”的监管思路,而忽略了平台算法固有的技术逻辑,因而始终将平台算法的规制对象定位于拥有和使用算法的平台企业上。与之相反,由于计算机语言的不断扩张和算法应用场景的极大丰富,算法的研发呈现来源更加分散、资源获取更加便捷、风险形式更为多样化的特征,仅仅对平台的算法部署和决策结果进行事后惩罚已经难以满足对日益发展变化的技术的规制。尽管目前关于算法备案制度、算法结果评估制度、算法监管科技的呼声日涨,但算法安全风险监测、算法安全评估、科技伦理审查、算法备案管理等事前监管的具体措施仍处于模糊定义阶段,政策导向下缺乏明确的行动指南,使得行政监管机构在实行事前监管时仅具有朦胧的方向感而无法落地,最终还是陷入“一刀切”式监管模式。
事前监管的缺失,难免会导致事后问责机制的缺陷。一方面,事前监管的缺失使得在事后惩罚面临平台企业“技术中立”“算法黑箱”的抗辩时而难以实施。从1984的“环球影业诉索尼案”到2016年的快播案,“平台无罪,研究开发平台的技术无罪”的论点备受平台推崇。尽管目前关于技术中立的论断几乎已经消失于广大群众的道德伦理环境之中,但这并不影响平台可以借此在法庭上以“技术不可耻”的论调为自己进行开脱。特别地,随着算法的深入发展,技术的可解释性难度越来越大,或许是由于历史数据的偏差,也或许是由于技术的缺漏,算法本身就可能作出歧视性的、错误的自动化决策,在事前监管难以完善的监管环境下,以高级的自动化决策标榜自身的平台算法会走向不透明、不解释、难审查、难改正的囚笼之中,学者称其为“算法暴政”。另一方面,毫无技术依据的平台监管处罚结果会导致监管机构公信力下降,平台企业可能会为此承担本不应担责的处罚,出现“政府监管软弱、平台受罚委屈、公众盲目同情”的不良后果。平台自身可能承担更为沉重的对算法技术进行私人审查的义务,使其在数据运用和决策过程中畏首畏尾,为平台经济的发展增添负担。因此,目前亟须完善平台经济发展的全过程监管模式,特别是要补足事前监管的漏洞,推进监管模式与算法技术的协同发展,防范监管落后于技术发展带来的各类风险。
数字经济时代下,算法正以前所未有的深度和广度涉入经济社会生活,特别是大数据和人工智能的发展使得算法得以突破“波兰尼悖论”,明确编码的决策系统也不再存在功能限制,算法可以实现自我学习、自我更新、自我发展。由此,算法的大面积应用是不可避免的,平台成为算法应用的重要主体,算法监管也在不同行业的平台经济中全面铺开。在目前监管政策处于试水阶段、监管资源有限的前提下,只有厘清监管重点和监管优先级,形成完整性、体系性的监管框架,才能避免“大而不细”“泛而不精”的监管误区。目前,从我国平台算法监管体系来看,仍然存在监管政策重点不明、监管目标模糊、监管措施难以落地等监管困境。
2021年9月,国家互联网信息办公室等九部门印发的《关于加强互联网信息服务算法综合治理的指导意见》从健全算法安全治理机制、构建算法安全监管体系、促进算法生态规范发展三个方面搭建了算法监管的整体框架,并规定了算法备案、算法监督检查、算法风险监测、算法安全评估四项具体举措。但是,自该文件出台以来,实践过程中的法律政策规制更多依赖于社会响应来确定监管对象和规制边界。如2022年3月正式出台的《互联网信息服务算法推荐管理规定》以及为落实该项规定而开展的“清朗·2022年算法综合治理”专项行动,虽在算法治理上具有前瞻性和探索性地位,对于平台经济业态的健康发展具有积极作用,但其治理效果在于打破精准推荐服务带来的“信息茧房”“回声室效应”,主要回应了社会上对“大数据监控”“数据资本化”不满的呼声。尽管其一定程度上填补了社会公众获取与分配数据信息失衡监管的法律空缺,但仍存在条文落实困难、制度设计模糊等问题,大大降低了《互联网信息服务算法推荐管理规定》的可操作性。与此同时,目前的制度设计并未从极有可能产生重大政治经济安全的领域和主体出发首先补足监管框架,平台算法监管陷入舆论驱使下的“模块化”监管误区。从平台算法所在行业领域来看,现有的算法监管未曾强调涉及人民生命健康和重大财产利益的重要行业,如涉及经济安全的大型金融平台、平台经济占主导地位的电子商务行业等;从平台算法的特定设计和使用主体来看,目前平台监管也尚未针对涉及国家重大安全问题以及具备市场支配地位的大型平台出台相应算法规制政策。尽管国家互联网信息办公室曾对滴滴等大型平台进行了网络安全审查,但针对平台的算法分级分类管理办法以及算法监督检查、算法风险监测、算法安全评估等具体措施始终处于模糊状态,针对某一特定平台的直接惩罚也难以在行业内形成一致的算法设计应用准则和底线,监管认知难以建立,监管可信度难以提升。
针对性突破平台算法监管的挑战,在保护平台算法创新活力的同时规范其发展方向,促进行业生态可持续发展,需要在监管过程中遵循参与主体多元性、技术发展宽容性、监管过程透明性、监管政策场景化要求,并最终保证监管结果的公平性。
平台既是一个凝聚双边用户并制定规则的商业生态系统,又是将不同类型主体凝聚在一起的社会生态系统。平台作为整个生态的中心和规则制定者,通过资格审查、交易规则制定、声誉机制设置等方式,为双边用户构建信任、安全、共赢的平台交易环境。2021年9月,《关于加强互联网信息服务算法综合治理的指导意见》印发,对促进算法生态规范发展作出了细化规定,明确表示应当树立算法正确导向,推动企业借助算法加强正能量传播,引导算法应用向上向善。如果平台算法应用失范,会对平台自身产生成长性挑战,其带来的负外部性也会通过生态圈网络传导至整个商业社会系统之中。
因此,将科技向善、算法向善的理念内化于心,就要在以平台为中心的商业生态圈和社会生态圈中凝聚价值共识,建立良好的价值生态环境。而平台的功能又是通过算法来实现的,因此,为保证平台生态正确的价值导向,就要在算法监管过程中纳入生态化理念,将多维利益相关方纳入平台算法监管框架之中。体现在平台情境下,就应当是在算法设计和运行中纳入社会规范与社会伦理因素,这就需要社会组织、舆论机构、社会公众、社区等对平台算法运行过程中可能产生的危害政治经济安全和社会福利,影响公平竞争、市场秩序和行业可持续发展的行为进行监督和反馈,平台为获取社会合法性应主动响应社会呼声,实现算法自治。相应地,平台的开放性和网络化特征也有助于在商业生态圈和社会生态圈内进行科技向善理念的传播,引导生态圈内多元利益主体驱动算法开发设计、部署应用向上向善,实现平台算法发展的良性循环。
自平台经济在我国蓬勃发展以来,数字平台经历了从包容审慎监管逐步走向强监管、细监管的过程。国务院总理李克强在2017年中央政府工作报告中明确提出,要加快培育壮大新兴产业,本着鼓励创新、包容审慎的原则,制定新兴产业监管规则。2019年8月,国务院办公厅发布的《关于促进平台经济规范健康发展的指导意见》明确指出,应创新监管理念和方式,落实和完善包容审慎的监管要求,打造适用于平台经济发展的监管机制。尽管在包容与审慎之间的认知和实践之间的博弈也导致了一些平台成长问题,但在这一原则之下,平台经济出现了体量的迅速增长和市场的快速壮大。随着平台野蛮增长和资本非理性涌入所引发的行业恶性竞争和企业可持续发展问题愈加突出,近些年来,监管机构更加倾向于将监管模式转向不断细化加强的“穿透式监管”。穿透式监管最初来自金融行业,是指严格遵循实质重于形式的功能性监管逻辑,侵入性地对平台进行过程监管、要素监管与算法监管。其中,穿透平台企业这一“外衣”,对平台算法进行监管成为平台“穿透式监管”的重要方式。以《互联网信息服务算法推荐管理规定》为例,在规制对象分类及其信息服务规范(如信息安全、用户标签、页面生态)等方面均进行了穿透式的规定。这些政策的出台体现出未来平台算法监管的趋势将会进一步向精准化方向发展。
然而,强监管、细监管下的政策安排不仅对有限政府监管资源的利用配置提出了挑战,而且对平台经济能否在穿透式算法监管下保持其发展活力形成了阻碍。算法是平台经济发展的技术支撑,如何在平台算法监管的同时处理好秩序和活力的关系、自由和秩序的关系、安全和发展的关系,是监管过程中需要解决的问题。为此,在监管认知上,首先要明确强监管、细监管不等同于严监管,而是一种对技术发展保持包容、宽容理念的精准化的适度监管,监管过程中为平台经济下算法技术的成长和发展预留了生存空间。同时,以保护创新为基础,在保证算法自身安全、算法安全可控、算法应用安全的基础上,确保平台算法技术在制度供给不断强化的背景下仍可以对平台经济进行技术赋能。在监管操作形式上,可以根据平台算法的全生命周期进行分阶段的监管设计:算法设计阶段对算法技术研发持支持包容态度,在促进技术向善的基础上保证平台经济创新性的活力源泉;在算法应用前和算法运行过程中采取精准化监管,进行算法运行评估测试和密切监控,避免平台算法的自动化决策结果引致的各类风险。
监管过程透明性主要包括两大部分,分别是平台算法相对于监管部门和社会公众的透明性,以及监管制度、监管过程相对于监管对象和社会公众的透明性。
一方面,要建立平台算法相对于监管部门的透明性。平台算法不透明是平台算法监管难以达成合意性的重要原因,透明性原则的落脚点是实现对算法自动化决策的规制,如果无法对算法产生清晰且正确的认知,就无法判断算法的自动化决策是否可以达成社会公平与安全标准。2017年,美国计算机协会公布了算法治理七项原则,分别为知情原则、访问与救济原则、可问责原则、解释原则、数据来源处理原则、可审计原则、检验与测试原则。以上七项原则阐明了算法透明在算法治理中的必要性,同时也表示“透明≠源代码完全公开”。即在算法监管过程中,算法的所有者、设计者、操纵者和所有者都具有披露算法的义务,应当向监管机构和社会公众解释算法运行结果和产生该结果的程序,而非仅仅将代码公之于众。落实在平台情景之下,平台企业出于对隐私数据、商业机密的保护或为了避免算法披露后可能导致的恶性竞争与博弈,可进行选择性披露。监管部门须对模型、数据、算法、决策过程和结果进行明确记录,并采取有效方法进行模型检验和算法测试,必要时可采取第三方审计,保证事后问责机制有效。因此,平台算法透明制原则是指,在不涉及商业机密泄露、衍生恶性后果的前提下,平台作为算法的设计、开发、部署、应用、决策、拥有主体,具有披露和解释算法的义务。算法透明可以赋予政府对于算法失当行为的可问责性,同时也赋予用户和社会公众的知情权、选择权和监督权。
另一方面,要实现监管制度、监管过程相对于监管对象的透明性。应该明晰,算法透明只是通向算法可知的阶梯,进一步避免算法黑箱带来的监管障碍,需要监管制度的进一步完善和监管科技的进一步发展。近年来,政府出台了一系列平台监管、算法监管制度,但是缺乏对监管政策的解读和落地式措施实施,导致政策出台主体、政策实施主体、政策实施对象对政策的认知不同。平台在不断加强的政策供给下反而难以明晰自己的责任边界,导致平台发展无所适从,难以通过独立的监管政策解读进行自我整改纠偏。因此,监管政策也需要一定的透明度,即政策出台者负有向监管主体和监管对象进行政策解读的义务,使得各方主体树立一致的监管认知和责任边界认知。与此同时,针对不同平台企业的算法监管调查过程和结果也应该及时进行披露,既保证监管过程受行业协会和社会公众监督,又为同行业同类型平台进行算法自治提供参考。
劳伦斯·莱斯格曾提出“网络需要各种类型的选择”,应用于平台算法监管情景,也需要同样树立权变思维,将监管方式场景化。2018年7月,中国人工智能开源软件发展联盟提出了《人工智能 深度学习算法评估规范》,确定了由7个一级指标和20个二级指标组成的算法可靠性评估指标体系。《互联网信息服务算法推荐管理规定》也强调要重点关注生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类五大类互联网信息服务中广泛使用的算法,以上政策规范与规定的出台均作出了场景化治理的有益尝试。究其原因,在平台算法监管过程中,存在大量差异化、碎片化的场景生态模式,算法的技术差异性和生态的多元化使得在治理过程中需要对平台监管的不同场景进行识别、追踪、定位和分类,树立场景化理念,构建具有不同算法应用场景之下的案例池与数据库。
建立场景化的监管模式,需要树立敏捷性思维。在2018年的世界经济论坛上,首次提出要在有关第四次工业革命的政策制定中纳入敏捷治理;2020年世界经济论坛报告《第四次工业革命的敏捷监管:监管者的工具包》中对敏捷治理有了更加明确的界定,认为敏捷治理是一种具有参与广泛性(包容性)和时间灵敏度(适应性)的治理方式。2021年9月25日,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》吸纳了“敏捷治理”概念,在管理规范部分明确提出“推动敏捷治理”,这为我国算法监管制度的完善进一步提供了指导。相较于传统公共治理模式下严禁朝令夕改的监管模式,在数字经济时代,由于技术快速更新迭代,监管环境持续变动甚至颠覆,平台算法监管模式也要因时而变,采取更为敏捷的场景适应性方式予以监管响应。在治理节奏上,敏捷治理强调要快速回应和尽早介入,即要在事前监管方面下功夫,对各类应用场景下的平台算法进行风险评估并做好风险预案。持续优化算法场景化、精细化监管模式,综合考虑平台算法应用场景的风险程度、平台算法所处行业的重要程度、平台算法监管对象的可规制性和作用形式,以及技术风险和应用风险在算法运行中所占的比重等因素,建立更为具体和更可操作的评估体系、分级分类标准,不断完善平台算法技术的备案制度。在治理规则上,不断推进弹性原则与具体化、类型化规则有效结合,根据不同的碎片化场景直面平台算法的高度动态性和风险不确定性并进行动态调整,建立相应案例池与数据库作为调整依据。在治理方式上,采用力度轻、过程快的引导性治理,针对不同场景建立精准化的监管模式、监管边界、监管手段,将场景化全面落实到平台算法监管体系之中。
平台算法监管的直接原因是算法应用引致的各类负外部性,负外部性的具体体现是对社会公平、行业公平的损害。社会公平主要是指平台利益相关方如买方用户、平台劳动者、投资者、社会公众等在算法自动化决策过程中是否因处于技术劣势和认知低谷的一方而遭受了权益侵害与算法歧视;行业公平主要是指平台是否滥用算法权力导致不正当竞争,行业内企业是否拥有平等机会参与到公平竞争环境之中。平台算法产生公平性问题的原因有三:一是抽样原因,即采集的数据样本本身产生了偏差;二是算法设计因素,即数据集中反映了现有的社会偏见;三是在算法自动化决策过程中,受平台的经济价值导向所驱使,嵌入了平台的歧视性价值认知与取向。
国家新一代人工智能治理专业委员会于2019年6月发布的《新一代人工智能治理原则——发展负责任的人工智能》中提出人工智能发展应促进公平公正,保障利益相关者的权益,促进机会均等,通过持续提高技术水平、改善管理方式,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。因此,平台算法监管的重要目标就是保证监管结果公平、数据采集广泛可信、算法设计公正无歧视、算法应用向上向善。目前,我国的算法监管所追求的公平更加关注“个体公平”和“结果公平”,将算法歧视和算法决策结果视为重要的规制对象。如《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》等均将个体与结果公平视为重要的监管目标。未来,仍需进一步充实并深化“监管目标公平”的内核,将过程公平、群组公平、权利公平等作为补充,不仅通过监管在平台算法设计、部署、应用、决策过程中纳入公平性思维,保障利益相关方的权利公平;而且要使个人能够平等且有意义地参与到平台算法监管活动全过程之中,弥补对特殊身份群体的保护空白,并致力于通过公民权利限制平台算法权力,提高平台算法监管在公平性保障中的包容性。
近年来,国内外政府相继出台了各类算法监管法规和指导手册,包括针对算法技术即代码本身和算法应用过程中的各类监管模式。但是,目前的平台算法监管制度供给较为分散,监管模式尚未形成体系,事前、事中、事后监管位势下的监管主体及其使用的监管手段有较大差异,不同监管路径之间难以达成协同,平台算法监管的合意性闭环和良性循环面临挑战。为厘清不同监管模式下的监管主体、监管手段和监管客体,弥补原有监管模式体系性不足的缺陷,本文经过对平台算法监管手段和监管对象的系统性梳理,认为应当从监管手段和监管对象两个视角出发建立平台算法的全面性监管模式。
就监管手段而言,许可认为我国算法治理应当基于算法风险水平和自主性、工具性程度将算法进行类型化,基于法律治理、规范治理和代码治理的有机耦合塑造“模块化”的分级分类算法治理体系。这一治理模式较为完整地归纳了算法监管的实现进路,但是其在研究中忽略了技术监管技术的可能性,仅仅将代码视为被监管的对象,而忽视了技术本身可以作为一种手段对平台算法进行监管。为弥补以上不足,本文认为,监管手段可以被划分为法律监管、规范监管和技术监管,即通过法律供给手段、社会规范手段和技术手段对算法进行监管。
就监管对象而言,平台特别是平台巨头在人工智能技术的加持下,为了有效链接双边市场,为广泛的人工智能开发人士提供了人工智能开放平台。在平台算法资源被有效利用的同时,算法技术也因此而出现危机。一方面,庞大的算法技术开发者群体在接受平台技术赋能的同时缺乏社会规范教育,平台算法在开发过程中可能并未纳入算法伦理思维和算法公平思维,算法技术本身存在算法脆弱性、算法黑箱、算法漏洞以及各类性能缺陷和结构性缺陷等技术风险,甚至专业人员也难以解释这种内在风险和内在不透明性。另一方面,平台作为算法的部署应用者和决策者,相对于算法开发人员来说,充当着算法安全“守门人”的角色,要防范算法在设计、开发、部署、应用、决策等过程中脱离人的掌控,在机器学习中实现不需要人的自主决定权的自动化决策结果。其不当利用过程可能会带来算法歧视、算法霸权、算法合谋等危害行业生态与社会秩序的诸多政治、经济、社会问题。因此,平台监管的监管对象可划分为算法技术本身以及算法应用过程。
基于此,本文建立了平台算法监管的“监管手段—监管对象”监管模式图(见图1),即未来针对平台算法的监管可以从“法律—技术”监管、“法律—应用过程”监管、“规范—技术”监管、“规范—应用过程”监管、“技术—技术”监管、“技术—应用过程”监管六大模式出发进行监管体系的系统性构建。
图1 “手段—对象”监管模式
监管模式Ⅰ:“法律—技术”监管。第一类监管模式为通过法律手段对算法技术进行监管,其监管主体为政府等公共管理部门,监管对象为技术本身。1986年美国《电子记录系统和个人隐私》评估报告已充分意识到对个人画像技术进行监管的重要性。半个世纪以来,各国纷纷对算法技术的规制进行了立法和司法层面的探索。2020年,美国联邦贸易委员会(FTC)发布了《人工智能和算法运用》,从算法透明、算法可解释权、决策公平、技术稳健性和伦理问责五个方面对算法技术的设计作出了规定。美国立法者提出的《2022年算法责任法案》更明确要求自动化决策系统具有新的透明度和问责制。我国的《互联网信息服务算法推荐管理规定》亦从算法分级分类管理的角度出发,有效识别出互联网信息服务中的高风险类算法,重点关注生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类互联网信息服务中广泛使用的算法,并强调通过算法备案制度明确算法的基本原理、目的意图和主要运行机制,对算法技术和代码运行规则进行监管。但是,“法律—技术”监管下的监管制度尚不完善,特别是目前呼声最高的算法备案制度,其制度层面涵盖的算法评估、算法运行监管以及算法审计等具体内容和规制边界尚未得到司法和立法层面的落实,制度设立尚处于起步阶段,同时算法的不透明性和算法解释可能带来的利益冲突使得法律规制技术这一监管模式在实践层面出现事实约束力远低于其立法力度的局面。为此,需要持续加强平台算法技术监管的制度供给,完善法律对技术的约束体系。
监管模式Ⅱ:“法律—应用过程”监管。“法律—应用过程”监管的监管对象为平台算法的部署应用过程。2017年12月18日,纽约市市长签署通过了美国立法史上第一个对公用事业领域算法进行问责的法案,即《算法问责法》,用以规制算法决策。该法明确规定了规制对象包括基于算法自动化决策的情形以及算法辅助或者支持决策的情形,其适用主体是使用自动化决策系统的行政机构和慈善组织,其还对算法问责制的实施主体进行了界定,即自动化决策工作组。类似地,我国推出的《互联网信息服务算法推荐管理规定》是对算法应用过程进行监管的典型,其明确了将算法推荐服务提供者作为规制对象,并对其信息服务规范以及服务提供过程中的用户权益保护要求画出了红线。从以上法律法规中可以看出,目前关于算法应用过程的法律规制将主要的规制对象定位于算法应用主体,并在设定好算法可能带来的危机和风险的前提下限制了应用主体利用算法进行决策的各种行为。“法律—应用过程”监管存在以下两个问题:第一,制定规则的专家和在法律制定过程中可能具备了算法稽核的能力,但是在监管过程中无法保证所有的行政部门都具备算法监管的技术能力,“技术鸿沟”仍然是法律制定过程中难以逾越的问题。第二,在公共场景之下,针对算法应用过程的监管可能会存在其使用边界,在技术难以完全透明、多方监管主体自说自话的情况下,针对应用过程的监管可能会存在失效风险。为弥补“法律—应用过程”监管可能出现的问题,有必要在政府和平台之间建立有意义的技术接口并遵循透明性原则,弥补技术鸿沟。
监管模式Ⅲ:“规范—技术”监管。规范监管的主要监督主体是社会公众和平台用户等平台利益相关者,法律和政府等监管机构赋予了社会公众和平台用户对平台算法从开发设计到部署应用过程的监督权,从而对算法决策施加影响,进而对平台算法进行监管。“规范—技术”监管是指社会公众和用户等对技术的开发过程进行监管,这一监管方式的实现完全建立在平台主动进行算法披露和算法解释的基础上,受制于平台自身意愿。因此,“规范—技术”监管其实是一种相对被动的监管方式。一方面,“算法黑箱”的存在使得普通用户和社会公众难以厘清算法内在的运行逻辑,即使平台保持了完整的技术透明度,用户与社会公众也无法从复杂的代码中了解平台真正的意图;另一方面,基于用户难以对技术进行自我解读,“规范—技术”监管依赖于平台的技术解释,然而,平台的人工智能解释激励目前尚显不足,且平台在进行算法解释时可以利用自己在智识上的优势地位向有利于自己的方向进行算法技术解读,蒙蔽、欺骗社会公众的眼睛甚至引导其思维方式,掩盖自己真正的算法失当行为。
监管模式Ⅳ:“规范—应用过程”监管。从用户视角来看,2018年欧盟颁布的《通用数据保护条例》对识别分析和自动化决策作出了规定,限制了企业收集与处理用户个人信息的权限,旨在将个人信息的最终控制权交还给用户本人,即个体赋权路径。个体赋权定位于尊重人(平台用户)的主体性,个人在了解算法自动化决策的基础上限制或者放开平台企业对个人数据的使用权限。但是个体赋权路径在带给用户自由选择权利的同时,也出现了用户个体能力不足、个体权利绝对化、认知不对称、解释不完全等问题。从社会公众视角来看,社会可以通过算法不当应用带来的负面案例对平台进行舆论监督。外卖骑手、网约车司机等被困在算法所搭建的系统之中,各类在平台经济形态下的新型就业者被“先进”的算法绑定,将平台经济形态下的运作模式打造成泰勒制的翻版。社会公众在生活中逐步发现算法滥用带来的各类社会责任议题,企业在合法性受到威胁的情况下不得不响应社会议题。“规范—应用过程”监管是一种行之有效的监管方式,因为其触及平台能否打开市场并且保持顺利运行的核心利益,对算法向善具有很强的激励效应。但是这一监管模式多属于事后监管,在社会问题已经逐渐显露甚至已经严重危害社会福利时,这一监管效应才会凸显,因而需要同其他事前监管模式进行结合和协同,以实现事前事后的平台算法全生命周期闭环监管。
监管模式Ⅴ:“技术—技术”监管。在数字时代之前,市场秩序通过自发秩序、监管秩序和法律秩序进行规范和再造,而数字技术为我们带来了新的秩序,即技术秩序。技术是平台运行的底层逻辑,其编码构成了平台特定的运行模式,形成了平台的双边市场结构和独特的非中性价格结构,塑造出平台独一无二的商业模式和盈利模式。但与此同时,技术也带给了平台进行自我治理的能力。一方面,平台可以对多源异构的数据进行挖掘,获得人与事件的潜在关联,以控制更多不当行为出现,建立平台内部的算法问责机制;另一方面,算法的自我学习机制可以使得算法在设计之初就纳入社会规范原则,使其在深度学习阶段进行及时的自我识别,并在可能造成社会问题的编码方式上进行自我纠偏。但是与“规范—技术”监管模式相同,目前的“技术—技术”监管模式仍然高度依赖于平台的自觉性,监管技术的开发主体仍然是平台自身或者平台雇用的外部开发人员,尽管各类从事人工智能应用开发的人员可以便利地使用平台提供的算法、算力,但其社会规范教育的缺失以及底层技术细节的模糊性使其难以对技术作出有效反馈和修改。为避免平台自我监管失范的情况发生,政府以及行业机构等面临着开发监管技术的巨大压力。
监管模式Ⅵ:“技术—应用过程”监管。“技术—应用过程”监管相较于“技术—技术”监管更容易实现。法律和算法在本质上具有同一性,二者均是为实现特定目的而构建出的一系列指令集,都具有降低认知负担、提高认知效率的功能。因此,算法本身可以承担法律的一些职能,即用“算法”来规制“算法”。利用技术进行市场监管的方式由来已久,“监管科技”一词最早在金融行业发展起来,之后衍生为旨在使政府或行业方面的监管工作现代化的新型数字技术。在算法透明难以实现、算法解释有失偏颇的情况下,通过技术监管手段对算法进行规制就是一个更加行之有效的方案。《互联网信息服务算法推荐管理规定》指出,要建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。发现未作显著标识的算法生成合成信息的,应当作出显著标识后,方可继续传输。这一规定界定了算法推荐提供者的技术要求,相应地,政府、行业协会等亦可以通过开发相应技术介入平台算法决策过程,对算法应用进行行为监测和结果监测,通过大数据分析与计算来界定并监测算法失当行为,完善算法监管程序的技术漏洞。
平台算法监管是平台经济背景下广受关注的公共治理议题。欲实现法律监管、规范监管和技术监管的良好衔接,对算法技术自身和算法应用过程实现全面监管,最终实现经济社会安全、行业可持续发展以及综合价值的创造,还需要从制度供给、监管技术、监管网络、监管位势四方面持续深化平台算法监管实践。
平台经济作为数字经济的重要组成部分,已经充分涉入经济生活中的电子商务、在线教育、金融科技、数字媒体、物流等行业。技术的发展带来了生产方式和生活方式的变革,同时也需要监管制度为技术发展方向提供价值指引和适度规范。而平台算法监管的制度供给明显存在迟滞和落后,在监管重心和监管完整性上存在一定的制度缺位和错位,因此,需要加强“硬法”的制度供给。制度供给层面,要将合规与合乎道德、稳健安全、功能合意、社会与环境福祉、透明开放和敏捷治理等负责任的算法六大构成要件纳入制度框架之中,建立完整的事前备案、风险监测、事后问责的算法监管框架,进一步完善“法律—技术”监管和“法律—应用过程”监管。具体而言,法律规制的机制设计要尽可能清晰界定不同应用场景下的平台算法风险及收益,对存在或者可能存在风险的算法进行算法解释和测试,在目标清晰化的基础上,为平台、用户、监管机构、行业协会等多方主体建立合适的行动策略结构,进行多种制度工具的完善和组合,最终为各方博弈的理想均衡状态创造条件。
然而,算法黑箱和“适度”透明原则的存在使得算法风险的分散性和规制难度进一步上升,如果仅仅只依赖于原有的自上而下的制度设计,算法监管可能难以达成合意性的监管效果,不仅在政策出台和监管机制设计上存在巨大压力,而且可能因为内部利益关联或政府的认知局限阻碍平台经济的健康可持续发展。单纯的“硬法”规制在消除风险的同时可能产生潜在危险,即所谓“次阶风险”。因此,在“硬法”自上而下的制度设计难以完全覆盖全部监管对象或者全部监管领域时,不妨将目光转向一些具备技术基础、行业经验和监管优势的行业协会或者个人,即平台算法的“软法”规制。随着现代社会关系逐渐变得复杂多样,国际立法能力逐步出现认识的有限性和实践的滞后性,在这一矛盾下“软法”应运而生。体现在平台算法规制情景上,对“硬法”的弥补可依赖于动态性、专业性的平台算法行为准则,进行“技术标准”这一“软法”的规范性探索,其由国家标准、行业标准、企业标准等构成,成为规制与自治之间的衔接点和缓冲区。通过算法的标准化,一方面,可以降低监管机构与算法系统进行沟通的信息成本,有助于社会公众逐步脱离“技术文盲”的境地并形成一套理解算法的基本框架,对于构建良好的平台算法生态具有重要意义;另一方面,技术标准这一“软法”的建立可以囊括众多的算法规制方式和工具,在适应算法技术发展状况的同时建立算法规制的场景化、精细化治理方案。无论是“硬法”还是“软法”,都应该对可能会产生重大政治经济安全风险的行业和企业主体进行规制,围绕高敏感、高风险算法建设专有监督网络,避免监管资源的错位配置和资源浪费。
“硬法”的强制性、保障性、规范性与“软法”的灵活性、适应性、场景化相互补充,最终实现法律法规、技术规范与社会规范之间的良好衔接,打造合意性的“硬法”“软法”相结合的监管体系。
在平台算法监管的法律监管、规范监管和技术监管三大手段之中,目前处于发展弱势地位的是技术监管,技术监管需要依赖的技术主体就是“监管科技”。监管科技的原始概念为“Reg Tech”,最早由英国金融行为监管局于2015年提出,具体含义为“利用新技术促使达到监管合规要求”。目前,监管科技仍主要应用于金融风险管理和金融企业合规运营方面。在平台算法监管领域,监管技术还处于萌芽阶段,但以技术治理技术、以算法监管算法已经成为公认的必不可少的监管手段。
从算法设计视角来看,可通过价值嵌入的算法设计技术和价值偏离的算法矫正技术进行技术设计。价值嵌入的算法设计技术是将社会规范和平台责任标准嵌入算法之中,使得平台算法在深度学习中不断加强社会伦理和责任标准的正反馈,最终产生对社会、经济、环境负责任的自动化决策结果;价值偏离的算法矫正技术则是从算法的输入端、算法本身和输出端发现可能存在的价值偏离设计,对数据和程序进行自我治理,如通过技术手段来实现算法去偏见化。总的来说,无论是价值嵌入的算法设计技术,还是价值偏离的算法矫正技术,都更加依赖于平台算法自设计视角,将社会规范嵌入算法的迭代升级中。
相应地,政府部门、行业机构也应开发相应的监管科技,从算法监督视角推动算法风险评估技术的落实,如算法监管沙箱的合理运用。在计算机安全领域中,沙箱可以作为一种为运行程序提供隔离环境的安全运行机制。与此相似,算法监管沙箱就是指将进行备案的算法在可观察、可控制和相对封闭的环境中进行试运行,由此判断算法技术的确定性、安全性、稳健性和决策结果的无偏性。在算法投入运行前对算法进行安全性、公平性监测并建立算法影响评估制度,无论是来自平台自组织、政府机构监管还是第三方审计机构审计,监管科技的运用都能够在较大程度上克服算法监管过程中的信息不对称,这种“技术”监管“技术”的自动化监管模式使得监管机构、第三方审计机构和平台自身均可在一定程度上突破信息不对称、技术不透明的屏障,在“黑箱”存在的情况下仍可审查和评判现有算法中存在的社会风险,甚至可以监测、评估算法的社会后果。通过对算法目的、风险和控制能力的技术监测,既增强了算法监管机构的监管能力,又缓解了事中与事后问责的监管压力。
《关于加强互联网信息服务算法综合治理的指导意见》在论述算法治理的主要目标时强调,要建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。其中,算法生态规范的具体内涵为:算法导向正确、正能量充沛,算法应用公平公正、公开透明,算法发展安全可控、自主创新,有效防范算法滥用带来的风险隐患。相应地,建立良好的平台算法生态,要从平台商业生态圈与平台社会商业圈入手,保障生态圈内多方利益主体参与到积极推动平台算法向上向善发展的算法治理进程中来。
从监管机构内部来看,要打破不同部门之间的信息壁垒和数据壁垒,互相整合数据资源和技术资源,避免在不同监管部门之间产生“数据盲区”和“信息孤岛”,建立以技术为支撑、多部门协同的网络化监管模式。从政府与平台的协同来看,平台作为算法的设计者和使用者,对算法技术和算法决策程序拥有更为清晰的认知和更强的掌控力,平台自身对数据和代码的处理能力远远超越一个简单的服务提供商所拥有的权限,因此,无论是从社会、经济、环境价值创造出发,还是从平台自身可持续成长出发,平台都具有算法自治义务。与此同时,政府以及行业机构可以分别通过强制性的“硬法”和指南式的“软法”对平台算法进行规制。具体而言,在进行算法设计时,平台需要根据技术标准对算法嵌入社会规范并设置安全干预机制,保证算法设计与算法矫正技术的发挥。在算法投入应用前,一方面,平台自身要进行充分的算法测试,另一方面,要在监管机构和平台内部进行充分备案,对算法进行评估和审计,确保投入市场的算法安全可控、无歧视。此时,需要平台和政府之间建立良好通畅的技术接口,保证有意义的算法透明、算法解释与技术公开,针对不同算法技术、应用情景和风险程度提出具有针对性的信息披露要求,形成分级分类的算法透明披露体系。在算法投入应用后,平台自身须时刻进行算法监测,发挥算法矫正技术的功能,对有可能产生风险的算法进行及时纠偏。政府则应发挥事中约束的作用,防范算法应用过程中可能产生的算法合谋、算法歧视、算法霸权、行业垄断等行为。算法应用危害结果发生后,平台负有向监管机构进行解释的义务,政府等监管机构则需要根据事前备案中设置的算法问责点以及平台解释进行事后问责与惩罚,以威慑性的终端责任惩罚机制防止算法技术滥用。
从平台生态圈视角来看,主要是以“社会伦理”与“社群共识”为基础的规范手段对平台算法技术和算法应用过程进行治理。一方面,要加强用户和利益相关方对平台算法的治理。目前,欧盟的个体赋权路径已经对用户治理进行探索和尝试,平台和政府对平台用户提供涉及自动化决策逻辑的有意义的信息,用户可对信息进行评估后选择是否接受自动化决策结果或者对决策程序提出质疑,平台负有向用户解释质疑和完善自身技术漏洞的义务。另一方面,要将算法治理的框架纳入平台企业社会责任治理框架之中,加强社会公众的新闻媒体监督和社会组织监督。社会公众的监管参与不仅可以促使平台在进行算法设计时考虑社会响应和社会诉求,而且可以在算法运行过程中对其产生的社会问题进行及时的监控和反馈,发现平台算法失当行为的同时还可以及时识别制度漏洞,促进监管制度的完善和监管技术的改善。平台与政府机构、行业协会、平台用户、社会公众等利益相关方共同构成平台生态圈,算法作为平台与各利益相关方进行交流互动的技术支撑,生态圈内多方主体协同参与、共生共演,形成全面、动态的生态化治理网络。
弥补平台算法监管过程缺位的问题,解决事后问责机制难以自圆其说的困境,应建立事前、事中、事后全流程覆盖的动态化监管机制。平台算法问责制度的构建基础在于算法设计者、拥有者、应用者或者控制者负有对算法技术和算法系统设计进行解释的义务,证明算法自动化决策合理性的义务,以及减轻算法滥用、算法失当行为可能带来的潜在危害或者负面影响的义务,如算法设计者、拥有者、应用者或控制者未履行其义务,则应根据责任认定机制予以追责。
为建立完善的平台算法问责机制,事前监管中应当建立算法备案制度。即在算法进行部署应用之前,由监管部门或者第三方审计机构对算法技术进行稳定性、安全性审查和审计认证。算法备案制度的完善具有如下意义:第一,确保算法在投入应用之前经过了算法技术标准的审核,用“硬法”保障技术标准这一“软法”在事前监管中发挥重要作用,在数据、程序和代码层面防范平台算法可能产生的技术风险和应用风险。第二,算法备案制度的完善便于查明算法风险的来源,确定算法责任主体,在事后问责时确定问责点。为保证算法备案制度的顺利实施,一方面,需要平台生态的支持,与政府机构建立通畅的技术沟通渠道,主动进行理性的信息披露和算法解释;另一方面,也需要监管沙箱等算法监管科技的合理利用,进行算法模拟和预演,建立算法影响评估制度,在提升算法透明性、保障个人正当程序权利和强化公众审查方面进行补充加强。
事中则需要加强对算法运营的审查和算法正当程序的监督。以算法歧视为例,若算法的初始输入数据存在偏见和歧视,那么随着计算过程的循环和计算结果的深化,算法在机器学习中会加强对这种歧视的固化,最终构成恶性的“反馈循环”。而平台自身则很难或者没有意愿去改变这种数据“输入—输出”方式,这就需要监管机构或者行业组织在事中对算法程序的正当性进行监督,并督促算法应用者和控制者在算法应用过程中保障算法作用个体(用户)的知情权和自由选择权利,这种权利一般由平台的信息披露来实现。
事后监管则需要建立追责和补救机制。一旦发生危害政治经济安全、个人隐私保护和社会福利的行为,就需要依据事前监管的备案制度及时进行内容审查,确定追责点,落实被追责主体的法律责任,作出客观公正的判断。事后监管作为最为稳妥的传统规制手段,在平台算法的全流程监管中最具威慑力和权威性。Reform