算法治理的域外经验与中国进路

2021-01-08 08:08孙逸啸郑浩然
信息安全研究 2021年1期
关键词:算法

孙逸啸 郑浩然

1(中南财经政法大学法治发展与司法改革研究中心 武汉 430073) 2(中央财经大学管理科学与工程学院 北京 102206)

(710976842@qq.com)

得益于互联网信息技术与信息革命的不断纵深发展,人类社会经历了从互联网1.0到互联网2.0,再到人工智能时代的转型跨越.作为大数据时代背景下人工智能产业与数字经济发展的驱动引擎,算法技术由于数字经济的蓬勃发展而逐渐嵌入到人类社会生活的方方面面.随着网络空间与现实空间不断耦合以及弱人工智能到强人工智能的转变,算法也在不断地改变甚至重塑着人类社会生活,已经成为一种能够实现社会资源配置的新兴力量.但算法决策、算法推荐、算法分析等技术及其架构的应用为数字经济发展带来无限机遇的同时,也由于算法黑箱、算法偏见等问题的强化而潜在地存在诸多风险,从而给各国既有的治理体系及其能力提出了较大挑战.

基于这样的时代背景,可以说,算法治理作为各国网络社会治理体系的重要环节,其治理体系和治理能力的提高不仅是一国国家治理体系和治理能力的重要体现,而且是当今数字经济发展现代化的内在需求.而如何正确认识和把握算法及其可能引发的风险,则是进一步讨论算法治理和各国经验做法的重要前提.因此,本文旨在比较研究的基础上,重点围绕以下2个方面进行论述评析:从算法治理的必要性出发,通过论述算法应用可能引发的潜在风险,以明晰算法治理何以进入治理之视域;探讨美国与欧盟在算法治理方面的经验做法,帮助理解在不同文化、制度背景下这2种典型算法治理框架结构形成、发展的脉络及其特点.从而为我国算法治理的路径选择提供切实可行的路径依归.

1 算法治理的必要性:算法应用引发的潜在风险

深刻理解和反思算法技术应用可能引发的潜在风险,是进一步探讨算法治理的必要之前提.从社会、法律与政治3个不同维度对算法风险进行透析,是将算法置于特定的时代背景下的类型化拷问,需要从算法技术及其背后的算法架构甚至算法权力去审视并回应这一问题.

1.1 社会风险

当前算法已经深深嵌入到社会运行的方方面面,其引发的社会风险主要体现在以下2个方面:一是加剧了“信息茧房”(information cocoon house)现象.在算法应用平台中,用户的各种信息数据通过信息内容推荐、信息生产、协过滤等算法机制,很容易使用户被自身的兴趣爱好所引导甚至牵制,导致平台算法源源不断地向其输入某一类型的信息流或推荐相关用户群,从而使用户的生活桎梏于像蚕茧一般的“信息茧房”中.比如,Facebook通过“信息流”(news feed)和“流行话题”(trending)这2个主要算法架构和程序控制着其平台新闻传播的“可见性”. “信息流”被扎克伯格称为“个性化报纸”订制功能,也就是按用户的兴趣爱好推荐他们“感兴趣的内容”; “流行话题”则更强调其他人在关注什么信息,更侧重于时事新闻.这2种渠道都将要传递的新闻主动推送给用户,从而建构这种主动互动的双向关系.然而有学者对40位Facebook用户展开了算法意识的调查,发现62.5%的参与者不知道Facebook的信息流策展.同时,“信息茧房”还在无形中进一步强化了用户群体的“标签性”,从而加剧了网络社会的阶层分化,形成新的数字鸿沟,进一步导致网络社会的碎片化与群体极化现象.尤其是算法媒体通过算法技术及其架构实现了对人、地点、对象和思想以及与这些过程相关的思维、行为和表达习惯的重新排序、分类和分级[1],进而导致“信息茧房”现象的迅速蔓延与日益固化,基于年龄、学历、知识背景等对不同内容消费的阶层分化现象逐渐加剧.而这一新数字鸿沟的出现进一步强化了不同阶层、群体之间的信息隔膜,造成某一群体针对某一信息不能畅通地与其他群体进行沟通交流,由此加剧了群体内部的极端化程度,导致群体极化现象的产生[2].二是算法驱动了“监控资本主义”的兴起.现代信息社会的网络化数字基础设施使得持续、实时的监控成为可能,这不仅为监控资本主义的兴起提供了必要条件,而且成为算法介入信息资本运行的重要基础.作为信息资本主义发展的更高阶段,监控资本主义已经蔓延到各类算法应用尤其是媒体平台之中.其内在逻辑表现为,它通过对用户数据的搜集、萃取、分析,以及个性化、持续性的实验对用户个人实施难以辨别的单项监控,产生巨大商业监视效能,继而由算法预测和调整人类行为,获取利益并控制市场[3].算法应用平台作为商业利益驱动的企业主体,其核心目的不仅在于促进平台应用的广泛适用,而且在于实现以平台广泛应用带来的巨大商业利润.而随着算法与平台组织架构的深度融合,算法应用平台实质上已经通过不断搜集、筛选、分析用户各项数据而逐渐建立起一座“数据资源池”.在大数据时代以及商业资本的带动下,这座“数据资源池”实际上已经变成了部分网络平台赚取高额利润的“原油库”,用户的各项数据被无形中嵌入到信息产业及数据经济的生产链条,客观上变成了被算法支配调控的客体,由此实现通过预测和修正人类的行为来获得收益并控制市场.正如学者哈考特所言:“我们正在见证一个独特的西方民主类型的监控社会的出现,因为我们愿意通过交换个人数据来换取网络数字工具的效率和便利,从而让自己成为算法监控的对象[4]”.正如近年来谷歌公司和Facebook的信息贩卖和信息泄露等事件,已经暴露出这些巨头公司在其“信息王国”中通过大数据攫取利润的监控资本主义行径.此外,由于以用户数据带来的巨大利益链条,算法应用平台对用户个人信息的搜集相较于公权力部门有针对性的监控(1)根据《中华人民共和国网络安全法》《互联网信息服务管理办法》《互联网新闻信息服务管理规定》等法律法规的规定,互联网信息办公室等部门主要对用户是否存在不得制作、复制、发布、传播法律、行政法规禁止的信息内容进行监控.而言更为广泛和普遍,如用户的浏览偏好、信息发布、位置信息、转发推荐内容等.基于此,算法媒体基于对用户群体数据“信息流”的掌控而通过平台内的广告投放等引导性机制调整用户行为进而获取利润.在这一过程中,用户的行为将会不断被类型化区分并与“标签化”的内容相匹配,实现用户行为逻辑与平台信息投放的契合.由此可见,“监控资本主义”作为大数据与人工智能时代信息经济的产物,其打破了传统的经济模式及其结构,使得传统法律层面主客体关系条件下人与机器的关系发生了异化——在监视资本主义下,人的价值在于其网络行为产生的原始数据,进而为监视资本主义所重构的新型生产关系提供重要的原料和商品.

1.2 法律风险

当前,数字经济的蓬勃发展已经将传统的“物物交换”生产生活方式拓展为“数据交换”这一新型模式,大型公司通过算法技术以“同意-公开”的捆绑性前置程序不仅能够免费获取用户行为数据,而且由此获得制度层面合法性的“外衣”.随着这些大型公司主体在算法技术及其架构方面优势的不断强化,传统“国家-公民”二元主体框架下的金字塔型权力结构逐渐被打破,并型塑为“政府监管的制度权力、平台运营商的技术权力与用户享有的正当权利” 的扁平化权力结构.在这种新型权力结构框架下,日常生活中用户以交换个人数据而享受平台公司应用的数字生活方式[5],随着算法技术及其架构与公众社会生活的并轨交融,其可能产生的侵犯公民隐私权等法律风险日渐突出.一方面,算法应用需要以持续监控和收集个人数字行为数据为基础,而这种持续性、无间断地“搜集—分析—加工—决策”的运作逻辑实质上就是以公民各类信息如消费习惯、兴趣爱好、社交结构,甚至家庭成员、医疗信息、婚姻财产状况等隐私为导向的挖掘式精准营销.在数字经济时代背景下这些具有潜在无穷大价值海量的数据资源,在实践中很容易被泄露而应直接用于商业运用,甚至作为工具性资源影响政治权力格局.另一方面,许多大型互联网公司借助算法技术及其架构,已经算法决策、算法推荐等一系列直接涉及用户正当权益的事项内置到算法运行程序之中.公众等社会主体由于信息不对称、对算法知识的缺乏等原因,加之算法偏见的隐蔽性植入,公众难以真正理解算法决策的作出及其过程,其知情权、参与权等基本权利难以得到有效保障,实践中这类损害发生后也难以举证进行司法救济.从而使得传统法学意义上 “正当程序”或者“程序公正”,尤其是行政法强调的行政裁量权必须依法公正行使,从而确保公民的正当权利等理论或原则遭受冲击.再一方面,算法决策的内容会损害实质性公平与分配正义.尽管有些学者已经从算法媒体治理的角度提出建立专门的监管机构、制定通行的监管规则、嵌入公共理性等方式,以增强算法运行及其决策的透明性[6],但实际上过分追求算法决策客观性与无差错结果则过于理性化.这是因为数据在进入算法程序应用时,其需要以可解释性基础为前提,而在这一算法处理的各个阶段包括数据的收集、处理、过滤、归纳、分析、输出等则是一个主观处理的过程,从而产生算法偏见等现象[7].对此,学者Gandy[8]早在20多年前在福柯关于全景敞视主义论述的基础上就提出,个人和群体信息的收集、处理和共享如何在营销零售行业中被用来对商品和服务的获取等隐忧.他进一步提出:“当这些技术被用来作出涉及公民具体事务决定时,这种‘故意的歧视’可能会破坏民主、平等、公平公正分配等,但法律对此几乎没有提供制度性保护[9].”而美国白宫则于2016年发布的《大数据报告: 算法系统、机会和公民权利》围绕算法系统和机器学习的设计,从信贷、职业、教育以及刑事司法4个方面对大数据的适用与加剧算法歧视之间的关系作出解释,提出公共部门与私主体之间应通过构建数据道德框架、议定数据使用规则、设计合理透明的算法系统、促进算法学术研究等方式,以避免算法歧视,从而实现公民个人权益的充分保障[10].

1.3 政治风险

政治及其系统的运行逻辑在于,通过合法且权威性的体制机制实现社会资源的合理分配,以促进社会公平、正义与民主为核心.随着弱人工智能向强人工智能的转变,算法偏见、黑箱等技术的不确定因素问题不断地侵蚀并挑战着既有的政治生态甚至政党的执政安全[11].主要体现在政治传播领域,算法借助其架构与技术优势逐渐摆脱工具化属性而向本体化的角色转变,并开始实质性地作出直接涉及权力资源调配的决策.尽管算法被设计亦或应用都在强调其具有的“中立性”,但由于算法技术及其架构本身就是算法设计者、运行者将一系列代码按照特定的组成而形成的一种程序性机制,这种程序化的运行链条不可避免地会结构性带有他们的价值偏向与思维逻辑.所以说,在算法媒体中不同类型化的标签式群体所接收到的信息,以及其推荐而层层叠加所形成的“信息茧房”等现象,实则是天然地带有算法设计者、运行者“偏见”的程序性运行机制所导致的必然性结果.而这种算法偏见在实践中会对社会公平正义造成很大的冲击,甚至会因其导致的种族歧视、性别歧视、工作歧视、家庭歧视、肤色歧视等问题进一步冲击社会秩序而危及整个政治生态.例如,2016年美国大选期间,特朗普团队聘请数据分析公司剑桥分析(Cambridge Analytica),通过窃取5 000万Facebook用户的个人数据并对其进行心理特征分析,从而在游说中依据每一位用户的年龄、性别、喜好、政治偏向等因素精准推送有关大选的广告和新闻.对此,剑桥分析公司的产品总监奥茨科夫斯基曾评价:“数据不会赢得竞选,关键是你如何理解数据如何使用它,进而对抗正常的政治趋势[12].”此外,在算法“黑箱”及其不可解释性等内部原因的共同作用下,算法程序在执行系统程序过程中难免会陷入形成自我固化的“盲区”,从而导致用户始终沉浸在算法推荐的信息流之中,且其中隐含的带有歧视性、狭隘性的信息内容难以被用户发现,从而强化着不同阶层的社会偏见,公众之间的共识不断被割裂分化,社会的公共性由此不断被侵蚀.同时,随着算法在公权力行使及其治理过程中的应用,算法技术及其架构不断地被嵌入到既有的行政体制机制之中并发挥效能,从而在社会救助、精准扶贫、医疗福利等领域提供强有力的科技与算力支撑.但算法在增益社会治理与国家治理现代化的过程中,传统的科层体制也在被不断地注入工具理性,传统公权力运行机制更加依赖以算法为代表的人工智能技术及其架构,这不可避免地会将算法偏见、算法黑箱等问题潜在地植入到整个国家权力运行及其决策系统之中.由此,如果这些问题造成的错误决策或偏见性决策等通过国家制度系统得以“表达”,则会损害政府的公共性、权威性,甚至引发比较严重的政治风险.例如近来澳大利亚国家审计署审查发现,国家数字健康署推行的“我的健康记录”计划及其体系存在较为严重的网络安全问题和隐私风险,且为得到妥善有效的管控.事件爆出后,民众纷纷选择退出这一系统,并呼吁联邦政府暂停此计划的实施.尽管之前联邦政府通过《我的健康记录法案(2012年)》《我的健康记录条例(2012年)》《我的健康记录规则(2016年)》等法案为“我的健康记录系统”提供了制度规则[13],但实践来看这一计划及其立法框架未能有效保障公民权益,将个人各类医疗信息置于可能被滥用、盗用的风险之中,政府也因此受到民众的质询.

2 算法风险应对的典型样态:美国与欧盟的模式梳理

如前所述,作为数据治理体系的重要环节,世界各国和地区围绕算法治理化解已经作出了诸多探索并形成了可借鉴的经验,以期最大程度上预防并化解算法应用可能导致的诸多风险,进而促进数字经济的蓬勃发展.以美国和欧盟为代表的发达国家和地区已经结合自身不同的文化背景、发展理念、规则框架等,形成了适合于本国家或者区域数字经济发展并与其制度体系相洽的算法治理模式.

2.1 算法治理的概念及其内涵

近年来,随着算法歧视、算法偏见以及个人信息隐私被侵犯等风险逐渐增加并进入公众视野,算法治理(algorithm governance)同数据权属、个人信息隐私保护、网络安全挑战等问题一同被推向网络社会治理的前台.特别是脸书内容推荐歧视、英国就业性别歧视、剑桥分析影响美国大选、美国芝加哥法院COMPAS算法案件等事件的披露,公众和社会对算法治理的需求显著提高.而这一过程中,算法治理内涵也已经发生了较大转变,经历了从“行业—国家—全球”的范围转变,成为各个国家与社会治理的重要内容.

里约热内卢州立大学Doneda教授和哈佛大学Almeida教授[14]在其《什么是算法治理》一文中提出,算法治理包含严格的法律法规、纯粹的技术观点等不同层次,其重点通常是问责制、透明度和技术保证.而基于算法的性质、具体内容和风险分析等因素,算法治理有着不同的特定治理路径.硅谷企业家Tim[15]则从规制的角度提出算法治理的监管系统应该具有如下4个特征:1)对算法应用的预期结果有深刻的理解;2)实时测量以确定是否正在取得成果;3)监管框架根据数据更新能够作出调整;4)对算法本身是否正确以及是否按预期运行进行定期、深入的分析.结合当今数字经济发展的时代背景与上述学者对算法治理的认识,本文认为算法治理是指:一国针对算法技术及其架构的应用、处理、保护等方面所采取的策略、方针、政策、法律等一系列制度安排的总和.算法治理内涵可以从以下几个维度理解:1)主体层面.包括政府、社会公众、企业、第三方专业机构等不同主体.2)内容层面.其主要内容包括算法技术的规范适用、算法风险预防、算法问责、算法透明性、算法可解释性等.3)方式层面.其既包括法律规范、政策方针、行业规则等制度性资源,也涵盖道德伦理、自我调整等非制度性资源.4)目的层面.其目的在于规范算法技术的科学合理适用,防范算法应用可能带来的诸多风险,以切实保障公民合法权益,促进人工智能行业与数字经济的深度融合发展.因此,算法治理实质上就是针对算法技术的治理,其既作为网络社会治理的重要环节而统筹于整个网络社会治理规则体系之中,又因其独特的技术规制、引导等全部内容助推网络社会治理体系法治化、现代化,以适应数字经济对海量数据的快速、便捷、规范使用与网络社会治理的制度需求.

2.2 美国基于“算法问责”的专门监管模式

作为最早应用互联网的国家之一,美国在信息技术、人工智能、科技创新等数字经济基础内容方面一直领先全球,在世界数字经济市场体系中处于优势地位.基于其自身强大的资本力量与领先的信息技术,美国自互联网应用以来一直在全球范围内推进数据流通与数据应用,旨在通过加快本国企业占领世界数字经济市场的步伐,从而在全球范围内建立基于以其为主导数据规则的经济市场,进而实现对数字经济市场资本的攫取.同时,面对数字经济发展带来的一些问题,尤其是算法应用可能引发的诸多风险,美国基于其政策和法律体系较早地作出了监管策略和法律回应,形成了较为具体且灵活的治理框架及其结构,即通过综合运用法律法规、自治规则、道德规范,形成政府、行业、第三方机构、公民等不同主体的治理合力,以规范算法的不同场景适用.

2017年1月12日,美国计算机协会下属美国公共政策委员会(USACM)发布的《关于算法透明度和责任的声明》指出:“生活中无处不在的算法促使我们应该专注于解决与算法的设计和技术方面相关的挑战,并从一开始就防止偏见”.并提出了7项促进算法透明度和可靠性的原则,以旨在确保以算法为代表的技术和政策生态系统中实现公平,这包括:1)意识.算法系统的所有者、设计者、构建者、用户和其他利益相关者等相关主体应意识到算法在应用中可能存在的偏见及潜在危害.2)获取和救济.监管机构应采用机制对算法决策提出质询,使受到基于算法的决策不利影响的个人和团体获得救济.3)责任制.即使无法详细解释算法如何产生结果,机构也应对其所使用算法的决策负责.4)解释.鼓励使用算法决策的机构对算法所遵循的程序及其作出的具体决策进行解释.5)数据来源.算法的设计者应该对数据如何收集加以描述,同时对算法数据收集过程引起的潜在偏差进行探究.6)可审查性.对算法的模型、应用及其数据和决策进行记录,以便在怀疑有损害的情况下对其进行审查.7)验证和测试.机构应使用严格的方法来验证其模型,并记录方法和结果[16].该声明的发布不仅将以算法为代表人工智能存在的算法歧视、算法偏见、算法黑箱等问题推向公众视野,而且在公共政策层面提出了解决此类问题的原则性规定,为立法层面出台相关法案提供了实践导引.

为了进一步规范算法技术在政府机构及其权力运行如犯罪预测、量刑建议等活动中的应用,防止算法决策引发的偏见与歧视问题,2017年12月,美国纽约市议会通过了首部针对人工智能进行监管的《政府部门自动决策系统法案》.这部法案要求成立一个由自动化决策系统专家和受自动化决策系统影响的公民组织代表组成的工作组,以就市政机构使用自动决策算法的公平性、问责性和透明度等问题进行专门监督,并作出如下具体规定:明确界定需要受到规制的政府机构自动化决策系统;受政府机构自动化决策系统影响的个人可以要求提供解释和证据;制定判断是否存在算法歧视的程序;向受政府机构自动化决策系统影响的个人救济途径;应当将政府机构自动化决策系统(包括代码、算法等技术性信息)向公众公开.由此,对公共领域的算法应用在法律层面作出专门回应,这不仅有利于促进公权力决策的规范性、正当性与权威性,而且进一步完善了算法规制的法律框架,为算法治理的规制体系奠定了重要基础.

2019年4月,为了进一步规范人工智能机器学习系统的道德使用,解决高风险的人工智能系统比如检测人脸或基于敏感个人数据作出重要决定的技术,以及更大范围内保护用户数据的隐私和安全,美国众议院和参议院的民主党议员提出《2019年算法问责法案》,要求企业对其人工智能工具和系统的“准确性、公平性、偏见、歧视、隐私和安全性”等问题进行自我审查,并将这一监管权力提议授予联邦贸易委员会(FTC).同时,这项法案将适用于能够获取大量信息的大型科技公司,包括年收入超过5 000万美元的公司,以及拥有超过100万消费者数据的数据代理商和企业[17].可以看出,该法案的提出也是美国在上述算法治理的先行经验基础之上,为了进一步促进算法在数字经济时代的规范应用,保障非公共领域的用户权益,在联邦层面进行的立法探索.如果这一法案获得批准,将会为美国的算法治理提供坚实的制度支撑.

从上述主要实践可以看出,美国针对算法治理体现出较为明显的实践导向,注重以“算法问责”为核心而构建起算法妥恰应用的外部控制模式.这一模式实质在于通过社会、经济和政治机制等不同维度的合力以实现对算法的权力制衡[18],具有如下特点:1)注重引入第三方机构对算法透明、算法决策的专业审查作用;2)着力推动行业自治,促进企业主体针对算法运行进行自我监督、自我解释;3)充分发挥公众监督力量,将公众参与置于涉及算法运行的各个阶段;4)针对公共领域内算法运行进行立法规制,而在非公共领域则突出政府协助、行业主导、公众参与的治理模式.总体来看,美国的算法治理模式从不同的立法层级、规则构建、问责设计、监督方式、权益保护等方面针对人工智能尤其是算法规制作出具有延续性的制度回应,这与美国在个人信息隐私保护、数据保护、网络安全保护、未成年人网络保护等统筹于网络社会治理的整体性框架之中,其治理思路、框架、路径本质上都是遵循尽量避免政府的直接干预,注重对新兴技术的引导和支持,以促进社会经济尤其是数字经济发展的技术路线,呈现出“条块分割”型的专门治理样态.

2.3 欧盟基于“增益用户权利”的结构控权模式

作为当今世界数字经济发展的重要区域之一,欧盟在数据保护、数据治理法治化等方面一直走在世界前列.但由于欧盟各成员国之间在文化传统、法律规范、制度体系、经济发展、科技创新等方面存在的差异,欧盟始终难以构建区域内较有影响力的互联网巨头企业,由此导致其推进自身数字经济体系建设的过程步履缓慢.因此,相较于美国注重以灵活的治理体系以保护和促进新兴经济发展,欧盟始终以打破不同成员国之间的数字孤岛、保障人的数字化发展及其基本权利为目的,大力推进数字化单一市场战略为出发点,并以严格立法的形式构建起了强有力的数据保护规则体系.基于这样的背景,欧盟目前并未通过专门立法以引导算法治理,而是将算法治理内嵌于其数据保护框架之中,通过具体条款以调控算法应用在不同阶段对人造成的偏见、歧视等损害.这种统筹协调于数据保护整体框架之中的算法治理模式实质就是以增益公民权利对抗算法应用可能带来的危害后果.

欧盟于1995年颁行了欧洲第1部个人数据保护法规《数据保护指令》,在立法目的、立法原则、数据主体的权利、数据保护监管机构、跨国数据流通的限制等方面作出详细规定,由此构筑起了欧盟数据保护的基本框架,为各成员国之间妥善处理保护数据主体权利和促进自由贸易提供了规则体系支撑[19].为了进一步打破成员国之间的数字壁垒,促进区域间数字商品、服务和市场健康发展,欧盟委员会在2015年5月出台的《数字单一市场战略》中提出,构建数字化单一市场战略将建立在三大支柱之上,其第一大支柱是使全欧洲境内的消费者和企业能够更好地使用在线产品和服务;第二大支柱是为数字网络和服务的蓬勃发展提供更好的环境;第三大支柱是使欧洲数字经济的潜力实现最大化.其中,在第二大支柱的具体内容中提出一些在线平台如搜索引擎、社交媒体、电子商务平台、应用程序商店、价格比较网站等在数字经济生活中发挥了越来越重要的作用,但这些拥有重要市场力量的平台通过算法处理、分析、转化用户数据的行为已经引发了社会公众的担忧,提出需要根据新的数字环境构建适合平台发展的监管框架.对此,欧盟委员会提出从以下几个方面对在线平台以及互联网中介服务提供商进行综合评价,以制定后续的监管框架.1)透明度,如:搜索结果的透明度(含付费链接和广告);2)在线平台对用户数据的使用情况;3)在线平台与数据服务商之间的关系;4)对平台在用户数据进行平台间转移的限制及意愿进行分析;5)如何对互联网上的非法内容进行最佳处理.这一战略的提出不仅为欧盟推动数字单一市场与数据保护体系的构建奠定了规则基础与制度框架,而且也为算法应用带来的挑战提供了初步的治理策略.为了回应机器人和人工智能发展过程中带来的歧视、非正当程序与可解释性等问题,欧盟于2017年2月通过了《机器人民事责任法案》.该法案提出,进一步发展和增加使用的自动化和算法决策无疑会影响个人的选择(如一个企业或一个互联网用户)和行政、司法或其他公共机关的权威,需要现有的法律框架针对这些问题予以回应,并确认这些问题造成危害后果时从业务视角模型和人员设计模式2方面明确法律责任.同时,鉴于安全保障以及人工控制和核查的可能性需要纳入自动化和算法决策过程,实现对算法技术应用的合法合理限制.这部法案还强调要构建符合算法合理应用的道德框架,通过为算法应用的发展、设计、生产、使用和修改制订一个明确、严格和有效的指导道德框架,以补充上述提到法律框架难以规制的方面[20].

随着互联网信息网络、大数据、云计算等新兴技术的迅猛发展,为了进一步应对大数据与数字经济背景下用户数据指数级增长带来的保护新挑战,欧盟在《数据保护指令》建立起的数据保护体系基础上,于2018年5月正式实施《通用数据保护条例》(GDPR,以下简称“条例”).这部新条例由11章共99条组成,对其立法目的、数据处理的原则、数据主体的权利、控制者和处理者的义务、独立监管机构、合作与一致性、责任救济、处罚规则、授权行为和执行行为等作出详细规定.进一步聚焦到算法治理方面:1)条例第2条规定:“本规例适用于全部或部分以自动方式处理个人数据,以及以自动方式以外的方式处理构成档案系统一部分或拟构成档案系统一部分的个人数据.”第4条规定“‘个人数据’是指与已识别或可识别的自然人(数据当事人)有关的任何数据;可识别的自然的人是可以确定的,直接或间接,特别是通过引用一个标识符,比如名字、身份证号码、位置数据,在线标识符或特定的1个或多个因素的物理、生理、遗传、心理、经济、文化和社会身份的自然人.”质言之,这2条规定将基于算法技术而产生的大量数据分析、处理、决策行为,以及可能导致的算法偏见、算法歧视等危害后果纳入到条例确立的框架体系的调整范围之内.2)对于敏感数据数据处理方面,条例第9条规定:“对揭示种族或民族出身,政治观点、宗教或哲学信仰,工会成员的个人数据,以及以唯一识别自然人为目的的基因数据、生物特征数据,健康、自然人的性生活或性取向的数据的处理应当被禁止[21]”,但其列出了应当被禁止的例外情形如获得数据主体的统一、为了公共利益之必要等.3)条例第3章“数据主体权利”对数据主体行使权利的透明度、交流和模式,数据控制者关于纠正或删除个人数据或限制处理的通知义务,数据主体收集的个人数据的提供,以及数据主体的数据访问权、纠正权、被遗忘权、限制处理权、反对权、拒绝权和自主决定权等作出的详细规定.这些规定不仅从法律层面使数据控制者应增强其适用算法技术的透明度,并作出便于数据主体理解的解释,而且通过赋予数据主体被遗忘权、访问权、纠正权等新兴数据权利的方式,增强数据主体对自身行为数据的阶段性控制,以此对抗因算法决策产生的算法歧视、算法偏见等现象.4)条例第4章“数据控制者”对其基本义务、数据保护的设计和默认、记录数据处理活动信息、数据保护影响评估和事先咨询、行为准则等内容作出详细规定.尤其是条例第29~32条对数据处理者的行为义务包括“处理的主题和处理的期限、性质和处理目的、对处理活动的记录、处理过程的安全性”等等作出明确规定,通过严苛的法律责任以规范数据处理者的行为.此外,第37~39条还提出设置数据保护专员制度与独立的监管机构,从而为数据控制者和处理者合理规范使用用户数据提供了强有力的外部监督体系,由此从数据被处理的各个阶段构建起以数据控制者和处理者责任义务为核心的问责机制.

总体来看,欧盟关于算法应用导致的相关治理问题已经取得较好成效,尤其是自GDPR实施以来,其在逐步推进严密规范、系统完备数据保护体系的同时,也构筑起散布于这些法规条例之中的算法治理体系.这种基于“增益用户权利”的控权模式具有如下特征:1)服务并统筹于欧盟数据治理体系框架之中,且随着其数据之体系的不断完善而完善;2)围绕保障并不断增益数据主体的新型数据权利为核心,进而对抗数据主体可能遭受的算法危害;3)通过设置数据保护官、专门的监管机构等方式,从法律制度层面不断强化算法规范应用的外部监督体系.但由于欧盟出台的相关条例尚未从制度层面区分算法具体应用的不同场景、结构及其功效,这种注重对用户个人新型权利法益保护的控权型算法治理模式,则可能在具体实践中致使算法治理难以合理相洽于欧盟整个数据治理结构中,从而会对以人工智能为代表新兴行业的发展形成一种难以避免的压制性力量.

3 域外经验与本土展望:我国算法治理的路径优化

当前,我国的算法治理问题及其治理需求主要集中在以算法商业应用的平台经济中.随着我国大数据战略的实施与人工智能技术的广泛应用,算法、算力及其架构在为数字经济蓬勃发展奠定关键技术基础的同时,也潜在地增加了由算法偏见、算法歧视、算法黑箱等问题可能引起诸多风险的可能性.特别是近年来魏则西事件、脉脉非法抓取使用新浪微博个人信息案件、淘宝大数据杀熟等为典型代表的算法推荐、算法新闻负面事件的频频发生,进一步将以算法治理为深层次逻辑的平台治理推向网络社会治理的前台,其不仅涉及到平台信息内容、平台经济驱动等关乎经济利益分配乃至权力分配格局的进一步优化,更关系到我国的信息主权安全.面对我国现实且紧迫的治理需求,国家立法机关以及以国家互联网信息办公室、中共中央网络安全和信息化委员会办公室为代表的公权力部门,在遵循《中华人民共和国网络安全法》(简称《网络安全法》)等网络空间基础性法律的前提下,对以算法技术为代表的人工智能治理内嵌于平台治理之中,并遵循规范治理与技术治理的原则,修订并出台了相关法律法规、规范性文件如《中华人民共和国电子商务法(2018年修订)》(简称《电子商务法》)《网络信息内容生态治理规定》《信息安全技术个人信息安全规范》《App违法违规收集使用个人信息行为认定方法》等(2)这些法律法规、规范性文件中均对以算法为代表的人工智能技术规制作出相关规定,如:《电子商务法》第18条、第35条、第40条规定电子商务经营者在使用算法推荐技术发送广告等行为的,应当遵循相关法律规定,切实保护用户权益.《网络生态治理规定》第13条、14条、15条、16条对网络信息内容服务平台应当加强以人工编辑、机器算法等方式推荐、呈现信息环节的管理,应当建立体现主流价值导向的推荐模型,建立健全人工干预机制,建立用户自主选择机制等内容作出规定.《信息安全技术个人信息安全规范》在第3,5,7部分对用户画像等作出详细规定.同时,《个人信息保护法》《数据安全法》已经进入审议阶段.,以引导平台企业主体行为,规范算法技术的合理适用,促进平台经济与网络经济、网络社会与现实社会的持续健康发展.但从算法治理的整体效状检视,当前我国算法治理的实际能效难以与社会对其治理的现代化现实需求相匹配,主要体现为算法治理的制度基础尚不坚实且灵活、治理理念重责任监管、治理技术不精细,等等.因此,基于我国制度特色与算法治理的本土探索,结合上述对算法引发的诸多风险以及欧美算法治理的模式选择与经验,提出未来我国算法治理的可行性路径,以期实现算法治理的制度科学化、结构合理化、方式精细化、过程民主化,以科学完备、系统合理的算法治理制度助推网络社会治理体系和治理能力现代化.

3.1 构架“多方均衡”的算法治理体系

算法治理作为社会治理尤其是网络社会治理的重要环节,其治理效能与治理能力的提升不仅有助于为共建共治共享的社会治理格局提供有效的法治保障,而且能够进一步完善网络社会治理体系,推进国家治理体系和治理能力现代化.而坚持和树立科学的算法治理理念是引导算法治理行动策略、实现算法治理现代化的基本前提.首先,不同于欧盟通过为公民个人赋权以对抗算法风险,亦或美国通过构建外部专业的问责机制确保算法规范应用,我国的算法治理体系构建应在综合考虑基本国情、经济发展、数据安全、信息保护等因素的基础上,确立构建满足国家数据安全、数字经济发展、人工智能产业升级和个人信息保护的“多方均衡”算法治理理念.这既是在网络社会治理整体治理格局角度下,综合平衡不同利益主体、行业发展的现实选择,也与我国坚持和完善共建共治共享社会治理格局的基本要求在理论与实践逻辑上相洽.其次,依据算法应用的不同阶段、场域、方式及其可能造成后果影响的大小,有重点、分主次地制定政策与法律规范以引导算法治理.由于法律天然具有的滞后性使得其难以对算法为代表的人工智能技术的飞速发展带来的诸多风险与挑战作出及时回应,对此,可以借鉴美国在此方面注重以行业政策、公共政策如算法伦理原则等方式,在未来妥当利用政策具有的灵活性而有效及时地引导算法治理.同时,在此基础上,还须确立整体主义的算法治理思路.这是指对算法治理的制度设计就是要在考量算法应用在不同行业发展及其特性基础上,综合公权力部门、公民、第三方机构、算法应用等不同主体的关联性因素进行整体性制度构建.这要求在具体制度设计中须明确其目的与价值注重修正公权力部门、平台运营商、公民三方主体的权利(力)、义务(责任)的畸轻畸重偏差,厘定其三方主体之间的权利(力)、义务(责任)边界,为司法实践中存在的相关法律问题提供正当明确的制度依据.此外,在法律制度体系建构层面,须以《网络安全法》和即将出台的《中华人民共和国个人信息保护法》(简称《个人信息保护法》)《中华人民共和国数据安全法》(简称《数据安全法》)等网络空间治理的基础性法律为上位法依据,并结合国家网络安全与信息发展的方针、相关行业规则、技术标准等,针对算法应用主体的特征、不同主体之间的权利(力)义务(责任)关系等方面进行专门性立法.

3.2 健全算法治理的制度基础

合理的算法治理结构旨在通过监督、激励、控制和协调的一整套制度安排,以充分发挥各治理主体的能动性,从而实现治理资源的有效配置.一方面,在法律层面实现数据保护与算法权力规制的有序衔接.从我国当前法律制度体系来看,传统的法律制度偏重于对信息内容的管控,如《网络安全法》《全国人民代表大会常务委员会关于加强网络信息保护的决定》《互联网信息服务管理办法》《互联网新闻信息服务管理规定》《互联网文化管理暂行规定》《互联网群组信息服务管理规定》等多部法律法规及规范性文件,都以信息内容及其保护为出发点对网络信息的传播、搜集、认定作出相关规定.这种侧重于对信息内容管控的法律制度安排不仅导致传统结果监管思路下,公权力部门内容审查范围扩大、难度增加与算法应用主体监控责任加强的尴尬局面,而且忽视了人工智能时代由于算法技术应用导致的信息分类处理的不可解释性、“黑箱”现象.其实质上是从加强对数据控制以保护个人信息法益的角度去建构这一法律体系,实践中可能会对以数据共享互惠为基础运行法则的互联网应用及其发展造成一定的制度阻碍.实现数据内容保护与算法权力规制的有序衔接须综合考量当前网络法律体系尤其是不同法益保护面向、层级、属性的制度规范而提出来的规制思路.这是沿循当前个人信息保护法律框架,结合算法应用主体的发展特点、架构特征及其可能导致的社会风险而提出来的层级协调体系.尽管当前不少学者对于算法提出“技术中立”的原假设,但事实往往是算法一旦走向应用,不同行业领域的利益属性交织而使其难以保持中立.因此,算法媒体规制的重点不在于是否要分场景、层次、级别的适用算法,而在于从制度体系层面实现对算法技术、架构及其应用的规制.这要求公权力部门在进行具体制度设计时须以涉及个人信息保护的基本法律框架为基础,在处理好数据流通与个人数据基本权利保障之间平衡的前提下,将对平台运营商所设计算法程序规制作为重点,通过建立一系列风险防控机制预防、预测、预警算法应用主体可能出现的危害后果,由此从源头上控制并尽量避免平台资本无序崛起、媒体公共性消解等风险的发生.

另一方面,在内容层面积极保障用户权益并明确其救济途径.人工智能技术的创新发展不仅使得人类生产生活发生了颠覆性变化,更促使人的权利集合中增加了数据法益的要素,改变了传统人权实现及其保护的权利逻辑.这一系列变化亟需新的法律制度体系以应对人权内涵的变化、人权价值的实现以及人权保障的满足.而算法作为人工智能技术的典型代表,对其治理之目的不仅在于防止算法技术性权力的不合理扩张,还在于充分实现用户个人数据权利的充分保障,这包括数据信息自主权、数据信息知情权、数据信息表达权、数据信息公平利用权、数据信息隐私权、数据信息财产权,等等.同时,我国现行有关算法应用规制的《互联网新闻信息服务管理规定》《互联网信息内容管理行政执法程序规定》等法律法规几乎未对公民个人权利救济的具体情形、方式、程度等作出明确规定,反而是算法应用主体发布的章程如《新浪微博公约》对用户正当权益受损的救济途径、方式等作出较为详细的规定.因此,未来针对算法应用的相关法律法规亦或是行业规范等,均应当注重将个人在算法应用平台中的救济权利予以制度化、规范化,唯有通过制度保障与权益法定相结合的方式才能最大程度地保障用户切身权益.此外,结合上述相关制度设计,这种救济权利可以进一步分为平台救济与司法救济2个环节,实践中个人的权利救济主张应当在申请包括算法决策的解释、算法可解释内容等平台救济未果的基础上,再被导入司法救济,实现发挥平台效用与节省司法资源之协调.

3.3 设置限制算法技术性权力扩张的机制

算法技术及其架构的复杂性决定了算法治理需要遵循一定的治理原则,依据算法具体适用的不同场域、方式、类型及其他相关因素进行精细化设计.

一方面,对算法问责方式适用“场景式类型化划分”+“层级监管措施”的模式.相比公权力机关监管所有的算法决策、设定一般性的监管规则,通过构建算法问责机制以促进算法决策正当性已经逐渐成为业界共识.公权力机关应以促进算法技术及其构建正确应用为基本目标,通过一系列框架和程序设计对因不同算法应用可能产生的损害后果进行划分认定,从而使潜在的危害可以在“算法系统”中评估、控制和纠正,如图1所示,即算法应用主体对发生的违法违规现象进行事实和法律认定;确定算法是否按照算法应用主体设定的既定程序(符合算法应用主体的意愿)运行;确认算法应用主体是否有对已经发生的违法现象进行确认并作出措施积极修正.在这个权责框架内,政府、企业主体、专业评估机构等主体,还须结合算法应用可能造成权益分配、行为后果、危害程度等不同企业应用作出层级划分,并据此出台不同类型的相关监管措施,由此避免在实践中对企业主体处罚的“一刀切”等现象,实现算法应用层面激励约束并举的引导性策略.

另一方面,厘定算法可解释性内容及其原则.随着算法应用在方式、层次、深度方面的逐渐加深,算法由初级到深度学习的过程中经历了结构的简单到复杂、线性到非线性的转变,这也使得社会公众的认识体系越来越难以与其运行逻辑相匹配.基于此,无论基于算法应用主体自身规训“算法权力”的考量,亦或是公权力部门规制算法应用主体、保障用户基本权利的需要,有必要专门针对算法应用的具体场景而厘定算法可解释性的相关内容及其进行解释的原则.其可解释内容主要包括:算法应用主体适用算法的类型、方式、领域及其应用基本原理;算法应用主体为适用算法运行而构建的基本架构及其类型;算法对用户数据信息搜集、处理、分类、再分发的基本知识.但考虑到商业秘密、技术创新、知识产权保护等因素,其解释的内容不应包含具体的技术细节.同时,算法应用主体须遵循便于理解原则、相关性原则、层级性原则等具体原则,以便于实践中用户理解算法运行机制,合理保护其自身权益.

图1 算法应用产生损害后果的认定程序

3.4 增益算法治理的公共性

公共性是当今构建民主社会的内在核心之一,其一般体现为制度、理念与行动的公共性,科学的治理理念与制度体系为治理的行动提供了重要支撑,而合理的治理行动又是治理理念与制度体系得以彰显的具体表达方式.从这个视角来看,我国算法治理的路径优化除了须在更新治理理念、调整治理结构、细化治理方式的基础之上,还需要政府发挥主导性协调作用,着力推进多方主体参与算法治理的互动体系,从而以算法治理的过程公共性促进算法的多元共治.因为算法治理实质上就是政府、算法应用主体(企业)、公民等主体,即公共利益、商业利益以及个人利益之间互动、博弈与平衡的过程,而算法治理的最终目的则要求妥善实现不同主体之间权力分布与利益分配互融相洽的格局.因此,作为天然地担负公共治理职责的政府须根据人工智能发展的阶段性特征与算法技术应用的实际情况,通过搭建算法治理的互动平台和有效载体,建立政府、企业、公众互动协调的治理机制.如未来算法媒体行业在设计其算法问责机制或制定具体的《可解释性准则》等规定时,公权力部门要发挥好其引导作用,通过构建平台基于行政职权分担的社会责任体系与加强用户平台治理的话语权[22],将不同主体间尤其是公民关于问责机制、算法可解释性内容的诉求意愿共同嵌入到制定过程之中,从而使算法可解释性及其内容构建更具有正当性,以为司法实践提供可操作性与规范性的指引.

4 结 语

人类社会不断发展演进的历史经验表明,每一次新技术的产生在逐渐影响、推进、革新社会结构及其制度的同时,也潜在隐藏着诸多风险.基于规制风险而设置的各类防范举措、方针亦或政策等也将会通过渐进且结构性的预期回应,对新技术的应用与发展提供更科学合理的制度支撑.当下,在人工智能、大数据与数字经济时代多重叠加的背景下,算法作为一种革命性技术力量正在颠覆着人类传统生产生活方式而迈入数字社会,而基于算法风险预防、预测与化解的需要,算法治理作为一种时代需求也亟需各国进行制度回应.无论是美国的 “算法问责”外部控制模式,亦或是欧盟的“增益用户权利”内部控权模式,究其本质都是对算法及其权力的规范适用.但算法治理终究是一个复杂的系统性工程,如果说算法是这个时代的伟大发明,那么算法治理则是各国难以忽视的时代难题.因为算法的应用不仅仅是颠覆了人类的生活方式,它其实更深层次地改变了传统的经济生产方式、结构、体系以及与之相匹配的制度规则体系与权力分配格局.我国已经围绕人工智能发展、数字驱动战略与网络社会治理,针对算法治理作出了立法、政策、行业规则方面的制度回应,但仍然与国家治理能力与治理体系现代化的社会需求、制度需求、时代需求存在一定的差距.不可否认的是,未来算法治理的路线图与具体方式将会更加明晰,但当下需要学术界和实务界共同努力并从实现科技与法律、良法与善治之协调的视角,对其实践中产生的各类问题进行分析回应,为立法机关、行政机关、不同行业提供合理切实建议,从而进一步探寻算法治理的“中国方案”,为世界分享算法治理的“中国经验”.

猜你喜欢
算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
基于CC2530的改进TPSN算法
基于BCH和HOG的Mean Shift跟踪算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
一种改进的整周模糊度去相关算法
一种抗CPS控制层欺骗攻击的算法
Wiener核的快速提取算法