算法影响评价:算法规制的制度创新*

2021-04-07 00:41
情报杂志 2021年3期
关键词:环境影响规制主体

李 安

(中南财经政法大学知识产权研究中心 武汉 430073)

Algorithm Impact Assessments: Institutional Innovation of Algorithm Regulation

Li An

(Research Centre of Intellectual Property, Zhongnan University of Economics and Law, Wuhan 430073)

Abstract: [Purpose/Significance] While promoting the intelligent revolution, algorithms bring a series of technical risks and social problems, mainly including algorithm black box and algorithm bias. Therefore, it is necessary to explore the effective path of algorithm regulation from the institutional level. [Method/Process] The key point of algorithm regulation is to improve the transparency. In comparison with the existing methods of algorithm transparency, the institutional superiority of Algorithm Impact Assessments (AIAs) is proposed. Furthermore, AIAs is deeply analyzed from two perspectives called institutional origins and theoretical basis. And the specific construction of AIAs is discussed systematically from the aspects of classification management, the scope of assessment, the procedure of assessment, impact statement, etc. [Result/Conclusion] AIAs can contribute to building a transparent and fair algorithm society. China should closely keep pace with the legislative policy trend of European and American countries (regions), and take the "two-step" scheme to promote the construction and improvement of the AIAs.

Keywords: artificial intelligence; algorithm transparency; Algorithmic Impact Assessments; mate-regulation; information law

0 引 言

人工智能社会本质上是一个“算法泛在”并由“算法主导”的社会。人工智能社会的一个突出表现是,基于算法的自动决策正在逐步地替代或补充人类决策:银行使用算法系统对用户进行信用评级和风险评估,以此为基础决定是否对其发放贷款;互联网企业采用协同过滤等算法技术对商品和内容实行个性化推荐,面向消费者进行精准营销;网络平台采用感知哈希算法对用户上传的内容进行识别查验,自动移除或屏蔽版权侵权、暴力恐怖、淫秽色情等违法内容。这些算法应用,既有商业性决策,也有社会政策性决策,覆盖了人类社会的方方面面,对我们的生产生活产生了意义深远的影响。

算法技术在推动人类社会智能化革命的同时也催生了一系列技术风险和社会问题,其突出表现为算法偏见和算法黑箱:a.算法偏见,即算法应用中存在的不公正现象。比如,动态定价算法系统以用户提交的身份信息和过往的行为信息为基础“算计”用户,对其实行价格歧视,俗称“杀熟”;另如,版权人和网络平台采用的版权算法决策系统,倾向于保护版权人利益,而侵害用户合理使用作品的合法权益,出现过渡执法的“积极错误”(false positive)[1]。b.算法黑箱,即算法决策过程的不公开、不透明。产生算法黑箱的原因很复杂,主要有两点:一是在事实层面,以晦涩难懂的目标代码为表达形式的算法具有天生的不透明性;二是在法律层面,以程序源代码为核心的算法信息通常被视为受法律保护的商业秘密。算法决策过程的不公开、不透明,意味着外部主体无法有效地审查、监督算法决策。算法因此不具有可追责性,这进一步庇护或催生了算法偏见。

鉴于上述风险和问题的存在,“在发展中科学规制,在规制中健康发展”成为算法技术和智能社会的基本发展理念。那么问题是:我们应采取何种算法规制方案?近年来,算法影响评价(Algorithmic Impact Assessments)制度在全球范围内正迎来越来越多的关注:2018年4月,美国“现代AI”研究院提出了算法影响评价的实践框架[2]。2019年2月,加拿大政府出台《关于自动决策的指令》,第6.1条及附件B、附件C对算法影响评价作出系统规定,成为算法影响评价在全球范围内的首个立法例。2019年4月,欧盟议会发布报告《算法问责与透明的治理框架》,建议采购与算法有关的公共服务设施时应将算法影响评价作为提高算法透明度和可问责性的治理手段[3]。2020年7月,新西兰政府出台的《算法章程》规定政府机构在采用可能对社会大众产生重大影响的算法技术之前理应提交算法评价报告(Algorithm Assessment Report)[4]。除了政府公共事务领域内算法影响评价制度的倡议和实践,学者也指出私人企业的算法设计和社会化应用也需要影响评价制度予以监管[5]。

当前,人类社会正在形成以“算法”为中心的智能社会法律秩序[6];可以说,算法影响评价制度是该法律秩序的重要组成部分。不过,算法影响评价制度在国内立法性文件或政策性报告中尚未被关注到。在学术界,国内学者把影响评价制度从自然环境污染领域引入社会人文环境领域,将社会影响评价确立为一项制度工具[7],而且对社会影响评价在人工智能场景中的最新立法例,即欧盟2018年《通用数据保护条例》(以下简称GDPR)第35条确立的“数据保护影响评价”,进行了较为全面地评述[8-9]。但遗憾的是,算法影响评价在国内还未成为一项明确的研究主题。鉴于此,本文拟结合欧美国家(地区)最新的立法政策和研究文献,就算法影响评价的时代必要性、制度渊源、理论基础和制度设计等内容进行系统性地探讨和梳理,以期对中国智能社会治理的制度建设有所裨益。

1 算法透明的困境与算法影响评价的提出

算法偏见和算法黑箱的背后是算法权力的恣意。使用算法进行商业性和社会政策性决策是一个关于权力的叙事。已有学者认识到这一点,指出大数据“杀熟”问题实质上是算法权力的治理问题,算法“宰客”的治理重点应从消费者权利的保护转向经营者算法权力的规制[10]。权力要在阳光下运行,同样地,规制算法权力的首要措施是通过正当程序来打开算法黑箱,提高算法透明度。算法影响评价制度能够更好地践行算法透明原则。

1.1规制算法权力需要提高算法透明度算法主体影响或操纵他人生产生活的能力就是算法权力。算法权力的产生与算法黑箱密切相关。算法“黑箱”是一个意义丰富的隐喻,学者帕斯夸莱(Pasquale)对其作出两个方面的解读:a.“黑箱”指信息记录装置,就像飞机、火车、汽车上面的数据记录仪器,俗称“黑匣子”;b.“黑箱”指一个系统神秘地运作,人们能够观察到系统的输入和输出,但是不清楚输入到输出的转换机制[11]。算法黑箱的上述两种解读可以帮助我们深入地剖析算法权力。算法黑箱如同一个“暗室”,里面的算法主体(以互联网公司为代表)可以向外监视社会公众的日常行为,并将这些信息记录在案;而暗室之外的社会公众却无法向内监督算法主体,对其使用用户信息进行决策的过程一无所知。也就是说,算法在审视他人的同时避免自己被审查。在算法主体与社会公众之间的这种“观察/被观察、不可见/可见”关系中形成了一种权力。

法国思想家福柯(Foucault)将其称之为“规训权力”(disciplinary power),指出此种权力“是通过自己的不可见性来施展的。同时,它却把一种被迫可见原则强加给它的对象”[12]。在福柯看来,算法主体透过“单向透视的玻璃”对社会公众享有的权力,与全景敞视圆形监狱中心瞭望塔上的狱警通过百叶窗对囚犯施加的权力,并无实质区别。格言“知识就是力量”(knowledge is power)的另一种解读是“信息就是权力”,即信息优势者具有干涉或操纵信息劣势者的能力。算法主体可以通过算法黑箱获得此种权力,并借此隐秘地影响或控制其“服务”对象,实施不公正行为。简而言之,算法黑箱中孕育的算法权力庇护或催生了算法偏见。

在人工智能时代,算法对他人的影响力和操纵力广泛且深层次地存在于人们生活的方方面面。就其广度和深度而言,算法权力是一种类似于国家权力的公共性力量[13]。算法权力被学者瓦尔德曼(Waldman)称为“民主社会中的非法权力来源”,因为算法在“黑箱”中运作,人们不能对算法决策过程进行有效地讨论、审查和监督,违背了正当程序原则[14]614。根据现代的法治原则,权力要在阳光下运行。基于此,算法治理的实质是规制算法权力,而规制算法权力的首要原则是打开算法黑箱,提高算法透明度。

1.2算法信息公开机制无法实现实质透明在形式意义上,算法透明要求算法信息公开。在实质意义上,算法透明要求被公开的算法信息必须是社会大众可以理解、可以信赖,因而可以据此审查和监督算法的信息。在实践中,算法信息公开很难实现真正的算法透明,因此算法信息公开备受批评。具体来说,算法的信息公开有以下两个局限:

第一,算法公开不等于算法可知,即人们从被公开的算法信息中无法获取并解读出有用信息,没法了解算法的运作机制。其背后的主要原因有两个:a.算法具有天生的不透明性。算法信息以代码等技术性符号为表达形式,专业人士审阅起来都很困难,不具有相关知识背景的普通民众更难以理解。而且,算法的精确程度和复杂程度是成正比的,算法在变得更加“聪明”的同时技术信息也会变得更为难解。因此,即使算法技术信息处于任何人都可查阅的公开状态,其在实质意义上仍然不为人们所知。b.算法主体以信息公开之名行信息隐藏之实。如算法主体可能会通过提供上万页的文档来响应信息公开请求,将有价值的信息隐藏在信息海洋之中。在这个意义上,算法公开和算法透明之间存在一个悖论,即所公开的算法信息越多,则从公开信息中获取和理解有用信息的难度就越大。因为算法信息技术性表达和干扰性披露的存在,在公开的信息中“看到不等于知道”(seeing without knowing),这是算法信息公开的一个局限。

第二,算法公开不等于算法可信,即人们不相信由算法主体公开的信息。出现这种情况的原因有以下两个:a.算法主体没有坦承地披露算法负面影响。算法主体所公开的算法信息主要是算法技术信息及其技术用途等中性偏积极的内容,而不会详细地介绍算法应用中可能存在的负面影响。后者才是监管机构和社会公众最关心和关注的信息。算法信息公开片面地“报喜不报忧”,一方面是因为算法主体作为自利的理性人,在主观上有选择地进行信息披露;另一方面是因为算法主体未实际评估算法的社会影响,在客观上不掌握相关信息。b.算法主体单向地公开算法信息,缺少信息互动机制。算法主体面向社会公众披露信息,信息受众缺少评论、质疑、意见反馈等参与机制。信息公开者与信息受众之间的互信一定程度上是借助信息互动完成的,在单向的算法信息披露中缺少这种增加互信的对话。因为算法信息公开的片面和单向,在公开的信息中“看见不等于相信”(seeing without believing),这是算法信息公开的另外一个局限。

1.3算法影响评价制度的提出为克服算法信息公开的上述局限,算法影响评价制度被提出。以环境保护法中的环境影响评价为制度参照,算法影响评价是一个旨在事前角度识别、评估并预防算法技术之负面社会影响的程序。构建算法影响评价制度的目的,一方面是为了督促算法主体在算法设计使用之前充分地考虑算法可能存在的不良影响,并作出相应的解决方案;另一方面是以文件材料的形式向广大的社会公众公开算法的相关信息,进而促使公众和专业机构参与进算法决策系统的设计和实施环节。从算法透明角度来看,算法影响评价是一个全面的信息机制:

a.算法影响评价是一个信息生产机制。算法影响评价是因应信息匮乏而产生的制度[15]194,特别是社会公众和监管机构关心关注的信息,即算法技术对社会可能产生的负面影响。也可以说,在算法影响评价制度中,技术信息的分析理解负担被更多地分配给了算法主体,而非普通的社会公众。

b.算法影响评价是一个有组织的信息公开机制。算法影响报告书是算法影响评价信息记录和公开的载体,由算法技术情况、算法影响状况、预防解决措施等内容组成。这种有制式的信息公开极大地避免了信息干扰、信息隐藏的出现,这种以算法负面影响为核心的坦承的信息公开也容易获得社会公众的信任。

c.算法影响评价是一个信息互动机制。算法影响评价通过通知、公示等手段向外部主体提供相关信息,促使算法主体与其服务对象、研究人员、监管机构之间展开建设性的对话,鼓励利益相关者参与进算法问题的讨论。相比单纯的信息公开,算法影响评价制度可以更好地践行算法透明原则,能够尽最大可能地实现算法可知和算法可信。

2 算法影响评价的制度渊源与理论基础

算法影响评价是一个新的制度。考察算法影响评价的制度渊源和理论基础,将有助于强化我们对算法影响评价制度背景、制度文化、制度理念的认识和理解,为算法影响评价制度的具体构建提供指引。

2.1制度渊源:环境影响评价环境影响评价是算法影响评价的制度渊源,或者说,算法影响评价是立足环境影响评价的制度创新。环境影响评价是一个较为成熟和成功的制度。1969年,美国通过了《国家环境政策法案》,第102条规定相关主体在作出对环境有重大影响的法案或开发行为之前应提交“环境影响报告”(Environmental Impact Statements)。随后,环境影响评价制度被世界各国(地区)借鉴,中国也不例外:1979年,《环境保护法(试行)》第6条对环境影响评价作出规定,1989年《环境保护法》第13条、2014年《环境保护法》第19条均坚持并完善了该制度;此外,2002年,中国更是出台了专门的《环境影响评价法》,并于2018年对其作了修订。在人工智能时代,以“环境影响评价”为参照提出“算法影响评价”制度,具有历史的和逻辑的合理性。

2.1.1 从“环境影响评价”到“算法影响评价”的历史演变 环境影响评价最初是为了治理环境污染。虽然环境的社会维度在美国1969年出台的《国家环境政策法案》中有多处提及,但是考虑到直接推动该法通过的加州圣巴巴拉(Santa Barbara)石油泄露事件,人们往往将环境默认为自然环境,社会因素在早期的环境影响评价实践中很少被考虑到[16]。在之后的数十年间,环境概念的解读逐渐扩大至社会环境,最突出的体现是美国多个政府部门于1994年5月联合发布了《社会影响评价指导和原则》。与此同时,1980年成立的“影响评价国际协会”建议采用环境影响评价的上位概念——影响评价——来指称范围不断扩大的影响评价实践,同时涵盖环境影响评价和社会影响评价[17]。在中国,也有学者呼吁在环境影响评价之外,重视对社会影响评价的研究,推动社会影响评价的相关立法[7]。

在社会影响评价之下,发展出了许多细分的影响评价形式,其中倍受关注的是隐私影响评价(Privacy Impact Assessments)。20世纪90年代中期以来,隐私影响评价被提出并逐渐成熟,其背景是信息技术的快速发展严重危及人们的隐私权[18]124。对公众隐私侵害最为显著的是由大量摄像头组成的公共监控系统,因此在学术文献中也存在关于“监控影响评价”(Surveillance Impact Assessments)的单独讨论[19]。目前,已有国家(地区)将隐私影响评价写入立法文件,如美国2002年的《电子政务法案》第208条规定“联邦政府机构在开发或采用信息技术来收集、保存、传播公民的可识别信息时,需要提前进行隐私影响评价”。

与隐私影响评价密切相关且已被立法确认的另外一个制度是“数据保护影响评价”。2016年通过、2018年生效的GDPR第35条第1款规定“在进行数据处理之前,数据处理者应就数据处理操作对个人数据保护产生的影响进行评估”。如同隐私权在大数据时代衍生出个人信息权一样,数据保护影响评价被视为隐私影响评价在大数据时代的发展形态。不过,学者马戈特(Margot)认为GDPR第35条规定的数据保护影响评价实质上是算法影响评价,并指出GDPR第35条立法是各国政府使用影响评价工具来强化算法责任的一个示例[20]14。本文赞同该观点,因为在GDPR第35条中“数据保护影响评价”的评价对象——数据的“处理工作”(processing operation)——在人工智能时代指的就是数据的算法处理。总体而言,在历史语境中,算法影响评价是从环境影响评价中孕育出来的社会影响评价在人工智能时代的最新发展。

2.1.2 从“环境影响评价”到“算法影响评价”的类比逻辑 作为人类的重要思维工具,类比在算法影响评价的制度创新中扮演着极为重要的角色。“数据是新石油”(data is the new oil)是近几年经常见诸报端、具有较高传播度的一个类比型命题。通常认为,“数据是新石油”这个类比旨在表明数据的经济地位和经济价值,即数据像传统工业时代的石油一样,是驱动人工智能发展的战略性资源,蕴藏着巨大的经济价值。

不过,对“数据是新石油”这一命题,也可以作出以下两个方面的阐释:a.“数据是新石油”这一类比型命题表明了数据的正反两面性。石油在推动工业经济发展的同时,也带来了环境污染、气候变暖等问题。数据与石油类似,在驱动智能经济发展的同时,也引发了一系列诸如侵犯隐私权、个人信息权等负面问题。总的来说,石油产生环境问题的方式有两种:一是石油泄露,二是石油在使用过程中排放出二氧化碳、二氧化硫等有害气体。类似地,数据负面问题的产生方式也有两种:一是数据泄露,二是数据的不当使用(挖掘),如未经授权的数据画像、利用大数据“杀熟”等。b.“数据是新石油”这一类比型命题为我们指明了数据负面问题的解决之道,这一点认识极为重要。类比不仅仅可以帮助我们深入理解新问题,而且能够启发我们如何解决新问题,因为旧问题的解决方案能够为新问题的处理提供经验和示范。也就是说,将数据类比为石油的一个重要启示是,用于石油污染的法律制度(如环境影响评价制度)可一定程度为数据规制所借鉴[21]。

由数据与石油的类比引申出来的是算法与工厂的类比:在传统工业时代,加工石油的场所是工厂;而在人工智能时代,加工数据的工具的算法。如果你把挖掘数据的算法看作是一个加工原料的工厂,那么“算法不公问题就是从烟囱中排出的黑烟,这是一种有毒的排放物”[22]。循此思路,产生于工业时代的环境影响评价制度也可被类推至人工智能时代,通过建立算法影响评价制度来治理算法权力对社会环境的“污染”。综上,数据类比石油,算法类比工厂,进而由环境影响评价类推算法影响评价,这是算法影响评价制度创新的内在逻辑。

2.2理论基础:共治思想和“元规制”模式算法影响评价旨在规制算法权力,那么其立足的理论基础是什么?传统的规制类型有法律规制(legal regulation)和自我规制(self-regulation)两种:前者指国家使用以刑事、民事、行政责任为背书的法律规则对相关主体进行规制,其以“命令和控制”为核心;后者指在没有国家等外部主体压力的情况下,相关主体进行内部地、主动地自我管理和约束。上世纪末期以来,在法律规制和自我规制之间出现了中间道路,即以国家为代表的外部规制力量和被规制者内部自我约束力量相结合的共同治理(co-regulation);而共治的一个重要形式是“元规制”(meta-regulation),具体指法律作为外部力量“对自我规制的规制”(the regulation of self-regulation)[23]。与其他规制形式相比,“元规制”的优势在于,它可以充分利用被规制者自身的自治能力,但如果其自我规制工作没有达到监管机构的期望,那么被规制者就要接受来自法律的强制。“元规制”弱化了规制者的命令性,更强调被规制者的主动性,法律对相关主体行为的规制从传统的直接规制、具体规制转变为间接规制、抽象规制。。

有观点主张算法影响评价是自愿的,属于算法主体的自我规制[5]115;也有点观点认为,算法影响评价是法定的,带有命令和强制的色彩[15]168。总的来看,主流观点和已有实践的大趋势是将算法影响评价纳入法律规定。那么,由国家法律参与的算法影响评价制度建设在规制理论上是纯粹的法律规制,还是包含了自我约束的“元规制”?学者鲁本(Reuben)主张应以“元规制”模式来构建和适用影响评价制度[24]。本文赞同该观点,因为下文所述的两个影响评价制度特性决定了其与“元规制”模式更加契合。

在有关隐私影响评价制度的讨论中,学者罗杰(Roger)指出上世纪90年代以来推动隐私影响评价产生并成熟的显著因素有两个:一是负责保护公民隐私权的公共机构,希望借助隐私影响评价制度来解决信息技术对隐私日益严重的侵害;二是采用信息技术的主体,希冀借助推行隐私影响评价来促进与社会公众的对话交流,表达对服务对象隐私权的尊重,进而提升自己的亲和力和公信力[18]123。与隐私影响评价一样,算法影响评价在算法治理活动中也扮演两种角色:既是监管机构维护公共利益的一项“监管工具”,也是被规制主体追求自我利益的一种“管理手段”。“元规制”模式就是两个角色的协同。就本文主题而言,一方面,算法主体为了取得社会公众的信任,缓和与服务对象之间的紧张关系,有动力对自己算法技术的社会影响进行评估并就此与社会公众进行对话,切实履行“元规制”模式之自我规制;另一方面,为了扩大算法影响评价制度的适用范围,促使更多的算法主体设计适用对用户和社会负责的算法系统,国家有必要借助法律之力推行并监管算法影响评价活动。

在理论上,对自我规制的“规制”有三种方式:a.被监管者与监管者之间建立服从关系;b.监管者对被监管者的自我规制进行程序管理;c.监管者为被监管者的自我规制提供指导和建议[24]30。监管者对算法主体的算法影响评价实行的是程序管理,即通过系统化的程序来引导算法主体识别、控制、解决算法可能存在的社会风险。总而言之,算法影响评价制度的理论基础是共治思想和“元规制”模式,其法律性质是外部监督监管之下的自我规制程序。

3 算法影响评价制度的具体构建

算法影响评价制度是一个前置于算法实际应用的分险评估及预防程序,旨在提早发现问题并解决问题。本节以环境影响评价为制度参照,以“元规制”为理论指导,结合国内外已有的环境影响评价、隐私影响评价、数据保护影响评价、算法影响评价等立法实践,尝试从以下几个方面提出中国算法影响评价的制度框架。

3.1算法影响评价的分类管理以环境影响评价为起点,影响评价制度虽然已经成功地实践仅半个世纪,但是仍然面临许多质疑,其中的一个批评意见是:影响评价程序繁琐耗时,制度运行成本过大。诚然,算法影响评价的开展需要耗费一定的时间和精力,这会对算法技术创新和产业发展的效率产生不利影响。但是除了效率,我们所珍视的价值还有公平、安全等,算法影响评价就是践行和保障这些价值的制度工具,它旨在社会公众中建立信任,使人们相信算法是一个社会无害的因而可以接纳的技术,这是算法技术和人工智能社会持续发展的基石。因此,算法影响评价仍有坚持的必要,但也需要通过制度创新来积极地回应上述批评意见。比如对算法影响评价进行分类管理,具体来说,有以下两种措施:a.设立影响评价门槛,负面影响轻微的项目对象不需要进行影响评价;b.从影响评价中简化出小影响评价,负面影响不太显著的项目对象走简化版的影响评价,负面影响显著的项目对象需要进行全面的影响评价[15]184。

影响评价依据项目对象负外部性程度的大小进行分类管理,这在实践中较为常见。比如中国《环境保护法》第16条将拟建项目对环境的影响程度分为三类,即重大环境影响、轻度环境影响、环境影响很小。前两类需要做环境影响评价,并分别制作环境影响报告书、环境影响报告表;最后一类不需要做环境影响评价,但应填写环境影响登记表。加拿大政府2019年《关于自动决策的指令》附件B将算法的社会影响分为四个等级,即几乎没有影响、有中等影响、有很大影响、有重大影响,附件C为不同影响等级的拟采用算法分别规定了不同等级的算法影响评价。为了既全面又有重点地对算法的负面影响进行识别、预防和救济,算法影响评价可参照上述制度理论和立法实践采取分类管理,具体框架如表1。

表1 算法影响评价的分类管理

“微小、轻度、重度”三个影响等级的确定标准主要有两个考虑因素组成:a.考量算法决策错误所产生的影响是否可逆。譬如,辅助法官定罪量刑的算法系统如果出错,犯罪嫌疑人损失的自由甚至生命是无法补救的,因此属于“重度”影响等级;而用于民政部门分发福利物品的算法系统如果出错,可以通过物品召回和再分配予以弥补,因此属于“微小”或“轻度”影响等级。b.考量算法决策错误所影响到的人群大小。仍以辅助民政部门福利分配的算法系统为例,如果某县民政局或国家民政部采用该类算法,前者的受影响人群要远小于后者,其影响等级相对也小。除了上述两个考量因素,算法决策影响的持续时间、分布空间等也是算法影响等级确定时需要考虑的因素。

3.2算法影响评价的评价范围评价范围指应被纳入影响评价行列的影响种类,如环境影响评价的评价范围包括对土地影响、空气影响、水资源影响等。确定一个合适的评价范围非常重要。前文已述,关于隐私影响评价的批评主要集中在其评价范围的狭隘。学者亚历山德罗(Alessandro)主张大数据和人工智能等技术产生的社会负面影响,不仅仅涉及个人的隐私保护问题,也涉及到对某个社会团体的歧视(如种族、性别歧视)等基本人权问题,因此对新技术的影响评价范围应以私人权利为基础,同时兼顾社会价值[25]。学者拉布(Raab)指出,大众监控系统不仅对个人产生影响,而且对某些团体和整个社会产生负面影响,因此大众监控的影响评价不能局限于隐私影响评价[26]。综合上述批评意见,可以认为,完备的社会影响评价应将微观层面、中观层面、宏观层面可能存在的不利影响都纳入评价范围。

据此,算法技术应用的被影响对象包括个人、团体和社会整体,因而算法影响评价的评价范围也应涵盖以下三类:a.对个人权利的影响。如企业未经用户同意用算法对用户进行数据画像,侵犯了用户的隐私权/个人信息权。再如,算法系统开发者未经授权采用版权作品数据集来训练算法,可能侵害作者的著作权[27]。b.对集体人权的影响。如门禁系统中的人脸识别系统对不同的肤色有着不同的识别准确率,会引发种族歧视。再如,网络平台的内容算法过滤系统错误地将大量合法内容屏蔽或删除,侵害了网民的言论自由。c.对伦理道德以及其他社会秩序的影响。如企业通过动态的定价算法实施默示合谋,损害消费者利益,破坏市场竞争秩序,这被认为是一种新型的市场垄断。

3.3算法影响评价的程序环节算法影响评价的法律定位是程序。明确算法影响评价的程序定位,需要我们区别影响报告书(Statements)与影响评价(Assessments)。早期观念倾向于将风险评估作为一个静态的报告实体,而非动态的评价程序;随着实践的发展,人们逐渐认识到影响评价活动是一个程序。如中国1979年、1989年《环境保护法》采用的立法表述是“环境影响报告书”,但在2014年《环境保护法》和2002年《环境影响评价法》的立法表述改为了“环境影响评价”。从影响报告书到影响评价的“程序转向”是一种进步,影响评价的程序定位更加强调早期信息公开、利益相关者协商、修正后的信息公开、外部主体审查等多主体互动环节。

算法影响评价应以“元规制”理论为指导,其主体程序由“算法主体自我评价、自评信息公开、外部主体监督监管”三个部分组成,其中后两个部分尤其重要。学者对GDPR第35条中的数据保护影响评价提出了若干批评意见,主要有以下三点:第一,没有要求数据保护影响评价报告向社会大众公开;第二,报告不需要经过外部人员或机构的审查;第三,没有方便社会公众监督的“通知——评论”程序[5]115。总起来说,对GDPR第35条的批评可概括为信息公开和外部监督的缺失,算法影响评价的制度建设要对此予以重视。“元规制”理论强调监管者和被监管者之间的共治,在算法影响评价中,是监管主体、算法主体、社会公众之间的三者共治。

图1 算法影响评价的程序环节

对算法主体自我规制的外部“规制”来源于社会公众的监督和有权机构的监管。也就是说,算法影响评价的程序环节中存在两轮“对自我规制的规制”:如图1所示,第一轮是社会公众对算法主体自我影响评价的监督,即算法主体自评,形成影响报告并公开,社会公众对此提出意见;第二轮是监管机构对算法主体自我影响评价的监管,即算法主体根据社会公众的反馈意见,形成第二份影响报告提交监管机构审核。此外,算法影响报告书被审核通过之后,需要向社会公布,进入事后的监督监管程序。

3.4算法影响报告书的主要内容算法影响报告书是算法影响评价程序中信息记录和公开的载体。算法影响报告书必须是真实的,即充分地披露拟采用算法的局限性和不确定性。算法影响报告书的内容由非技术性摘要和技术性正文组成。算法影响评价所涉及的内容非常繁杂而且具有较强的技术性,因此非技术性摘要很重要,它能够帮助不同的利益主体特别是普通公众理解并参与进算法影响评价的对话之中。

影响评价报告书中的正文,一般由“背景介绍、影响评估、应对措施”三个部分组成,如中国《环境影响评价法》第10、17条对环境影响报告书的规定,GDPR第35条第7款对数据保护影响评价内容的规定,均是围绕以上三个要点展开的。相应地,算法影响评价的主体内容有三个:a.算法技术情况,包括交代算法技术的背景资料、运作机制和应用场景等;b.算法影响状况,包含算法对个人权利、集体人权和社会风俗秩序的潜在影响;c.风险的解决措施,如算法风险监测措施、算法安全应急保障措施、算法侵权的补救措施等。算法影响报告书,不是算法治理的终点,而是一个起点。实质上,算法影响报告书是一个信息披露文件,它要求算法主体生产、整理、提供关于算法社会影响的相关信息,这些信息将便于行政机关、专业机构、社会公众对算法系统进行审查和监督。

4 结 语

算法影响评价制度,实质上是以算法信息治理为抓手,提高算法透明度,实现算法权力规制。算法影响评价制度有助于构建一个取向于公开和公正的智能社会,应是以“算法”为中心的智能社会法律秩序的重要组成部分。中国应密切跟踪欧美国家(地区)的立法政策动向,加快对算法影响评价制度的研究和构建,及时丰富人工智能社会治理的工具箱。具体而言,算法影响评价制度在中国的构建和发展可采用“两步走”方案:

第一步,将算法影响评价确定为政府采购采用算法系统的监督性程序。算法的适用主体无非公私两类,相比于企业主体,政府主体借助算法行使公权力更有理由引进算法影响评价制度。因为,公权力的行使需要社会监督,为保障社会监督就必须对行政行为的相关信息进行公开,这其中就包括行政主体使用算法的信息,而算法影响评价就是一种有效的信息公开机制。基于政府信息公开与权力监督这一传统法理,将算法影响评价确定为政府采购采用算法系统的监督性程序更容易获得认同。实际上,美国、欧盟、加拿大、新西兰等国家(地区)关于算法影响评价制度的研究和实践也首先是围绕政府采购采用算法系统开始的。

第二步,将算法影响评价确立为企业算法研发应用项目的监管性程序。等算法影响评价制度在政府采购采用算法系统领域形成一定的理念认同和实践经验之后,适时地将算法影响评价制度的适用范围扩展至企业的算法研发应用项目。私人企业(以互利网企业为代表)的算法系统在事实上对我们社会生活的重要方面拥有一种类似于主权的普遍性控制,如网络平台的新闻推荐算法如同一只看不见的手操纵着资讯的分发和传播,影响着用户的信息消费甚至是价值观的塑造。可以说,私人企业借助算法拥有的这种普遍且深度的社会影响力是一种“准国家权力”性质的公共性力量。因此,企业的算法研发和社会化应用也有必要通过算法影响评价制度引入外部监管。

猜你喜欢
环境影响规制主体
论碳审计主体
静压法沉桩对周边环境影响及质量控制
论自然人破产法的适用主体
水产养殖中有毒有害污染物残留及其环境影响
主动退市规制的德国经验与启示
何谓“主体间性”
略论意象间的主体构架
共享经济下网约车规制问题的思考
浅谈虚假广告的法律规制
高超声速热化学非平衡对气动热环境影响