●王 聪
在讨论算法的伦理含义及其规制时,我们实际上是在讨论“决策支持系统”(Decision Support Systems, DSS),它分析数据并为行动提供建议。〔1〕See Daniel Staemmler, “Ethics in AI: Are Algorithms Suppressing Us? ”, https://www.elsevier.com/connect/ethics-in-ai-arealgorithms-suppressing-us, visited on Nov.2, 2019.在技术上,算法可以复杂到连设计者都难以明晰其具体运作过程的程度,〔2〕See Davide Castelvecchi, “Can We Open the Black Box of AI”, 538 Nature 20, 20-23 (2016).这就产生了所谓的“算法黑箱”及其解释难题。在法律视野中,“黑箱”掩盖并可能在一定程度上加剧了算法偏见和对基础数据的使用问题。由于算法可能将歧视编码到算法设计中去,其实也进入我们未来的生活中。“如果这一问题不能得到解决,那它将会摧毁我们的社会。”〔3〕《美参院将评估AI算法偏见提上立法日程:“算法黑箱”迎来光明?》, https://baijiahao.baidu.com/s?id=1630578771816661 322&wfr=spider&for=pc.https://36kr.com/p/5123323,2019年10月20日访问。《新一代人工智能发展规划》将人工智能上升至国家战略,发挥法律保障功能,促进人工智能的健康有序发展,规制人工智能核心驱动力——算法成为法律亟待解决的议题。〔4〕《国务院关于印发新一代人工智能发展规划的通知》(国发〔2017〕35号)(以下简称《规划》)指出,人工智能的迅速发展将深刻改变人类社会生活、改变世界,但人工智能可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,要求在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。《规划》提出了人工智能法律(伦理)发展三个阶段的目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律法规、伦理规范和政策体系;到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。《新一代人工智能治理原则——发展负责任的人工智能》进一步强调了在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视的重要性。目前的算法规制研究刚起步不久,忽视了算法规制的共同善(Common Good)维度。在规制的视野下,〔5〕对于“法律规制”一词的使用,较为混乱。本文在通过法律进行规制的意义上使用该词。较有意义的讨论,参见宋华琳:《迈向规制与治理的法律前沿——评科林·斯科特新著〈规制、治理与法律:前沿问题研究〉》,《法治现代化研究》2017年6期;沈伯平:《管制、规制与监管:一个文献综述》,《改革》2005年第5期。文章将探讨对算法规制的法哲学根基——共同善及其介入算法规制的具体途径。
大数据技术让整个世界逐渐数据化,人们生活的方方面面都转成数据。〔6〕See Kenneth Cukier and Viktor Mayer-Schonberger, “The Rise of Big Data: How It’s Changing the Way We Think about the World”, 92 Foreign Affairs 28 (2013).数据成为描摹世界的工具,人们掌握的数据及其规模直接决定了人类对世界的认识程度。正如舍恩伯格所说,数据正在成为我们所有生活领域的世界观。〔7〕参见[英]维克托·迈尔·舍恩伯格、肯尼斯·库克耶:《大数据时代:生活、工作与思维的大变革》,盛杨燕、周涛译,浙江人民出版社2013年版,第207页。在这一背景下,数据主义呼声再起,似乎缺失了数据的言说和行为,即缺乏正当性和善的基础。然而,技术变革在形塑了人类社会数据化生存状态的同时,也进一步为算法权力的扩张提供了空间。〔8〕参见陈鹏:《算法的权力:应用与规制》,《浙江社会科学》2019年第4期。
1.透明社会的形成。20世纪,互联网、移动通信等技术的发展与应用,为人类生存的数据化提供了条件。人们的生活呈现出线上与线下的分野。尤其是到了大数据、云计算、万物互联的时代,随着在数据采集、存储、传输和处理等方面的革命,越来越多元的传感器或软件正在不断产生大数据内容。〔9〕参见张宪丽、高奇琦:《透明人与空心人:人工智能的发展对人性的改变》,《学术界》2017年第9期。人类的生活线上化速度加剧,线上影响辐射到线下,个体的绝大部分行为亦可在线上发生。在此背景下,个体的行为被理解为数据流,其行为的效果自然要经过算法的拣选、过滤和审视。在大数据精确分析的前提下,政府或公共服务提供者可以更加灵活地根据个体的不同情况因人而异地自动提供公共物品和更为细致的公共服务,以满足个体的正当利益需求和社会需求。由生产的角度观察,我们在网络世界无偿为数据企业从事数据生产,其结果是我们的生活被数据记载、表达、模拟、处理、预测,数据企业通过大数据的比对和信息还原可以精准地复原主体在一定时间段的所有行为,每个人成为透明的个体,整个世界也从难以认识的黑箱世界逐渐变成透明世界。〔10〕所谓透明世界是相对于黑箱世界来说的,指的是事物失去了任何遮蔽,人们可以看见其内部的一切,既可以知晓其过去的历史轨迹,又可以预知其未来变化。参见黄欣荣:《大数据、透明世界与人的自由》,《广东社会科学》2018年第5期。
2.算法权力的崛起。与大数据相伴而生的大规模数据分析催生了数字社会新的权力格局。在人工智能时代,具有自主学习与决策功能的智能算法超越了工具化范畴。所谓人工智能本质上也仅是在海量数据基础上依据算法和统计模型进行的自动化。〔11〕参见胡凌:《网络法的政治经济起源》,上海财经大学出版社2016年版,第230页。由此人工智能技术平台利用自身在数据处理和深度学习算法上的技术优势,基于海量数据运算配置社会资源,直接作为行为规范影响人的行为,辅助甚至取代公权力决策,形成了对政府、公民、社会组织等的影响力,从而发展为一支新兴的技术权力,即所谓的算法权力。算法权力(Algorithmic Power)根源于数据主权(Data Sovereignty),即互联网信息巨头们对海量数据的占有和使用,〔12〕同前注〔11〕,胡凌书,第34页。本质上是控制算法设计和研发过程的资本的权力。与传统权力不同,算法权力更为理性、客观和高效,具有无边界、分散化的特点,无远弗至。人类处于其监控之下,却不知所以,不知其所来。这为规则的应用拓展了一个前所未有的空间。
如果我们采取数据主义的观点来理解世界,算法就是数据世界的律法。无论从算法的制定、算法的执行还是算法技术的监管角度,算法作为数据世界的律法将与现代法律表现出截然不同的特征。如果现代法律规范以普遍性为特征,那么算法将以特殊性为首要考虑。〔13〕参见邬蕾:《算法与法秩序的重塑》,《中国社会科学报》2019年02月20日第5版。算法权力以处理海量数据的机器优势、基于复杂算法生态的架构优势与对社会权力运行的嵌入优势为基础,形成了以下特征:一是跨越性,包括跨越网络和物理空间、跨越公私两个领域;二是隔离性,即算法权力与民众理解和现有法律体系的隔离。〔14〕参见张凌寒:《算法权力的兴起、异化及法律规制》,《法商研究》2019年第4期。
3.算法权力崛起带来的问题。算法本身并非纯粹客观的数据处理手段,各种数据的量化采集有其前提和假定,存在诸多不透明的因素。由于缺乏有效规制,在商业领域,算法权力形成与消费者的不公平交易,催生了监视资本主义;在公权力领域,算法权力嵌入公权力运行的各个环节,正挑战着正当程序制度和权力专属原则。算法的崛起引发了公共领域结构性转变。〔15〕See Frank A.Pasquale, “The Automated Public Sphere”, 31 U of Maryland Legal Studies Research Paper 1, 1-18(2017).这导致了网络权力的失衡、信任的减低和平等包容网络环境的破坏,而这些恰是网络公共空间赖以存在的基础性要件。〔16〕See Lincoln Dahlberg, “Computer-Mediated Communication and The Public Sphere: A Critical Analysis”, https://onlinelibrary.wiley.com/doi/full/10.1111/j.1083-6101.2001.tb00137.x, visited on Oct.20, 2019.
首先,基于算法的数据挖掘和分析所做出的预测,有助于控制并干预其现实与未来的可能性。对于群体行为来说,“预测现在”意味着通过对主体能动性的引导对群体的行为进行动态干预,而这会对群体的未来行为产生影响。以剑桥分析事件为例,2013年剑桥大学研究员Kogan通过创建Facebook应用,陆续收集了数千万用户信息,将这些信息转手给了剑桥分析(Cambridge Analytica)的母公司SCL。剑桥分析运用机器学习算法发掘出更深层次的关联,并将其用于“心理变数营销”(Psychographic Targeting)性质的政治营销活动,从而影响多国选举情况,这其中就包括特朗普赢下的2016年美国大选。〔17〕参见[英]大卫·哈维:《新自由主义方案依然活着但其合法性已然丧失——英国马克思主义学者大卫·哈维专访》,禚明亮译,《吉首大学学报》(社会科学版)2019年第3期。
其次,某些行业的传统职权已被算法取代。《2016年中国互联网新闻市场研究报告》显示算法分发新闻数量已经超越编辑分发成为网络新闻主要的分发方式。〔18〕参见中国互联网络信息中心:《2016年中国互联网新闻市场研究报告》, http://www.fdi.gov.cn/1800000121_35_1610_0_7.html,2019年9月20日访问。在此背景下,专业记者和编辑的诸多职权已被算法取代。而且,可以预见随着技术优化,算法权力的范围仍将不断扩张。〔19〕参见张淑玲:《破解黑箱:智媒时代的算法权力规制与透明实现机制》,《中国出版》2018年第7期。有学者甚至担忧,人工智能对人类的技术优势很可能会发展成为人工智能技术对人类的霸权。〔20〕同前注〔8], 陈鹏文。像Facebook和Google这样的公司已经在很大程度上自动化了电视网络经理或报纸编辑所做的决策类型,而且效果显然要良好得多。
最后,个人隐私权利被算法权力侵蚀。在互联网企业对于利润的追求和“大数据”科技的无所不能面前,弱势的消费者在进入互联网世界的第一步时,就已经在“大数据”面前几乎毫无隐私可言,各种网站、APP等的协议内容形同虚设,消费者同意信息和数据的收集使得网络平台可以对数据主体进行“精准画像”。所以,信息泄露和大数据杀熟为代表的信息的不当收集、不当使用等不能有效禁止。〔21〕参见《“大数据杀熟”死灰复燃 谁还敢再相信携程?》,https://baijiahao.baidu.com/s?id=1627793955806650154&wfr=spider&for=pc,2019年10月21日访问。一方面,信息巨头凭借架构设计权,直接在微观上对用户的行为施加影响。另一方面,在算法的自动化决策中,〔22〕较早对自动化决策进行分析的成果,参见Nicholas Carr, “The Glass Cage: Automation and Us”, W.W.Norton & Company,2014, pp.153-177.人类只是被分析的对象,我们并不知道数据何时被采集,哪些信息将会被分析。〔23〕See Lawrence Lessig, “Code: And Other Laws of Cyberspace”, Basic Books, 2006, p.1.网络巨头利用技术优势可以轻易探知用户的操作习惯和偏好,对用户进行精准的画像,形成了大数据时代的“网络监视”。〔24〕同前注〔11〕,胡凌书,第177页。生活中随处可见的商品或服务的推送、大数据杀熟等情况即反映了这种“监视”的深度和广度,在根本意义上消解了隐私的意义。
1.算法黑箱下的信息侵害。伴着人工科学的发展,人类对人工世界和人工物的认知已经取得了长足的进步,〔25〕参见[美]司马贺:《人工科学:复杂性面面观》,武夷山译,上海科技教育出版社2004年版,第3~5页。但不能否认,人工世界的相当部分仍不为人知。控制论者将人们无法从外部观察其内部状态的这部分内容称为“黑箱”。〔26〕参见陶迎春:《技术中的知识问题——技术黑箱》,《科协论坛》(下半月)2008年第7期。多年来,以深度学习为代表的人工智能算法即被计算机专家描述成一个无人理解的“算法黑箱”。〔27〕同前注〔2〕,Davide Castelvecchi文。正是由于技术上难以解释算法如何决策,加之其在人类生活中的逐步扩展,人们对算法“黑箱”及其公平性引发了普遍的担忧和反思。以大数据杀熟为例,平台公司根据用户经常浏览或消费的商品类型、价格区间、购物历史,结合用户的地理位置、移动情况、常去消费地点等,推测用户收入水平,分析用户当下或潜在的消费欲望,对用户进行精准的“画像”并制定溢价措施。〔28〕参见《大数据“杀熟”又来了,如何反杀却是个技术活》,http://dy.163.com/v2/article/detail/ECG5L14L05118B5G.html,2019年10月21日访问。
算法“黑箱”的核心问题在于信息不对称和不公开。“黑箱”掩盖了算法对于数据的利用,用户无从得知算法的目的和意图,不可能获悉算法设计者、实际控制者以及机器生成内容的责任归属等信息,更谈不上对其进行评判和监督。〔29〕不过,对于技术能否识破算法黑箱存在不同认识。参见张吉豫:《打破人工智能算法黑箱》,https://36kr.com/p/5123323,2019年10月21日访问。这就导致算法的某些负面影响和潜在问题被掩盖,比如算法的核心要件——数据和算法模型两个方面均存在数据歧视,也就提出了对这种不透明的算法权力进行有效规制的议题。但黑箱背后存在复杂的利益关系,在根本上加剧了对算法进行规制的难度。在我国司法实践中也曾发生一系列涉及算法的案件,〔30〕参见上海市杨浦区人民法院(2015)沪杨民三(知)初字第1号判决书;上海知识产权法院(2015)沪知民终字第728号判决书;广东省高级人民法院(2016)粤行终492号判决书等。反映了这一问题的复杂性。〔31〕参见[美]莫里斯·E.斯图克、艾伦·P.格鲁内斯:《大数据与竞争政策》,兰磊译,法律出版社2019年版,第32~33页。
2.算法自动化决策的监管难题。对算法规制的难点还在于,算法的自动化决策不同于工业时代的机械自动化,信息时代的自动化一定程度上更有弹性,更能弥补人性的弱点。这决定了对于算法的治理思路与传统自由主义和法治强调个人理性完备、自主、独立、自我负责意识形态截然不同,转而强调理性受限,需要外界加以“轻推”。〔32〕同前注〔11〕,胡凌书,第200页。不过,自动化公共领域的缺陷如此明显,消费者保护和媒体监管机构必须进行干预。但新的监测和监管方法应该像它们所瞄准的自动化公共领域一样,在技术上成熟和全面。然而,我国现行法律体系尚未针对算法规制问题做出具体回应,尤其是在人工智能发展对法律提出挑战的背景下,对此问题的讨论显然不能脱离网络法这一整体框架,只有建基于网络法律规制的语境之下,才有可能发现算法的整体哲学背景。
数据的运算并非一个与价值无涉的中立客观过程,而是蕴含着特定的价值判断。况且由于算法黑箱的存在,算法运行的不可预测与审计一直是问题。在这一意义上,算法的设计者或者控制者也不能完全左右,在某种意义上称之为“技术无意识”。但是算法作为代码世界的规则,为人类的线上和线下生活提供了数据化框架,对人和世界产生着决定性的影响。因此,我们需要由更为根本的维度——共同善来审度算法权力,规制算法偏见,防止权力异化,迫使其修正与改进。
1.公共空间的网络转化。网络法构成了算法及人工智能法律调整的整体背景,网络公共领域构成了共同善出场的现实基础。互联网是哈贝马斯所称的现实“公共领域”的网络体现,“公共领域”主要由三方面要素构成:一定规模具有自愿性且拥有共同利益的公众;以批判意识为核心,以对国家权力进行批评与监督、控制为主要目标的“公共意见”或“公众舆论”;公众赖以表达、传播自己意见并使之对以国家权力为主体的公共权力形成影响、约束乃至监督、控制的媒介和场所。〔33〕参见[德]哈贝马斯:《公共领域的结构转型》,曹卫东等译,学林出版社1999年版;另见《在哈贝马斯八十九岁寿辰回顾经典的“公共领域”理论》,http://www.sohu.com/a/236443226_736480,2019年10月20日访问。按照这一界定,公共领域并不仅仅具有物理空间的意义,其前提是自由参与,具有开放性,人们可以平等地、理性地讨论公共议题,通过批判性的讨论,克服分歧和差异以达成共识。因此,这一理论可以用来讨论网络公共空间的问题,从私人领域中发散开去,在国家和市民社会中具有某种独立的媒介地位。
2.网络公共空间的异化。TCP/IP协议和万维网将计算机紧密相连,商业资本由此在更大范围的平台上组织劳动力和生产资料,创造全新的生产模式。然而,互联网已不是理想中的分布式网络,随着少数互联网巨头控制了核心节点,被誉为开放之地、互动之区的互联网演化为具有少数核心节点的贵族式网络,这些巨头搭建网络交流沟通的接口与标准,并欲借此成为中心的信息中介,从而掌握一切生产性资源的流动。〔34〕同前注〔11〕,胡凌书,第326~331页。这些互联网巨头凭借排他权力,为了自身的经济利益使用网络数据,原本被期待更为开放的网络公共领域逐渐被不同的信息巨头瓜分。〔35〕同上注,第36页。当这些大平台控制了互联网架构的代码层、应用层和内容层,就会产生为自己利益服务和排他竞争等问题,这就产生了对物理层之外的技术中立的争论。
技术价值中立的观点长期盛行也深入人心。但维纳(Winner)早在20世纪八十年代即提出,技术具有政治属性。〔36〕See Langdon Winner, “Do Artifacts Have Politics?”, 109 Daedalus 121, 121-136 (1980).后来的学者更是系统提出技术本身内嵌价值的观点,〔37〕See Mary Flanagan, Daniel C.Howe and Helen Nissenbaum, “Embodying Values in Technology: Theory and Practice”,Cambridge University Press, 2008, pp.322-353.即在技术工程设计阶段就有一些价值被有意无意地嵌入其中。互联网兴起后,网络隐含的价值偏见和利益取向也引起了广泛关注。普通人即很难发现软件所隐藏的有限性、许可、特权和障碍。〔38〕See Astrid Mager, “Algorithmic Ideology: How Capitalist Society Shapes Search Engines”, 15 Information Communication &Society 769, 769-787 (2012).算法同样如此,数据自动化处理本质上仍是人为编制的运算法则,其中的回报函数体现着工程师的设计意图和价值取向。〔39〕参见姜野:《算法的规训与规训的算法:人工智能时代算法的法律规制》,《河北法学》2018年第12期。就算法的设计过程来看,作为其要素的基础数据和推理假设都有可能隐含设计者的偏见、价值观和意识形态取向。〔40〕同前注〔19〕,张淑玲文。算法的价值偏见构成了共同善出场的基本理由。
共同善的出场促使法律对算法等技术的规制不得不转变立场,即由通常的单纯事后责任追究扩及事前的合法性考察。具体而言,在设计阶段就考察其所欲实现之价值是否合法,即算法的价值敏感性成为先期审查内容。〔41〕参见王小伟:《作为一种价值的互联网——一个比较哲学的思路》,《自然辩证法研究》2016年第11期。不过,借助现有法律调整新技术带来的价值问题,似乎永远不能得到最佳的结果,原因是新技术多以崭新的方式影响着人类的存在。这就要求我们改变头痛医头、脚痛医脚的做法,改变从外部进行评估技术的传统路线,转而从内部进行价值赋予,〔42〕参见[荷]彼得·保罗·维贝克:《将技术道德化:理解与设计物的道德》,闫宏秀、杨庆峰译,上海交通大学出版社2016年版,第1页。在网络法的整体背景下,探讨法律规制算法技术的价值基础。此时,共同善作为规制算法的哲学基础就进入我们的视野。
由公共善维度讨论算法的规制,旨在建立内部和外部配合、事前和事后勾连、限权与赋权并举的制度体系,最终防止算法权力的异化。赋权相对于算法规制是外部路径,属于事后调整,是数据生产者审视算法对数据利用情况的权利,即算法解释请求权。限权在算法规制体系中属于内部路径,是事前介入,即遵循技术规律,针对算法的本身,追求算法有意义的透明化和道德化。
作为算法规制基础的共同善,从根本上要在遵循算法技术规律的前提下,通过符合共同善的算法本身的设计发挥作用,这构成了共同善介入算法规制的内在路径。
学者们在两种意义上使用“共同善”概念。一种观点认为共同善即公共利益,或者说公共利益是共同善的具体体现;〔43〕参见[美]菲利浦·佩蒂特:《共同善》,曹钦译,《政治思想史》2015年第2期。另一种观点认为共同善是共同体的伦理价值,我们可以把它认定为共同体追求的至善目标,〔44〕参见[美]约翰·菲尼斯:《自然法与自然权利》,董娇娇等译,苏苗罕等校,中国政法大学出版社2005年版;See John M.Finnis, “What Is the Common Good, and Why Does It Concern the Client’s Lawyer?”, 40 South Texas Law Review 41 (1999).正如古希腊城邦这一政治共同体的目标是为了追求最高的善一样。无论采取哪种观点,共同善概念与我们的社会生活和目标紧密相连,一方面构成权利主体利益存在与判别的背景和价值支撑,另一方面又构成了我们自身目的或者利益的核心内容。共同善介入算法规制的路径设计,大致也无外乎循此两种意义进行。
为了更为清晰地理解共同善的概念,我们简要勾勒政治哲学上社群主义与自由主义对权利与善的争论。对于权利与善何者优先这一焦点议题,康德和罗尔斯为代表的自由主义学者以个人主义作为立论基础,把个人“权利”放在比其所处的社会环境更高的位置。社群主义的代表人物桑德尔对此提出批评,提出“善优先于权利”的观点。这里的“善”即根植于具体共同体的“共同善”。〔45〕参见[美]迈克尔·J.桑德尔:《自由主义与正义的局限》,万俊人等译,译林出版社2001年版,第162~211页。原因是,人类对善的追求总是在一个社会共同体中进行的,权利的追求应维护既定的社会秩序,使之有效率并能够和谐有序,这就是共同体的“共同善”,亦即共同体的共同利益。〔46〕参见葛红梅:《桑德尔公共哲学思想研究》,复旦大学2009年博士学位论文,第51页。在根本上,这是由人类的类群性、社会性之天性决定的。
如何评判一个制度或者一项技术是否符合共同善的要求,是其介入算法规制是否有效的判别标准。对于更广泛意义上的制度设计是否符合共同善这一问题,大卫·施密特提出具有启发性的观点。他认为,一个制度能让所有人都过得更好,通常即意味着服务了公共的善。但是,从严格意义上讲,很难有哪个制度实际符合这一标准。因此,作为另外一种可能,施密特提出“假设我们知道,一个制度至少使得它所影响的一半人过得更好。”〔47〕[美]大卫·施密特:《个人 国家 地球——道德哲学和政治哲学研究》,李勇译,上海人民出版社2016年版,第143页。对于包括算法在内的技术的共同善的符合性判断,大致亦不外此类判别标准。在具体手段上,算法规制内在路径要求自觉主动地把有益于共同善的价值融入到技术设计中去。这需要重视并尊重算法的技术面向。
算法、数据结构、编程语言构成了计算机科学的三大要素,算法又与大数据、算力共同构成了人工智能三个推动力。由此可见,算法与数学和计算机科学存在密切关联,其在计算机领域发挥着核心作用。算法本质上是一种解决问题的方式,它用数学语言建构数学模型来描述现实世界,是以数学方式或者计算机代码表达的意见。具体来说,算法是包含一系列复杂的数学规则、能通过预先设定的步骤解决特定问题的计算机程序。〔48〕参见高学强:《人工智能时代的算法裁判及其规制》,《陕西师范大学学报》(哲学社会科学版)2019年第3期。算法逻辑是将人类解决问题的过程分解为若干步骤,再通过程序设计,将这一过程模拟化或公式化,借助系统化的计算机程序来求解更复杂的问题。〔49〕参见王红梅、胡明:《算法设计与分析》(第2版),清华大学出版社2013年版,第6页。算法的这种技术面向决定了普通的数据主体很难了解算法运算所涉及的大体量数据的复杂程序,日常自动化决策多种算法的叠加更加剧了解释黑箱的难度。
美国学者迪亚克普拉斯提出了算法黑箱的两种常见情形。〔50〕See Nicholas Diakopoulos, “Algorithmic Accountability: Journalistic Investigation of Computational Power Structures”, 3 Digital Journalism 398 (2015).第一种情形对应监督式机器学习技术,多见于结构化数据丰富的领域,也是目前国内运用比较多的算法形式。这一过程有固定的模板,输入和输出都是已知信息。第二种算法“黑箱”中,算法输入侧挖掘、收集数据等环节具有不透明性,对用户而言是未知的,但符合某种统计学规律,只有输出侧是已知的。有学者称这两种情形是算法黑箱的初级形态和中间形态。该学者进一步提出,还存在对应无监督式机器学习的第三种形态,这一黑箱形态无须固定的输入输出模板,算法在没有任何人为干预的条件下,凭借自主学习能力自动地从数据中抽取知识。这种情形下输入和输出两侧组成了一个闭环的黑箱,诸多流程均是不透明的,是算法黑箱的高级形态。〔51〕同前注〔19〕,张淑玲文。
1.数据正义下的算法透明。数据存储、收集、分析成本的降低提高了物理行为的数据转化,数字化生活将物理世界行为网络化,这为算法透明提供了一定的现实可能性和外部环境条件。正是在此基础上,有网络连接的组织和个人均有可能借助数字技术对政府和机构进行监督和问责,这构筑了算法规制的前提。规制算法的努力和尝试不断出现。美国计算机学会公众政策委员会(ACM Public Policy Council)制定了算法治理的指导细则,比如知情原则、质询和申诉原则、算法责任认定原则、数据来源披露原则、可审计原则等。〔52〕See U.S.Association for Computational Mechanics, “Statement on Algorithmic Transparency and Accountability”, https://www.acm.org/articles/bulletins/2017/january/usacm-statement-algorithmic-accountability, visited on Oct.20, 2019.《欧盟一般数据保护条例》(GDPR)是对算法解释的最新立法尝试。〔53〕GDPR赋予消费者自动化决策“解释权”,这几乎成为该条例最具争议性的条款之一。参见《欧盟〈一般数据保护条例〉》,胡嘉妮、葛明瑜译,许多奇校,载《互联网金融法律评论》2017年第1期。本文所引用的GDPR条文均出自此中译本。我国《电子商务法》第40条及《个人信息安全规范》第7.10条也作出了探索。比如,《个人信息安全规范》第7.10条赋予个人提出申请的程序性权利,但并未涉及对平台的实质约束。上述立法虽然路径不一,但均触及并强调了算法透明或对算法的解释。
在一定意义上,推进算法透明与规制算法权力是一体两面的关系。将人工智能算法开源,并公开相关数据一直被认为是可以解决算法黑箱的重要方案。〔54〕See Bruno Lepri, et al.“Fair, Transparent, and Accountable Algorithmic Decision-Making Processes”, 31 Philosophy &Technology 611 (2018).从生产主体的角度来看,提升算法透明度至少可以从算法要素透明、程序透明和背景透明等方面进行尝试。首先,算法背景透明,即平台应向用户交代算法设计者及其所在机构的目标和意图,将算法在实际运行中可能带有的偏见、易犯的错误坦诚告知用户。第二,算法要素透明。数据是算法运行的前提条件和基本要素。“数据透明”要求在数据生产和处理日趋复杂的形势下,增强个人的知情权,以便让偏向于平台优势的信息回复实现对称。〔55〕参见许可:《人工智能的算法黑箱与数据正义》,《社会科学报》2018年3月29日第6版。算法程序的高效运行对数据量级和质量均有很高的要求。此外,模型输入的变量及其特征,特别是关键变量值、特征权重和建模工具等信息均有必要向用户披露,从而使他们对算法的建模过程有较为全面的了解。第三,算法程序透明。生产主体应就算法的运算和决策过程予以必要解释,以实现程序透明。算法程序的推理规则,如分类、数值推测、推荐等,其中包含的准确度、基准值、置信水平等统计数据均存在不确定性。还有外部接口的开关、输入与权重的可调整性以及呈现给终端用户的界面设计等,都需要考虑以便于用户理解的方式予以充分披露。〔56〕同前注〔19〕,张淑玲文。
2.道德算法的提出。算法透明并不意味着对算法权力的有效规制。一方面,这一方案目前还不能适用于自动化决策的全部场景,原因是很多算法属于涉及商业利益的专有算法,受知识产权保护,多数情况下还涉及个人隐私等问题。另外,代码和数据开放本身并不意味着满足了社会对于算法可解释性的需求,本质上,算法透明只能是有限度的透明。因此,我们需要多角度立体建构算法规制的制度体系。同时,现实中很多拥有数据和代码的企业亦无法直接对自己的算法做出充分解释。〔57〕同前注〔29〕,张吉豫文。
在上述背景下,将符合共同善的伦理价值编入算法并形成道德算法,成为共同善介入算法规制的必然路径。首先,共同善要求更为科学地界定对社会秩序、公共利益或国家安全有严重危害或影响的算法,这类算法一般被称为公共利益算法。〔58〕参见孙益武:《规制算法的困境与出路》,《中国社会科学报》2019年4月24日第5版。由于其直接指向公共利益,因此立法要对这类算法进行特别的规制。其次,道德算法是嵌入在算法体系中有待完善的算法程式。但如何在算法内嵌入道德,无论在技术上还是在学理上都有争论。有学者认为,设计者应该将这一问题留给使用者,当这不可能实现时,对算法的伦理要求至少应当是透明的且易于用户识别。〔59〕See F.Kraemer, K.Van Overveld and M.Peterson, “Is There an Ethics of Algorithms?”, 13 Ethics Inf Technol 251, 251-260(2011).当这些算法导致错误决策时,创建或在使用这些理解的算法(Inscrutable Algorithms)的开发人应承担责任。〔60〕See Kirsten Martin , “Designing Ethical Algorithms”, 18 MIS Quarterly Executive 129, 129-142 (2019).这一路径的理论预设前提是,赋予机器人道德能力,这呼应了 James H.Moor提出的三种道德主体(Ethical Agent)。〔61〕See James Moor, “The Nature Importance, and Difficulty of Machine Ethics”, 21 IEEE Intelligent Systems 18 (2006).申言之,由于道德在情感的基础上得以生发,如果机器人具有情感能力,机器之良心——道德心即得以生成。算法只有体现或遵循人类主体模式下的“善法”,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。让机器人在一个道德判断情境中模仿人类的决策过程,首先需要机器人能意识到道德判断情境,接着依循所布建的推理策略──包括道德原则、基准与价值等。这是人工智能时代的道德建构应遵循的基本原则,即算法遵循“善法”。〔62〕参见田海平:《让“算法”遵循“善法”》,《光明日报》2017年9月4日第15版。不过,需要指出,正如我们已经提示的那样,道德算法虽然在技术上可能得到支持,目前对赋予人工智能道德能力的算法仍有不同意见。如欲真正实现共同善的要求,至少还应克服算法赖以存在的数据的伦理困境,治理或防范数据失信和失真,遵循“善法”,实现“善智”。让算法遵循“善法”需要先期的规范性构建,这种规则建构的努力方向是将共同善的伦理价值融入算法规则设计之中。
算法规制应从增强算法透明度与可解释性两方面努力。〔63〕同前注〔39〕,姜野文。除了前文的内部路径外,设置算法解释请求权构成了共同善介入算法规制的外部路径。
在政治学对“善”与“正当”的争论之外,不容忽视的是拉兹的“共同善权利观”。拉氏认为,在对权利的证成中,个人利益与共同善通常是“双重和谐”关系。具体来说,除了保护个人的利益之外,通过保护个人权利来保护共同善或者通过保护共同善来保护个人利益也是证成权利的部分正当性理由。一方面,保护共同善同时也是保护公共利益,因为个人“是团体中的一员”;另一方面,保护个人利益同时也是保护共同善,因为“正是通过保护个人权利,人们才保护了共同善,从而服务了大多数人的利益。”〔64〕彭诚信:《现代权利理论研究》,法律出版社2017年版,第89页。拉氏较早关注了权利的共同善属性,并以此反驳那种认为个人权利具有优越性并以之反对普遍善或共同善,或者一般性地反对其他人的主张、需求、需要或要求的观点。合理评价拉氏权利观的关键是如何认识权利的本质。在权利理论上,拉兹显然属于利益论者,但毫无疑问其对“利益”进行了更为广义的解读,他认为权利的分量或重要性等于权利人的利益再加上其他人的利益,后者即是 “共同善”。如此在拉兹的权利理论中,共同善构成了权利正当性的理由,在一定意义上也强化了权利保护的力度。〔65〕参见朱振:《共同善权利观的力度与限度》,《法学家》2018年第2期。
斯皮尔坎普先生辩称,应将自动化决策系统用于实现共同利益、增加参与和提高司法公正。〔66〕See Daniel Staemmler and Eva Podgoršek, “Ethics in AI: Are Algorithms Suppressing Us?”, https://www.elsevier.com/connect/ethics-in-ai-are-algorithms-suppressing-us, visited on Oct.21, 2019.在从数据主权到算法权力形成的背景下,要求解释算法的权利背后反映的正是一种公共利益,即共同善。具体而言,在互联网的整体架构中,全民免费的数据生产换来的是算法权力的崛起,甚至是对于数据生产者的监视。数据生产者要求平台解释算法即代表着社会对于算法世界的调整和规制,其背后公共利益支撑着个人请求解释的权利。这一权利的设置构成了共同善介入算法规制的外部路径。
有学者提出增设算法解释权,即当相对人对算法得出的自动化决策存疑时有权请求算法的制定者及使用者进行解释说明,甚至可以要求在消除歧视因素后重新进行自动决策。根据这一界定,算法解释请求权可谓是对数据主体事后有效的救济。〔67〕参见张凌寒:《商业自动化决策的算法解释权研究》,《法律科学》2018年第3期。一般认为,算法解释的权利肇源于GDPR,但学界对GDPR中是否存在算法解释请求权仍存在争议。在GDPR中与算法解释可能相关的条文有第13条、第14条、第15条和第22条,哪一条文为算法解释请求权的规范基础需要具体分析。
1.算法解释请求权的规范基础。首先,第15条规定的是数据主体的访问权,〔68〕GDPR第15条第1段规定:“数据主体有权从控制者处获得确认,确认与他或她相关的个人数据是否已被处理,以及其是否有权访问个人数据和以下信息:……(h)存在自动化数据处理,包括第22(1)条和第(4)款提及的数据画像以及与算法逻辑相关的有意义信息(至少在该等情况下),该等处理对数据主体的重要性与针对该等数据主体的运算结果。”并非算法解释请求权的基础。其次,第13条第2段〔69〕GDPR第13条第2段规定:“除第1款提及的信息外,控制者应在获取个人数据之时向数据主体提供为确保公正透明处理所必需的下列其他信息:……(f)存在自动化数据处理,包括第22(1)条和第(4)款提及的数据画像以及与算法逻辑相关的有意义信息(至少在该等情况下),该等处理对数据主体的重要性与针对该等数据主体的运算结果。”和第14条第2段〔70〕GDPR第14条第2段规定:“除第1段提及的信息外,控制者应向数据主体提供为确保公正透明处理所必需的下列信息:……(f)存在自动化数据处理,包括第22(1)条和第(4)款提及的数据画像以及与算法逻辑相关的有意义信息(至少在该等情况下),该等处理对数据主体的重要性与针对该等数据主体的运算结果。”规定了(第三方)数据控制者的通知义务,即在符合第22条第1段和第4段的规定条件时,控制者须向数据主体提供有意义的信息,并就进行此类处理的重要性和预设后果进行解释。这一解释属于面向未来的事前通知义务。〔71〕See Sandra Wachter, Brent Mittelstadt and Luciano Floridi, “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation”, 7 International Data Privacy Law 76 , 82(2017).再者,根据欧洲数据保护委员会(以下简称EDPB)解释,有意义的信息为“提供决策过程中考虑的主要特征、信息来源和相关性的详细信息”,〔72〕The Working Party on the Protection of Individuals with Regard to the Processing of Personal Data, p.25.这一义务显然无法解释具体决策,因此第13条、第14条和第15条的规范意旨均不是赋予数据主体算法解释权。
最后,第22条第3段可以作为算法解释请求权基础。第22条第3段规定,在第2段〔73〕GDPR第22条第2段规定:当决策是基于合同必需的、联邦或成员国法律授权的或者是数据主体明确的同意时,允许仅基于自动化处理(包括分析)作对数据主体有法律上影响或类似重大影响的决策。(a)和(c)这两种情况下,数据控制者应当采取适当措施,保障数据主体的权利、自由和合法利益,至少有权获得控制者的人身干预、表达其观点和对决定提出异议。就文意来看,该条并未规定算法解释,但结合GDPR序言第71段对第22条所作的解释,即在任何情况下,此类处理都应遵守适当的保障措施,其中应包括向数据主体提供具体信息以及获得人为干预、表达其观点、对评估后达成的决定作出解释和质疑该决定的权利。EDPB认为,序言第71段数据主体可以获得评估后达成决定的解释,要求解释决定是否妥适的保障措施,理应包含在第22条第3段中。〔74〕也有学者指出,序言不具有法律效力,反对借助序言第71条解释第22条的规定。参见前注〔71〕,Sandra Wachter等文。因此,从法律体系上来说,从第22条推演出算法解释权是合理的,第22条第3段在实践中可以作为算法解释请求权的基础。
2.算法解释请求权的内在逻辑。由立法史考察,GDPR引入了新的规定来解决分析和自动决策所带来的风险,是对其前身《1995年数据保护指令》(以下简称《指令》)中隐私权保护的维系和加强。隐私权的基本内容是作为自然人对属于自己的私人生活范畴的事项依法自由支配,并排斥他人非法干涉。隐私权保护自然人对个人信息的支配,自然包含了处分和控制个人信息的权能。赋予数据主体算法解释权的效果是,数据主体可主动明晰个人信息具体是怎样被处理、使用的,在一定意义上这是对数据主体的数据处分和控制权利的保护,也是对隐私权的加强。我们也可以说,算法解释权规范功能本来即是要解决算法自动化决策带来的隐私权问题,或者说由隐私权自然而然可以延伸出算法解释请求权。
采用算法自动化决策的机构有义务解释算法运行原理以及算法具体决策结果,算法解释请求权的立法目的肩负了保护数据主体的人格权的功能,然而数据财产权不需要算法解释请求权。〔75〕至于人格权以外的财产权是否需要算法解释权这一问题,涉及学界对个人数据的属性是人格权还是人格财产权的争论。参见陈吉栋:《个人信息的侵权救济》,《交大法学》2019年第4期。数据控制者在算法自动化决策时,其应获得数据的财产权利。〔76〕参见龙卫球:《数据新型财产权构建及其体系研究》,《政法论坛》2017年第4期;龙卫球:《再论企业数据保护的财产权化路径》,《东方法学》2018年第3期。然而,隐私权赋予数据主体控制、处分自己信息的权利。〔77〕参见王克金:《权利冲突研究中需要进一步澄清的问题》,《法制与社会发展》2010年第5期。此时就产生了数据控制者的财产权利与数据主体人格权利的冲突。〔78〕这里的权利冲突是广义上的,对于权利冲突的界定,可参见彭诚信、苏昊:《论权利冲突的规范本质及化解路径》,《法制与社会发展》2019年第2期。在权利冲突观点外,还有一种观点值得注意,这一观点坚持理清个人数据与隐私的关系问题。当前学界对于“个人数据”与“隐私”关系问题的论断主要有二:一为“包含说”,一为“交叉说”。“包含说”主张将个人信息权纳入隐私权之内,通过隐私权救济的途径来保护个人信息权。“交叉说”认为,个人隐私与个人信息呈交叉关系,有的个人隐私属于个人信息,而有的个人隐私则不属于个人信息;有的个人信息特别是涉及个人私生活的敏感信息属于个人隐私,但也有一些个人信息因高度公开而不属于隐私。但区分的观点则认为,个人信息与隐私二者实为彼此独立的两个法律概念:“个人信息”必须被“电子或者其他方式记录”,脱离了载体,个人信息便不存在;而隐私作为一种人类的自然情感,无须载体。且个人信息权是指个人对于自身信息资料的一种控制权,是一种主动性的权利,除了被动防御第三人的侵害之外,还可以对其进行积极利用。但隐私权具有极高的私密性与人身依附性,又与私人生活空间的联系过于紧密,因而除了对权利主体自身人格具有重要意义之外,一般情况下也无积极利用的必要,而只能在遭受侵害的情况下请求他人排除妨害、赔偿损失等。财产权和隐私权本质上都是受法律保障的利益,法律并没有明确规定哪种权利优先。如果从权利冲突的视角观察,一般认为,由于法律价值的位阶具有一定的流动性,需要在个案中结合具体的条件和事实确定。〔79〕参见林来梵:《论权利冲突中的权利位阶——规范法学视角下的透析》,《浙江大学学报》2003年第6期。权利冲突的本质是法律所确定的价值“正当性”之间的冲突。权利冲突最常见的法律后果是一项权利超越与之对立的另一项权利,并由胜出的一方权利人实际行使权利。对于冲突双方均主张行使权利的情形,权利人之间互不相让,出现对峙“僵局”,唯有权利的超越方能使主体间的僵持关系得以破解,并有序运行。〔80〕同前注〔78〕,彭诚信、苏昊文。回到算法解释的背景下,属于人格权的个人隐私显然要比属于财产权的数据权利价值位阶高,但应进行更为细致的分析。一种常见的分类把个人信息分为个人敏感隐私信息(高敏感信息)和一般个人信息。〔81〕参见张新宝:《从隐私到个人信息:利益再衡量的理论与制度安排》,《中国法学》2015年第3期。个人敏感隐私信息密切关联人的隐私权,涉及人格尊严,是人的最基本的权利,当它与数据控制者的数据财产权发生冲突时,理应保护人格尊严,数据财产权利让位于人格权。一般个人信息虽也属于隐私权,但和人格尊严联系较小,即使泄露,一般对人的影响并不如敏感隐私信息那么大,当其与数据财产权利冲突时,为了社会公共利益和数据控制者的利益,此时的个人信息权利应当让位于数据财产权利。基于此,“在个人敏感隐私信息与个人一般信息区分的基础之上,通过强化个人敏感隐私信息的保护和强化个人一般信息的利用,调和个人信息保护与利用的需求冲突,实现利益平衡。”〔82〕同前注〔81〕,张新宝文。
算法的自主迭代以及立法的科学性和专业性在根本上决定了算法规制滞后于科技的发展。〔83〕参见苏力:《法律与科技问题的法理学重构》,《中国社会科学》1999年第5期;杨丽娟:《科技法历史形态演化的哲学反思》,东北大学2005年博士学位论文。对于算法的规制应在网络法的整体架构中进行讨论方具有意义。从根本上解决算法规制问题,发挥法律价值对技术发展的引领作用,〔84〕参见郑智航:《网络社会法律治理与技术治理的二元共治》,《中国法学》2018年第2期。需要强调并型塑网络空间的公共属性,在算法内在设计中加入共同善的考量,这构成了算法规制的内在路径。另外,在共同善的要求下,赋予数据生产者请求解释算法的权利,这构成了算法规制的外部路径。如此方能呼应人工智能时代网络法体系发展要求,建构具有哲学根基,且事前事后配合、内外路径协调又富于弹性的规制体系。当然,在算法规制的具体技术和措施上也可考虑一些具有操作性的事先规制方法,比如针对特定行业平台或重要算法进行充分披露或选择性备案等。〔85〕参见李文莉、杨玥捷:《智能投顾的信义义务》,载岳彩申、侯东德主编:《人工智能法学研究》,社会科学文献出版社2018年版,第113页。虽然文章探讨了共同善作为算法规制的哲学根基及其实践路径,但正如薛澜先生指出的,我们还必须清醒地认识到仅仅依靠法律框架难以支撑人工智能的发展,“这就需要相关的原则准则、行业规范,包括从业者的自律,来协同推进其健康发展。”〔86〕《我国发布〈治理原则〉发展负责任的人工智能》,https://baijiahao.baidu.com/s?id=1636636654850892827&wfr=spider&for=pc,2019年10月21日访问。或许,在根本上,无论是算法的规制还是对人工智能的整体调整,我们需要建构一种信任关系,为上述制度作用的发挥提供妥适的语境。