路于婵
(苏州大学,江苏 苏州 215021)
自2017 年6 月谷歌公司推出ChapGPT 以来,该技术在世界范围内快速迭代发展并广泛应用,国内部分科技企业及研究机构也相继发布生成式人工智能产品,如百度的“文心一言”、阿里的“通义千问”、商汤科技的“商量”、华为的“盘古”、腾讯的“混元”、中国科学院自动化所的“紫东太初”等[1]。 ChatGPT 目前已更新到GPT-4,这是OpenAI 在扩展深度学习方面的最新里程碑。GPT-4 利用深度学习技术构建生成模型,利用大量数据来训练AI 系统执行任务,使该技术在各种专业和学术基准上表现出人类水平。 随着人工智能技术的迅猛发展,部分企业和个人利用自身技术优势掌握了更多的数据和资源,将算法技术应用在社会中的各个领域,并干预个人、政府等决策,从而极大地提高了在社会中的话语权,推动着算法逐渐摆脱“工具”地位,因此有学者提出了“算法权力”这一概念[2]。 我国目前的研究主要集中在如何规制人工智能技术和算法权力异化等方面,对于“算法是否是权力”以及“算法是一种怎样的权力”等基础问题却缺少研究。 本文主张“算法即权力”。 我们应正确认识算法的本质,重新认识并调整生成式人工智能的法律定位,将算法运作模型作为新型的法律治理对象,完善我国相关法律规制。
权力是与社会不可分离的现象,贯穿人类社会发展的历史。 讨论“算法是否是权力”这个问题首先应明确“权力是什么”。 权力是一个“本质上争议的概念”[3],尽管这一概念历史悠久,但对于它的含义和适用标准等方面,人们一直缺乏共识。 权力一词源自西方,其具体含义应当从西文中寻找。 马克斯·韦伯(Max Weber)第一次提出权力的定义,“权力是迫使他人按照权力拥有者的意愿行事的能力,而被迫者在其他情况下并不会如此”[4]。 托马斯·霍布斯(Thomas Hobbes)认为,“权力是一个人取得利益的手段”[5]。 相对于西方而言,我国对权力的研究则要落后很多。 我国学者周永坤在规范的权力学说视野下提出了规范的权力概念,“权力是确认和改变人际关系或处理他人财产或人身的正当权力”[6]111。 尽管对权力的定义一直存在争议,但大多数学者认为,“权力”在最低限度上讲是指一个行为者或机构影响其他行为者或机构的态度和行为的能力①。 总而言之,权力在本质上是权力主体对权利客体的控制力②。
在当代社会,权力发展出了新的形式与特点。新的权力不靠权利,而靠技术;不靠法律,而靠正常化;不靠惩罚,而靠控制[7]。 ChatGPT 的关键决策不是基于数据本身做出,而是基于算法分析的数据做出。 算法作为代码的决策部分,是具有决定性作用的。 因此,人工智能的发展实质上就是一场算法的变革。 以算法为基础的人工智能系统正在社会生活的各个领域中取代人类进行决策,并逐步演化成为一种新型的权力形式。 算法的权力化源于其在技术上摆脱了“工具”地位[8],从而算法作为权力主体对人具有控制力。
1.算法主体地位增强
算法权力(Algorithmic power)将人类作为可计算、可预测、可控制的客体,而非作为主体。 在人工智能技术广泛应用之前,传统的人工智能算法需要结构化数据来进行模型构建和信息处理,本质是一种严格执行相关指令的自动化工具。 而ChatGPT 不仅可以识别模式,还具有深度学习和自动生成内容(AIGC)能力,从而使用基于这些模式创建的新数据进一步生成内容。 因此,我们面对的是“具有认知潜力的主动和交互技术”,其通过在智能设备之间实现自动化。 它的运作不需要人类的参与,大部分将在人类无意识、未知的情况下进行。 与此同时,由于算法的自主决策行为不再需要人为的干预,算法的运行机制从原来的透明状态变为难以监测的状态,从而产生了一种新型的权力运行方式。 在该模型中,由于算法执行过程不透明和权责不匹配等问题,会给算法的安全性和公平性带来隐患,并且这种隐患会随着人工智能算法的进一步推广而越来越严重。 自身的强人机互动性和无法解释的推理能力有关。 生成式人工智能的强人机互动性使外部风险由于难以预知而具有高度不确定性,而其自身的推理能力更是将这种不确定性由外部延伸至内部。 算法从“客观工具”变为“主观操作者”,与人的行为相分离。 因此,算法是被关注的权力主体,而不仅仅是实现权力的工具。
2.算法具有控制力
米歇尔·福柯认为算法是一种作为“主体化的权力技术”,它决定个人的行为,并使他们服从某些目的或统治[9]。 随着人工智能的不断发展,算法能够在大数据的支持下进行自主训练、自主学习,并在这个过程中形成了对多种应用场景的认知与决策能力。 这一认知和决策功能的产生,使得算法从机械式地执行转变为动态地自我计划,从本质上实现了整个工作系统中部分权力由人向算法的转移。 权力关系形成于权力主体的意愿,权力的行使是为了实现权力主体的目的,权力关系的实现过程受权力主体的意志的支配[6]58。算法代码是网络空间的“法律”。 它怎么规定,数据就会呈现怎么样的结果,一切都以算法的规则为规则,以算法的意志为意志。 算法已经深度介入社会,在潜移默化之中施展其日渐增长的控制力,权力越来越多地出现在算法中。
我国传统上是国家权力即“公权力(power)”对应个人权利“私权利(right)”的二元结构。 公权力是指基于社会统治地位的公共意志而由国家公权力机关和公职人员行使的强制力量。 私权利即个人权利,是宪法和法律赋予公民的权益,个人有权做出或不做出一定行为,法无禁止即可为。但随着社会的发展,第三方力量不断增强,比如行业组织、社会组织等一些社会力量,传统“公权力—私权利”二元结构变革为“公权力—私权力—私权利”三元结构[10]。 在人工智能时代,算法掌握了海量数据以及先进技术,影响着我们生活的方方面面,我们已进入“算法统治”时代。 算法权力不同于国家机关的公权力,也不同于个人权利的私权利。 它是一种新型力量的发展,是一种私权力。
在大数据时代,任何事物都可以数据化,数据成为信息与利益的载体。 信息技术正在“构成”而不是“调节”我们的生活,构成社会和城市结构的“东西”已经发生了变化,它们正在由软件和代码来构成。 拥有公权力的国家机关通过监狱等强制机关对公众具有强制力;资本通过自身经济、技术等资源优势掌握支配劳动的权力;而算法掌握海量信息资源,通过对数据的占有、加工以及结果的输出,进化为资源、财产,逐步“去工具化”,发展成为一种新型的、与数据资源相结合的社会力量。
首先,算法利用其掌握的海量数据资源铸造“信息茧房”。 脸书的算法技术通过利用用户与对象的互动、“赞”或评论等因素来确定用户热门新闻上显示的内容。 在网络新闻产业链上,“算法分发”模式的迅速发展,极大地满足了网络新闻公司对信息传播效率的需求,各大新闻媒介和社交平台都在持续增加对算法技术方面的投资。长期来看,持续不断地向使用者提供同质化的信息,会让使用者陷入“信息茧房”,从而阻碍使用者探索不同领域的知识,限制他们的视野、格局和思维。 诸如此类的量身定制与个性化推送不胜枚举。 简而言之,软件下沉到我们的日常生活中,并通过流行的社交网站等频繁地技术升级,意味着这些新的智能的权力结构已深深嵌入我们的日常生活中。 目前我们正处于“黑匣子社会”中,编码规则制定的价值和特权隐藏在黑匣子里。 权力越来越多地通过算法行使,技术的权力在不断地增长。 在网络社会中,人们被算法所约束的程度也会变得更高,这必然会影响每个人的自由意志和健全人格。
其次,ChatGPT 等先进的数字前线技术(无论是视频上的虚拟技术还是服务机器人中的物理技术)都存在严重的道德、公平和隐私风险。 平台利用算法技术,免费获取用户的个人信息数据,迫使用户成为“数据制造者”的免费劳动力,从而实现了对用户的第一次剥削;基于此,平台利用其掌握的数据资源和算法技术,对用户的消费需求和偏好进行分析与塑造,从而实现对用户的第二次压榨;从此,平台成为凌驾于个人之上的数据控制者,通过“数据圈地运动”和“数据殖民主义”进行数据资本的原始积累[11]。 同时,平台经营者在直接或隐蔽地收集大量用户信息数据后,借助大数据与云计算技术完成对个体用户的画像,最后利用算法模型实现对不同消费者的差异化定价,进行“大数据杀熟”,以此达成蚕食消费者剩余价值的目的[12]。
掌握智能算法技术的抖音、淘宝等平台从自身利益和运营需要出发,制定了各种交易规则和纠纷解决机制等规则,平台可利用算法技术监督用户在该平台的行为,从而进行奖励、惩罚等措施,比如禁言、封号等。 算法技术自行运作很少需要人的参与,并且具有技术、粘性客户、信息资源等多种优势,能够对用户进行监督、管理以及处分等,使得算法权力成为一种私权力。
首先,平台利用自身优势使得“知情同意原则”如同虚设。 腾讯、淘宝等平台会在新用户注册时利用格式条款获取个人信息收集的权限,如果用户不勾选“同意”则无法进入下一步,因此用户面对要么同意要么退出的局面。 此时“同意”成为了一种被迫同意的情形,是用户的无奈之举。但用户勾选“同意”就意味着接受平台的算法,接受平台算法的自动化决策。 平台通过对个人画像的构建,进行个性化推荐内容,用户逐渐被迫接受,自我决定权逐渐被削弱。 软件通过“学习”用户的口味和偏好,为用户提供符合他们自己的特定口味的内容,这就是算法的结果。 随着用户开始看到信息如何影响他们生活世界的构成,他们可能会开始主动塑造这些信息,从而引导软件对他们的反应,而不是抵制。 人工智能对于我们日常生活领域的渗透,使人类进入了由“算法统治”的时代。
其次,“算法黑箱”加剧数字歧视和数字鸿沟。 ChatGPT 的算法大多严重依赖于两种资源:用于训练和操作算法的丰富数据和复杂的算法运行程序。 而算法运行的基本原理难以理解,并且这涉及知识产权保护等问题,研发和运行算法的公司也不愿意公开这些数据,从而造成了算法的不透明性和不可解释性。 数据和算法中的偏见和歧视问题在人工智能和聊天机器人研究中非常严重。 当算法通过与身份相关的数据区别对待不同身份的人群时,可能基于这种倾向性的数据库对一些弱势群体才产生间接性不同程度的负面影响[13]。 例如,在某些数据库中,如果在测量和选择数据时带有偏见,就会导致数据库中的样本多为有色人种,那么基于这些数据分析就会得出歧视性的结论[14]。 同时,发展中国家技术落后导致ChatGPT 获取的数据以及用于训练和完善算法的数据不对称,边缘化群体的数据将无法代表,从而造成数字鸿沟问题。 并且数字鸿沟继续发展就可能带来等差鸿沟,财富与信息迅速聚集,格局进一步固化[15]。
2023 年2 月27 日,中共中央、国务院印发了《数字中国建设整体布局规划》,大力推进智慧法院、智慧检务等建设。 在互联网与科学技术的助力下,在线纠纷解决机制蓬勃兴起,不仅分流了案件、精简了程序,而且降低了纠纷解决成本,促使当事人“接近正义”[16]。 算法正在发挥自己的力量,利用自己的技术优势比人类思考得更快、更全面、更准确。 人类的计算能力远远达不到大规模数据对运算能力的要求,这使得算法逐步获得社会资源配置的权力。
算法因自身优势被公权力和社会民众所需要,逐步嵌入公权力当中,使得公权力超越了时间和空间的限制,极大提高了公权力的范围和效率。因此,在一定程度上,公权力是促进算法权力发展的重要力量。 例如,深圳市“秒批”人才引进制度,只要将数据库中的数据进行对比,就可以在短时间内完成审批,不需要任何的人工干预;在智能交通生态体系中,利用高清技术系统可对违规行为直接判断并开出罚单。 人工智能技术和智能算法的应用虽然给我们生活带来了诸多便利,但是也存在很多新问题和新风险。 新一轮技术革命使得算法形成了计算优势,深刻地影响人们的决策与行为,迫使人们让渡部分决策权。 算法可以辅助甚至取代公权力,做出具有法律效力的算法决策。 长时间依赖算法将导致国家单位工作人员的参与度与决策能力下降。 在美国总统选举、英国退欧公投等一系列“黑天鹅”事件中,算法逐步演变成为控制政治与社会的工具,构成了一种较以往更加隐秘的新权力形式。 算法被视为将决策权从人类行为者手中夺走,或者自由裁量权被算法对思想的限制所侵蚀。
全球范围内生成式人工智能技术应用已进入爆炸式增长阶段,其在为社会带来经济增长和生活便利的同时,也引发了各种法律风险。 任何权力都有作恶的可能,因此控制权力是非常必要的。习近平总书记指出,要促进人工智能“同经济社会发展深度融合”,推动我国新一代人工智能健康发展。 2023 年7 月10 日,为促进生成式人工智能(AIGC)技术健康发展和规范应用,国家互联网信息办公室等七部门联合公布了《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)。 生成式人工智能治理应符合其功能业态的技术逻辑,应对算法权力进行制约,将重点放在人工智能大模型本身。
我国生成式人工智能技术发展存在滞后现象,相关法律规制应在降低法律风险的同时又不阻碍技术的创新发展,因此对于算法披露应把握好一个“度”。 算法披露有利于提高算法透明以及算法可解释性。 算法透明是指算法的设计者将算法的配置、工作方式和使用方式等信息披露给监管部门或第三方以便监管的制度[17]。 算法解释权是指在自动化决策所作的特定决策对对方具有重大影响的情况下,对方有权请求对特定的决策作出解释,以及请求更新数据或纠正错误的权利[18]。 我国相关规定都不同程度地强调了算法透明的重要性,但都是较为抽象的原则性规定,缺乏如何具体落实的规则。 《个人信息保护法》第24 条正式规定了个人的算法解释权,有利于打破“算法黑箱”,实现算法透明。 《暂行办法》第4 条虽规定了基于“服务类型特点”采取不同措施提高生成式人工智能服务的透明度,但关于具体的“服务类型特点”并无进一步规定。
算法披露制度并非是“一刀切”式的要求,应根据算法应用领域的不同、商业秘密的保护以及披露后对算法模型安全、平台秩序造成的影响等,进行分类分级治理研究。 算法披露可分为三个等级:第一,仅披露算法的存在,用户具有一次性拒绝的权利。 第二,披露算法技术信息,用户能够评估自动化决策系统的应用情况。 第三,解释算法决策的具体机制。 商业领域的算法服务场景相比公共领域的算法服务场景,其对个人权益和社会公共利益的影响相对有限,因此公共领域的算法披露程度应较大。 公共领域高风险的算法应用如刑事司法领域、自动驾驶领域等应进行重点规制。部分纯商业领域的算法随着平台企业的发展可能具有一定的公共属性,相应影响也就有所增强。
ChatGPT 的开发公司 OpenAI 官方网站发布的《隐私政策》指出,当用户使用 ChatGPT 时,会收集用户的访问、使用和互动等信息。 ChatGPT将从用户中抽取少量的数据来提升模型的性能,如果用户不想将这些数据用作提升性能,则可通过邮件方式提交给 OpenAI 公司。 生成式人工智能技术运行需要的海量数据来源于机器自动收集与无形爬取,并且会不断收集使用者的个人信息,这导致人信息面临泄露风险,侵犯个人信息安全和隐私权等。 《暂行办法》多处提到对个人信息的保护。 其中,第4 条明确规定“提供和使用生成式人工智能服务应尊重他人合法权益”;第7 条规定“对于包含个人信息的数据收集应当征得个人信息主体同意”。 知情同意原则是个人信息保护的基石,将知情同意作为收集和处理个人信息的必要前提条件,达到对个人信息保护的目的。 但是由于人工智能技术的发展和智能算法的复杂机制,自然人难以预见个人信息面临的种种风险,即使被充分赋权也时常难以做出理性选择,使知情同意机制时常处于无效状态。
首先,我国应赋予个人关于算法自动化决策的事前拒绝权、要求人工审查和解释算法自动化决策等权利。 欧盟将个人自治权与人格尊严的保护作为核心理念,将个体赋权与算法控制相结合,构建了数据治理框架下的个体赋权模式。 我国应增强个人在自动化决策中的个人信息权益保护,个人有权知晓自己是否可退出以及退出机制等情况。 其次,我国应对大型平台进行严格规制。 大型平台因具有用户群庞大、数据收集和分析能力强等优势,不当使用算法技术造成的危害将达到相当的广度和深度,对用户个人利益、社会秩序等都可能造成严重影响,从而应首先对其进行规制。平台应严格履行算法使用、处理记录的保留义务和算法审核义务。 美国《2022 算法问责法案》对大型平台的界定为近3 个财年的应税期间,平均年总收入超5000 万美元或拥有超2.5 亿美元股权的,以及以拥有、管理、分析等方式使用超100万名用户或消费设备识别信息的。
上述措施目的的实现,都需要以算法权力的监管为保障。 《暂行办法》第3 条明确提出坚持发展和安全并重,对生成式人工智能服务实行包容审慎和分类分级监管。 生成式人工智能运行复杂,大都需要多方配合,算法主体呈多元化、动态化、分散化等特性,很难将其实施与最终的损害之间建立起直接关联,侵权责任主体界定困难。 并且《暂行办法》第22 条对提供者的范围界定不够明晰。 目前我国网络法律制度框架基本搭建完成,网络治理一般都以网络服务提供者作为关键主体,因此平台责任一直是技术治理的核心议题[19-23]。 但由于生成式人工智能的人机交互特性,用户也应承担自律的责任,避免参与及利用生成式人工智能行为给社会带来危害。
人工智能体生成内容是算法设计带来的结果,而设计者在设计程序时也很有可能无法预见某一具体侵权行为的出现。 生成式人工智能通过算法自动生成内容,那是否应当将人工智能作为责任承担主体,将非法律意义上的道德责任归咎于不具有情绪价值的人工智能存在很大争议[24]。并且由于人工智能的广泛传播性,“更容易看到一些微小的疏漏以让人无法预料的序列连续发生,就有可能变成更大的、更具破坏性的大事故”[25]。 这也倒逼人工智能治理模式向敏捷型治理转换[26]。 敏捷型治理以“敏捷性”为目的,快速适应场景变化,从主体监管转为分层监管,解决侵权主体难以界定的问题;坚持算法风险评估制度的常态化适用,从单一的事后监管转变为“事前监督—事中干预—事后审查”的全流程监管模式,并重预防与应对;进行技术赋能,运用技术解决监管难题实现生成式人工智能治理范式革新。
由于信息技术的网络化,权力在互联网世界的作用范围不再受物理世界的限制,其可以在极短的时间内覆盖到社会生活中每一个人,并涵盖其生活的每一个位置和时刻。 以算法为核心的人工智能是时代的产物,不管人们愿意与否,它“时刻包围着我们”,改变着我们的生活方式。 算法权力化根源在于“去工具化”,随之而来的就是人的主体地位越来越弱。 通过分析算法权力,有利于在现实生活中更有针对性地对其进行规制,平衡好智能算法技术的安全与发展问题。
注释:
① 卢克斯认为,权力概念的核心就是“A 通过某种与B 的利益相对的方式影响B”。帕森斯认为,“权力是一种保证履行有约束力的责任之能力”。参见戴维·米勒.布莱克维尔政治学百科全书[M].邓正来,译.北京:中国政治大学出版社,2002:641。
② 达尔认为,“A 对B 享有权力即A 可以迫使B 去做他本不愿去做的事情”。泰勒主张,“如果外在的条件使我发生改变,但这种变化并没有违背我的利益,那就不存在权力”,“A 对B 有权力,意味着A 可要求B 为某些行为,而在其他情况下,B 完全可以不为这些行为”。上述内容参见Robert A.Dahl,The concept of power,BehavioralScience3(1957),pp.202-203;Charles Taylor,Foucault on Freedom and Truth,PoliticalTheory2(1984),pp.172-173;Matteo Pallaver,“Power and its Forms:Hard,soft and smart”,A thesis submitted to the Department of International Relation of the London school of Economics,October32(2011)。