[摘 要]信息革命的浪潮促使人类社会快速迈入数智时代,以算法、数据和信息等为核心的人工智能技术给人们的生活带来极大的便利,但随之也产生了一定的负效应。社会信任危机是在数智社会背景下产生的主要负效应之一。社会信任经历了由传统向现代的转型,数智时代的算法信任有别于传统社会的身份信任和法律信任。算法的普遍应用在人们的社会交往中横亘了一道机器中介,而算法运行过程中的黑箱性和非中立性导致的信任危机,成为当前社会治理的难题。面对技术革新的时代要求,算法可信任性的基础依然存在,算法的价值非中立性决定了算法的可规制性。借助法治的优势,通过对算法的法律规制以重构算法信任,不失为一种较为可行的方案。对算法主体施加义务建立完善算法备案和算法评估制度,赋予算法用户以算法解释权,形成算法治理的完备法律规制体系,可以实现对技术的驯化,最终畅通算法信任渠道,让社会重拾信任。
[关键词]数智社会;社会信任;算法信任;法律激励;技术文明
[中图分类号]D920.0" [文献标识码]A" [文章编号]2096-7349(2024)06-0128-15
一、引言:信息、算法与信任
(一)信息革命催生数智社会
随着互联网、大数据、人工智能等现代科技的迅速发展,一场信息革命随之席卷而来,社会生活的各个领域都不同程度地受到数字化重塑。作为一场前所未有的巨大技术革命,信息革命“已经深远地、不可逆转地改变了世界,其步调惊心动魄,其范围前所未有”[1]。科技对社会影响不断加深的过程,也是社会形态变革更迭的过程。现代科技的发展使人机互融、虚实同构和算法主导的数智化逻辑得以展开,而数智化在信息化和数字化基础上又进一步实现了决策自优化和执行自动化,基于数智化对于整个社会新形态的决定与形塑影响,我们已然步入数智社会[2]。从传统社会到现代社会,从现代社会再到数智社会,社会形态的每一次转型升级都意味着社会结构的重大变革。步入数智社会,物理世界的时空限制进一步被打破,数字技术对虚拟世界和现实生活进行着深度整合与重构。由此,在数智社会,算法决策在社会生活各场景中的应用越来越普遍。例如,在外卖送餐场景下,外卖员通过平台规划的路线进行餐饮配送;在浏览视频资讯和购物等场景下,平台的算法会自行追踪消费主体的兴趣偏好并主动推送相关内容;在道路交通执法场景下,电子执法系统会基于捕捉到的违法行为自动判罚。诸如此类的数智化生活场景不胜枚举。显而易见,在数智社会,算法为人们提供了更加高效、精准、便捷的服务,人们的各种现实需求因算法的普遍应用得到了极大满足。与传统的生活方式相比,信息技术的发展给我们的生活带来了翻天覆地的变化,人们对技术的依赖程度也在不断加深。可以说,数字化和算法已经深深嵌入人们的生活方式。
(二)数智社会暗含算法危机
算法及其相关应用的普及也暗含诸多风险,各类算法危机正此起彼伏。由于数智化依托于算法和数据,而算法自身的黑箱性、复杂性容易衍生出一种不合理使用的算法权力,这会引发人们对算法应用的担忧。在日常生活场景中,不合理的算法应用已经产生了一系列问题,包括算法歧视、算法杀熟、算法共谋、信息茧房等。例如,在日益蓬勃发展的平台经济中,算法的不合理运用导致了外卖骑手为算法权力所困而不自知。外卖平台系统一方面收集各项数据为平台系统的管理服务,外卖配送的路线被科学化,送达的时间被精准化;另一方面,平台系统通过各项数据对外卖骑手进行了隐形化和智能化的“数字控制”[3]。可怕的是,外卖骑手一般难以对这种无形残酷的“数字控制”产生怀疑,反而会自我规训将其当作努力完成配送任务的智能化工具。但实际上,骑手即使意识到算法的不合理控制,因难以与强大的算法系统对抗,最终也将感到无能为力。事实是,算法控制的普遍影响逐渐衍生出一种算法权力。“由于海量数据所需的算力超出人工计算能力,社会资源的分配权力不得不逐渐让位于算法。这使得算法逐渐脱离数学工具的角色,并与数据资源结合成为重要的新兴社会力量。”[4]与传统的权力类型有别,算法权力来源于人工智能技术对社会资源调配的绝对优势,来自机器在诸多方面对人力的超越。若缺少必要的规制,任何一种权力都有膨胀异化的风险。由于算法已经不再单纯是一种技术工具,其依托强大的社会控制力现已具有了权力属性,算法权力若不能得到有效规制则必然导致资本压榨和不平等。
(三)算法信任危机亟待解决
算法信任危机是切实存在的,却遭到忽视。面对数智社会转型,算法的应用及其法律规制研究成为近年来法学界讨论的热点,无论是一般性地探讨算法规制还是聚焦在具体场景下谋求算法治理,学界已经产出了诸多有益成果。总体来看,基于算法带来的诸多风险挑战,对算法进行法律规制成为学界的共识,目前算法的法律规制也已形成诸多不同的路径,学者们正对不同的规制路径进行反思和优化[5]。算法黑箱、算法共谋、算法歧视等算法危机问题往往对人们权益产生直接影响,经过媒体对相关典型事件的报道,这些问题容易引起人们关注,学界也纷纷聚焦具体场景对算法规制进行了深入研究。然而,作为一种隐蔽的深层次的社会危机,算法信任危机显然遭到了忽视。对算法信任问题的探讨主要在新闻学、心理学等学科领域,法学界从社会信任角度探讨算法危机治理的研究并不多见,部分学者即使意识到算法信任问题,也并没有将其作为一个专门问题予以深入考察,更多将其视为算法可能导致的诸多风险之一或将算法信任归为算法规制的一个可欲目标[6]。一方面,信任是整个社会的基本问题,在法律层面不易体现;另一方面,由算法产生的信任危机又往往隐藏在一系列具体事件中不易被察觉。在数智社会背景下人们尽管已经离不开各种基于算法的数智化应用,但对于算法的自我决策和运行原理仍处于质疑状态,担忧算法决策对自己造成不利影响。事实上,对算法决策的担忧本质上是一种不信任。早在2019年2月,欧洲政策研究中心就发布报告指出人工智能的发展导致了社会信任的加速退化,因此需要采取措施推进人工智能的可信任性。可见,人类在人工智能发展对社会信任造成的冲击方面已经有所觉察,算法信任危机问题并非空穴来风。“国家治理现代化的实现首先要依赖各方面制度和资源的进一步集聚,而人工智能可以在这种集聚中发挥重要作用”[7]。可以预见的是,随着算法的普遍应用,未来社会治理很大程度上是一种依托算法的治理,若算法信任问题不能得到妥善解决,国家治理能力将得不到有效彰显,中国式现代化的进程将会受到阻碍。因此,在数智化发展趋势之下社会必须直面算法信任危机问题,谋求算法的稳健发展。
二、传统到现代:社会信任谱系与沿革
经典马克思主义理论认为,人的本质不是单个人所固有的抽象物,而是一切社会关系的总和[8]。人作为一种社会动物,其社会交往没有信任进行维系是难以想象的。哈贝马斯的交往行动理论认为,市民社会的有效沟通须具备四项要件,即可领会性、真实性、真诚性和正确性[9]。其中,真诚性构成了社会信任的必要条件。信任作为维系社会的纽带,一直存在于人类社会当中。面对数智社会的算法信任危机,有必要对社会信任的谱系进行梳理,挖掘不同社会形态下的核心信任源,以更好地理解当下的算法信任危机。从历史发展样态看,社会信任的谱系大致经历了传统社会的身份信任、近现代社会的法律信任、数智社会的算法信任三个不同的阶段。不同社会形态体现着不同的信任模式,各种信任模式又有着各自的核心信任源。
(一)传统社会的身份信任
传统的农业社会是一种熟人社会,在面对面的长期交往过程中产生信任,是一种基于身份认同的信任模式。“乡土社会在地方性的限制下成了生于斯、死于斯的社会。……这是一个‘熟悉’的社会,没有陌生人的社会”[10]。传统的农业社会是乡土性的,是一种具有地域局限性的熟人社会,人从一出生就处在一个彼此熟悉的环境之中,这种环境并不能为人们所选择,也不能为人们轻易脱离。基于彼此之间相互熟悉所建立的身份认同关系,人们可以轻易获得各种交往信息,人与人之间的交往简单而直接,其间基本不需要依靠任何中介,此时空间上和时间上的交流障碍并没有大到影响整个乡土社会交往系统的正常运行。正是在熟人社会的长期交往中,人们之间彼此熟悉,建立了长期稳固的身份信任关系。对于传统社会身份信任的底层逻辑,可以从以下三个维度展现。首先,在人的维度上,乡土社会的群体之间往往具有或深或浅的血缘关系,人们之间甚至可以追溯到一个共同的祖先。我们常常可以发现,不少村庄的名称基本上因村民的姓氏而得名,村中世代聚居的村民基本属于同一宗族,他们共享一个姓氏,他们大部分的日常生活因血缘纽带而展开。基于血缘关系纽带,人们之间彼此熟悉。其次,在地的维度上,乡土社会具有封闭性、保守性,农业经济的自给自足抑制了人口的迁徙流动,人们的日常生活往往局限于一块小区域,大规模高频率的迁徙活动较为罕见。乡土社会的人们在特定的地域范围内活动,人们之间面对面式的交流足以满足大部分需要,文字甚至言语有时都在交流中变得多余。基于地缘上的联系,人们之间也能相互熟悉。最后,在事的维度上,农业生产活动是乡土社会的主要活动,这种活动对稳定性的要求很高,人们日常生活的结构往往较为单调,按照一系列代代相传的经验和传统行事足以应付日常需要,人们都遵循着一套相同的传统。乡土社会诸多事务是人们互帮互助来完成的,即便出现纠纷,人们也常常通过内部调解的方式予以解决。因此,在血缘、地缘、乡村事务等多个维度,乡村社会群体之间产生了诸多人际交往的需求,长期反复的人际交往实践使得人们彼此熟悉,基于熟悉产生的身份信任成为整个乡土社会运行的逻辑。
总之,传统社会的身份信任是基于熟人社会产生的一种直接、简单和连带式的信任模式。此种模式以身份为基础,体现了中国乡土社会的人情和信誉,其以“面对面”作为社会信任媒介,突出诚信、身份和习惯,较少涉及法律关系。
(二)近现代社会的法律信任
随着商品贸易的不断繁荣,近现代社会进入工商业社会。“所有进步社会的运动,到此处为止,是一个‘从身份到契约’的运动”[11]。在频繁的商业经济活动中,人们逐渐意识到传统的身份信任不足以保障交往的顺利进行,此时需要一种新的信任模式,这种模式须更为稳定、更具风险防范能力、更能降低交往成本。于是,重要的人际交往不得不诉诸法律和契约来建立和保障彼此之间的信任,基于制度理性的法律信任应运而生。这也反映了工业革命对生产生活方式的深刻影响,传统的乡土秩序逐渐走向瓦解,人口流动的规模不断加大,且流动的速度不断加快,传统社会里人们所遵循的交往方式越来越难以适应社会的发展。在传统乡土社会里,人们之间相互熟悉,彼此的交往不需要白纸黑字的条条框框来进行规范,而进入现代工商业社会,情况似乎颠倒了过来。在充满陌生人的工商业社会,人们之间既没有血缘上的联系也没有地缘上的联系,人际交往更多变成单次的而非频繁固定的,人们获取各类信息的成本也增加了,此时企图通过人际交往建立充分的身份信任并不现实。由于传统乡土社会逐渐向现代工商业社会转变,人们之间的交往逻辑也发生了变化,因而不得不用以往在传统社会较少使用的法律来构建信任,指导交往行为。在人的维度上,工商业社会中人们相互之间并无血缘上的联系,人们相互之间反而异常陌生;在地的维度上,工商业社会里的人员流动规模庞大且迅速,人员活动的范围变大了,不再局限于固定的区域;在事的维度上,工商业社会主要活动是商业贸易和流通,陌生人之间进行商业贸易需要一种强有力的制度规范以保障这一过程的顺利平稳,而具有规范性、一般性,且以国家强制力作为后盾的法律控制手段很好地满足了这种需求。因此,人们在社会交往中日益依赖于法律规则建立信任。
近现代社会的人际信任建立在法律规则之上,是一种以契约和理性为核心的信任模式。在法律信任模式中,人际交往范围更广,交往效率更高,交往互动更频繁,制度保障更稳固。
(三)数智社会的算法信任
工业革命催生的现代工商业社会很大程度上消弭了时空的物理鸿沟,信息革命带来的数智社会则进一步缩减了虚拟与现实之间的鸿沟。当下的社会是经过信息革命深刻形塑的数智社会,数字技术的广泛应用使得社会交往多了一道由算法形成的中介,由此衍生出一种以算法作为交往中介的算法信任。相较于以往的交往方式,数字技术的发展使得社会交往的范围得到扩大,社会交往不再局限于人与人之间的交往,还扩展到了人与机器之间的交往,呈现出一种数智交往的逻辑。在数智社会,以算法为核心的数字化对社会生活不断渗透,人们在交通、医疗、教育、行政等诸多领域的决策权很大程度让渡给了算法,人们越来越多地依赖算法决策作出判断和开展互动,算法俨然成为联系社会的一种纽带。正是由于数字与社会的深度融合,人际交往在很多情况下被人与机器之间的交往所取代,虽然社会交往本质上还是人际交往,但在数智化场景中,算法成为一个绕不开的中介,人们基于对算法运行逻辑的信任开展活动,而隐藏在算法背后的相对人的重要性不断递减。算法本质上是一种技术性解决方案,它作为一种高效精准的决策工具而被广泛应用。在技术中立层面,人们往往给予算法更多的信任,这是算法可信任性的终极根源。正是基于对算法的信任,“人类在行为方式上出现了把选择权交给人工智能的倾向”[12],人们依靠算法规划路线以安排出行活动,根据算法的指令高效完成工作任务,依靠算法推荐获取对自己有益的信息,等等。实际上,人们相信算法,即意味着期待算法会基于中立程序作出正当合理的决策,能够公平公正地给自己带来便捷和收益,而非利益减损。然而,指望算法的现实应用可以完全符合技术中立性,那未免有些不切实际。算法作为一种技术,每一项技术都有设定的目的,且将其应用到现实场景之中离不开人的参与,其至少直接受到技术开发者的控制,而能够影响算法运行的人一旦受到不法利益驱使,算法运行的中立性将得不到保障,由此带来的算法信任危机就难以避免。
总之,伴随着社会形态的更迭,社会信任模式前后经历了由身份信任向法律信任再到算法信任的演变。需要指出的是,从社会形态与社会信任模式的关系来看,每一种社会形态只有占主导的社会信任模式,而非只有单一的社会信任模式。传统的身份信任至今依然在部分领域发挥着不可替代的作用,当今社会可以说是一个算法信任将逐步成为主导型信任而身份信任和法律信任将逐渐衰退的社会。从各种社会信任模式之间的关系来看,它们之间也并非完全割裂。正如有学者提出“数字信任是以数字技术为中介的综合信任,是人际信任、系统信任与技术信任的综合体”[13]。算法信任不可能完全排除人和法律的因素,其中难免包含一定的身份信任和法律信任因素,只不过这些因素不占主导作用。
三、困境与反思:自动化决策中的算法信任危机
自动化决策是算法应用的主要场域,基于算法技术赋能的自动化决策已经渗入日常生活的诸多场景,无论是在商业领域还是在公权力领域,人在决策过程中的作用降低了,更多的决策权则交给了机器。自动化决策的广泛推行无疑给生产生活和社会治理带来了诸多革新,但也同时催生了算法信任问题。在数智社会背景下,人们对各种基于算法的自动化决策表现出不同程度的怀疑,算法信任危机呈现出多样的表征。
(一)算法信任危机的表征
信任对社会运转起着重要的支撑作用,但实际上绝对的信任并不存在,任何类型的信任都有一定限度,超出或低于该限度都会导致信任危机。相应地,算法信任危机也在两个维度上体现出来,即不仅体现为对算法的信任不足,还体现为对算法的过度信任。从算法信任危机的两个维度中进行透视,算法信任危机又呈现出多个表征。
1.盲信算法
与人脑决策相比,算法提供的决策服务具有高精准和高效率的特征,这很大程度上使得人们对算法决策形成依赖,盲信算法的风险因之产生。算法决策作为一种技术决策,在技术层面,其运行过程中可能出现的技术错误并不能完全被排除,在技术设计者层面,相关人员主观上的利益追逐倾向也明显影响着算法技术的运作。可以说,算法决策的结果虽然具备科学性和智能化,但不能达到使人绝对信任的程度。既然算法决策提供的信任度有限,重度的算法决策依赖和过度的算法信任实际上并不合理,它们同样是算法危机的表征。比起算法信任不足,算法盲信更容易为人们所忽视。在一定情形下,算法盲信造成的损害并不比算法信任不足小。例如,在自动驾驶领域,算法系统根据指令和各种数据作出决策以使汽车正常行驶,驾驶员的重要性被大大降低。然而,完全信任基于算法作出决策的自动驾驶是一种算法盲信,这一盲信可能威胁着驾乘者的人身安全。自动驾驶引发的交通事故也并不少见,多数事故中自动驾驶系统并未在危险发生时进行紧急制动,这导致部分盲信自动驾驶的人员在事故中遗憾丧生。这表明,算法在自动驾驶领域的运用仍然存在安全风险,盲信算法可能引发对生命安全的威胁。
2.担忧算法
在数智社会,算法精准地给用户推荐信息,人们惊讶于算法似乎比自己更了解自己,在享受便捷服务的同时,人们也产生了算法担忧。在浏览信息和网络购物时,算法通过搜集到的各类用户信息有针对性地进行用户画像,从而将海量的信息进行筛选再推介给用户。由于算法推荐涉及的用户信息往往涉及个人私密信息,人们不免会认为平台借助算法侵犯个人隐私,由此产生算法担忧。面对算法的自动判罚,人们也表现出不信任。在自动化行政处罚场景中,判罚的过程是电子化自动化的,尽管自动化行政依托了高精准的算法决策,但它不能有效甄别特殊情况,且给相对人造成实际权利义务影响的行政决定并没有给相对人申辩的机会,这也在一定程度上导致了人们对算法的担忧。“人们通常认为人类处理问题的模式更为灵活、更人性化,而算法处理模式更为机械化、无情感性”[14]。在自动判罚中算法的介入使得相对人失去了当场申诉和协商的机会,与此相比人工判罚的商谈过程无疑更能构建信任。算法担忧属于一种程度较低的不信任,人们尽管对算法表现出这种不信任,但基本上还是会以一种无可奈何的态度一如既往使用算法带来的服务,因为此时算法决策还不会对人们的权利和相关利益构成根本性损害。
3.厌恶算法
算法自动化决策已经在各个领域进行了广泛的运用,在某些场景中,算法决策的运用程度很高,算法决策也给人们的权利利益造成实质性影响,人们对算法的态度可能从一种焦虑演变为切实的厌恶。大数据杀熟问题并不是一个新鲜的问题,某些平台根据用户的消费数据掌握了用户的消费习惯和价格可接受度,对于同一款商品并没有根据市场进行定价,而是根据用户的价格接受度设定高于市场价的价格,这严重侵害了消费者的合法权益。在涉及就业、社会信用等领域,算法的歧视问题已经凸显出来。它通过设定严苛的条件将特定人群排除在外,从而影响了人们相关权利的正当行使。因为算法决策给人们的权利带来了实质性削减,所以人们逐渐讨厌算法应用,认为算法不具备中立性的特征,是一种资本牟利的工具,当这种厌恶的情绪广泛蔓延,就会在社会上形成关于算法的污名化。在网络无比发达的今天,个别事件的负面影响可能被无限放大,网络舆论的程度和走向具有极大的不确定性,这也意味着厌恶算法的情绪可能被网络舆论予以不合理的放大,从而影响到更多用户对算法的态度,这也影响了数智社会的健康发展。
4.拒绝算法
当个人对算法的不信任不断加剧,当社会舆论充斥着排斥算法的论调,算法信任危机将演变到极致。此时基于算法作出的决策将受到海量的投诉,在可以选择的范围内人们不再选择基于算法运用的社会交往模式。近年来,自动驾驶成为汽车行业的重要发展趋向,基于算法的自动驾驶成为一种新形态。前已述及,自动驾驶引发的安全事故俨然打击了人们对自动驾驶的信心。事实上,对自动驾驶的担忧完全可能导致对自动驾驶的拒绝。面对自动驾驶汽车存在的交通安全事故风险,一旦重大事故发生,网络上针对自动驾驶的负面舆论就可能很多,这无疑会影响大众对自动驾驶安全性的判断。在不少用户看来,并不值得冒着生命危险去尝试自动驾驶技术,他们当然也不会去购买自动驾驶汽车或者尝试自动驾驶服务,人们这种对自动驾驶的不信任态度无疑会阻碍自动驾驶的发展。对算法的不信任和排斥态度将造成对算法的抛弃,但数智化已经成为时代趋势,拒绝算法的做法并不利于整个社会的良性发展。
(二)算法信任危机的产生
人们对算法的焦虑甚至抵制表明算法信任危机的存在,而算法信任危机的产生归根结底还是源自算法技术的不透明性以及掩盖在其下的价值非中立性。如果算法透明和可规制,那算法自然会是中立的技术工具,算法权力异化问题可能就不会产生,人们会对算法予以高度信任,数智社会将保持健康发展态势。
算法本质上是一种技术解决方案,这套方案通过控制输入和输出关系得以形成,在各个场景下为人们的行为处事提供决策意见。人们在享受算法提供服务的时候,对算法背后的决策过程及其运行逻辑并不一定了解,算法运行呈现出黑箱性。算法黑箱事实上并非贬义词,它只是揭示了算法运行过程的不透明特点,而不透明并不必然导致一系列负面影响。然而,由于算法自主决策的普遍性,算法决策产生的结果某种程度上主导了人们的行为,直接对人们日常行为产生直接影响。站在算法用户的角度看,要依照运行过程不透明的算法给出的决策结果进行生活安排,其相当程度上意味着要完全信任不透明算法给出的决策结果。因为对算法决策过程的充分了解构成算法用户信任算法的重要方面,因此算法决策的不透明很容易让人们对算法决策结果的正当性和合理性产生怀疑。公开透明是消除疑虑的最好手段,而算法运行的不透明性无论是否最终影响了决策结果的中立性,基于对决策过程和机理的不了解,人们的疑虑不会轻易消失。尤其是当算法决策结果与人们的日常认知明显不符,按照算法决策结果作出行为对自身的利益造成损害时,对算法的质疑和不信任就会愈加明显。
算法信任危机产生的直接原因在于算法权力的异化。一般而言,为实现特定目标而设计出来的一系列步骤或程序都可以称之为算法,算法最初只是一种技术工具,它在数学和计算机科学中大量运用。技术往往被视为具有中立性,因此技术一般没有权力属性,但技术一旦对人的利益形成直接的影响和控制,此时技术的工具性便失去纯粹性进而显露出权力属性[15]。虽然算法是一套技术程序,但算法在具体场景中的自动化决策过程,往往是一个调配各路资源的过程,即算法的自主决策使得算法获得一种较强的影响力和支配力,这种影响力和支配力催生了算法权力。由此观之,算法具有的权力属性是显而易见的。任何权力的运行如果不能得到适当的规制和监督,就会存在权力滥用的风险。基于算法运行的不透明,算法自主决策过程就很容易受到相关利益驱动的影响,而从数据清洗标注、绘制知识图谱到算法建模、代码编写,都不可避免地嵌入了设计者、操作者的价值理念[16]。算法在决策过程中就不可避免地带有价值倾向性,算法权力也就面临异化的风险。算法主体对算法过程的不当掌控使得算法运行产生了一系列负面影响,算法歧视、算法共谋、算法杀熟等一系列带有贬义的词汇正是算法产生负面影响的具体体现。算法权力的异化在算法不透明的掩盖下悄悄发生了,算法主体为追逐商业利益而在算法的运行机理上进行了非常规操作,可能损害用户的正当利益。算法用户基于自身权利的受损,自然就产生了对算法的不信任。如果说算法的不透明性所招致的算法信任危机是算法运行特点与人类认知相悖的结果,那么算法权力异化招致的算法信任危机则是由于算法运行对人类利益产生切实损害的结果。
(三)危机下的算法可信任性
算法的不透明和算法权力异化导致人们对算法产生了不信任,算法的可信任性遭到了破坏。然而,在数字时代算法成为主要交互介质的背景下,仍然需要解决算法的信任问题。要确定算法的可信任性问题,就需要探究算法信任的核心信任源是否存在或者是否可以被构建出来。前文梳理了信任的谱系之后,可知算法信任是与传统的身份信任和后来的法律信任不一样的新型信任机制,算法信任的核心信任源来自算法的透明性和技术中立性。当下算法信任危机之所以产生,正是因为算法在透明性和技术中立性的核心信任源方面存在偏移。算法的可信任问题,归根结底是算法的透明性和中立性是否可能或者能够通过制度进行有效保障的问题。
首先,算法的不透明性虽然是科技自身的问题,但推进算法的透明化并非不可行,因为算法信任并不要求算法全过程透明。学界对于何为算法的本质这一问题观点不一,有学者认为算法的监管应该与算法的保护并行,将算法定性为商业秘密可能是一种最优的方案[17]。这样看来,要求算法完全透明,进而要求算法主体公布源代码,纵然能实现算法的技术透明化以及加大对算法的监管,但这种做法可能导致商业秘密泄露,不利于企业的良性竞争和算法的长远创新发展。同时,绝对的算法透明对于构建算法信任意义有限。算法的一般用户很难掌握超出正常人理解范围的复杂算法代码,而且算法运行的大致逻辑和涉及的数据范围具有的相对安全性足以使算法用户产生初步信任。由此,相较于对算法的绝对信任而言,通过一定程度的算法透明构建出来的算法信任无疑更具实用性和可行性。
其次,算法权力的异化问题如果可以得到合理规制,算法的中立性则能够较大程度地呈现。权力是人类社会发展必不可少的,但权力又极易被滥用,为了使权力合理行使以为人类提供更多福利,用法律规制权力以防止其被滥用是人类制度实践的基本逻辑。算法权力之所以逐渐异化,其原因除了算法自身的不透明,主要是由于算法权力缺乏有效规制,算法主体对算法程序的不当设计缺乏应有的监督。“算法规制的目标与其说是遏止迈向算法社会的进程,毋宁说是重建国家、社会、民众对算法的信任”[18]。算法危机是全方位的,它也对法律的基本原则构成了挑战,算法的法律规制具有正当性。通过法律法规来对算法的运行过程进行监督,防止算法权力异化,可以逐渐建立起人们对算法的信任。
总之,尽管有多方面的原因导致了算法信任危机的产生,但算法信任危机并未完全泯灭其可信任性,算法具有的可信任基础仍然存在。只要针对算法透明和算法中立性进行有效的法律规制,算法就可能在合理的轨道内运作,其作出的决策就会趋于公正,人们对算法的信任就会相应地构建起来。
四、赋能与激励:现代算法信任的法律型构
算法决策的普遍化已经形成了一种技术统治局面,算法信任危机在社会弥漫开来,如何重构数智社会的算法信任以应对这场危机已经成为迫切任务。“虽然技术维度的透明性与可解释性等有助于提升人工智能的信任度,但人类的有效监督是人工智能之所以被视为可信任的根源所在”[19]。基于运行不透明和决策不中立对算法信任的损害,有必要以法律的手段对算法运行进行规制。如何通过法律对算法进行规制?基于传统法律规范不能有效应对数字时代背景下的算法规制难题,因此应该积极通过立法调整完善有关制度或权利,为规制算法提供强有力的法治保障。具体而言,在算法主体层面,设立算法备案和算法评估制度;在算法用户层面,为个人配置算法解释权,形成较为完善的算法法律规制体系,以期获得良好的规制效果,进而为公众重拾算法信任奠定基础。
(一)施加义务限制:健全算法备案和算法评估制度
对算法主体施加义务限制应当成为法律型构的重要着力点。“法律所调整的是人与人之间的关系, 因此法律不必去直接规制技术, 而应当规制使用技术的人”[20]。因为技术本身不能成为被规制的对象,所以法律规制的着力点应该放在技术的开发者和服务提供者等算法主体身上。基于算法决策对特定场景中人们的行为方式已经产生了相当的支配力和影响力,算法的指令已经具有某种行为规范的属性。一方面,算法程序作为一套基于代码支撑的实施方案,其对算法运行本就具有规范的作用;另一方面,在自动化行政不断推广的情况下,法律语言的算法转译容易变为一种“法律解释”,从而造成对立法权的吞噬。因此,可以将算法看作一种准法律。鉴于算法的规范属性,可以借鉴立法备案和立法评估的相关经验要求算法主体对算法进行备案和评估,切实防止算法侵害公众合法权益。
算法备案制度是行政机关要求算法主体将算法的功能类型、适用领域、风险评估等数据向其进行备案的制度。算法备案“不仅有助于保障公众的算法知情权,还可以督促算法运营者主动进行算法风险评估,并保留算法运行记录,有效督促算法开发者和服务提供者从研发到运行的全周期内关注算法合规问题”[21]。算法备案制度作为一种事前规制手段,可以在一定程度上缓解主体与用户之间的信息不对称问题,它符合算法透明的治理需求,有利于构建算法信任。关于算法备案制度,我国《互联网信息服务算法推荐管理规定》进行了简略概括的规定。依据该规定,我国上线了互联网信息服务算法备案系统,公开发布了一系列境内互联网信息服务算法备案清单,有关算法的部分信息可通过该备案系统进行查询。但总体而言,我国的算法备案制度还较为粗糙,相关规定对于如何备案并未十分明确,完善的备案体制还未建立。因此,有必要对算法备案制度进行进一步完善。首先,在算法备案被当作一项行政备案来处理时,由于算法备案涉及政府对企业相关信息的搜集与公开,应该秉持正当性、合法性的原则,对需要备案的算法和不需要备案的算法进行划分。对于明显涉及公共利益和国家利益的相关算法,有必要强制进行备案,但对于与公共利益和国家利益无重大关涉的算法,可以选择性备案。对于后一类算法,一方面备案的意义并不大,另一方面信息搜集和公示将给政府和企业徒增管理成本。其次,应该具体划定算法自主备案和算法政府报备的界限,对于企业中有能力自主管理且其开发的算法对公共利益和国家利益影响有限的,可以鼓励企业自主备案管理,政府只需适当干涉监管。对于企业无能力自主管理,其算法容易对公共利益和国家利益造成重大影响的,可强制企业向政府进行报备。此外,应该根据不同场景下的算法决策划分风险等级,建立备案内容由宽松到严格、由概括到详尽的、凸显层次性的备案制度,根据实际情况分配备案方式,有针对性地把握算法运行的风险,高效安排防范控制举措。
算法评估则主要是指针对算法运行可能产生或者实际产生的影响所作出的评估,因而也可称之为算法影响评估。“算法影响评估要求设计或运营算法的主体阐述算法系统的技术特征和实现目标,识别其潜在风险的类型和程度,并准备提出对应补救措施”[22]。算法评估作为一项在算法运行之前或者运行过程中对算法进行规制的手段,有助于在各个时段及时发现和确认算法风险以作出相应的规制举措,以消除用户的安全疑虑。实际上,算法评估不仅是重要的算法治理措施,它还“有助于创制合理的算法透明度并构筑算法信任”[23]。我国对于算法评估的法律规范比较粗糙,主要是一种事前的评估,一种指向专业机构的评估,且未强制要求评估结果的公开,并不能有效应对算法处理的发展变化,也不能回应公众对算法影响的各种疑问。因此,有必要构建事前事后相结合的、多方互动的算法评估制度。首先,应该将算法评估的时段延伸至整个算法运作过程,及时评估算法的动态运作。事前的算法影响评估并不能保证算法运行全过程安全可靠,算法的运行往往处于不断优化的过程中,事前的评估可能并不能涵盖算法运行所发生的变化,因此存在风险隐患。在算法运行的过程中进行算法影响评估,有利于及时追踪算法运行的样态是否发生变化,更新算法运行的关键信息,方便对算法进行及时的具有针对性的监管。其次,应该将算法评估的报告进行披露,使得公众充分了解算法决策带给自己的风险。不公布算法评估结果本质上还是一种不透明的算法规制方式,公众对算法相关运行情况若不能做到一定程度的了解,对算法产生的疑虑必然不会消失,因此对算法的信任也将难以建立。再次,对算法评估结果的公开应该予以一定的强制性。因为算法主体一旦可以自主选择披露与否或者披露的内容,算法的特定负面影响可能就会被有选择性地遮蔽,从而不利于公众了解算法的真实情况。最后,应当推进第三方算法评估机构建设。算法评估涉及复杂技术且事关重大,必须由专业的第三方机构开展。基于利益导向,算法评估工作应该以第三方评估为主,以一种独立的主体地位开展评估工作,但基于企业自评估也有一定合理性和必要性,企业算法自评估的权威性应该限制在一定限度之内。为保证评估的专业性和权威性,算法评估机构必须具备专业的技术要求,且具有政府或行业内提供的评估资质,而第三方评估机构也应该受到规制,防止形成算法评估的黑色产业链。
(二)赋予权利救济:配置算法解释权
算法备案制度和算法评估制度尽管对规制算法具有重要意义但不直接面向算法用户,面对算法侵害事件,算法用户解释权在个人权利救济方面的设置不可或缺。“各国立法者纷纷要求算法决策具备可解释性,并将其置于算法治理议程的首要位置”[24]。从人类认知的角度来看,可被理解的事物往往更容易受到人类的信任,神秘难测的事物则容易引起人类的疑虑。事物是否可理解一定程度上就是事物的可解释性。“某一事物只有具有可解释性,才既能够在公众面前得到有效的开示,又能使专业技术人员对自身行为的正当性进行有效辩解”[25]。因此,算法解释可以被视为获取算法信任的重要基础,在制度构建上体现为赋予算法用户算法解释权。算法解释权可以理解为:当自动化决策的具体决定对相对人有法律上或者经济上的显著影响时,相对人向算法使用人提出异议,要求提供对具体决策的解释,并要求更新数据或更正错误的权利[26]。信任是一种社会建构的产物,因此算法信任离不开算法用户的切身参与,而信任的产生不能一蹴而就,它需要有一个持续的过程。算法解释可以成为“个体与自动化决策者之间的信任沟通机制”[27],因此算法解释权刚好可以使算法主体与算法用户通过动态互动构建起理性商谈的桥梁。设立旨在为算法用户提供救济的算法解释权,尊重用户的主体地位,让用户参与到算法信任构建的过程之中,这是试图以一种法律激励的方式发挥用户治理的能动性,无疑有利于完善算法治理体系。
算法作为一种构建输入与输出关系的程序性方案,编程过程本身具有可解释性。基于算法的复杂性和公众理解的有限性,算法的可解释性和依托算法解释的规制路径受到质疑。有学者基于“对于算法模型最终输出结果的原因和理由,许多具有专业知识背景的人士也难以完全理解并提出质疑,更不用说大多数非专业人士”[28],认为配置算法解释权可行性不足。诚然,算法作为计算机科学领域的一种复杂程序,其复杂性不可避免导致普通民众无法完全理解算法的运行机制。然而,公众对算法的信任不可能也不必要立基于对整套算法程序运行的透彻理解之上。一般情况下,只要向公众解释了算法运行的大致原理以及算法分析涉及的数据范围等信息,公众只要对算法运行是否侵害个人权益有概括性的理解,算法信任就能构建起来。实际上,用户对算法解释也有不同的需求,这些需求大致可以分为直观探测内部的视觉解释、从外部扰动的探索解释、用户易于理解的知识解释和因果解释四类[29]。这也就意味着并非所有的解释都要达到同样的强度,不同的用户对于算法运行有不同的关切,按照不同需求为不同的用户提供差别化的可信任性解释是有可能的。
具体而言,对算法解释权的设置可以提出以下要求。首先,要明确算法解释主体。算法开发者或者提供者作为算法的直接控制一方,掌握算法的目的意图和运行原理,在算法场景中具有技术上的绝对优势,受到算法侵害的主体可向他们提出算法解释要求。其次,算法解释要尽量通俗,算法解释主体需要以尽量简单通俗的语言阐释算法的运行机制和原理,这种解释要尽量达到社会公众一般性理解的程度。为了凸显算法解释的社会交往意义,可以采取“软解释”的方式,即在不需要精确计算的权益保障场景下向用户提供生动形象的图文说明以满足用户的利益关切[30]。再次,算法解释的内容要全面,算法运行的部分解释缺漏或模糊都可能影响对于算法整体运行的理解,用户对于算法的疑虑可能同时涉及多个方面的问题,解释主体要对算法运行的重要信息进行全面解释,还要说明这些信息之间的关联。对于涉及影响用户重要权益的内容更不能选择性解释,不能只解释对自己有利的信息,隐瞒对用户有害的信息。最后,针对抽象性算法解释面临的困境,还要结合具体情况在满足上述解释要求基础上充分贯彻解释的主体中心主义。具体来说,算法解释还要“结合算法决策应用领域、场景、风险大小和个体权益的影响程度等因素有针对性地予以展开”[31],并结合算法用户在使用算法过程中的具体需求,有针对性地围绕用户的重大关切和利益相关问题进行解释。
五、结语:技术文明与展望
毋庸置疑,以算法为核心的人工智能技术代表着社会发展的前进趋势,只有勇敢地拥抱这一技术浪潮,人类社会才能更好地向前发展。不可忽视的是,人工智能技术给人类社会带来了巨大发展机遇的同时,也伴随着一系列重大挑战。算法信任危机作为数智社会的主要危机,体现了人们对当前数字技术发展的隐忧,影响着数字技术的向前发展。就目前来看,人类与人工智能技术共处的历史并不长,但二者长期共处是必然趋势,人工智能技术引发的社会危机一方面不可避免,但另一方面它有望通过长期的努力得到解决。数字技术方兴未艾,社会生活结构的数智化逻辑还将进一步展开,如何让技术统治变成技术理性,如何让技术超越人类又不凌驾于人类,如何让算法信任危机消解,如何让算法信任重构,依靠法治对技术进行规制或许是恰当的出路,因为使人们产生信任的算法必定是得到法律有效规制的良性算法。算法的可信任性是算法技术持续发展的基础,只有利用法律的手段规制算法让其可控、可信赖,算法技术才能得到稳健发展,人们才能充分享受技术发展带来的成果,创造更加先进的技术文明。
[参考文献]
[1] 弗洛里迪.信息伦理学[M].薛平,译.上海:上海译文出版社,2018:1.
[2] 齐延平.数智化社会的法律调控[J].中国法学,2022(1):77-98.
[3] 陈龙.“数字控制”下的劳动秩序:外卖骑手的劳动控制研究[J].社会学研究,2020(6):113-135+244.
[4] 张凌寒.算法权力的兴起、异化及法律规制[J].法商研究,2019(4):63-75.
[5] 丁晓东.论算法的法律规制[J].中国社会科学,2020(12):138-159+203.
[6] 苏宇.算法规制的谱系[J].中国法学,2020(3):165-184.
[7] 高奇琦.智能革命与国家治理现代化初探[J].中国社会科学,2020(7):81-102+205-206.
[8] 马克思,恩格斯.马克思恩格斯全集:第3卷[M].北京:人民出版社,1960:7.
[9] 哈贝马斯.交往与社会进化[M].张博树,译.重庆:重庆出版社,1989:12.
[10] 费孝通.乡土中国[M].上海:上海人民出版社,2007:9.
[11] 梅因.古代法[M].沈景一,译.北京:商务印书馆,1959:97.
[12] 杨力.人工智能对认知、思维和行为方式的改变[J].探索与争鸣,2017(10):16-18.
[13] 吴新慧.数字信任与数字社会信任重构[J].学习与实践,2020(10):87-96.
[14 ] 杜严勇.厌恶算法还是欣赏算法?:人工智能时代的算法认知差异与算法信任建构[J].哲学分析,2022(3):151-165+199.
[15] 梅夏英,杨晓娜.自媒体平台网络权力的形成及规范路径:基于对网络言论自由影响的分析[J].河北法学,2017(1):36-47.
[16] 马长山.算法治理的正义尺度[J].人民论坛·学术前沿,2022(10):68-76.
[17] 王志成.数字法学中算法法律性质最优解[J].西安交通大学学报(社会科学版),2023(4):139-148.
[18] 许可.算法规制体系的中国建构与理论反思[J].法律科学(西北政法大学学报),2022(1):124-132.
[19] 闫宏秀.可信任:人工智能伦理未来图景的一种有效描绘[J].理论探索,2019(4):38-42+63.
[20] 郑戈.算法的法律与法律的算法[J].中国法律评论,2018(2):66-85.
[21] 狄行思,宋歌.人工智能算法信任机制的构建与反思[J].数字法治,2024(1):123-135.
[22] 曾雄,梁正,张辉.欧美算法治理实践的新发展与我国算法综合治理框架的构建[J]. 电子政务,2022(7):67-75.
[23] 谢增毅.职场算法规制的路径与统合[J].北京大学学报(哲学社会科学版),2024(3):141-153.
[24] 张欣.算法解释权与算法治理路径研究[J].中外法学,2019(6):1425-1445.
[25] 郑智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),2021(1):14-26.
[26] 张凌寒.商业自动化决策的算法解释权研究[J].法律科学(西北政法大学学报),2018(3):65-74.
[27] 丁晓东.基于信任的自动化决策:算法解释权的原理反思与制度重构[J].中国法学,2022(1):99-118.
[28] 辛巧巧.算法解释权质疑[J].求是学刊,2021(3):100-109.
[29] 孔祥维,唐鑫泽,王子明.人工智能决策可解释性的研究综述[J].系统工程理论与实践,2021(2):524-536.
[30] 苏宇.算法解释制度的体系化构建[J].东方法学,2024(1):81-95.
[31] 张恩典.算法透明度的理论反思与制度建构[J].华中科技大学学报(社会科学版),2023(6):29-40.
[责任编辑:刘兴禄]
DOI:10.16601/j.cnki.issn2096-7349.2024.06.009
[收稿日期]2024-06-01
[基金项目]甘肃省高级人民法院2023年度司法研究重点课题“基层人民法院公正司法理论与实践研究”[GSGYKT(2023)A01]
[作者简介]王柏荣(1980— ),男,博士,兰州大学法学院副教授,研究方向:法学理论;赖源水(1999— ),男,兰州大学法学院硕士研究生,研究方向:法学理论。
[引用格式]王柏荣,赖源水.数智社会算法信任的法律激励与型构[J].南宁师范大学学报(哲学社会科学版),2024,45(6):128-142.