算法融入公共决策的伦理审视

2024-05-11 09:39:55邱德胜罗译泓
理论探索 2024年2期

邱德胜 罗译泓

〔摘要〕近年来,算法正越来越多地进入公共决策当中。算法决策以其数据理性实现了决策科学化的理想愿景。但是,随着算法决策系统从决策伙伴日渐成为决策主体,算法在嵌入公共决策流程时伴随的伦理风险也愈发明显。算法风险产生的公平正义之问、价值错位之问、人机冲突之问,成为人类决策与算法决策共存场景下必须积极回应的问题。算法既是提升、优化公共决策质量的工具,又是被治理、被优化的对象。因此,算法伦理治理应该从被动负责、被动响应的伦理善后转向积极担当、未雨绸缪的技术善治,为算法融入公共决策的良性发展提供持续动力。算法赋能的公共决策不仅要巩固算法数据理性的优势,更要将反思、辩证的维度嵌入决策始终,实现技术理性与人文价值相融合的“联合决策”,为公共决策的智能治理贡献中国智慧与中国方案。

〔关键词〕公共决策,算法风险,算法伦理

〔中图分类号〕N031 〔文献标识码〕A 〔文章编号〕1004-4175(2024)02-0005-08

智能时代以降,大数据、深度学习等智能技术的身影正愈发广泛地出现在公共决策中。这些智能技术凭借先进的决策数据采集能力、决策情境建模能力、决策结果预测能力等优势,为人类决策提供了越來越丰富的信息支持,成为提升公共决策科学性与民主性的重要手段。从应用方式与应用范围上看,算法与公共决策的互动演进呈现出由浅到深、由定量到定性、由辅助到自主的变化趋势,这一发展趋向使得AI决策的伦理风险愈发突出,不容忽视。AI决策的自主性一旦增强到人类难以控制的程度,引发的伦理危机将不言而喻。因此,如何在充分发挥智能决策优势的同时化解相应的技术风险,实现智能决策造福社会的最终目标,无疑是当前乃至今后很长时期都需要深入探讨的问题。

一、算法融入公共决策的样态透视

不断迭代发展的大数据以及深度学习技术使得算法在公共决策的问题界定、方案设计与选择、效果评估与民主审议等流程中具有可观的应用潜力。算法融入公共决策的相关案例层出不穷,在智慧交通、医疗辅助、司法裁断、公共风险预测等领域都能窥见AI决策的身影〔1〕。算法之所以能够提升公共决策效率,在于其“信息全面”与“量化预测”两大基本优势。第一,AI通过其强大的大数据生成与分析能力让各个决策子系统拥有了充足的信息来源;第二,AI机器学习算法的预测分析能力为公共决策提供了多维度的方案选择〔2〕。

数据是实现科学决策的重要资源,大数据及其相应的算法技术突破了物理空间与人脑算力的限制,一方面可以让更多公众通过电子参与的方式“足不出户”表达自身诉求;另一方面,自然语言处理、计算机视觉等智能技术能够将搜集到的公众建议、决策环境等非结构化数据快速优化为易于分析与观察的结构化数据,以实现人类难以达成的全数据环境下的知情决策。由于收集与处理信息能力的局限、情感因素的桎梏、非理性的偏见等因素,人类的预测与分析能力远不及大数据模型。相比之下,深度学习技术能够通过采用适宜的函数形式来适应多样化的现实情境,并有效解决传统计算方法难以处理的高维数据难题。因此,AI有时能够发现那些人类视角难以发现的“隐秘关系”,以数据为证据,更为准确地揭示复杂现象之间的隐藏关系〔3〕。

在算法融入公共决策以前,STS研究围绕科学家与公众究竟谁具有公共决策裁决权的话题展开了社会学分析,曾形成以专家为主导的专家治国论和以公众为主导的民主参与论。但两种理论将科学理性与民主价值、专家专长与公民认知对立起来,造成了延伸性问题与合法性问题。“专家治国论”的困境在于,无论是科学研究还是技术研发都需要大量资金设备的支持,以科学家为主体的专家群体会时常因为自身利益而美化甚至更改研究结论,出现严重的伦理失范行为,公共决策的合法性危机日益突出。因此,20世纪后期掀起的科学民主化运动要求将决策权交予公众。客观来讲,公众参与决策确实可以带来认知视域的多元化,外行视角的融入也在最大限度上避免了决策的伦理风险与社会风险。但公众缺乏决策所需的相应专长,易产生“无知者的暴政”,动摇决策的科学性。而算法执行的是一种无情感、无记忆的数据理性决策,既能以数据驱动实现由数据到证据的循证决策,也能通过电子参与方式搜集到公众的大量诉求,并在决策过程中予以合理考量。因此,相比于科学家决策或基于外行视角的公众决策等单一决策方式,算法决策确有优势。

但在可见的优势背后,其潜在的风险也不容忽视。近年来,算法融入公共决策展现出由表及里、由边缘至核心、由辅助到自主的演变趋势。在未来公共决策中,人类很难脱离AI的辅助完成独立决策,人类决策与AI决策共存将成为智能时代的重要趋势。算法最初在公共决策中主要扮演单纯的辅助者角色,例如运用算法自动应答市民问题,对市政设施进行智能监控等,这些任务通常呈现程序性、重复性的特征。近年来,算法决策系统日渐在教育、医疗、公共安全与社会福利等多个领域取代人作出重要决策。目前,算法已经被应用于犯罪概率预测、医疗辅助诊断、危险项目选址等非程序性、高风险性的公共决策中,产生了巨大的伦理争议。在这些决策场景中,算法并非被动的工具,而是具有一定能动性与自主性的行动者。

部分学者针对数字化时代的政策制定与执行展开了“数字官僚主义”(digital bureaucracy)、“数字自由裁量权”(digital discretion)等内容的理论与实践研究〔4〕〔5〕。从相关理论研究与实践探索中可以发现,高速发展的AI算法日渐摆脱了辅助性工具的地位,由决策伙伴逐渐成为决策主体,这一过程伴随的伦理风险也愈发明显。算法歧视、算法功利、算法依赖所隐含的公平正义之问、价值错位之问、人机冲突之问,成为政府进行公共决策治理必须积极回应的问题。

二、算法融入公共决策的公平正义之问

在智能技术应用的初期,算法处理的往往是规则明确的、可以完全数据化的定量型决策。在此阶段,算法决策被认为是客观的、价值中立的,可以有效规避人类决策者的主观偏误。然而,当人工智能开始处理复杂的综合决策时,其价值映射功能便显露无疑。算法是算法设计者价值选择的产物,这种隐含在算法设计中的权衡,被复杂的数字代码和程序计算所掩盖,让算法设计者隐秘地成为政策的实际制定者〔6〕。荷兰哲学家维贝克(Paul Viebeck)认为,技术能够以一种物质的方式体现人的意向。甚至当设计者没有明确从道德维度反思他们的作品时,他们设计的人工物也不可避免地在人的行动和体验中扮演着调节的角色〔7〕113。算法蕴含着设计者的“个人道德”,使用蕴含个人道德的算法进行决策,必然导致决策结果明显的价值偏向,进而挑战决策的公平性与正义性。

算法在融入公共决策时可能产生三种偏见:数据偏见、文化偏见、突现偏见。其一,数据偏见是由于算法系统在设计、训练阶段的数据采集不完整所带来的偏见。算法决策系统的生成需要大量已有公共决策案例作为原始数据驱动,并通过特定数据训练,才能赋予决策系统“综合判定能力”。因此,用于算法生成的案例选择显著影响了决策算法的特点。其二,文化偏见是作为设计者背景认知的社会文化和风俗习惯所带来的既存偏见。算法人员对原始决策数据的选择受其社会环境与个人成长背景的深刻影响,会形成一种根植于特定文化内涵之中的独一无二的个人偏好。例如,在诸多决策中,有人倾向于感性或情绪化的决定,有人会选择一丝不苟的遵照规章和法律执行。设计人员会有意或无意地将此种决策偏好作为设计标准隐秘地融入算法开发之中,产生难以预测的文化偏置。其三,突现偏见就是在人机互动过程中意外涌现的偏见,AI算法的复杂性与不可预见性决定了在设计之初难以预见其所有可能出现的结果。

英特尔、脸书等公司曾设计过一个基于面部特征的人脸识别算法。但此种算法以欧美人种的面部特征为主要输入对象,导致白色皮肤的面部识别率远高于黑色皮肤和黄色皮肤。“别有用心”的算法将人分成了三六九等,从而隐秘地再现种族歧视与阶级歧视。AI预测性警务软件“PredPol”的使用也是算法歧视的经典案例,该软件曾在美国数十个城市推广使用。PredPol通过一套专有算法分析历史犯罪数据来预测治安事件的高发地区。在使用过程中,该算法软件频繁地将当地警察的巡逻范围导向拉美裔、非洲裔等少数族裔的居住区,引发了相关人群的不满以及种族歧视的争论〔8〕。倘若某种用于转基因食品或基因编辑等高风险决策的算法也如同上述面部识别算法与警务巡逻算法一样,只考虑白种人的饮食结构与生理特征,其作出的决策在公平性与安全性上恐怕就要大打折扣。此外,由于核心技术集中在孟山都、杜邦、拜耳、先正达等少数生物公司手中,在巨额利润的引诱之下,它们又会不会冒着法律风险重金贿赂算法设计人员,使设计出的决策算法具有难以察觉的利益偏向性?这在加利福尼亚州发生的转基因食品标签之争中已有前车之鉴,不得不引起公众和决策者的警惕。

从某种程度上讲,公共决策是对当下与未来的社会资源进行分配的一种形式,决策正义是其无法回避的伦理准则与价值追寻,如罗尔斯所言“正义是社会制度的首要德性”〔9〕3。然而數字资本主义的登场,将使得算法决策的合法性危机日益凸显:使用遵循利益至上原则的算法接管科技决策,可能使得弱势群体更加弱势,进而加剧原有的社会矛盾。尤其是高风险科技决策所涉及的诸多议题:核电站选址、基因编辑、药物推广、气候治理等,都牵涉局部正义乃至全球正义。罗尔斯提出采用“无知之幕”(veil of ignorance)的方式,来纠正参与主体在社会地位、天赋、能力等方面的先天差别,从而保护决策中的弱势群体,实现社会正义的崇高目标。然而,现实中并不存在这样的完美幕布,从层出不穷的“大数据杀熟”案例可知,掌控“后台钥匙”的算法设计者或拥有者依然能够轻松获取他人的信息,就像牌桌上的千术高手能够知晓所有人的“底牌”一般,公共决策的参与者仍旧处于一种实际上甚至更加隐晦的不平等之中。为此,我们既要重视算法的内在伦理建设,保证决策算法的公开性、可解释性,还要从社会制度改良、法律法规建设等外部规约入手,使“算法”成为实现公平正义的“善法”。

三、算法融入公共决策的价值错位之问

算法的本质是“计算”,其作为非生命物质不能产生意识〔10〕。人类智能与算法智能的本质区别决定了算法并不能像人一样将创造性、情感性、意向性等践行于决策行为中,而只能按照相对固定的指令行事。换言之,算法在决策时采取的是一种单纯的功利性思考,它将一切决策还原为一串串可以计算的数字与概率,而不具备人类的情感思考与价值反省的功能,这也是我们时常感受到算法“不智能”的原因之一。

福山(Francis Fukuyama)认为,在功利主义的框架下好与坏都是相对可见且直接的,通常可以还原为金钱与数字抑或是能够轻易检测的对人体的伤害。但对于更为微妙的损伤,即那些属于灵魂而非肉体层面的长期损伤却难以测量和评估〔11〕100。遵循功利主义原则的算法可以计算出尼古丁、多环芳烃对人体的伤害,因为这些伤害在某种程度上是可以量化的(例如摄入多少剂量尼古丁就会将肺癌的发病率提升数个百分点)。但是,对于应用于人类胚胎和人类成体细胞的基因编辑而言,由于技术不完善,易造成脱靶效应、嵌合效应、免疫效应等不可预知的风险〔12〕。这些风险对人的生理、精神乃至社会情感的影响是很难用数字来准确衡量的。就像“电车难题”一样,当算法无法计算生命与死亡、情感与文化的重要性时,就会发生人与算法之间的价值错位。

在公共决策中,这种价值错位的案例不胜枚举。热映的《流浪地球2》中有这样一个桥段:电影中的超级人工智能中枢MOSS认为,将地球送上超过2500年的宇宙流浪之旅无疑是九死一生,希望渺茫。无论是人类的不团结,还是行星撞击、引力吞噬等意外情况都将葬送人类的前程。相比之下,近在咫尺的数字永生计划与火种计划明显有着更高的成功率,但代价则是近乎全体人类的牺牲。为了达成目标,超级人工智能MOSS还通过毁掉空间站与制造月球危机等方法,三番五次地阻止人类的自我救赎。虽然MOSS所提供的方案无疑有着更高的成功率,但这种“去人化”的决策显然是人类情感所难以接受的。正如电影结尾那句颇具伦理深意的名言所揭示的:“没有人的文明,毫无意义。”

MOSS冰冷的数据分析表明,算法往往追求的是效率与概率值的工具理性,而缺失了必要的价值理性,造成了人与算法之间的价值错位,就像MOSS不能理解人类与家园共进退的价值期望与坚定决心。又比如,使用算法来判断具有较大毒副作用的化疗剂量时,是应该致力于减轻患者的当下痛苦,还是从患者的长远健康进行考量?从过往公共决策的经验中来看,由于社会文化与人类情感因素的存在,人工智能往往不能理解错综复杂的社会动态〔13〕。算法的决策是朴素的,面对相同的偏误信息与反常情景时,人类有可能通过进一步的反思得出与原有推断截然不同的结论,而算法却难以做到。

为了解决这一困境,有学者期望用功利主义算法来达成古典功利主义关心的“最多数人的最大幸福”,实现人机价值对齐。但在公共决策中,功利主义化的算法却常常陷入一种“布里丹之驴”(Buridans ass)的逻辑困境之中。需要看到的是,历经斯马特、金里卡、布兰德等学者的不断改良,诸如行为功利主义、制度功利主义、规则功利主义等现代功利主义确实有了更广的适用范围和更强大的解释力。但正如沃尔夫(Jonathan Wolff)所指出的,无论功利主义的具体形态有何变化,“如果要认真的对待功利主义,我们就必须能够衡量和量化幸福”〔14〕48。在诸多风险性决策中,不同种类之间的快乐和幸福真的如功利主义所设想的那般,能够用数据化的方式进行“幸福计算”吗?有学者总结道:无论是义务论还是功利主义化的算法都难以应对复杂的道德情境〔15〕。算法几乎不可能通过“自上而下”的抽象原则来进行“幸福计算”与“生死权重计算”。

需要指出的是,算法功利本身并不是一个伦理问题,它只是算法自身的一个特征。但当算法运用于公共决策,甚至取代人类成为关键性问题的决策者时,算法的功利化倾向以及人机之间的价值错位就可能产生严重的社会伦理风险。通常来说,算法都是效率至上的。就像前文所提到的警务巡逻算法与人脸识别算法一样,都是以提高破案效率、身份识别效率为目的,但提升效率只是公共决策的众多目标之一,而相关价值判断的缺失更有可能激化原有的社会矛盾。公共决策中既有事实判断亦有价值判断,算法可以胜任前者,但后者中包含的情感因素、文化因素等价值追求是短期内算法所难以理解的。

四、算法融入公共决策的人机冲突之问

当人机决策不一致时,相信人还是相信算法便成为难以回避的人机冲突难题,而决策者是否愿意采纳或相信来自算法的决策结果被称为人机信任(human-AI trust)问题。例如,倘若算法歧视得不到及时且有效的纠正,则将引发公众对于算法决策的“信任危机”。公众将AI决策系统视为少数人谋利与统治的工具,不再相信算法能够作出公平正义的决策,因而抵触智能技术所作出的一切决策,产生一种类似“卢德派怨恨”的极端情绪,将显著影响公共决策的执行效果。

但是,倘若人们过于信任与依赖算法来决策,甚至丧失对算法说“不”的能力,则将会走向另一个极端,造成人机关系在决策中的颠覆式转变。在弱人工智能时代,AI决策系统主要扮演人类决策的伙伴与帮手。而进入强人工智能甚至超人工智能时代,AI算法会逐渐脱离辅助决策的工具性地位,将有可能取代人类成为新的权威来源与决策主体,并将人类排挤出决策权力的核心。马尔库塞在其经典著作《单向度的人》中深入刻畫了这种技术对人的压迫现象:“当代工业社会是一个新型的极权主义社会,因为它成功地压制了这个社会中的反对派和反对意见,压制了人们内心中的否定性、批判性和超越性的向度。”〔16〕205人所处的生活环境被人工智能决策系统所“包围”,丧失了对AI决策结果进行批判的能力:人工智能以其强大的工具理性力量,让人类理性几乎没有还手和反驳的余地。当人类和算法因为某一个公共决策问题而对簿公堂之时,在智能技术严密的程序逻辑和强大的工具理性面前,人类很难组织起超越机器的完美理性来击败对手,就如同“阿尔法狗”可以轻松战胜人类顶尖棋手李世石和柯洁。在算法理性的无情攻势下,人彻底丧失了批判与否定的向度,让人成为算法下的“单向度的人”。

由算法依赖引发的“自动化偏倚”(automation bias)可被解释为人们不愿意相信自己获取的信息,而更倾向于信任算法系统提供的信息与决策结果,即“宁愿相信算法也不相信自己”〔17〕。此种算法依赖广泛存在于医疗(辅助)人工智能之中。《连线》月刊曾在2021年刊登了一篇名为《难以忍受的痛:医生为何将其拒之门外?》的评论,故事中的主角是一位名叫凯瑟琳的女性,她因患有妇科疾病需要服用阿片类、巴比妥类等多种药物。然而,医生却拒绝给凯瑟琳开具该类镇痛药物,甚至解除了她们之间的医患关系并拒绝为其提供进一步的治疗。医生给出的理由仅仅是基于算法的医疗辅助系统NarxCare认为凯瑟琳可能存在滥用此类药物的风险,在“相关算法决策中的某些风险系数评分过高”。

NarxCare系统可以利用AI算法对患者的大量日常敏感数据(包括过往用药史、生活作息等)进行深度分析,最终得到一个药物滥用风险的评级报告。医生完全相信了该算法的建议,且几乎未作任何其他解释,也未对凯瑟琳的药物使用采取进一步的人工评估。在凯瑟琳四处奔走、多方求证后,结果却令众人大跌眼镜:原来,凯瑟琳的两只宠物狗,都曾因疾病而服用过大量的阿片类药物、苯二氮卓类药物或是巴比妥类药物,由于人与狗存在巨大的生理差异,宠物狗所服用的剂量会远远高出人类。当然,买药的全部流程挂的名都是主人,也就是凯瑟琳的名字。算法“理所当然”地将这一切算在了凯瑟琳头上,不仅造成了啼笑皆非的闹剧,还造成了病人巨大的痛苦。

尽管凯瑟琳对自身的用药史和身体状况都有着深入的了解,能够为临床治疗决策提供认知方面的支持,但却遭到了医生的算法无视。医生因害怕担责等原因宁愿相信算法的决策结果,却不愿理睬凯瑟琳自身的证词。换言之,算法系统生成的风险评分在当前医疗决策中的权威性已经凌驾于个体的实践经验之上,由于算法的黑箱性质,凯瑟琳也难以反击算法的理性决策过程〔18〕。机器学习算法在进行预测时,所依据的永远是过去已有的数据。而历史数据的选择蕴含着人与机器的双重局限性,算法会有意或无意地忽视一些未能数据化的决定性要素或强化既有的人类偏见,从而对智能时代的弱势群体造成证词压迫与解释学压迫。

当算法决策全面替代人类决策之时,这种“单向度”就不仅仅出现在人类的现实世界中,甚至将蔓延到人类的精神世界与社会文化之中。海德格尔认为:“人类如此明确地处身于集置之促逼的后果中,以至于他没有把 集置当作一种要求来觉知,以至于他忽视了作为被要求者的自身,从而也不去理会他何以从其本质而来在一种呼声领域中绽出地实存,因而绝不可能仅仅与自身照面。”〔19〕27在这个过程中,人和自然被迫陷于技术“座架”(Ge-stell)的框定,通过技术的促逼使人卷入座架巨大的、无形的规范和制约中。座架之网已经蔓延到人和社会的方方面面,人类早已习惯用技术的思维方式去看待和应对一切问题了。算法决策作为一种全新的解蔽方式,将算法的认知与裁决方式进一步笼罩于人类世界之上,人认知到的是认知对象的数字画像而非对象本身。算法决策不停留于单纯的描绘,而是进一步规训人,按照工具理性的固定决策思维去塑造和促逼人。人类愈发崇尚数据理性决策而排斥感性决策,愈将情感、价值逼至狭窄的角落,甚至遗忘了她们。概而言之,自动化偏倚所导致的算法依赖,尽管极大地提升了决策效率,却常常是以人的“客体化”与“边缘化”为沉重代价的。人不再成为享有决策自由的主体,而沦为被智能机器所支配的客体,出现“主体隐匿”现象,人的物质与精神生活因此都面临严重威胁。

五、算法融入公共决策的伦理应对

算法赋能的公共决策模式极具前景,但也存在法律风险、伦理风险、社会风险等多维度的风险,伦理风险也是其中一种。原因在于,算法决策既能在宏观层面对人类文化乃至社会形态产生全面冲击,更能在微观层面挑战与重塑传统的人机关系,包括人的实践方式、思维方式与交往方式等等。庆幸的是,面对日益突出的算法伦理风险,几乎没有一种主流的规范伦理学立场可以被彻底地算法化〔20〕。算法在公共决策中的应用前景充满了不确定性与挑战性,但由此也证明了人类作为伦理监督者与治理者的必要性。

随着AI深度融入公共决策领域,人类决策与算法决策将长期共存的社会图景越发清晰。面对这一趋势,关于算法的“人机和谐论”和“人机敌对论”扑面而来。“敌对论”体现了人类对智能时代的到来倍感恐惧和担忧,这或许是因为人类用传统的思维方式难以理解和把握AI决策的新趋势,由此导致的惯性抵触和反抗使然。正如在19世纪,当人们第一次听到唱片录制的音乐而非现场演奏的音乐时,“进行曲之王”约翰·苏萨就发文对此进行了尖锐批评。此后,当新的数码录制技术出现时,这一技术又引发了传统唱片爱好者的强烈不满,然而现在唱片录制和数码录制作为音乐的概念都已被广泛接受。不远的未来,若是通过人工智能创作一首真假难辨的有着迈克尔·杰克逊独特音色和风格的歌曲,我们是否会认为这不是真正的音乐而加以拒绝呢?因为无论怎么看它都不是来自人类艺术家的创作〔21〕184-186。算法决策并非洪水猛兽,但运用于公共决策尤其是风险型决策的算法绝非可以畅通无阻,而是要實现“智能治理的再治理”:遵循既要避免松懈也要防止过于严格的相称性原则,注重智能科技与人性的深层融合,在具体的实践语境下实现良善的融合决策。在算法伦理治理的具体实践方面,应坚持以下四条治理路径:

(一)重视算法风险的根源治理,坚持伦理前置的算法设计与开发原则

算法歧视的根源是人的歧视,唯有避免人的偏见,才能破除算法的偏见。因此迫切要做的就是从算法的源头入手,强化算法设计人员的伦理意识培训,引导其将公平、正义、诚信等基本伦理价值嵌入算法决策。首先,伦理前置的算法建设要求伦理学者、STS学者与算法工程师实现跨学科的通力合作。一方面,伦理学者有责任将抽象的伦理原则转化为AI算法设计中可操作的具体要求,帮助算法从业人员在充分了解相关伦理诉求的基础上进行“知情的”技术研发;另一方面,算法工程师在算法决策的设计与开发中,应充分考虑各种不利因素并对模型安全进行评估,对算法的应用范围与场景进行“预见式设计”,力争避免由于人为因素造成的算法风险。其次,相关部门应协助算法设计人员拓展数据搜集的渠道,不断优化算法模型。算法运作的核心是数据,即利用过往的数据来预测未来的发展趋势。本文中警务算法与人脸识别算法所造成的伦理问题本质上是由于过往数据挖掘与采集的不完整所引发的,人脸识别算法大量采集了白人群体的脸部数据而忽略了其他少数族裔的数据,导致了原始数据的偏见。因此,算法设计层面的完善首先要确保输入算法决策系统的数据必须能确切反映被决策对象的真实境况,避免由于数据不足或数据偏离导致的代理偏见(bias by proxy)。在确保数据客观性与准确性的前提下,应该对即将走向市场应用的算法进行交叉伦理审查。鉴于算法设计过程可能存在的文化偏见风险与利益隐藏风险,审查者的组成应该是多元化的。换言之,AI算法在实际应用前的决策,应该是理性的、慎重的、充分代表的。这一过程不应该由少数算法专家或商业公司来决定或主导,人工智能专家、政府治理主体、公众代表都应该积极参与其中,展开对算法的交叉伦理审查,尽可能地从源头上使算法风险最小化。

(二)开展面向公众的算法科普,积极引导公众参与算法风险的治理

算法应用于公共决策并出现决策错误时,因其决策过程的黑箱性质,极易引发公众对于算法或社会行政部门的信任危机。只有当智能技术能够作出公平、正义的决策时,才会赢得公众的信任,其决策结果才有可能被很好地执行。最新的美国国家人工智能研究与发展战略计划(2023)明确提出:政府必须通过有效的机制建设来培养公众对于人工智能的适度信任与信心。智能决策要被社会广泛接受,需要构建一种互信机制,完成一种从算法黑箱到算法透明、算法可解释再到算法可信任的努力。因此,算法伦理学者以及部分人工智能科学家应积极承担面向公众的科普责任,科技类媒介与社团也可以通过设立算法伦理专栏、举办算法伦理征文比赛等多种渠道开展科普活动,强化对公众“算法素养”的持续培育。唯有通过科普让公众充分知晓算法融入公共决策的基本原理、巨大优势以及可能存在的风险,才能引导公众理性对待算法问题,为后续推进算法伦理的多主体协同治理创造必要条件。除了自上而下的科普,还需要公众自下而上地参与到算法的理解与治理之中。公众科学(Citizen Science)的实践表明,公众通过参与收集、记录、分类或分析科学项目,可以有效推进公众和职业科学家之间的双向互动与认知合作,增加公众对于相关科学研究的理解与支持,并且已经在鸟类科学、天文学、环境治理等领域取得了不错的效果。在算法治理中也是如此,政府与相关AI企业应该降低参与门槛,通过开放算法设计项目、举办算法分析活动等方式让公众参与到算法的设计与监督中来。公众在参与过程中可以提高自身对于算法的认知与理解,还可能发现一些潜在的伦理风险。通过自上而下的科普以及自下而上的公众参与,可以在一定程度上缓解由于算法的黑箱性质所导致的算法信任危机,在化解伦理风险的同时也能让算法决策收获更多的公众支持,更好地实现公共决策科学性与民主性的有机统一。

(三)坚持柔性算法风险预警原则,构建分级分层的算法管理制度

预警原则的应用基于一种风险不明的情境:一个技术产品的潜在危害性影响已经被预料,但是多领域的科学评估均未能完全测定其风险系数。算法在公共决策中的巨大应用潜力已然是不争的事实,但算法的复杂性与难以预测性决定了其潜在的社会风险并不完全明朗。面对算法治理中收益与风险的平衡,相比于强硬的预防原则,柔性预警原则显然更能够适应算法在公共决策中的多元应用场景。坚持动态、审慎的算法风险预警原则包括五点:一是强调谨慎行事,算法应用潜在的诸多伦理风险理应成为限制其无序扩张的合理理由。二是强调算法治理中风险与收益的平衡与协调。算法是引领未来发展的重要技术,也是国际竞争的焦点,不能因盲目的风险忌惮而导致我国错失发展的大好机会,因此应为算法进入公共决策开一个“谨慎的绿灯”。三是强调事先防范而非事后补救。政府部门应该从立法、宣传、教育等多角度入手进行前瞻性规制,完善算法技术相关的法律法规,促进法治与技术治理有机融合,将算法应用的风险防患于未然。四是强调动态反馈机制的重要性。相关治理部门应该建立积极、动态的算法管理机制,对算法在公共决策中的应用情况予以实时监测,对技术漏洞、法规真空、监管滞后等问题应及时发现、调整、解决,避免其伦理风险的“硬着陆”。五是强调安全大于遗憾,即风险预警宁愿产生“积极误报”也要避免“消极性误判”。公共决策的种类繁多,不同算法应用可能造成的风险大小是不尽相同的,应该根据算法的应用场景、透明程度、风险程度、影响范围、保障措施等因素进行分级分类治理,对于可能存在重大风险的算法应用实施积极的风险预警与严格的多方监管。

(四)构建积极的多主体协同决策模式,发挥“多元视角”在公共决策中的重要价值

需要明确的是,在公共决策中推广应用人工智能技术,并不是用算法决策完全取代人类决策,而是要以智能技术的全面融入来促进决策治理手段的有机融合,构建“政府部门—专家学者—普通公众—算法”四方协同的决策模式。实践表明,单纯地依靠大数据进行算法决策存在诸多弊端:算法的功利与朴素,让AI容易在定性型公共决策中出现许多低级失误。有学者总结道:很大一部分公共领域内的技术决策都是一种定性型决策,在此类决策中人工智能可以充当决策者的伙伴,而不是成为他们的替代者〔22〕。从数据资源到有效证据,再到真正的人文关怀,算法决策还有很长的路要走。公共技术决策理论的建构曾历经了从盲从专家的技治主义到相信公众的外行视角,最后到信任算法的“三重奏”,但三重奏都未能谱写出完美的乐章。与其陷入非此即彼的单一决策思维,不如联合起来发挥各自所长。理想的公共决策体系不是单纯依靠算法进行循数决策,而是力争实现技术理性与人文价值的深度融合,在公共决策中实现多元主体的社会共治。此外,在构建多元决策体系时还应该设立一种“猫头鹰”机构,来承担沟通者与调和者的重要角色。猫头鹰聪明伶俐,更为重要的是它可以将头旋转超过180度。因此,“猫头鹰”指的是那些既能够“向前看”了解相关算法细节,也能转过头来反思算法风险的人工智能科学家或STS学者。“猫头鹰”应该向政府与公众准确揭示算法决策的可能风险,当主体间发生意见分歧甚至严重误解时,“猫头鹰”就需要出来准确分析并判断误解的根源所在。尤其是人与算法之间产生决策分歧甚至出现严重的信任危机时,“猫头鹰”有责任向公众或政府解释算法作出当前决策的原因与理由,完成算法的可解释化与透明化,更好地实现多元主体之间的协同决策。

算法兼具治理工具与治理对象的自反性与矛盾性,既是提升、优化公共决策质量的工具,又是被治理、被优化的对象。鉴于这种治理与被治理的双重身份,应该从被动负责、被动响应的伦理善后转向积极担当、未雨绸缪的技术善治,在主动发挥算法决策优势的同时化解相应的算法风险,为算法融入公共决策的良性发展提供顶层导向与持续动力。不同国家对算法伦理规范和算法治理的关注点是有所差异的。我国的算法伦理治理应该积极结合中国国情和中国语境。综观党的二十大报告,“人民至上”是贯穿始终的鲜明主线。应将是否有利于增加人民群众的幸福感和获得感作为判断标准,其算法融入公共决策的最终目的是增进人民福祉,而不是功利地追求所谓的“决策效率”。因此,面对算法融入公共决策可能造成的多重伦理风险,算法赋能的“多主体协同决策”既要发挥算法数据化与程式化的优势,更要恪守“人民至上”的决策理念,以期真正实现决策向善,为公共决策的智能治理贡献中国智慧与中国方案。

参考文献:

〔1〕Bernd W.,et al.Artificial Intelligence and the Public Sector—Applications and Challenges〔J〕. International Journal of Public Administration,2019(07):596-615.

〔2〕吴进进,符 阳.算法决策:人工智能驱动的公共决策及其风险〔J〕.开放时代,2021(05):194-206.

〔3〕Mullainathan S.,Spiess J.Machine Learning:an Applied Econometric Approach〔J〕.Journal of Economic Perspectives,2017(02):87-106.

〔4〕Busch P.,Henriksen H. Digital Discretion:A Systematic Literature Review of ICT and Street-level Discretion〔J〕. Information Polity,2018(01):20-28.

〔5〕Boer N.,Raaphorst N. Automation and Discretion:Explaining the Effect of Automation on How Street-level Bureaucrats Enforce〔J〕. Public Management Review,2021(01):42-62.

〔6〕Madalina B.Accountable Artificial Intelligence: Holding Algorithms to Account〔J〕.Public Administration Review,2021(05):817-989.

〔7〕保羅·维贝克.将技术道德化:理解与设计物的道德〔M〕.闺宏秀,杨庆峰,译.上海:上海交通大学出版社,2016.

〔8〕Heaven W. D. Predictive Policing Algorithms are Racist:They Need to Be Dismantled〔DB/OL〕. https://www. technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantledmachine-learning-bias-criminal-justice/.

〔9〕约翰·罗尔斯.正义论〔M〕.何怀宏,何包钢,廖申白,译.北京:中国社会科学出版社,2009.

〔10〕陈 钟.从人工智能本质看未来的发展〔J〕.探索与争鸣,2017(10):4-7.

〔11〕弗朗西斯·福山.我们的后人类未来〔M〕.黄立志,译.桂林:广西师范大学出版社,2016.

〔12〕王慧媛,李鹏飞,徐丽娟,等.基因编辑技术伦理治理探讨〔J〕.中国科学院院刊,2021(11):1259-1269.

〔13〕Jarrahi M. H. Artificial Intelligence and the Future of Work: Human-AI Symbiosis in Organizational Decision Making〔J〕.Business Horizons,2018(04):577-586.

〔14〕Wolff J.An Introduction to Political Philosophy〔M〕.New York:Oxford University Press, 2006.

〔15〕王 亮.情境适应性人工智能道德决策何以可能——基于美德伦理的道德机器学习〔J〕.哲学动态,2023(05):115-126.

〔16〕马尔库塞.单向度的人——发达工业社会意识形态研究〔M〕.刘继,译.上海:上海译文出版社,2008.

〔17〕Goddard K., Roudsari A., Wyatt J.Automation Bias: a Systematic Review of Frequency, Effect Mediators, and Mitigators〔J〕.Journal of the American Medical Informatics Association,2012(01):121-127.

〔18〕刘永谋,彭家锋.算法决策的认识论不公正及其矫正〔J〕.山西大学学报(哲学社会科学版),2023(06):1-9.

〔19〕马丁·海德格尔.演讲与论文集〔M〕.孙周兴,译.北京:生活·读书·新知三联书店,2005.

〔20〕徐英瑾.边沁、罗尔斯与分配正义的算法化研究〔J〕.道德与文明,2022(05):159-169.

〔21〕杰瑞·卡普兰.人工智能时代〔M〕.李盼,译.杭州:浙江人民出版社,2016.

〔22〕Wesche J.,Sonderegger A.When Computers Take the Lead: The Automation of Leadership〔J〕.Computers in Human Behavior,2019(07):197-209.

责任编辑 苏玉娟

〔基金项目〕西南大学创新研究2035先导计划(SWUPilotPlan018),主持人邱德胜;重庆市教委人文社科研究规划项目“人工智能伦理治理研究”(24SKGH380),主持人沈冬香;重庆市研究生科研创新项目“菲利普·基切尔科学民主化思想研究”(CYB23083),主持人罗译泓。

〔作者简介〕邱德胜(1975-),男,湖北武汉人,西南大学国家治理学院教授、博士生導师,主要研究方向为科学哲学、科技伦理学。

罗译泓(1996-),男,重庆人,西南大学国家治理学院博士生,主要研究方向为科学哲学、科技伦理学。