摘 要:从工业生产到社会生活,从零售消费到政府治理,各种场景都嵌入了算法的技术身影。算法在克服人工不足以应对海量处置、及时介入、精准预判等问题上发挥着积极作用,却也在算法偏见、算法垄断、算法独裁等方面为人诟病。在精准计算的前提下,若要尽可能避免被技术精准“算计”的应用风险,平衡技术适用与深度发展之间的张力,就必须回应并解决算法技术的正当性与正义性问题。具体而言,从数据源头治理出发,确保数据源质量,避免可能引起的“算法偏见”;应用可信技术,以技术规制技术;科技向善的技术生态,是培育技术伦理与技术道德的重要原则;构建算法信任的社会环境与话语土壤,培育公众的技术信任感。
关键词:算法治理;算法权力;技术正当;科技向善
中图分类号:D630 文献标识码:A
文章编号:1008-7168(2023)03-0036-09
收稿日期:2022-12-15
基金项目:
江苏高校哲学社会科学基金一般项目“大数据背景下个人信息分类保护制度研究”(2020SJA0578)。
作者简介:
王君君(1985-),女,南京森林警察学院治安学院讲师,博士。
伴随着数字经济的兴起,大数据与算法这对孪生组合将人类带入“万物皆可算”的数字世界。正如莱斯格认为“代码即法律”,算法技术不仅建构起一个全新的数字空间,更通过技术渗透,用代码影响物理世界的社会秩序与规范。由此,关于算法是否正义、如何确保算法正义的思考进入公众视野。郑玉双从算法与法律的关系维度思考计算正义的价值内涵[1]。马长山认为应确立数字正义的原则,在此基础上框定数字正义的领域及路径,从而构建算法治理秩序[2]。林曦、郭苏建认为算法不正义会加剧不同社会个体在数据资源的分配与再分配过程中的不平等,个体甚至出现“量化自我”运动,以回应算法不公平和不正义产生的伦理问题[3]。
学者们从不同的专业视角对算法正义作了深度剖析。结合罗尔斯关于正义理论的经典阐述,算法正义的本质是社会既要求算法作为一项技术,又要求其作为辅助决策的工具,其设计、计算、应用等过程应符合社会道德原则,经由计算的决策结果应符合公平、公正的价值期待。换言之,算法无论是作为技术本身,还是作为与社会深度融合的治理工具,都必须符合程序正义,也必然包括结果正义。算法正义源于工具理性的技术实践与现有价值体系之间的碰撞与融合。在制度框架下,法律与技术基于共同追求的价值目标,不断整合与完善,形成为社会所信任的技术与价值生态。可以说,算法正义与否直接影响社会公平正义与科技向善目标的实现。在当下算法技术已然影响并将长期影响社会发展的情况下,对算法正义的讨论与思考显得尤为紧迫与必要。
一、计算正义:算法应用的正当性
斯科特·拉什( Scott Lash)曾言,在一个媒体和代码无处不在的社会,权力越来越存在于算法之中[4]。“储户红码”事件的发生,刺痛了身处算法围城之中的普通民众的敏感神经。毕竟,作为“算法凝视”下的数据“打工人”,算法技术对终端用户的技术“驯化”,直接影响普通人的社会行为能力。换言之,算法不仅是一种辅助商业管理与社会治理的技术工具,更是一种无形的“准公共权力”。它比有形的“全景敞视”,更具无形的威慑效果。正如张权等所言,信息技术的应用效果,不仅取决于应用什么技术,更取决于怎么应用——所以说,工业技术取代的是胳膊、手和肌肉,信息技术替换的是传播、思考和计算[5]。
正因如此,探讨商业管理或社会治理过程中算法技术使用的正当性、正义性、公平性等问题,特别是伴随着算法技术的深入发展,就需要构建的技术信任生态而言,这样的思考就显得尤为必要。
首先,制度层面的法律确认是计算正义的合法性前提,也是技术应用正当性的制度保障。算法技术在与社会生活相耦合的过程中,其合法性源于法律、法规、政策等制度性文本对其社会地位的确认与保障。制度认可是算法技术由理论向实践、由专业化向社会化转型的“敲门砖”。在《关于加强互联网信息服务算法综合治理的指导意见》中,国家明确提到算法技术在繁荣数字经济、促进社会发展、加速互联网信息传播等领域的积极作用。《互联网信息服务算法推荐管理规定》第六条规定,算法推荐服务提供者应当坚持主流价值导向,积极传播正能量。这就意味着政府从法律层面认可算法在传播主流价值与舆论导向中的作用。坚持算法推荐服务提供者的应尽责任,可以理解为在法律允许的范围内,算法作为社会治理的重要技术工具,应该服务于主流信息传播与价值引领。同时,在国家技术安全和国家利益安全层面,职能部门的规章制度也在切实维护国家利益安全。比如,2020年,就特朗普政府关于TikTok在美国的收购业务问题,中国商务部专门发布了修订版的《出口管制产品清单》,明确提到“基于数据分析的个性化推送技术”,这再次证明核心算法技术的重要法律地位及其对整个国家安全的重要作用。
其次,工具理性是计算正义的技术保障。在技术自主性理论看来,技术既是“装置”意义上的技术,即工具、仪器、机械这些技术运作的物理装置,也是“技法”意义上的技术,即完成特定目标所涉及的大量技术活动,如方法、步骤和程序等[5]。算法更符合“技法”意义上的技术形象。它利用大数据构建数据之间的相关关系模型,并在不断的迭代学习中形成“最佳拟合线”的预测机制,以便在后期形成通过大量的数据输入即可快速预测结果的逻辑步骤。算法的技术优越性在于,在算力足够的情况下,即使面对海量、复杂的社会问题,只要确保运算逻辑与计算模型的客观性,它就可以高效地实现既定的预测目标,进而规避人工处置的低效与不足。换言之,从纯技术角度看,作为治理工具的算法技術在完成个体或组织的预期目标、决策预判等方面,具备绝对的工具理性且计算结果符合程序与结果正义。
如罗布·基钦(Rob Kitchin)所言,当前的城市已经成为一种“代码空间”,软件和日常生活的空间互嵌共生,软件的运行状况成为空间转换的重要因素[6](p.13)。许煜援引康德“有机模型”说以阐释当前技术、环境与人的深度融合现象。他认为,“我们比以往任何时候都更生活在控制论的时代,全球智能化的出现意味着递归性将构成我们未来环境的主要运算与操作模式。配备大数据的算法递归性,将深入人体器官和社会器官的方方面面”[7](p.233)。
而算法作为空间切换的“灵魂”,利用无形的技术渗透,融入有形的社会生活,并以可视的方式真实地重塑社会秩序与活动。当前数据作为信息时代的新型生产要素,算法作为技术工具,在实践层面已成为社会治理、城市运行的基础设施。“数据+算法”构成了新时代的“算法权力”。基于实时掌握的大数据,算法遵循技术设计的目标导向,利用系统自动运行与深度学习的高效率决策,使计算正义成为自动化决策与算法行政正当性与合理性的最佳注脚。如果说前期的计算技术辅助社会治理还处于一种低调的状态,那么自从疫情以来,计算技术融入疫情管控、助力复工复产,特别是在有序整合与调动社会资源方面的能力,使黄仁宇笔下的“数目字管理”更彰显出大数据时代的技术魅力。全国范围内掀起的“一网通办”、互联网法院、算法司法证据等已经形成一种依靠“计算”进行日常管理、风险预测、预警监督等的治理氛围与文化。掌握市场、行业、民生、社会等领域大量数据的平台与政府机构因此获得“算法权力”,可以基于平台或部门利益,利用计算技术实现预期计划。计算技术在社会治理中取得的正反馈,使计算治理成为一种正义的管理措施。新技术的优越性,特别是在社会治理领域展现出的技术自信,使其得以被当前的社会文化、制度所接纳、认可并广泛应用。技术使用的实际效用增强了技术应用的正当性。如清华大学与腾讯公司联合发布的《2020码上经济“战疫”报告》这样描绘:通过二维码,“构建人、物、场泛在的数字化连接,实现现实世界与虚拟世界的映射……保障疫情下信息流、客流、商流、资金流的顺畅流通与融合发展,是疫情中政府治理、企业运营、社会服务、个人生活的有力支撑”[8]。
最后,社会层面的算法信任是对计算正义的价值认同。邓恩认为,只要有可能,人们就需要节约对个人的信任,而去依赖于精心设计政治、社会和经济方面的制度[9](p.81)。他将信任分为作为热情的信任和作为行为模式的信任,所对应的是个人信任和计算性信任。维罗妮卡·亚历山大(Veronika Alexande)等同样认为,由计算获得的正义价值与结果,培育了算法信任的社会土壤,使算法技术的广泛应用获得了社会认可的“通行证”;算法被人信赖甚至信仰,借助算法解决问题成为超越人类认知局限和执行能力的更优选择,由此形成了所谓的“算法信任”[10]。闫宏秀等认为技术特征并非信任的根本来源,人们对于算法的信任倾向以及算法自身的可信度是构建“算法信任”不可或缺的两个方面[11]。在《契约、治理与交易成本》一书中,作者同样提到计算性信任的问题。作者认为,信任并不是促成最终交易的重要因素,相反,通过计算,比较成本和收益,建立在数字计算上的衡量与信任,才最终促成交易,并作为交易可持续的重要因素[12](pp.50-51)。
由此观之,相较于自由裁量,经由计算获得的预测或决策结果,更容易让人直观感受到技术理性的正义魅力。对程序与结果的认同,更有利于培育社会信任土壤。对于算法技术而言,其触角早已延伸进社会的毛细血孔之中。因此,社会对计算正义的信任与认同是算法从工具性走向社会性的重要因素。用户通过可视的社会变化以及亲历的社会感知构建对计算技术起码的社会信任。计算技术之所以能在社会层面培育信任土壤,归根结底是因为,计算正义的计算性福利可以提高整体社会运行效率、管理水平与公共福祉。受益于计算结果的正义与公平价值,公众会信任基于计算的技术并默认它可以成为治理工具。
二、算法的算计:算法技术的异化
阿瑟认为,技术的本质是其与人建立在观察、理解、模仿基础上的需求或想象力相遇[5]。 技术创造的宗旨是改善社会生活、提升公共福利。因此,技术是中立的。然而,布拉班迪尔在《极简算法史》一书中指出,任何算法都对应着所有者的一个计划,这意味着,算法计划不一定都是有益的[13](p.102)。换言之,即使技术本身是中立的,但蕴含算法设计者、控制者单方面偏好与思路的算法,显然无法保持价值中立,并确保计算结果的公正性。正如尼克·斯尔尼塞克所言,“平台建立了参数,决定了在行为上和意识形态上,什么是可能的。在这个意义上,平台体现了社会的物质超越性:它们让行动、关系、权力的设置成为可能”[14](pp.50-52)。算法已沦为被平台、技术控制者、社会治理者“收编的工具”,在技术垄断盛行的环境里,控制技术运行机制的人积累权力,必然要密谋防备那些无法获取专门技术知识的人。而技术变革依赖于整体的生态变革。因此,掌握算法权力的利益群体需要谋求一种新的社会秩序[15](p.4)。 从这个意义上而言,算法技术承担的社会功能并不仅限于用科技改变社会生活方式,更重要的是它打破了传统的社会权力结构,使掌握算法权力的利益群体获得决策话语权和实际控制能力。
在以高科技建構而成、无可遁逃的原料萃取过程中,个体都是被榨取的对象。算法建构的网络空间已经成为技术垄断文化中的“基础设施”,个体自愿或者被迫授权将个人数据呈现给平台,时刻被算法这一“看不见的手”监视与操控是无奈但也是唯一的选择。有学者感叹道,这种逻辑让日常生活成了每日重复续约的21世纪“浮士德”契约,之所以说是“浮士德”契约,是因为就算我们知道自己必须跟魔鬼交换的事物,终有一日会反过来破坏原有的生活,我们仍然无法从这种状态中抽离[16](pp.375-379)。我们一方面希望能借助这些监控计划来改善生活,同时又对其明目张胆的侵略姿态感到抗拒。这种冲突思维使人麻木,让我们逐渐习惯这种被监控、分析、挖掘以及调整的现况。正如张凌寒提出,从程序法的视角来看,现行算法决策系统的设计理念普遍有待商榷[17]。因为算法设计的出发点并不是人的需求和利益,围绕资本投入与最大化的商业产出,才是算法技术的设计理念,它更多地凸显其商业价值与帮助资本盈利的能力,而忽略了终端客户的权利保护。以某种意义上讲,算法技术已经发生异化,并成为资本与权力群体的“收编工具”与“监控工具”。
第一,技术层面的“算法黑箱”。陈国权等认为,网络社会中信息、资本、关系的流动背后依赖的是算法的推动[18]。复杂算法的存在使网络社会成为一个“黑箱”,在这个黑箱之中,权力也突破了传统基于信息控制的管理体系对权力的配置和约束,实现了权力的隐身,而价值观、特权就被隐藏在了算法的编码规则之中[18]。其实,算法黑箱是技术自带的缺陷,它是指数据从端口输入到结果输出,这中间的过程没有办法解释,特别是在自主学习算法、优化算法模型中,这一黑箱效应更加明显。正因如此,由这一算法模型输出的结果,或许连算法设计者自己也未必能解释清楚。这就导致在一些自动化决策系统中,算法因自身的黑箱效应而可能会“误伤”很多无辜群众。
第二,算法监控下的“全景数字监狱”。吉登斯认为,监测指两类相互关联的现象:一类是积累并整理从个体的行为中搜集上来的信息;另一类是权威对个体活动施予直接管控[19](pp.66-67)。福柯也提到,监测是现代国家以总体人口为对象从事大规模治理而必不可少的行动,将以治理为导向对社会事实进行收集、储存、分类、处理的认证,从以社会控制、纪律约束、行为规训等为导向的监控中结构剥离,并使之成为影响国家行动不可或缺之基本知识的独立要素[5]。赫拉利认为,在算法决策已经结构性嵌入社会运营的大背景下,“算法社会”已经临近奇点,即权威将从个人转向由算法构成的网络,人类不会再认为自己是自主的个体,不再依据自己的期望度日,而是习惯把人类整体看作一种生化机制的集合体,由电子算法网络实时监测和指挥[20](p.296)。无独有偶,祖博夫也同样表达了对算法技术实现“全景监视”的担忧。她认为,监控资本家累积极为庞大的知识,知识也带来无比强大的力量,监控资本主义就是在这种不对等的状态下运行[16]。监控资本家知道关于我们的一切,但他们的运作模式经过精心设计,使我们一无所知。通过在高度细化的层面上持续跟踪个人,算法就像一面单向镜,允许上面的人低头监视下面的人,但对下面的人而言,没有任何现实前景窥视,更不用说理解日益规范我们日常生活的算法黑箱。多克·希尔斯(Doc Searls)同样表达了对监视型数字经济前景的担忧,并提出“意愿经济”(intential economy)的理论构想。他认为,一个以计算机为中介的世界应该寻求建立双向镜像,因此更应侧重真实的消费者授权愿景[21](p.297)。德国韩裔学者韩炳哲更是直言当代西方数字资本主义发展的画面是“整个地球正在发展成为一个全景监狱”[22](pp.84-85)。
放眼望去,大街小巷遍及的监控摄像头,智能手机中各类APP中包含自动收集功能的SDK,甚至回到家中各种智能家居产品,无一不在实时收集我们的个人数据。换言之,在算法设计者眼中,作为终端产品使用者的我们其实是一组行走的数据坐标,实时在刻画自己的数字画像。我们仿佛生存于一座数字围城之中,自愿或者被迫曝光于“算法之眼”的监控之下,义务生产并提交各种类型的数据,帮助算法设计者优化模型进而对我们实施“全景监控”。生存于数字世界的普通人仿佛是在作茧自缚,自觉地自我汇报、自我监控。
第三,算法助推下算法权力的社会控制能力。助推一词,指的是在这种选择体系的任何一方,都不通过强制的方式,而是以一种语言方式去改变人们的选择或者改变他们的经济动机及行为。要称得上“助推”,便必须使副作用降低到最小甚至可以轻而易举地避免副作用[23](p.6)。算法的作用在于它不强制你消费、购物,但它通过挖掘你的兴趣、爱好,向你展示、提供可能符合你需求的产品,并且在使用推荐算法时,优先将符合预期的产品进行展示,引导你按照算法给出的关于你的数字画像进行选择与决策。
在社交媒体、短视频平台,算法推荐、算法引流等技术更是可以将符合你价值的新闻、视频、消息进行合理化推荐,使你生活在“算法回声室”中。甚至,在面对热点问题时,算法推荐的新闻可能具有舆论引导功能,变相影响、左右你的思维与言论。从某种程度上讲,算法起到技术助推的作用,潜移默化地影响个人的言论、行为、决策与选择。而这正是算法权力的魅力。算法通过将价值观、决策数据化、编码化,通过隐形权力的助推作用,以润物细无声的方式影响你的价值选择。因为,算法构建的网络社会已经为我们筑起一道看不见的围墙。掌握算法技术及拥有算法权力,意味着获得了网络社会中稀缺的权力专属性。拥有数据、掌握数据,尤其是拥有算法制定等基础能力,对权力的生产至关重要[24] 。因此,掌握算法权力的主体正通过算法助推实现社会控制,算法以更隐蔽的方式实现设计者的初衷、理念。它成为权力控制者的有力武器,既具备强有力的监督与控制能力,又时刻保持中立、低调的技术形象,使人们很难将算法權力与奥威尔笔下的“老大哥”相联系。
难怪学者郭春镇感叹,面对零边际成本的技术治理,我们应该有所警惕,防止出现数字时代的网络“滑坡效应”,应通过法律和社会规范对其进行约束,避免技术治理沿着斜坡无限下滑,防止公民被异化为技术的奴隶,沦为被数字控制乃至主宰的客体[25]。
三、计算还是算计:算法正义的思考
这让我们不得不去思考,算法作为一种技术,它真的中立么?它的计算行为是正义的么?“储户红码”事件,让社会清醒地认识到,在法律制度滞后于技术发展的情况下,无论是平台企业还是政府部门,一旦在技术协助下拥有隐形的控制权力,都有可能因失控而滥用权力。而虚拟的技术大网一旦精准“捕捉”到个人,将产生现实的约束力与控制力。面对新型技术产生的负面影响,一句“这是大数据系统出了问题”,就足以让算法问责因缺乏配套的法律支撑而难以奏效。对相关部门而言,算法权力的大手一挥,就可以以最小的代价换取最大化的部门利益。而对于普通个人而言,比起行动自由受限制后的“困兽折磨”,更深层次的问题是当个人正当权利受侵害后的法律救济无门。
马尔库塞曾言,数学逻辑忽视了现实世界及生活在其中的主体无法加以计算的不确定性和特殊性[26](p.138)。 一种由技术中立建构起的计算正义的社会话语体系已经遭遇了前所未有的信任危机。然而,算法社会的来临已是不可逆转的大趋势,从各省市相继颁布的“十四五”数字经济发展规划来看,未来算法技术的社会嵌入与融合只会更加深入。放眼国际数字经济与人工智能的发展大潮,倘若因为担心被算法“算计”而因噎废食、自废武功,长远看不仅影响个人利益更危及国家安全。因此,当务之急就是要解决如何运用法律的武器,平衡技术发展需要与社会公共利益之间的张力,确保算法技术在有效规避“技术算计”弊端的同时释放更多公共价值,创新技术“赋能”而不是“负能”的中国式算法技术发展之路。在“计算”与“算计”之间,只有使算法权力真正被控制在制度的牢笼之中才能确保算法正义、计算正义与社会正义。
当今社会无论是商业场景、工业发展还是社会治理都需要广泛、海量地收集數据,目的之一就是通过这种低成本的数据收集与应用,在算法模型的控制下,可以计算某种社会契约、社会行为、社会风险的可能性与相关性。在此基础上,掌控信息的一方,可以全面衡量与评价商业交易、社会互动、公共安全等层面的成本与收益,以此规避风险,或尽可能降低损失。这也就验证了,为什么各方都在竭力收集数据,并且占有数据垄断优势的主体,努力期望通过制度约束、边界意识构筑“数据城堡”,保护其在这一领域的主导权与话语权。而作为被收集数据的弱势一方,个体只能凭借企业主动披露的商业信誉、效用等信息完成社会信任。本质上,数据控制者利用“知情同意”条款,以明示告知的方式获得个体的一揽子信息授权。而在交易过程中,数据个体成了风险实际承担者。此外,在目前的制度条件下,权利救济需要支付额外沉重的代价。因此,面对企业、政府与社会组织这类数据刚需方,作为数据提供者的个体,显然承受了更多的风险与压力。奥利弗·威廉姆森认为,话语权在没有退出选项的情况下是相对无效的,那么话语权就的确有计算性的一面。资源依赖性方法关注权力差距,这种权力差距产生于当契约双方之间的依赖意外出现时。如果不能预见到这种转变,双方在最初契约上达成一致后,合作的一方就可能发现自己在与另一方的关系中处于权力劣势[12](pp.50-51)。这就解释了,为什么在算法技术融入社会生活之后,数据提供者基本没有议价能力与空间,只能被动服从数据控制者的算法“算计”。因此,可以试图从数据源头、技术制约、算法伦理及算法信任四个维度确保算法可控与算法公正。
第一,数据源把关。数据是21世纪的石油,更是数字经济时代重要的生产要素,掌握数据就意味着掌握新的生产力与社会权力。正如姚尚建所言,数字社会权力生产的技术条件是对数据的占有,这对国家和社会概莫能外;作为信息的符码化载体,拥有数据以及掌握数据运作尤其是算法制定等基础能力,对于权力的生产至关重要[24]。因为权力本身就含有控制人们可介入哪些信息领域的能力,以及他们想要传递哪些信息的能力[27](pp.41-43)。而信息的控制规制来自于一个司法理论:它界定什么信息有相关意义,尤其界定什么信息没有相关意义。也就是说,在进入司法程序之前,我们首先会对信息的流动规则、准入门槛作界定。换言之,算法规制是不是也可以参考类似的做法。算法模型的最终形成,一方面来源于算法开发者的个人能力与素质,它体现了开发者的价值观与倾向,另一方面就是对数据源的把关。也就是说,选择什么类型的数据集、数据池作为喂养算法、驯化算法的生产资料,也在某种程度上形塑算法的合理性与可行性。所以,算法的规制应该在两个方面做好源头把关:一是数据源的把关;二是算法开发者的开发能力,以及对价值引导的把关。数据源的把关,主要是针对数据来源、数据类型、数据使用、数据流转、数据交易等全链条的数据环节,保证其是否合法、合规、合目的。数据作为直接影响算法模型是否客观、是否经得起检验的重要基础,不能从源头上出错。
第二,确保技术可信。零瑕疵的技术是不可能的,技术开发者总是在技术实际运行过程中不断发现问题,并修补技术缺陷以确保技术的稳定性、可行性与可信任性。马库斯坚信,如果负面后果可以在技术层面追溯到原因,那么研发更好的技术就可以消除他们[28](p.24)。当前,“算法黑箱”问题成为公众质疑算法歧视、算法偏见、算法霸权的重要依据。本质上,无论是从技术层面还是从商业秘密角度,无死角地剖析技术运行过程及逻辑运算原理,对于技术开发者、技术拥有者与技术使用者而言,都是一种低效率的获取技术信任的方式。对于大多数人而言,他们并不反对算法技术的合理应用,只是持有一种“消极自由”角度而言的免于被算法“算计”的朴素正义观。因此,可以采用零信任计算技术,确保算法技术在融入社会运转过程中的公开、透明、可视。此技术主要依托区块链技术,确保数据进入计算环节的全流程可追踪、可查阅。零信任计算技术的设计初衷就是为了防止在数据的全生命周期过程中,数据因存在被操纵、篡改的可能性而影响技术公正。零信任计算技术就是以一种技术透明的方式记录并展现全链条的数据流动轨迹,它摒弃了人工操作可能产生的负面问题,将透明度与社会监督全权交由技术实现,撇除人为因素的干扰,实现技术独立与自立。
另外,“非侵入式数据管道技术”的开发及应用对实现技术可信的想法做出了回应。它能够在保证数据安全及原系统正常运行的前提下,实时调用“沉睡”在各部门的数据资源,实现数据互通互联、资源共享。部分地方政府将该技术运用于健康码,促成“技术与需求相遇”,帮助绕过了由责、权、利构成的隐性壁垒,在某种程度上实现了“帕累托改进”,进而得到作为数据占有者的多元社会主体的普遍配合与参与,提升了健康认证活动的合法性和可持续性[5]。
人机回圈(human-in-the-loop)技术也可以成为规避技术风险、实现技术可信的兜底技术。这一原则认为,当算法决策遇到诸如伦理、道德风险、偏见等机器学习仍无法获得最优解的问题时,就需要通过人类智慧的补足来优化算法,从而为机器学习提供一种民主的或者说是非设计者的“滤镜”[29]。人机回圈技术的本质是将最优决策权重新归还到人类手中,确保技术伦理及技术可信。自迈入信息化时代以来,特别是人类进入由算法构建的数字社会之后,数字设备代替人类执行了越来越多的原本需要人的思想来解决的任务,而这使得人类被迫一再地抛弃一个又一个人类自认为独一无二的地位[30](p.107)。但算法的技术理性只能处理程序性、功能性较强的问题,无法解释涉及伦理与道德等的复杂的社会性问题。这也就能解释为什么外卖小哥会被困在“算法围城”。因此,人机回圈技术依靠人工审核、人工评价机制规避了技术存在的伦理、道德等风险性问题,使技術处置结果更公正、客观与可信。
第三,科技向善的网络生态伦理的意识养成。逐利是资本的首要目标。在信息时代,企业通过规模化扩张,最后形成“赢家通吃”的局面,本质还是为了追求高昂的利润回报。算法技术作为企业的核心竞争力,除了服务社会的公益目标,还必须符合企业的经营理念。因此,技术很有可能成为资本或者掌握技术权力的利益群体逐利的工具。从这个意义上而言,算法技术的价值中立很有可能不成立,它是有价值偏好的。而一味将利润作为目标导向,就会造成技术的“道德滑坡”,违背面向社会、服务公共利益的初衷。
当前的互联网市场,无论是掌握大量数据的头部企业,还是正在稳步上升的中小型企业,在激烈的市场竞争中,都必须不断占领市场,拓展新的业务领域,同时压制同行竞争,确保自己的发展先机。当整体的市场生态是以利润为导向时,行业生态必然是“弱肉强食”的丛林竞争,公共利益似乎已经变成了最不值得考虑指标,如何在激烈的竞争中生存下来并保证盈利才是企业的奋斗价值。在这种情况下,要确保算法的设计初衷不偏离价值导向,显然是不可能的。
因此,政府要积极引导企业良性竞争,特别是要扶持中小型企业。同时要注重价值导向,将科技向善的理念融入行业发展的生态实践中,培育企业技术向善的价值意识。科技归根结底是一种改善社会生活的技术工具。算法技术的广泛应用应该是通过大数据和高精度的数据计算,掌握社会需求、服务社会需要,以提高整体生活水平与社会福利为宗旨,而不是完全以资本的盈利作为目标导向,通过不断的“算计”,完成技术治理。
第四,构建算法信任的社会环境与话语土壤。祖博夫认为,在算法构筑的网络与物理空间中,社会信任已不复存在,所有的日常记录包括交流与思想都无非是为了实现货币化和盈利[16]。诚然,精于“算计”的技术会使“数字监控”无处不在,而法律与制度的枷锁是悬在技术头上的“达摩克利斯之剑”,提醒资本必须时刻警惕并平衡利润最大化与公共利益保障之间的张力。特别是相继出台的《个人信息保护法》《数据安全法》等法律,强调数据流转前的个体知情同意选择,此举意在强调数据流转、交易的合法性根基。因此,个体的授权是数据流转的“通行证”,直接关乎技术使用是否合规的问题。而个体的自主授权的前提源于技术信任、商业信任以及社会信任。特别是当公民的个人信息、个人隐私、数据安全意识觉醒之后,源于信任基础的数据授权是企业必然面临的数据大考。在经历一系列算法“算计”的负面操作之后,如何重塑公众的社会信任成为影响算法技术发展、人工智能行业前进的关键步骤。
因此,必须培育算法信任的社会环境与话语土壤。技术虽为某些利益群体所用,但我们不能因此抹杀其某种程度上优化社会流转流程、提高治理能力、提升社会生活质量等的功劳。因此,公众应该对算法技术特别是对科技向善理念指引下的技术开发与应用保持一定的技术信任,要相信技术设计的出发点是某种程度地提升社会福利。而且随着零信任算法、隐私计算、区块链等技术的日趋成熟,算法的运转逻辑会更清晰地呈现技术的服务流程,这也可以帮助公众更深刻地理解算法技术。
技术的本质是一种服务工具,当然会存在目标导向,但总体的趋势是服务于公共利益。因此,公众无须过度担忧技术对个人隐私、个人利益的侵害。因为,法律是规制算法技术良性发展的必要手段,制度是引导科技向善的重要指引。只要将算法技术关进制度的“牢笼”,技术存在的负面影响都是可控的。个体要做的,就是遵循法律制度的同时,谨慎但理性地授权数据使用,帮助技术更新与改进,造福社会的良性循环。
参考文献:
[1]郑玉双.计算正义:算法与法律之关系的法理建构[J].政治与法律,2021,(11).
[2]马长山.算法治理的正义尺度[J].学术前沿,2022,(5).
[3]林曦,郭苏建.算法不正义与大数据伦理[J].社会科学,2020,(8).
[4]Lash Scott. Power After Hegemony:Cultural Studies in Mutation?[J].Theory, Culture & Society,2007,(3).
[5]张权,黄璜.技术赋能与复杂性化约——基于“健康码”的分析[J].政治学研究,2022,(2).
[6]Rob Kitchin,Martin Dodge.Code/Space:Software and Everyday Life[M].Cambridge,MA:MIT Press,2011.
[7]许煜.递归与偶然[M].苏子滢.上海:华东师范大学出版社,2020.
[8]2020码上经济“战疫”报告[DB/OL].https://coffee.pmcaff.com/article/eRkeNPjeLV,2020-05-20.
[9]John Dunn.Trust and Political Agency[C]//Diego Gambetta.Trust:Making and Breaking Cooperative Relations,Electronic Edition,Department of Sociology.Oxford:University of Oxford,1988.
[10]Veronika Alexander,Collin Blinder,Paul J.Zak.Why Trust an Algorithm? Performance,Cognition, and Neurophysiology[J].Computers in Human Behavior,2018,(DEC.).
[11]閆宏秀,宋胜男.智能化背景下的算法信任[J].长沙理工大学学报(社会科学版),2020,(6).
[12][美]奥利弗·E.威廉姆森.契约、治理与交易成本经济学[M].陈耿宣.北京:中国人民大学出版社,2020.
[13][法]吕克·德·布拉班迪尔.极简算法史[M].任轶.北京:人民邮电出版社,2019.
[14][加]尼克·斯尔尼塞克.平台资本主义[M].程水英.广州:广东人民出版社,2018.
[15][美]波兹曼.技术垄断:文化向技术投降[M].北京:北京大学出版社,2007.
[16]Shoshana Zuboff.The Age of Surveillance Capitalism: the Fight for a Human Future at the New Frontier of Power[M].New York: Public Affairs, 2019.
[17]张凌寒.算法自动化决策与行政正当程序制度的冲突与调和[J].东方法学,2020,(6).
[18]陈国权,孙韶阳.线上政府:网络社会治理的公权力体系[J].中国行政管理,2017,(7).
[19]A. Giddens.The Nation-State and Violence[M].Cambridge: Polity Press,1985.
[20][以]尤瓦尔·赫拉利.未来简史[M].林俊宏.北京:中信出版社,2009.
[21][美]多克·希尔斯.意愿经济:大数据重构消费者主权[M].李小玉,高美.北京:电子工业出版社,2016.
[22][德]韩炳哲. 透明社会[M].吴琼.北京:中信出版社,2019.
[23][美]理查德·塞勒,卡斯·桑斯坦.助推[M].刘宁.北京:中信出版社,2018.
[24]姚尚建.数字治理中的权力控制与权利破茧[J].理论与改革,2022,(3).
[25]郭春镇.对数据治理的治理——从文明码治理现象谈起[J] .西北政法大学学报,2021,(1).
[26][美]赫伯特·马尔库塞.单向度的人:发达工业社会意识形态研究[M] .刘继.上海:上海译文出版社,2014.
[27][美]伊维塔·泽鲁巴维尔.房间里的大象——生活中的沉默和否认[M].胡缠.重庆:重庆大学出版社,2011.
[28][美]南希·K.拜厄姆.交往在云端:数字时代的人际关系[M].董晨宇,唐悦哲.北京:中国人民大学出版社,2020.
[29]Jio Ito. AI Engineers Must Open Their Designs to Democratic Control[DB/OL].http://www.aclu.org/issues/privacy-technology/surveillance-technologies/ai-engineers-must-open-their-designs-democratic,2021-03-20.
[30][意]卢西亚诺·弗洛里迪.第四次革命:人工智能如何重塑人类现实[M].王文革.杭州:浙江人民出版社,2016.
[责任编辑:张英秀]
Computation and Calculation: Thinking About the Justice of the Application of Algorithms
Wang Junjun
(Nanjing Forest Police College, Nanjing Jiangsu 210023)
Abstract:From industrial production to social life, from retail consumption to government governance, a variety of scenes have embedded the technical figure of the algorithm. Algorithms play a positive role in overcoming problems such as insufficient manpower to cope with massive disposal, timely intervention and accurate prediction, but they are also criticized in some aspects such as algorithm bias, algorithm monopoly and algorithm dictatorship. On the premise of accurate computation, to avoid the application risk of being accurately “calculated” by technology as much as possible, and balance the tension between the application of technology and the depth of development, we must respond to and solve the problem of legitimacy and justice of algorithm technology. Firstly, starting from data source governance, we should ensure data quality and avoid possible algorithmic bias. Secondly, the trusted technology should be applied so as to regulate technology with technology. Thirdly, the technological ecology of science and technology for the good is an important principle for cultivating technical ethics and technical technology. Finally, we should build a social environment and discourse soil for algorithmic trust, and cultivate the publics sense of technological trust.
Key words:algorithm governance, algorithmic power, technical justification, technology for the better