在新一代人工智能快速发展的进程中,“全球南方”国家由于缺乏发展前沿人工智能的相关资源,暂时处于人工智能技术创新的“接受者”位置。但是这并不意味着“全球南方”在人工智能治理中也要居于边缘地位。本文选取了卡内基国际和平基金会的三篇文章,重点探讨AI(ArtificialIntelligence)在全球南方产生的深刻影响,基于全球南方的视角提出人工智能研究和出台相关政策具有必要性。
2024 年4 月30 日,卡内基国际和平基金会发布了加拿大多伦多城市大学林肯亚历山大法学院助理教授Jake Okechukwu Effoduh 撰写的文章《全球南方对可解释人工智能的看法》(A Global SouthPerspective on Explainable AI)。作者基于其在非洲地区田野的考察结果,从“全球南方”视角提供了关于人工智能可解释性所赋予的功能、目的和意义的一些多样评估,并倡导可解释性人工智能持包容性态度,从而使人工智能具备满足不同群体和社区在可解释性需求的适应能力。
首先,作者指出,非洲已经进入AI 革命,但非洲的AI 用户不了解AI 系统运作原理,因此导致了AI 可解释性方面的问题。比如,尽管尼日利亚首都的外汇兑换商使用AI 应用程序确定和预测黑市汇率的波动情况,但不清楚其所使用的AI 系统设计者是谁;尽管肯尼亚基安布县的奶农使用机器视觉和图像识别软件来检测牛的疾病并提出治疗方案,但其无法解释这一机制运作的原理;尽管南非威特沃特斯兰德盆地的金矿工人使用一套传感器系统来监测矿井的结构稳定性、利用算法标记潜在问题以提高采矿的安全性,但其并不理解所使用系统背后的机制。因而,作者认为,虽然AI 系统输出结果的可解释性具有重要性在过去得到了不同程度的强调,但就其所研究的非洲地区而言,AI 系统嵌入社会中的更广泛运作,以及受影响者在更广泛的社会背景中理解、接受和信任这些AI 系统结果的能力受到了忽视,进而导致其存在两个方面的问题:其一,可解释的AI 缺乏清晰的描述和普遍一致的标准。当前对于AI 可解释性的监管格局呈碎片化特征,这或将使可解释性的评估复杂化,并引发关于AI 系统如何满足不同利益相关方需求的问题,比如,普遍和统一标准的缺位是否为多元主义和文化相对主义方法留下了发展的空间等。其二,鼓励可解释性AI 的主导政策的局限性根植于欧美视角,因此在非欧美文化的情景中的适用性有限。由于非洲国家等全球南方地区的行为体通常缺乏开发先进AI系统所需的资源,因而其在很大程度上依赖由全球北方等更发达的国家开发的AI软件。这种供需关系将非洲国家置于消费者的地位,而其所使用的AI 工具开发背景不一定与其本土文化、伦理和社会传统相一致。如果AI 的设计忽视了文化背景差异,那么AI系统提供的输出解释可能与当地的背景、实践或需求不符,导致用户难以理解AI 系统决策的基础,从而削弱了AI 系统的有效性,并限制了用户信任或有效地与其进行交互。比如肯尼亚的一些牧民养有博兰牛和萨希瓦尔品种的牛,其经常抱怨图像视觉机器经常误诊本地品种的牛营养不良,实际上是因为它们由于适应本地自然环境而体型娇小、体格瘦削。用于构建这些AI模型的数据的代表性不足可能部分地解释了为什么这些系统没有有效地捕捉到它们预期要处理的真实场景的多样性或复杂性,由于存在这样的差距,输出可能变得不够透明,更加难以解释。
随后,作者提出了两条改善AI 可解释性问题的路径。第一,可以采取诸如将人类解释者作为AI 系统与用户间的中介和引导者的非技术手段。具体而言,通过音乐、讲故事、调节和倡导等手段将AI 系统的结果翻译成与其社区文化背景相符的叙述,解释AI 系统处理的信息的背景、相关性和伦理影响,帮助非洲用户理解AI 系统。比如,坦桑尼亚存在着类似“格里奥(Griot)”的“AI 人类解释者”,该地区的一个妇女健康非政府组织获得了移动优化的AI 系统支持,来帮助那些可能无法负担检查费用或需要长途跋涉或长时间等待才能获得超声服务的贫困妇女。然而,一开始,AI 系统并不能解释胎儿测量结果和存在潜在问题的依据,这让一些女性感到担忧或不信任其准确性。后来,软件开发团队对AI系统进行了培训,再加上非政府组织成员对社区孕产健康问题和实践的既有知识,部分非政府组织的成员也担任起了AI 解释者的角色,有时还使用本土文化叙事的故事提供了AI 系统可能的影响和错误的基本背景解释,来指出女性可能需要标准后续程序的情况,改善了此前缺乏AI 可解释性的状况。此外,这些解释者用斯瓦希里语描述平板电脑模拟图并回答与AI 工具无关的孕期问题,帮助患者理解并信任AI 系统的使用,更重要的是,其修正了数据的去背景化或潜在偏见的解释,为机器智能计算增添了人性化的解释,填补了技术设计者未能意识到的一些解释性空白。第二,作者建议将可解释性建模为一种生成性练习,使用户能够定制解释为自己的语言,并以母语和熟悉的语言表达方式接收交流,以解决AI治理中可解释性伦理要求过于广泛的问题。考虑特殊文化背景的可解释性不仅有助于个体理解,还可以通过承认人权及相关的隐私和集体身份规范,惠及整个社区,因此,作者建议建立一个更为健全的可解释性框架来开发AI 系统,这样可以确保受系统决策影响的人能够质疑或改变结果。
最后,作者呼吁,AI 工具应当充分考虑对不同人群和社区所需的透明度、可解释性和解释性的适应问题。非洲地区已经开展了实践尝试:非洲人权与人民权利委员会于2021 年通过的一项决议是第一个由超国家授权进行的关于如何在尊重非洲本地社会普遍存在的社区价值观、文化细微差别和社会动态的情况下作出和解释AI 决策的研究,这一举措可能会挑战西方中心主义AI 模型中常见的个人主义方法,因为其不仅倡导在技术上可解释,而且在文化上共鸣并符合用户重视的价值观和结构的AI 系统。然而,考虑到非洲国家对全球北方AI 技术可能存在的依赖,作者还建议非洲国家和全球北方的AI 开发者之间必须进行对话,以促进对可解释AI 构成的共同理解和共同贡献。
2024 年4 月30 日, 卡内基国际和平基金会发布其数据与社会研究所高级研究员Ranjit Singh撰写的文章《治理人工智能的普通道德规范》(Ordinary Ethics ofGoverning AI)。文章指出了全球南方和全球北方关注人工智能的侧重点不同,提出了基于“日常伦理”进行人工智能治理的方法,指出了强制性数据、数据驱动的委托和后端工作这三个可能引发的问题,并从给人工智能讲故事、人工智能讲述的关于人的故事和人工智能治理作为日常伦理的场所三个角度进行阐发。
首先,作者强调了南北视角下AI 伦理治理的侧重点具有差异性。相比于全球北方的AI 伦理学研究重视AI 的工具属性并关注偏见、公平、问责、透明度、可解释性和以人为本,全球南方视角下的AI 伦理治理更加关注数字化的挑战和国家行为体建立数据管理和AI 基础设施的问题,同时更加强调尊严、劳动、殖民主义、实验、主权等AI 带来的后果与日常伦理。这种“南北差异”使得人类代理权问题逐渐凸显,即AI 系统通常在日常决策中扮演“代理决策”的角色,而大多数使用其进行决策的群体则发现其自身处于自动化决策的接收端。因此,作者借鉴了人类学家Veena Das 的“日常伦理(ordinary ethics)”概念指出,应当采用基于“日常伦理”的方法管理AI 的影响,关注“道德判断(moral judgments)”的关注与日常生活的纹理和细节。具体而言,“日常伦理”路径下的治理方法认为人们对计算机在日常生活中的角色认知创造了其代理决策的条件,而非关注人工智能的技术能力,因为对于世界上大多数不参与开发计算系统的人而言,其更需要明晰其与这类系统互动的实际体验,以及发展应对计算系统处理日常问题的能力以熟悉这一新事物。基于“日常伦理”的管理方法,作者指出了该路径下人工智能治理可能需要关注的三个方面。首先是强制性数据,比如在特定的国家中,日常生活中不可或缺或必备的某些类别的数据为强制性数据。其次是数据驱动的委托,即需要厘清被委派给计算机进行决策的决策类型,以及这些以数据驱动的委派在实践中是如何实现的。最后是后端工作,即将计算系统与生活情境对齐的工作,这项工作既依赖于人们理解计算系统方面的能力,又要求人们创造出可理解的和变通的方法以利用这些系统完成工作。
随后,作者从给人工智能讲故事、人工智能讲述的关于人的故事和人工智能治理作为日常伦理的场所三个角度阐述了基于“日常伦理”进行人工智能治理的挑战与出路。第一,人们需要向AI“讲故事”,每一个数据类别就是故事的某个方面,也是将复杂的生活情境翻译成案例代表性的代理。但这将产生一系列问题:首先,计算系统中的认知越来越成为主张公民身份和国家服务的先决条件,缺乏认知通常与社区的系统性排斥相关联,比如由于数据类别间不匹配,一些肯尼亚公民存在双重注册身份问题;其次,监视是计算系统提供可读性产生的不可避免结果,而人们的身份越容易被识别和认证,其生活就越不私密。通常情况下,由数据驱动的服务能力往往受到缺乏数据的限制,而在肯尼亚的例子中,当一个民众被打上“难民”数据标签就不能更改其身份为公民,更难以享受公民应有的权利。在数据驱动的委托方面,由于管理公民数据充满了处理伪造和腐败的挑战,国家依赖计算机系统以应对这些挑战,而这一做法却引发了社会保护如何组织以及证据如何使难民或公民的身份得到认证等问题,同时,存在身份认证问题的公民缺乏合适的机制进行申诉,进而构成挑战。在后端工作方面,双重注册问题揭示了后端工作不仅仅是以数字的形式注册和存储个人数据,其还涉及努力获取注册身份的官方文件到参与法庭诉讼等更复杂的因素。第二,AI 系统输出过程扎根于现有数据的收集、整理和分析基础设施过程中,其本质为预测和复制过去的决策和行为。而在现实中,计算系统与日常实践存在着不匹配的问题,并将引发不同的伦理挑战。具体而言,在强制性数据方面,既有的AI 系统难以反映数据在不同时空条件下发生的变化,如在未收集涉及个人隐私数据的条件下自行发生改变的数据存在可信度的问题,但收集了个人隐私数据则又涉及公众被AI 监视的问题。在数据驱动的委托方面,尽管当前国家的数据化和自动化已经得到推进,但对于那些被自动系统错误或不公正地分类的人来说,有效的错误检查和救济机制却滞后了,而校正自动决策系统需要太长时间,这将对部分“受害者”带来负面影响。在后端工作方面,撤销自动决策系统做出的错误决策带来了巨大的工作成本,“受害者”不仅需要应对复杂的文书工作,还需要在申诉时澄明数据决策的错误。第三,基于人类与人工智能进行交互时产生的种种问题,作者建议公众的关注点转向与人工智能共存,接受与计算系统的代理权共存的事实,同时充分关注处于人工智能优化和设计边缘的群体。
“AI 工具应当充分考虑对不同人群和社区所需的透明度、可解释性和解释性的适应问题。”
对此,作者呼吁人工智能在生活中的参与应当成为一种“日常”,并提出了相关建议。第一,在强制性数据方面,作者建议应当确保计算系统代表更广泛的群体,最小化强制性数据的要求,并最大化服务的可访问性,这要求相关服务在网站上提供简单易用的表格,并能够快速加载,而且能够在笔记本电脑和手机上表现良好。第二,在数据驱动的委托方面,实现不同参与者之间的权力平衡是治理人工智能的必要条件。作者认为,计算系统代理权和数据主体在普通数据驱动的生活中相互塑造的关键在于通过公众参与、各类活动和法律活动等进行协商,以实现权力的平衡。第三,在后端工作方面,在普通民众间共享并推广的运作计算系统经验的形式应当得到支持,其将成为执行基于日常伦理方法进行人工智能治理的典范。
2024 年4 月30 日,卡内基国际和平基金会发布马来西亚国家财富基金研究所高级研究员Jun-ETan 和Rachel Gong 撰写的文章《东南亚算法管理下平台工人的困境》(The Plight of Platform WorkersUnder Algorithmic Management inSoutheast Asia)。文章指出了大型在线平台的算法管理破坏了现有的社会关系,在劳动力的购买者和供应商之间创造了一种真空,取代了既定的职责和义务,并产生了权力的高度集中,使得已建立的劳动关系受到破坏并创造了一种不透明、剥削和无法问责的环境。这些影响反过来使得工人期望确立清晰的雇佣地位、改善劳动条件,并明确塑造影响他们获取工作机会的自动化决策的范围。为了做出这样的改变,有必要超越当前在AI 治理方面的专家强调个人伤害和补救,并考虑个体之间的联系以及技术如何改变人们相互关联的方式。本文以东南亚应用型司机的经历为例,探讨了如何经历这些问题。
首先,作者指出,针对平台工作者的算法管理已经成为监管机构、民间社会监督机构和学术研究人员关注的领域。算法管理被定义为“在组织中使用计算机程序化程序来协调劳动力投入”,涵盖计划、人员配备、指挥、协调和控制等功能,而这些管理功能可以通过使用AI 完全或部分地由自动化决策接管。随着数字劳动平台兴起,调节服务的供求关系,算法管理减轻了在及时协调数百万用户之间的劳动交易方面的后勤困难,可以大量自动化的任务包括供需双方之间的职位匹配、动态定价以及双方的激励或处罚结构,以及服务提供的监控和质量控制。例如在东南亚,Grab 应用程序将司机和寻找搭车的乘客匹配起来,确定适当的车费,并监控每次行程的持续时间。算法管理使平台能够规模化运作,并创造更多用户和更多用户生成的数据的良性循环,从而推动了更精确的预测和决策。由此产生的效率通常会导致更高的客户满意度,并降低对工作者新收入机会的准入障碍。平台作为劳动力供求双方的中间商,也能够从两端提取经济价值。
其次,作者呼吁关注平台在算法设计中的责任和社会保障方面的政策制定。分离平台业务决策的影响和算法管理的后果非常难,通过放弃短期利润来垄断市场的业务决策可能会导致一种偏向于优先考虑用户供应而非最大化利润的定价策略。这可能会转化为算法计算出用户的较低价格范围。虽然用户可能在短期内从这种安排中受益,但工作者可能没有这么幸运。业务决策和算法管理的影响是相互交织的,即业务决策构成算法规则的基础,成功的平台也在实现垄断或单一买方市场时拥有了不成比例的权力。拥有最大数量工作者的最大平台成为受欢迎的选择,减少了工作者在选择合作对象和改善工作条件和结果方面的选择,从而进一步削弱了已经处于弱势地位的群体的权利。以2021 年东南亚领先的网约车应用Grab 进行市场整合为例,一项消费者调查显示,Grab 是94% 的马来西亚受访者首选的网约车应用程序,位居第二的印度尼西亚公司Gojek成为印度尼西亚尤其受欢迎的选择。算法管理还通过两种方式促进了平台权力的集中。第一是信息不对称,即平台以优化算法为名,收集了大量的行为和个人数据,使其对市场生态系统拥有了比工作者更多的知识,从而为自己的利益优化决策。第二,算法管理减少了人的干预和行动,因此,工作者几乎没有挑战决策或提出投诉的余地。如果这种情况普遍存在,可能会降低工作者的主动性和自我决定能力,影响他们的福祉,并可能抑制职业发展。在相关政策发展方面,最初有关平台经济的政策制定关注点是关于客户安全和工人享有社会保障的权利。东南亚国家已经努力监管网约车行业,以解决这些问题。例如要求司机进行注册,并且用于网约车工作的车辆必须符合一定的最低要求。此外,像马来西亚这样的国家已经将网约车司机为自雇工人的国家社会保障计划作出了义务性贡献。然而,尽管这些规定至关重要,但它们并没有解决算法管理对工人福利和健康的社会关系影响。与其关注管理技术和平台的政策相比,更侧重于算法管理的政策可能在解决这些问题方面发挥了更大作用。例如,特定于算法管理的规定可以在平台经济中提供制衡。中国于2022 年颁布的《互联网信息服务算法推荐管理规定》主要涉及在线内容,但也包括劳动力管理推荐算法的规定。因此,根据法律的要求,平台在中国的算法注册处注册了他们的算法,并报告采取措施使用算法给予司机更多的时间来配送订单,并允许他们在需要时申请更多时间。这表示可以通过法律的规定来促使平台改变其算法的优先级,并对其技术所作的决策负责,重新确立其在劳动关系中的作用。东南亚国家还可以学习欧盟采取的两层次方法。大型平台可以通过反垄断法规或数字市场法等门户规定受到限制。根据欧盟2022 年颁布的数字市场法,提供核心服务的大型在线平台要遵守旨在确保公平市场的规则,并且与较小的平台相比,具有不成比例市场影响力的大型平台将面临更严格的规定。通过这种方式,可能对算法可能影响到大量工作者的平台进行更严格的监管。双层次的监管模式可以让大型平台承担责任,同时允许较小的平台进行创新和发展。
最后,作者指出,尽管目前平台工作者承受着算法管理效应的压力,但随着大数据和自动化变得更加普及,这种管理实践预计将扩展到传统的工作场所。世界刚刚开始看到算法管理以及其他形式的推荐算法对社会关系产生的有害影响。工人的孤立使他们难以建立联系和找到团结,这可能阻碍他们改善集体工作条件的能力。劳动关系中角色和责任的扭曲,破坏了多年来为制定期望和发展工人权利和社会保护而努力的努力。权力集中在企业手中,加剧了社会不平等。幸运的是,人类的韧性已经在工人组织和要求改善工作条件方面发挥作用。毕竟,工人直接经历着管理其工作的技术的关系影响。随着他们实时应对这些技术带来的影响,他们应该在政策事项上进行咨询,因为他们最能强调挑战并提出解决方案。支持工人组织和社区建设的措施可能会产生创造性的社区驱动解决方案和更具影响力的政策。劳工和技术政策也可以通过解决结构性和关系影响以及个体影响来帮助监管平台和试图以牺牲人民为代价的公司。现在是采取创新方法的时候,例如采取两层次方法来监管在线平台,以及更为人性化但利润最大化较少的算法管理方法。