徐 洁,燕颖川
(西南政法大学 民商法学院,重庆 401120)
随着人工智能技术及其应用的飞速发展,算法系统日益渗透到当代生活中,影响着人们的就业机会、驾驶出行、医疗保健、金融投资、婚恋交友等各个方面。虽然人工智能系统旨在克服人类的局限性,以背后海量数据为基础促进了信息的相互联通,推动了社会经济的纵深发展,但用数据驱动的算法来指导决策在带来实效的同时也附带了不可预估的副作用。现有的研究和实践案例不断地提醒我们,人工智能系统存在着滥用的风险,以及延续、放大原有偏见及歧视的风险。例如,在“Word2vec案”中,自然语言处理算法“Word2vec”从大型文本语料库中学习单词关联,在提供给它的大型文本数据集里面发现了男性与编程相关联、女性与家庭主妇相关联之后,“Word2vec”提出了一个类比:“男人之于计算机程序员,就像女人之于家庭主妇一样。”又如,美国2007年“DeHoyos诉Allstate Corp公司案”中,原告指控该公司违法使用特定决策系统使得少数种族的保险评分受到影响。
老年人这一特殊群体在算法世界中面临的问题更加突出。在算法的渗透下,老年人群体日益被边缘化,老年人面临的“数字鸿沟”(即数字化应用能力的代际差距)不仅未能有效弥合,反而有进一步扩大的趋势,老年群体逐渐深陷算法歧视的漩涡。面对老龄化和数字化的“共振”,为了响应群体的共享协同需求、实现新时代的普惠价值,十四届全国人大一次会议批准国务院机构改革方案,将全国老龄工作委员会办公室改设在民政部,完善老龄工作体制,以利各部门发挥职能优势,协同推进老龄工作。虽然近年来国家政策层面对老龄工作愈发重视,并不断完善制度来予以保障,但在实践中,针对老年人的“算法年龄歧视”问题依然未得到有效重视,算法年龄歧视的定义、场景、危害等方面均有待进一步研究。
有鉴于此,本文通过对算法年龄歧视的概念界定,进一步厘清算法年龄歧视的定义和特征,在此基础上回归实践层面,分析潜在场景,对其进行风险审视,进而借助归因分析,在明确上述场景风险成因的基础上,通过伦理、技术、法律三位一体的对策路径,针对算法年龄歧视提出全方位的规制建议。
厘清算法、年龄歧视等概念的基本内涵和法律界限,是探讨算法年龄歧视规制的前提和基础。
1.年龄歧视的概念基础
年龄歧视作为代际关系不协调的重要表现之一,严重、广泛地影响了人民健康和福祉,导致了老年人身心健康状况恶化、社会孤立和孤独感加剧、财务保障缺乏、生活质量下降和死亡过早等问题,使社会严重分化。联合国报告称,年龄歧视是一项全球性挑战[1]。“年龄歧视”概念于1969年由美国国家老龄化研究所首任所长罗伯特·尼尔·巴特勒提出,他认为,年龄歧视跟因为肤色、性别而受到的种族歧视、性别歧视一样。[2]美国另一位老年学家埃德曼·B.帕尔莫尔将年龄歧视定义为“对某一年龄段的人产生消极或积极的偏见或歧视”,并把它与种族主义、性别歧视区分开来,称为“第三严重的歧视形式”。[3]年龄歧视具体是指根据年龄上的差别来对人的能力和地位作出贬低评价,即以年龄为依据对个人或某一群体作出负面价值判断,使他们遭受不公平对待和利益损害。英语“ageism”一词专指对老年人或年长者的歧视。[4]本文也仅讨论针对老年群体(我国指60周岁以上人群)的年龄歧视。
2.算法年龄歧视的定义更新
Algorithm(算法)一词源于阿拉伯数学家花拉子米(al-Khwarizmi)的名字,是指通过一系列的步骤和流程,用输入的数据导出输出的结果[5]。现代算法是自动化处理数据并进行决策的技术,经过不断更新迭代,已广泛应用于信息处理中,包括机器自动化、自然语言处理、数据读取、决策分析等场景。人工智能是对人类思维活动的模仿和映射,它利用不断进化的算法,通过庞大的数据流解决实际问题,以数据叠加算法的形式进行决策。在此过程中可能出现的不公平现象被统称为“算法歧视”[6]。其中,人工智能领域的年龄歧视主要是人工智能的实践和观念对老年群体利益、经验和需求的排斥、歧视及忽略。这种歧视具体表现为五种形式:一是算法和数据集里的年龄偏见,二是对参与者的年龄刻板印象,三是人工智能话语里老年人的隐形,四是人工智能技术对不同年龄用户的歧视性影响,五是人工智能技术用户的排斥。[7]
1.高度隐蔽性
算法年龄歧视具有高度隐蔽性,个体不易察觉。算法年龄歧视的运行逻辑遮蔽在黑箱中,不会对老年群体表现出强烈的“故意”,有时甚至并非对老年群体进行有意识的区分,故而不易为人所觉。有调查结果显示,在各年龄段的群体中,对算法接触最少的60岁以上受访者对算法可能带来的风险感知度最低,只有12%的人认为算法存在高风险[8]91。正因其高度隐蔽性,算法年龄歧视得以在黑暗中迅速发酵、蔓延,使处于算法决策树末端的老年群体被动地接受不公正的待遇。
2.社会破坏性
年龄歧视的影响超越个人,年龄歧视会破坏社会关系,令老年群体在社会上更加孤立无援,可能增加他们对犯罪的恐惧,增加他们成为暴力、虐待之目标的风险。[1]算法中的年龄歧视将老年群体孤立在数字化进程之外,缺乏对老年群体多样性的数字包容,当老年群体对风险的识别能力、预防能力、控制能力严重不足时,势必会演变成大规模的公共风险。因此,算法年龄歧视不仅有悖科技发展“公平互惠”的初心,还会对社会团结造成破坏性影响,具有社会破坏性特征。事实往往是:当老年群体意识到权利受损的时候,科技已经悄然对现代生活方式进行了根本性的撬动。
3.连锁反复性
算法歧视的发生具有反复性和系统性。一旦某一个体或者某一群体在算法模型设计中被锁定于某一分类,则该算法在延续现有分类情况和阶层架构的过程中很可能强化潜在的社会不公而产生系统性的歧视决策[9],从而发生个体不公的“结构性锁定”效应。因此,老年人这一群体只要被算法锁定,就会反复被算法强化刻板印象,算法计算演绎出来的重复性歧视结论会形成比重偏差,积聚的偏离将导致老年群体被边缘化,滋生老年群体“数字贫民窟”现象。
在全息、全时的科技时代,算法已经与人们的关键时刻和预期机会深刻交织,例如算法直接塑造教育机会、金融服务、招聘决策等。与饱受批驳的性别歧视、种族歧视相比,年龄歧视更为普遍,但相关讨论却寥寥无几。在社会实践中,特别是在医疗健康、面部识别、金融信贷以及劳动雇佣等特定场景,算法年龄歧视已经严重威胁到老年群体的生存处境。值得注意的是,数据与人类社会同构,必然包含着人类文化原有的根深蒂固的偏见。例如,在金融信贷、劳动雇佣等应用场景中,算法把原有的年龄歧视文化加以归纳和锐化,形成了算法年龄歧视的新形态。
1.医疗健康
在人工智能的创新驱动下,公共卫生和现代医学实践领域实现了跨越式发展,但同时,人工智能给健康领域带来的年龄歧视成为制约医疗健康事业发展的道德挑战。
其一,用算法决策引导临床护理的资源分配和优先排序存在争议。在医疗保健领域,依赖于数据喂养的算法程序本身在源头上就隐含着歧视的风险,这种歧视可能来自训练数据集的偏差或者输入数据的抽样不均,也可能来自现实中在获得优质设备和数字技术方面的差异,这些偏倚将猛烈冲击临床护理资源分配及优先排序的公正性。加之,从人口发展的角度看,基于“质量调整寿命”(1)质量调整生命年(Quality Adjusted Life Years,QALYs)是一种将人的生命时值和生命质量结合起来综合评价健康效用的方法。它是药物经济学中效用的评价指标,能够在医药卫生资源的合理配置和利用效率等方面为决策者提供有价值的依据。参见:徐国成.质量调整生命年的生命伦理冲突探析[J].社会科学战线,2014(12):248-250.的算法决策机制在本质上就倾向年龄歧视,因为它更鼓励把资源用到能在预期寿命方面实现最大净效益的年轻人身上,而不是拯救老年人生命[10],这无疑会成为医学伦理中不可忽视的重要议题。
其二,算法在医疗上的僵化系统可能危及老年群体的个性需求和疾病治疗。算法需要大型数据集。虽然关于老年群体的医疗建议采集自相似的群体,但是“数据标准化”构建了一个死板僵硬的系统,任何背离标准的个体差异都会被裁定为错误行为。在这种语境下,老年群体的个人特征要么被忽略,要么被算法判拟为病态偏差,而医生、护理人员往往缺乏对算法内在机理和动态运行的准确认识,一旦产生依赖算法进行诊疗的路径依赖,就会削弱批判性质疑的能力和意愿,使老年群体陷入极其危险的境遇。此外,现有的关于老年群体“孱弱多病”的预设偏见把一个群体凝缩为同一属性,会导致“污名化”歧视,把那些健康的老年群体排除在医疗保健的研发设计之外,导致算法的数据集无法准确地代表健康的老年群体,而针对老年群体的新技术大多聚焦于医疗和保健管理领域,所以使得这部分健康老年群体的数字需求和愿景远隔于数字鸿沟之外,这一群体成为“数字排斥群体”。[11]949
其三,隐私权问题和自决能力受限问题。在医疗健康领域中,算法年龄歧视的另一个典型密集场景在于养老院。养老院通过监控系统中老年群体移动模式分类识别与算法决策的联动来实现对老年群体的健康监测和管理,一旦监控识别到老年群体偏离日常的行为,便触发算法建议,干预老年群体活动。这种来自算法自动化的监测和控制,制约着老年群体的自决精神,加重了老年群体与家庭和护理机构不平等的权力态势[12]。并且,监控中大量涉及的隐私数据的使用权以及参与算法原理的决定权和退出权如何行使,实践中并不明晰。
2.面部识别
有学者指出,处理视觉数据的年龄估算算法需要用大型数据集来进行深入训练,而用于学习的数据的招募程序中缺乏老年用户的参与或者限制了年龄范围,这可能会导致算法根据面部特征而对年龄作出错误的、有偏见的推测。[13]实证研究也印证了这个结论。一项关于根据照片推测年龄的研究发现,使用基于互联网电影资料库和“维基百科”名人的照片训练模型的卷积神经网络算法(2)卷积神经网络(convolutional neural networks,CNN)是第一个真正成功训练了多层神经网络的学习算法模型,对语音分析和图像识别领域的突破有重大意义。参见:卢宏涛,张秦川.深度卷积神经网络在计算机视觉中的应用研究综述[J].数据采集与处理,2016,31(1):1-17.来分析视觉图像时,估算老年群体(60岁以上)的年龄时识别正确率大幅下降[14]6。同样,韩国研究人员通过使用人脸嵌入关联测试(FEAT)来衡量特定群体与特定属性(如愉快/不愉快、讨人喜欢/不讨人喜欢)的关联方式,证实了人脸识别模型中存在年龄偏见,将老年群体更多地链接到负面词汇[15]。另一项研究表明,当使用各种分类性能指标来评估面部情绪识别(FER)系统时,一种最先进的商用面部识别系统在识别年轻群体(19—31岁)的情绪时表现最佳,而在识别老年群体(61—80岁)的情绪时表现最差[16]。在这个“万物联通”的数字时代,面部识别的偏差折射出老年群体在社会中缺乏数字痕迹、处于隐形地位的边缘化状态,这种状态深深地威胁到老年群体的发展空间和交际能力。
3.金融信贷
金融系统对老年群体的“数字排斥”愈演愈烈,引发了巨大的社会舆论。西班牙人卡洛斯·圣胡安发起了一场有60多万人参加的名为“我可能老了,但我不是白痴”的抗议运动,以期阻止银行排斥老年群体而专注开展线上业务。[17]
在信贷领域,旨在预测抵押贷款违约的算法模型可能会在其他条件相同的情况下认定老年人违约的可能性较大,从而根据申请人的年龄来提出不同的贷款建议,即可能根据年龄信息减少贷款选项。[18]年龄信息与不利信贷决策方案之间存在相关性,算法年龄歧视的发生直接冲击了信用评分机制。一般来说,平均信用分数随着年龄的增长而增加,因为老年群体的信用记录更长,财务责任感更强。例如,根据“美国运通”的数据,20多岁人群和59岁以上人群的信用评分分别为662分和749分[19]。老年群体信用评分较高,按常理应该具有更高的贷款批准率。但在实践中,老年人申请贷款时,在申请人、贷款和房产特征都丰富的情况下,贷款排斥率却随年龄增长而不断增加,因为数据判定老年申请人存在更高的信用风险。尤其是在70岁左右,排斥率加速上升。这种算法年龄歧视和偏见往往来源于以下两个原因:一是大多数退休人员以及潜在退休人员不喜欢在退休后背负债务,加之,由于老年借款人与年龄相关的死亡率更高,所以贷款提前还清或进入“止赎”的可能性更大。二是偏见认为,退休后不再有稳定的收入,陷入财务困境的概率较大。 至于老年群体在利率等方面产生了过度差异的原因,除了上述因素,还可能在于老年群体的技术厌恶和认知路径局限。老年借款人对潜在贷款人的搜索可能不尽周全,使其在获得贷款上总处于被动地位,不仅面临更高的利率,还系统地面临更多的贷款准入障碍,特别是申请短期消费贷款时拒绝率过高。[20]然而,金融信贷领域的算法年龄歧视更偏向于社会结构性歧视的延伸。
4.劳动雇佣
年龄歧视是劳动力市场中最广泛的歧视类型之一。算法决策对劳动者进行“数字化(statistics)、画像预测(prediction)与评估(evaluation)”,人类社会原有的歧视也“随着劳动者数字化与算法设计者的偏见被带入算法模型中”。[21]算法给老年群体的就业增设了隐形的门槛。雇主进行招聘时,限于时间和精力,通常需要借助一些信息甄别规则,其中,年龄筛选便是这种信息初选机制的主要规则之一。算法招聘程序助长了这种歧视性的做法,使原有的歧视愈演愈烈。算法会构建一刀切的评分系统,减少老年人的求职机会,武断、盲目地剥夺老年群体的劳动权和就业权,将老年群体隔离在就业市场的大门之外。 2017年,包括“Jobr”在内的算法自动招聘平台因排斥毕业年份过早或在1980年之前参加工作的申请人而被诉“涉嫌年龄歧视”。[22]2022年,出现了中国某线上教育机构因歧视60岁以上的美国老年教师群体而被美国相关机构起诉的新闻。[23]此外,还有一些算法以隐而不显的定向推送方式消减了老年群体的工作参与程度和准入机会。“ProPublica”的一项调查显示,“脸书”(Facebook)广告根据年龄类别创建“小组”后限缩受众,以便定向推送招聘广告,允许雇主招聘特定年龄的求职群体,而老年群体不在名单内[14]6。同样,谷歌和“领英”(LinkedIn)等“大手”雇主也被披露使用算法将网络招聘广告定向推送给更年轻的申请人而排除了40岁以上的申请人[24]。这些网络巨头利用算法分类,无形中剥夺了老年群体的就业机会。而面对互联网的恶意和欺凌,老年群体几乎毫无反抗之力。
算法年龄歧视远远不止于以上所述的情境和案例。现实中,算法年龄歧视是多元、广泛并且系统、连锁的,不仅已经潜伏蔓延到医疗、金融等各种重点领域,还存在进一步普遍扩散的趋势。由于算法的技术性、隐蔽性、数据性,老年群体一般难以察觉,而且即使知晓,也难以通过个体来实施有效的反制。
算法已经成为“看不见的裁决者”,算法年龄歧视的危害会以微观的侵害老年个体基本权利为起点,扩张至中观的导致老年群体边缘化,进而积累弥散,威胁社会的共同价值观。
1.侵害个体的基本权利
当算法不公正地抹杀了老年人个体获取关键机会的资格,限缩他们的行动空间和控制能力,导致相关的知情权、参与权、异议权纷纷失效时,就会侵犯他们的平等权、自由和尊严。每个人都应该被视为具有主动决策能力的主体,但当算法裹挟人类意识而使年老的个人受到侵害时,个体的自决权也就被剥夺了。
2.使被歧视群体边缘化
老年群体可能遭遇算法初始偏见而被系统地边缘化,因而丧失社会地位,被内部隔离,并因算法难以自我纠错,致使歧视性的算法结果日久弥深,向全体公众发出笼罩着科学光环的信号而使算法偏见被错误地泛化[25],进而扩散成隐性的重大负面影响。“有心人”会利用舆论和刻板印象,给老年群体中的个体贴上群体标签,将其“污名化”,以此驳回老年群体的合法权利诉求。
3.蚕食社会共同价值观
算法年龄歧视的泛滥会造成社会资源的浪费,比如就业市场中的年龄歧视对整个国民经济的发展都有负面影响[26];还会侵蚀和动摇现代社会赖以存续的法治基础、道德基础、政治基础和社会基础,颠覆社会的共同价值观。年龄歧视具有代际传导性,当下的年轻群体未来也可能成为被区隔于社会生活之外的老年“数字弃民”(3)“数字弃民”(Digital refugees)是Wesley Fryer于2006年首次提出的概念,它与“数字原住民”(Digital Natives)和“数字移民”(Digital Immigrants)概念相辅相成,指因为经济、社会、文化以及自身条件等原因而远离数字化社会的失落群体。数字化排斥可分为四大类,即自我排斥、财务排斥、技能排斥和地理位置排斥。社会应当为“数字弃民”采取更多的包容性干预措施。参见:胡泳.为什么今天我们应该关注“数字弃民”?[EB/OL].(2021-03-02)[2023-03-31].https://mp.weixin.qq.com/s/JAt34jLJFE-ozP0PDtbUdA?.。马克思指出,“资本不是一种物,而是一种以物为中介的人和人之间的社会关系”[27]。算法作为数字资本主义的工具,在网络空间操纵着人们的意识和行为,使社会关系在无形中被重塑。算法决策的转向所带来的歧视累积效应很可能会不断地蚕食备受尊崇的自由和自治自决能力,削弱人和社会发展的多样性,背离社会团结、自由平等、共同发展的普惠价值观。
时代的更迭,叠加算法的掩蔽,正在加速固化老年群体的弱势地位,使老年群体饱受算法年龄歧视的困扰。这种困境的破解,需要对成因进行究诘和层层剖析。在算法的年龄歧视中,数据缺陷、预设偏见、算法黑箱、数字鸿沟等多种因素都会耦合引发执行结果上的歧视行为。
数据的缺陷包括两方面:一是所收集的数据本身存在瑕疵,即训练样本错误,比如信息误录。又如,2016年微软公司推出的聊天机器人“Tay”上线当天就被跟它聊天的大量网友灌输激进的种族歧视观点而变成了“种族歧视者”——这个错误是因为“Tay”习得的聊天数据片面化且有歧视意义,与工程师本身的思想倾向无关。这类瑕疵引致的是算法的“无心之失”。二是数据来源的不匹配。一般认为,算法深度学习和抓取的数据越多,产生错误的概率就越小,结果也越精准。但实际上并非如此简单,因为“只有当个体数据被感知和采集,聚合为巨大体量的数据集,方能产出与之匹配的巨大价值”[28]134。换言之,与多元混杂的总数据量相比,具体项目“同类聚合”的数据量更有意义。主流项目拥有更大的数据量,而非主流项目的数据则较为稀少,由于数据量的悬殊,量大的一方结果更精准,数据少的一方结果错误率会较高。
截至2022年12月,我国60岁及以上非网民群体占非网民总体的比例为37.4%,较全国60岁及以上人口比例高出17.6个百分点。[29]27从比例上看,更多的老年群体远离网络,无从让算法全面采集老年群体产生的有效数据,因而形成了数据暗点乃至盲点。巨大的信息落差使算法对老年群体数据和普通群体数据的学习分析水平产生差异,久而久之,两者的精准度日趋分化,致使算法呈现出年龄歧视性。
算法桎梏于人类思维,由固有的程序基因和数据环境共同培养。[30]实际上,对算法自动化决策流程和结论的绝对信任属于对科学逻辑的盲目崇拜。人工智能是通过编码实现的,能够反映出开发该技术的人类的价值观、优先事项、外部需求和偏好等因素,这些因素无疑会被嵌入算法底层逻辑中,从而产生预设偏见。“在现实中,人为的原因或技术的原因都可能会导致算法偏见的产生。”[31]一方面,如果算法本身主要由年轻人主导研发,正如当前我国互联网企业普遍偏好以年轻的员工队伍彰显自身“活力”(这种对员工“青年化”的追捧甚至引发了我国互联网行业独有的“35岁危机”现象),则通常会遵循“同质性原理”,使算法决策受到年轻工程师共同兴趣和相似经历的强烈影响,陷入同质主义,忽略其他群体。另一方面,“以互联网为媒介的数字资本主义的重点在于价值生产”[32]。福柯在《规训与惩罚》一书中提出,权力掌控者通过对“空间”制定规范来实现“监视”的要求,以便在全景敞视中规训他人。在网络空间里,规训有了新的形式。“算法在设计之初就是为了追求经济效益和效率的提升,可以说算法是效率导向的”[33],作为数字资本主义的一种新手段,这种“全景敞视”能够更好地检测和影响人们的意识。掌控者“并不关心自身手段正当与否”,只为运用权力规训来“实现资本增殖的根本目的”。[34]算法与资本、技术紧密缠绕在一起,为了追求经济利益最大化,算法会对用户进行精准预测和数字分析。在这个基本预设和价值机理下,老年人作为弱流量群体,隐含着被歧视、被区隔的风险。
算法黑箱是指电子信息工程领域中机器在数据汇总和深度学习时,其复杂的神经元网络中存在的不为人所直观捕捉到的隐层;算法黑箱的威胁纵贯数据采集、算法运行、社会服务应用等三个层面。[35]19算法黑箱的特性是不可解释化、不透明化、操作后台化,“人们把影响自身权利义务的决策交给了算法,却又无法理解黑箱内的逻辑或其决策机制”[36],使得开发者与使用者之间信息严重不对称。由于缺乏自我纠错机制,算法会通过循环往复的反馈来提升自身性能[37],错误也就不断循环固化,而错误的泛化正是引致歧视的重要原因。
比如,算法进行分析、量化及推荐的逻辑基础是数据分类的“标签化”,而这种“去个性化”的做法无疑会加深刻板印象、社会偏见和年龄歧视。若原始数据库基于预设偏见或瑕疵数据,则在收集到对老年群体进行边缘化的“去个性化”数据时,便已经存在歧视的源头。并且,算法筛择、过滤、内化信息的逻辑方式隐匿在黑箱中无人得知,老年群体始终无从撕去“标签”,反而经由算法推荐后重新被吸收采纳,致使刻板印象和歧视根深蒂固并复制强化,形成“自我实现的歧视性反馈循环”[38]。
如前所述,截至2022年12月,我国60岁及以上非网民群体占非网民总体的比例为37.4%[29]27,大量的老年人口被隔离在互联网的藩篱之外。在当今日新月异的现代社会,“无法上网”只是老年群体困境的一个缩影,“数字化失能”更加意味着日常生活能力的缺失。数字技术的飞速突破早已在老年群体与外界之间割裂出一道难以逾越的数字鸿沟。这种数字鸿沟的形成因素包括以下三个方面:
一是因为视觉、听觉等身体机能的退化而产生“数字障碍”,致使一部分老年群体远离数字技术,还有部分老年群体对自己的信息甄别能力缺乏自信,担心遭遇网络陷阱,因而在心理上产生“数字恐惧”和“数字排斥”。
二是部分老年群体受到教育水平、居住地区、生活习性等资源禀赋因素的综合影响,无法接触到互联网等数字技术应用。当一个群体因无法接触外部广泛使用的数字技术而被排斥时,数字鸿沟就会存在。
三是多种类型的机构为了提升社会服务质效、节约成本,更容易产生“数字偏好”,例如青睐无人便利店、智慧医疗系统等,挤压传统生活,而这些数字化应用的界面复杂花哨,设计者高估了老年群体使用这些新事物的技能水平,造成了老年群体对现代数字社会“水土不服”的窘迫境遇。
数字鸿沟的存在将社会中的人群划分为“信息富有者”和“信息贫穷者”。因为老年群体数字影响力指数低、数字素养差、对技术不敏感,所以老年群体的诸多数据被社会排除在数字平台的研发、利用、反馈流水线之外,这反过来又给老年群体的数字话语权埋下了隐患,如此恶性循环,造成信息世界的“马太效应”,导致了算法中年龄歧视的现状。
目前,我国立法的重心尚未聚焦到具体的算法应用领域,仍未出台具体的法律条文来禁止和打击信息世界中针对老年群体、农村群体等弱势群体的文化排斥和数字歧视现象。虽然我国《个人信息保护法》《互联网信息服务算法推荐管理规定》中规定算法推荐应当遵循公平、合理、诚信等原则,不得损害国家利益、社会公共利益和个人合法权益,还规定互联网信息服务提供者不得利用算法推荐来实施歧视性限制或者排除交易,但这些规定仍较原则化,界定、判断算法歧视的标准和范围尚未明确,违规行为的处罚和赔偿标准也仍欠缺,难以瞄准和锁定不当的信息处理行为,因而导致信息服务提供者易于脱逃规制,这对全方位构建数字技术的平等化和包容化十分不利。此外,软法体系缺失致使科技企业自我激励不足,大部分企业未建立事前评估预防、事中管理监督、事后规制问责的全周期治理体系,协同复合性的“软法”治理体系仍未构建,行业中伦理意识尚未成为通识,仅仅依赖部分企业的自觉,不但强制力不足,而且难以应对跨域串联、隐蔽复杂的算法年龄歧视风险。[39]
综上所述,虽然算法开发者一再主张、宣称“算法中立”,但由于数据输入、输出过程很容易受人为、环境等因素影响,算法呈现出“隐形年龄歧视”或“显性年龄歧视”的表征。
为了保障公平正义,探求算法年龄歧视的消弭之道,需要紧紧把握时代发展脉搏,遵循客观规律,符合现实条件。下文从伦理、技术、法律三方面勾勒算法年龄歧视的规制路径。
规制算法年龄歧视,最本原的是“将追求效率的数字技术拉回到伦理场域”,让公共价值掌舵算法发展,“在技术生存与生命存在的交叉中进行深度反思,重省技术发展的初衷与旨归”[40]。我国2017年出台的《新一代人工智能发展规划》中提出要制定促进人工智能发展的伦理规范,表明我国已经注意到相关伦理准则的重要性。这方面还可如下加以完善:
1.以“共同善”作为统摄原则
“共同善”(the Common Good)是共同体的伦理价值,即共同体追求的至善目标。“共同善”的嵌入可以改变那种从外部进行技术评估的传统路线,转而从算法内部进行“价值赋予”。宏观上,“共同善”所包含的关爱老人、社会平等、尊严自治等“善”的因素,能促使算法符合公平正义原则、透明性原则、可信赖原则的要求;中观上,“共同善”的价值导向介入算法年龄歧视,能够为赋予老年群体知情权和解释请求权、建立道德指引和相关规则提供支撑;微观上,算法规制的内在路径和伦理基础要求将“共同善”的价值融入算法技术设计中形成道德算法[41],敦促算法技术完成从事后追责向事前规范的转变,从而平滑地衔接全过程管理。因此,应当把“共同善”作为统摄原则,融入算法设计的全流程,形塑一种富有社会责任感的算法技术,防止算法中出现年龄歧视。
2.对算法进行祛魅,植入以人类中心、公平正义为代表的伦理指标
因为算法预设的逻辑程序中隐蔽地融合了企业的价值判断和偏好,所以算法在设计阶段必须融入具体的伦理指标,从源头上防范算法年龄歧视。公平正义自始至终都在引导着包括法律在内的所有社会基本结构和具体制度安排的革故鼎新,也应当是技术发展的永恒追求,因此,灌输公平正义的伦理意识,使算法进行道德内化和社会适配,乃是算法发展的题中应有之义。美国发布的《国家人工智能研究与发展战略计划》[42]、欧盟发布的《人工智能白皮书》[43]1-26、英国发布的《国家人工智能战略》[44]中都突出了社会公平的伦理标准。人是目的而非工具[45],算法发展中更要秉持“人类中心”原则。欧盟纲领将“人类主体”定为首要的人工智能伦理原则,澳大利亚等国颁布的纲领也强调“确保人类对智能技术居于主导地位”[46]。日本官方纲领中强调“有助人文”,尊重人权和安全。[47]新加坡个人数据保护委员会与信息媒体发展局提出的《人工智能治理框架建议模型》[48]中将“以人为本”作为基本原则。我国2023年3月发布的《人工智能伦理治理标准化指南》中也把“以人为本”放在人工智能伦理准则的首位。为了避免年龄歧视延续,应当进一步强化公平正义性、人文关怀性,将其指标纳入设计源头,并在后续算法审计和影响评估中据以识别年龄歧视。
3.建立科技伦理小组,培育行业自律组织,二者协同联动
近些年来,各国政府和一些企业针对包括算法在内的人工智能的道德问题组建了诸多委员会和联盟,发布了数量可观的关于人工智能伦理原则的宣言和倡议,其中普遍认可的原则包括透明度、平等、非歧视、责任、安全等内容。例如,欧盟委员会建立了“人工智能高级专家组”,美国白宫成立了“人工智能和机器学习委员会”,德国联邦政府设立了“数据伦理委员会”,日本人工智能学会设立了组成人员多元化的“伦理委员会”[49],这些伦理性的委员会能够加强对算法的统筹规范和指导协调,推动构造全面覆盖算法过程的科技伦理治理体系,对算法发展的伦理指导方针和道德风险提出专业、全面的建设性意见。镜鉴之下,我们可以发挥中国人工智能学会AI伦理工作委员会对伦理建设的作用,探讨人工智能系统的算法年龄歧视风险及其对策,进一步完善制度规范,健全治理机制,细化伦理审查规则,规范算法投放活动。科技作为推动社会变革的重要因素,其超前性往往令监管机构鞭长莫及,但自律组织能够手段灵活、形式多元地治理系统性、制度性的伦理问题,以纾缓外界对新兴技术的担忧。因此,应当大力提倡和鼓励网络企业及其行业协会建立自律管理机制,与政府管理一起形成多方协同的治理合力,引导科技企业自我规制,完成算法设计相关人员的伦理教育和职业素养培训,形成良好的行业伦理准则,规制算法年龄歧视问题。
1.多样化、全面化采集老年群体数据
算法在无法预知的场景中表现不佳,通常是因为样本不够充分;而当样本足够大时,就能够达到最优效果。[50]如何运用技术来解码和消解算法的年龄歧视?源头就在于数据收集。为了祛除算法数据中的年龄歧视烙印,应当采用无歧视的数据挖掘技术,让用来训练算法的初始数据多样化,弱化年龄截止值,扩充数据集,尽量全面代表不同年龄段的人群。比如,“数据合作社”(4)数据合作社(Data Cooperatives)是一种个人数据管理模式,它将提供者自愿共享的数据进行结构化处理、聚合后,允许第三方在其数据上进行分析、研究并向数据提供者支付费用或提供更好的服务。参见:数据观.全国首批“数据经纪人”诞生[EB/OL].(2022-06-10)[2023-03-31].https://dsj.guizhou.gov.cn/xwzx/gnyw/202206/t20220610_74745516.html.就是一种补充老年群体数据信息的创新方式。此外,平台也可以尝试改进培训数据,谨慎侦察并删除包含年龄歧视的数据点,或者在收集的数据不完整的情况下,通过超额抽样来匡正谬误信息。[51]
2.构建年龄、领域多元化的数据科学团队
许多学科、领域从业人员和参与人员的人口学结构都存在偏倚。当一小群人主导一门学科时,该领域的发展会考虑到这一群体的需求、观点和理解。[52]因此,人员结构对纠正算法领域的歧视及偏差至关重要。为了打破人员组成上的垄断,可从两方面着手:一是加强老年群体参与式治理,将老年群体纳入算法研发应用的全过程。引入参与式治理模式,建立多元共治格局,构建老年群体融入数字社会的支持体系[53],有助于填补数字鸿沟,从而抑制算法年龄歧视的发生。二是算法开发小组吸纳各领域的专家。应广泛吸纳老年学家、社会学家、法律学者、哲学家、临床医生,通过跨领域、批判性的沟通,将专业知识最大化,以应对算法年龄歧视。[11]952
3.开发新技术,防范、识别、监控算法年龄歧视
“以技术应对技术”是解决算法年龄歧视的最直观、高效的措施。目前,各科技巨头和相关社会研究机构纷纷主动开发推出了防范、识别、监控算法歧视的工具,例如:比恩·金(Been Kim)所在团队研发的“概念激活向量测试”(Testing with Concept Activation Vectors)技术能够直观地解释算法运算所依据的原理,显示算法倾向,在使算法变得通俗易懂的同时防范了算法年龄歧视的发生。同样,麻省理工学院针对面部识别技术开发了“DB-VAE”工具来减少分类偏倚而显示出更高的分类准确性,“埃森哲”也发布了能自动检测算法偏差并帮助数据科学家减轻偏差的工具包[54]。谷歌、微软、脸书、“佩格系统”(Pegasystems)等公司开发了AI Fairness 360、Toolkit、Fairlearn、Fairness Flow、Ethical Bias Check等偏见歧视管理评估工具,能够科学高效地甄别歧视。桑维还提出五种“算法审计”设计来多维监督算法运行机制[55]。通过引入高级的算法工具,政府、企业、老年群体均可检测和评估潜在的算法年龄歧视,从而避免其发生。
4.提升老年群体算法技术素养
在算法社会应对技术伦理风险,最直接的方式就是提升每个社会成员的“大数据素养”。[56]目前,算法年龄歧视的发生在很大程度上是因为老年群体对算法等智能科技的畏惧、抗拒以及知识匮乏。因此,为了避免老年群体成为“数字弃民”,应当“切实提高老龄群体数智技术可及性”,从算法技术等软件和基础设施等硬件两方面优化顶层设计,“重点推进数字信息基础设施建设”,让数字红利普遍惠及每位老人。[57]同时,应当将提升老年群体的数字技能和信息素养作为重点工作,做实做深,加强老年群体的算法技术终身教育工作,使老年群体熟悉算法,拓宽他们所秉持的传统观念认知,增强他们应对算法年龄歧视的预测能力、防范能力和处置能力。
技术治理主要依靠行业通则和竞争监督的逻辑来进行自律,存在制裁力度较弱、惩罚措施缺位的问题。相反,通过政府力量,推动代码规制按照法律程序上升为法律规范,能够有效地实现法律和代码对算法权力的规制。
1.持续完善规制算法年龄歧视的法律制度并引领软法建设
治理算法年龄歧视,应当发挥政府的主导及引领作用,加强顶层制度建设,建立起富有前瞻性的长效机制。同时,强化平台相关企业的“软法”构造,构建政府主导、企业自律的算法年龄歧视综合治理体系,充分发挥多元主体共治的法治效用,强有力地保障老年群体权益。
一是完善规制年龄歧视的相关立法。英国的《雇佣平等(年龄)规则》、美国的《就业年龄歧视法》、韩国的《雇佣上禁止年龄歧视及高龄者雇佣促进法》都针对就业年龄歧视作了严格规定,我国在《就业促进法》修订中也应纳入禁止年龄歧视条款。为了将全领域的年龄歧视一网打尽,可考虑制定《反歧视法》,或参照欧盟的《数据法》(Data Act,全名为Proposal for a Regulation of the European Parliament and of the Council on harmonised rules on fair access to and use of data)进行立法,从数据利用权和访问权方面制衡企业,为老年群体的平等权益提供全方位保护。
二是持续完善网络安全及监管的法律框架。要针对算法年龄歧视等相关人工智能问题,出台更加细致化、更具可操作性的规范和解释,限缩自由裁量的空间,防止平台算法超越法定授权而侵害老年群体权益。[58]目前,在完善网络空间法治化方面,我国已经紧跟步伐,率先响应,但仍存在着不够细化的问题。我国《劳动法》《就业促进法》《老年人权益保障法》等法律中有关歧视的规定多是针对性别歧视的。数字时代的隐性年龄歧视难以在主观方面证明,所以应当把年龄不平等的结果看作认定年龄歧视存在的标准,把实质影响而非主观故意作为年龄歧视的衡量要素。可以考虑将“无差别不歧视”原则[59]纳入对算法的法律规制中。事实上,算法歧视的认定标准乃是整个反算法歧视制度的构建基础[60]。
三是鼓励平台企业根据运行方式构造“软法”,共同治理。“软法”具有高效、开放、共治和灵活的特质,故应鼓励出台大量自我规约的企业内部规则。但因企业软法多体现为对法律制度的细化,应由政府牵头,联合平台企业,共同制定老年群体数字权益保护公约和集体行动准则,并严格审查软法允许偏离的阈值,及时纠偏,进而切实扫除针对老年群体的算法歧视。2023年3月发布的由中国信息通信研究院牵头,小米科技有限责任公司、华为技术有限公司等二十余家单位共同起草的《信息通信及互联网行业企业合规管理体系 指南》就是刚柔并济、协同合作的良好示范。
2.建立全流程算法审计监管制度
加快完善算法审查制度是实现算法治理的基本路径,中共中央印发的《法治社会建设实施纲要(2020—2025年)》中也提出要制定完善对算法推荐、深度伪造等新技术应用的规范管理办法,但目前我国尚未形成算法应用监管制度体系。应当加快制定算法开发应用的规则和标准规范,建立算法监管制度体系。要充分认识不同场景下算法年龄歧视的危害,及时审计算法偏差,探索形成全流程审计监管制度。
第一,设立专门机构。为在算法社会中实现公平正义,必须有针对性地建设系统而专业的公共机构,全面监管算法的开发和应用,出台合理可行的分配和再分配政策。[61]127从平台经济治理中反垄断与监管两种机制的二元分治出发,有学者建议“设立国家数据局,与国家反垄断局一道,为二元分治发挥作用提供动力保障”[62]。十四届全国人大一次会议审议通过国务院机构改革方案,国家数据局应运而生,整合统筹数字发展的宏观职责,有利于落实推进制度健全、推动规划实施、监督政策执行等具体任务,为治理包括算法年龄歧视在内的算法问题奠定了坚实的基础。
第二,建立算法影响评估制度和动态追踪制度。美国立法者2022年提出的《2022年算法责任法案》中要求企业在使用算法来作关键决策时对偏见歧视、有效性等因素进行影响评估并及时妥善地处置所有已识别的歧视问题[63]。算法影响评估是指对算法及其研发过程进行评估,权衡算法在机器学习、数据训练等过程中对正确性、安全性、公平性(包括无歧视性)的影响。其间,可植入对算法年龄歧视现象的具体评价,以便后续更正和管理。需要注意,“用户豁免”不能避免评估,因为许多老年用户不能准确理解评估的影响。另外,评估不是一劳永逸的,而是持续跟踪的。可以建立“审计追踪机制”来对支持自动化决策的事实和规则进行全程记录和追踪[64],从而保障相关方能够准确、真实、有效地向老年群体提供行动的具体说明和理由。
第三,建立分级分类管理制度。为了建立一种同时达到最大目标并且趋于持久存在的相互作用形式,平衡好促进创新与有效管制的监管目标,“算法审核的标准、强度等应视具体应用场景而定”[28]144,审核标准应该针对算法年龄歧视的不同应用场景而设置特定的、可接受的阈值,根据不同的风险阈值来设置特定的分级监管制度。例如,欧盟委员会明确主张将招聘过程中以及在影响劳动者权利的情况下使用人工智能应用视为高风险行为[43]18,美国《信贷报告法》也有效地禁止了信用评分中的机器学习。我国也可加以借鉴,将技术程序和内容作为分级管理的重点,在关乎老年群体重大利益的领域严格监控算法年龄歧视。
第四,引入中立第三方监督。算法接受第三方评估人员的审核,公开共享算法系统在应用于老年群体时的表现,形成独立的外部监督,能够有力地规制算法年龄歧视。具体而言,可对算法设计及应用的合乎伦理准则性建立事前、事后二元监管:事前主要对算法设计的缺陷进行审查,重点在于预防风险;事后主要对算法应用的危害进行审查,重点在于干预各类问题。[65]另外,也应当重视民间力量的监督在实践中的重要效用。例如,微软公司组织的偏见奖金竞争比赛,以及美国民间组织“算法正义联盟”,都在一定程度上威慑了算法年龄歧视行为。
第五,强化算法问责。为了匡正算法年龄歧视,应当将强化算法问责作为监管的核心要义,“应将问责导向的算法安全作为监管底线,回应民众关切”[8]95。面对算法侵害,许多企业以“技术中立”和“用户自主选择”[66]为由主张免责,对于算法和平台的技术主导避而不谈。对此,我国应当采用“穿透式”思路,压实平台责任,“建立多方问责机制,试行利益链各方连带责任制度,为各方参与者提供可信赖的维权制度”[35]25,从而对算法年龄歧视问题予以有效规制。具体而言,强化对算法年龄歧视行为的问责,必须明确以下两点:
其一,要明确责任主体,规范算法研发者、运营者和使用者各自的权利与义务关系。[67]要避免算法歧视,“关键就在于规范人,尤其是规范算法的开发者和使用者”[68]。一方面,在网络空间的场域中,算法既是网络空间日常任务的执行者,又是管理者,而平台作为守门人,是企业与终端用户之间接触的重要桥梁。根据“最小成本预防者”[69]原则,由于平台对虚拟场域的运转活动拥有最便捷的问题发现能力和成本最低的违法行为治理能力,为了加强对算法年龄歧视的监管和治理,应当摒弃算法作为技术产品的中立性法律地位,强化平台与算法之间的联系,扩张平台应承担的法律责任,敦促平台合规运行[70]。另一方面,为了高效纠偏,应设定“不卸责”规则,制裁实施算法年龄歧视的用人单位等主体,范围包括使用歧视算法的用人单位和歧视性招聘广告的经营者、发布者,以及作为歧视性招聘广告之“广告主”的用人单位。[71]
其二,要明确算法滥用年龄歧视后的赔偿规则。美国伊利诺伊州议会通过的《生物识别信息隐私法》规定算法违法行为每次赔偿1 000至5 000美元,基于该法,已经发生了集体维权诉讼。[61]233欧盟的《通用数据保护条例》(GDPR)中也明确规定可对违法公司处以毁灭性的罚款,最高罚款金额可达2 000万欧元。我国《电子商务法》也在建立算法问责机制方面迈出了第一步,但还可以进一步明确处罚的条件和标准,以震慑算法年龄歧视行为。
3.完善算法透明化路径以打破数据黑箱
“算法透明”不仅是我国《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》等制度中追求的重要目标,也是“全球公认的首要算法价值”[8]85。完善算法透明化路径,是推进对算法年龄歧视的法治化管理的最佳方式。我们需要保障算法信息的公开,并在法律层面赋权老年群体。
一方面,立法保障算法信息公开。“算法是一个十分复杂的数字程序系统,信息、数据的占有是更为隐蔽而强势的对新型生产资料的占有”[72]。为了扭转处于信息数据弱势的老年群体的地位,有必要将算法开源并公开算法相关数据,这也是解决算法黑箱的重要方案[73]。首先,算法设计者需要公开自己的设计意图,接受社会监督,才能防止算法异化。其次,需要披露算法采用情况等相关信息。当数据控制者收集老年群体个人数据时,应向其有效提示信息采用方式和来源。最后,需要公开算法运行的原理和逻辑。透明化的实现有赖于算法的披露与公开,算法信息的披露“使算法具有可解释性和可问责性”,这种解释“本质上是追求人类理性的回归”,毕竟“算法决策过程中的价值判断才具有核心意义”。[74]例如,美国《公平信用报告法》包含“不利行动告知”条款,要求贷款方就对金融消费者不利的算法评分向其进行解释[75]。只有公开算法判断的机理,才能畅通老年群体的反馈机制,使算法进入规范合法的轨道。当然,算法信息公开并不需要公开源代码,因为那会严重损害算法的创新性。
另一方面,为老年群体增权赋能。算法高精度地干预着现代社会生活。因此,为了引导算法向善,必须赋权于老年群体,确保他们能够充分参与算法的流程和服务,充分实现诉求、捍卫权利。
首先,保障知情权。如果不被告知,就没有充分的裁量权。我国《民法典》新增的人格权编中,对公民个人信息权利的保护也是不断强化“知情—同意”规则。知情权是用户开展一切网络行为的前提,因此,在算法代理决策时,老年群体用户有权知晓这种算法决策的风险和潜在危害。
其次,明确拒绝权。欧盟《通用数据保护条例》第22条赋予了用户拒绝权,如果用户认为算法决策存在歧视,就有权拒绝接受该结果,并要求对自动化决策进行人工审查。我国《个人信息保护法》第24条中也规定个人有拒绝自动化决策的权利。但算法年龄歧视行为的治理要义不在于限制算法的运行程序和条件机制,而在于检视算法的歧视行为与消费者数据授权的因果联系。也就是说,当老年群体授权算法平台使用个人数据后,在算法平台利用授权数据实施年龄歧视的场景下,老年群体有权要求算法平台取消年龄歧视,这是“对抗经营者滥用算法决策最有效和最直接的方式”[76]。
再次,完善算法解释权。可解释性是构建可信赖的人工智能的重要构成要件[77]。算法会因其不可解释性而逃脱其应负的法律责任,“解释权”则直观地提供了一种“打开黑箱”的方式。我国《个人信息保护法》第24条(5)《中华人民共和国个人信息保护法》第24条规定:“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”和《互联网信息服务算法推荐管理规定》第12条(6)《互联网信息服务算法推荐管理规定》第12条规定:“鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响,预防和减少争议纠纷。”中均对算法解释权作了规定,欧盟《通用数据保护条例》也在若干条款中对算法解释权进行了明确。在算法两端技术知识的不对称导致权力与权利失衡的情况下,为了对算法进行“解蔽”,打破晦涩技术的专业隔膜,必须完善算法解释权,化“黑箱”为“白箱”。
最后,强化陈情权(又称听证权)在算法决策中的保护。英国《行政法》规定,个体权益因某项决策而遭受不利影响时,该个体享有获得公平聆讯的权利,包括参与决策制定以及了解案件情况的权利。算法决策领域也应该保障老年群体对该决策陈述意见的权利。同时,在听证过程中,应当由算法使用平台方说明平台对算法自动决策系统的依赖程度,并详细说明该算法所作决定的事实根据和法律依据。
综上,尽管现实中对算法年龄歧视的根除绝不是一蹴而就的,但可以相信,在日益完善的法律框架、切实有效的监管、复合的老年群体权利三者的内外合力之下,能够逐渐推动算法公平的实现。
数字化冲击的深度、广度和烈度令人类始料未及。截至2022年12月,我国网民规模达到10.67亿人,互联网普及率达到75.6%。[29]23在这个万物互联互通的时代,一方面,人工智能拓展了信息获取渠道,优化了决策流程,革新了决策模式,带来了迭代转变;但另一方面,算法的恣意性直接而隐蔽地强化了社会的不平等,深刻地加剧了信息的不对称,尤其是歧视老年群体,将老年群体边缘化,引发了广泛的担忧。党的二十大报告提出,要“健全网络综合治理体系,推动形成良好网络生态”。为了避免爱默生所云“用具端坐于鞍,鞭笞人类疾行”景象的出现,我们必须在前瞻性的视野中关注数字化、老龄化两大趋势的圆融协同,从伦理、技术、法律三方面协同优化对算法年龄歧视的规制路径。首先,要把握算法的伦理界限,让公共价值为算法的发展航向掌舵,降低算法的伦理风险,避免算法侵犯老年群体权益。其次,要通过技术进路,探索算法可预测性与适应性的平衡,精准地识别、评估、消灭算法年龄歧视。最后,要批判性地将算法置于法治的规制中,致力于更好地助力老年群体完成数字互动,建立符合公序良俗的友好普惠算法生态体系。