(中国科学技术大学科技哲学部,安徽合肥 230026)
人工智能(artificial intelligence,AI)作为一项革命性的技术,正在改变着人类的生活方式和生产方式。我国已就人工智能产业发展作出长期规划,其中明确了人工智能发展的战略性地位及其发展的不确定性可能带来的社会伦理挑战[1]。如今已经很难找到一款不配备语音助手的智能手机,以智能音箱为代表的智能家居也走入千家万户,可以预见在不久的将来,人工智能将成为人们生活中不可或缺的重要组成部分。然而,近年来一系列的“大数据杀熟”“人工智能侵权”和“算法歧视”等负面事件却将人工智能技术推到了技术中立争论的风口浪尖[2]。更重要的是,随着人们对人工智能依赖的日益加深,不仅人工智能的决策受到其设计者和使用者的影响,人工智能的决策反过来也已经不可忽视地正在改变着人类的决策、行为以及生活方式[3-5]。在当下这个看似价值中立的智能时代,当我们通过百度等搜索引擎获取信息时,搜索结果却是经过人为干预和选择的;当我们使用亚马逊、滴滴、携程等平台进行消费时,殊不知很可能正在遭遇价格歧视;各个平台和应用所谓的个性化推荐更像是个性化广告,个中隐藏着丰富的算法歧视,根据用户特征投放不同内容,表面上是在为用户服务、为其推荐其感兴趣的个性化内容,实际上却是行为诱导与偏见塑造。那么我们不禁要问,人工智能这个亲密的伙伴真的是价值中立的吗?我们还能信任它为我们做的决策吗?
关于人工智能是否具有价值中立性这一论题,有的学者持肯定态度,认为人工智能技术和以往的技术无异,伦理上是价值中立的[6];有的学者则持反对态度,认为人工智能技术本质上便潜藏着来自设计者、使用者以及学习数据的偏见[2,7]。然而,由于近年来人工智能技术的飞速发展,其价值非中立性凸显,所引发的伦理问题让人猝不及防[8-9]。为了抢占下一个科技革命制高点,尽快实现符合伦理的人工智能刻不容缓。不仅如此,人工智能的算法更将会成为一种新的社会法则[10]。因此,有必要从算法的层面剖析人工智能价值非中立性的本质。
目前国内研究主要关注在由数据的社会性带来的偏见问题[11-12];虽然近年来涌现出大量关于算法歧视的研究,但并未深入研究算法的内在逻辑[13-15];关于人工智能的价值非中立性的阐释尚停留在概念层面,有待深入到算法的内在逻辑层面的系统性的研究[16]。国外研究亦存在上述问题。此外,国外学者更多关注于如何在规制的层面上维系人工智能的公平与公正性[17-18],如de Cornière 等[19]剖析了算法歧视的隐蔽性,但并未深入究其原因;Hoffmann[20]将人工智能的价值非中立性现象归因为过分强调离散的坏因子,以劣势为中心的单轴思维以及过分关注有限的一组物品,然而却缺乏对算法本身的系统性的研究;Mann 等[21]讨论了利用算法歧视进行获利的原理及其应对方案,然而却同样没有对算法本身进行剖析。
因此,本研究拟从人文社会科学领域关注的价值问题出发,借以自然科学的知识和手段对相关问题进行分析。具体而言,分别从数据的社会性、算法的价值偏好以及决策的偏见强化这3 个角度,剖析人工智能算法内在逻辑的非中立性本质,厘清歧视与偏见现象产生的原因,进而为政策制定或相关从业人员提供在算法层面上规避偏见的指导性意见。
预期治理的“技术中立原则”(Technology Neutrality)是在1984 年由美国联邦最高法院所审理的著名的“索尼案”中确立的,即某产品或技术同时被用于合法和非法用途,这并非是产品或技术提供者所能预料和控制的,因此其提供者可免负法律责任[22]。由其引申而来的“技术中立”,主要包含功能中立、责任中立和价值中立3 种内涵[2]。本研究所要讨论的主要是技术中立的价值中立内涵。
有学者认为技术是无罪的,技术是价值中立的。我国《著作权法》中的“避风港规则”也从法律角度与之形成呼应[23]。2014 年邱仁宗等[6]也曾指出“大数据与其他所有技术一样是无所谓好坏的,它在伦理学上是中性的。”诚然,在技术应用的过程中,人们普遍秉持“技术中立原则”。同样,人们普遍认为技术本身是无意识的,不具备主体性,所以技术是中立的,只是设计者和使用者把他们的目的性施加到了技术上。这一点在过去都是成立的,然而对于基于大数据和机器学习的当代人工智能技术,却很可能已经不再适用,因为当下的机器学习都可以归属于广义的归纳学习(inductive learning),即“从样例中学习”的机器学习,都包含一个从特殊到一般的泛化(generalization)过程[24]1-4。机器学习的简易流程如图1 所示,即通过对经验(数据)进行学习(选择最优的模型、策略和算法)得到所谓的“学习算法”,进而利用学习算法进行决策,周而复始,循环往复。这种机器学习(包括深度学习和强化学习)基于统计学思想和强大的算力,通过对大数据进行学习,构建概率统计模型并运用模型对未知数据自主地进行决策。
图1 机器学习流程
虽然机器学习本质上是自主性的,是能动的,但其学习的内容——数据却是社会性的,因而也不可避免地带有(价值)偏误(bias),因为归根结底,人工智能是人类智能的延伸,人工智能的自主性是其设计者的目的性在工具层面上的表达,人工智能的决策是人类社会价值判断的迁移。因而,人工智能的技术中立性是存在疑问的。
如前所述,从伦理的角度看,人工智能的决策所涉及的不是一个能不能的问题,而是一个应不应该的问题,归根结底还是一个价值判断的问题[6]。于是我们不禁要问,人工智能有价值观吗?如果有,它们的价值观是中立的吗?如果不是,我们又将如何应对其价值偏误带来的风险呢?以下将从机器学习过程的数据、(学习)算法和决策3 个方面分别阐明机器学习的价值观及其价值的非中立性特征。
2.1.1 概率:规律还是信念?
机器学习的统计学假设是:数据是具有一定的统计学规律性的。这个假设在经验层面上通常是正确的,然而在操作层面上却是无从保证的。如前所述,不论是当下的(统计)机器学习、深度学习或是强化学习,都是基于统计学思想。统计学是一门以数据为研究对象的科学,通过对样本(sample)进行研究,从而得到关于总体(population)的特征和规律的推断[25]。从方法论上说,统计学不仅贯彻了形而上学的因果决定论,同时又包含着随机性(不确定性)与必然性的辩证关系。而关于现代统计学思想,其萌芽于人们对不确定现象进行预测的需求,后融合了古希腊时期的演绎推理、文艺复兴时期弗朗西斯·培根(Francis Bacon)的经验主义知识论和约翰·穆勒(John Stuart Mill)的归纳法、托马斯·贝叶斯(Thomas Bayes)的逆概率法、弗朗西斯·高尔顿(Francis Galton)的回归思想、卡尔·皮尔逊(Karl Pearson)的拟合优度检验等思想而形成了如今的统计学思想[26]。
条件概率(conditional probability)和贝叶斯理论(Bayesian Theory)是人工智能技术处理不确定现象的重要理论工具。其中概率(probability)是用来量化事物不确定性的一种数学工具,条件概率则反映的是各种(约束)信息对概率的贡献价值,而贝叶斯理论则承认先验概率的不确定性,并随着新的证据的加入而不断更新后验概率。
机器学习关于“数据”的基本假设是“同类数据具有一定的统计规律性”[27]1-2。然而这是一个复杂的假设,包括来自统计学知识的先验假设,来自社会和环境的对数据集的后验修订,以及数据工程师的人为干预。关于数据的假设背后包含着太多的人类对于具体事件发生的可能性的信念。从贝叶斯学派的角度看,所谓的“概率”只是一个又一个的人们通过对现象进行归纳得到的关于事件发生的信念而已,并不存在任何确定的“规律”。
2.1.2 大数据:人类社会的镜子
同样作为以数据为研究对象的大数据技术,弥补了以往统计学的高成本、高误差、时效低及样本局限等劣势,同时在搜索、聚类及拟合等方面依然依赖统计学方法[28]。大数据技术是统计学方法的改良与拓展,是统计学与计算机科学的完美结合。然而大数据技术却引发了诸如个人隐私、信息安全和数据公平等一系列的伦理问题[29]。数据作为人类认识客观世界的标度,在认识论上,大数据技术尽管强调对应关系,但本质上遵循的依然是归纳法[30],因此不可避免的是,作为与人类社会同构的大数据只是作为一面“镜子”,如果进来的数据不可避免地带有偏见,那么出来的结果也必然是带有偏见的[12]。例如2016 年微软公司在Twitter 发布了一款聊天机器人Tay,“她”本是一位19 岁的清纯少女,然而上线仅一天就“被学会了”严重的种族歧视因此被迫下线;而微软的另一款聊天机器人小冰,也经常因为内容低俗而饱受诟病。
鉴于由数据导致的非中立性前人已做了大量深入研究,在此不再赘述。简言之,对非中立的数据进行学习必然得到非中立的学习模型,进而产生非中立的价值判断与决策。
2.2.1 特征提取的价值观:复杂的现象可被少量主要特征所概括
工程上开始一个机器学习项目,数据工程师首先需要对数据进行特征提取(feature extraction)并选择最适合的模型来将抽象的现实问题转换为具体的数学问题。特征提取是一个降维(dimensionality reduction)过程,体现了这样一种价值观(假设),即复杂的现象可以被少量的主要特征所概括。通过特征提取来抓主要矛盾,进而达到简化问题,提高效率,揭示事物内部规律的目的。特征提取的有效性,是模型有效性得以保障的前提。
2.2.2 特征提取过程的社会性
以分类模型为例,一个分类模型的分类质量取决于分类的合理性和有效性。要保证分类的合理性,就必须首先保证分类标志的单向性,即每个分类标志都必须是建立在对象的某一确定特征上的;而要满足单向性,就必须满足周延性和互斥性。然而这在现实中是无从保证的。在特征选择(feature selection)与特征提取阶段,数据便不得不被“人为”地区分为重要的、次要的和无关的几大类别。
机器学习可大致分为有监督学习、无监督学习以及二者的结合。对于有监督学习的特征,会被“人为”地贴上“标签(label)”并作为“正确的榜样”来训练符合该评价体系的模型;而对于无监督学习,则在特征提取和求解最优化问题的过程中,皆按照设计者赋予学习方法的价值观来对每个数据进行评判。可见,在算法的开发过程中,设计者无时无刻不在将自己的价值观灌输给算法,而正是这些价值观最终导致了算法本身的偏好问题[8]。例如Lambrecht 等[31]在一项研究中发现,由算法自动推荐的求职广,表面上看似是性别中性的,实则带有明显的性别歧视倾向。正如著名宇宙学家麦克斯·泰格马克(Max Tegmark)所言,人工智能学习的不仅是人们的目标,还有人们的偏好,有时它会误解,有时也会仅听一面之词[32]345-348。
2.2.3 算法的价值观:如无必要,勿增参数
决策领域通常用损失最小化来保证收益最大化,并使用损失函数来量化损失的效用。通过学习得到的模型若想得到良好的泛化能力(generalization ability,指模型对未知数据的预测能力),则需要对损失函数(loss function,指度量模型一次预测结果的好坏的函数)进行正则化(regularization,指增加模型复杂度的正则化项(regularizer)或惩罚项(penalty term)来限制模型的复杂度,最后通过求解最优化问题实现结构风险最小化(structural risk minimization,SRM)[27]1-15。尽管归纳学习水平一直在不断提高,但是由于来自生态学、社会学、现象学以及解释学的挑战,致使其始终缺乏应对信息的不确定性和不完整性的有效手段[33],由此,对于具体的学习算法,如果想得到唯一的模型,就必须赋予其对某种类型假设的偏好,即“归纳偏好”(inductive bias),而这个偏好即是这个算法的价值观。最常见的但是并非唯一的一个价值观即是奥卡姆剃刀(Occam’s razor),并且对奥卡姆剃刀的诠释也不尽相同[24]6-7。上文提到的正则化便是奥卡姆剃刀的价值观的一种具体体现形式。式(1)为结构风险函数:
此外,正则化项可以取不同的形式,最常见的为取参数向量的L2范数或L1范数,即所谓的岭回归和LASSO 回归,分别是以欧式距离和曼哈顿距离作为其统计距离。换言之,正则化项的形式不同,得到的最优模型也不尽相同。
2.2.4 超参数:算法的天赋
不仅如此,为了更有效地得到最优解,数据工程师会在模型中加入若干超参数(hyperparameter),即在学习之前便已被人为给定的参数而非通过学习得到的参数。式(1)中的正则化项包含的非负系数λ 便是一个超参数,即该正则化项的惩罚力度。再比如狭义的算法中最常用的梯度下降法中的学习率(learning rate)也是一个超参数。即使现在可以通过网格搜索(grid search)和交叉验证(cross validation)来辅助确定超参数的取值,然而依然只是起到辅助作用而已。换言之,超参数的取值主要依据数据科学家的经验而定。如果把算法比作一个人,那么超参数就是它的天赋,超参数取值的差异就决定了这个模型在学习和决策时的不同的特性与偏好。
总之,每一个具体的机器学习算法中都隐含着大量的设计者所施加的价值偏好,算法基于这些被设定的价值偏好来习得最优的模型,进而使用得到的最优模型进行预测与决策。人工智能的智能行为背后总是离不开人类智能的干预,如生活中常见的搜索引擎检索结果中的不相关的广告以及各出行服务平台的“个性化定价”均是固着于算法之中的歧视。
2.3.1 人工智能决策是朴素的
决策作为人的一种认知过程与判断不尽相同。由于人类本质上具有社会性,因此他们的判断和决策皆会受到社会因素的影响。然而在某些情况下,社会因素影响的却只是人的决策而非其背后的判断[34]。但是对于人工智能,社会性因素对其决策与判断的影响是等同的,因为人工智能只是依据其通过数据学习到的模型进行判断,再根据判断结果作出决策。人工智能在从判断到决策的过程中缺少了人类的元认知(meta-cognition)层面上的反思能力与过程,因此,人工智能的决策是朴素的,在同样接收到了有偏误的经验和信息时,人类有可能通过反思作出与原判断不同的决策,而人工智能却无法做到。这就必然会加强“信息茧房”效应,即由于长期接受同质化信息而导致的群体极化现象。尤其在当下这个被算法支配的信息时代,如今日头条和抖音等由算法实现的“个性化推荐”信息的APP,为了维系其用户黏性,不断地向用户输入同质化信息,致使出现了严重的群体极化和群体隔离[35]。
2.3.2 偏见的强化过程
2015 年,谷歌照片曾将黑人的照片标签为大猩猩[7];无独有偶,2018 年亚马逊开发的Rekognition也曾将28 位国会议员识别为罪犯,并且这其中38%是有色人种[36]。正是由于缺少人类的反思能力,人工智能在使用从学习到的模型进行判断与决策时,即使在作出非常偏颇的错误判断时,依然会按照判断结果进行决策和行动。
基于深度学习和强化学习的迁移学习(transfer learning)将成为未来人工智能领域各巨头争夺的下一个丰碑,这在极大地拓宽了人工智能的应用范围的同时也增加了其产生偏误的风险[37]。一方面,技术是按照人的目的,通过一定的体制和过程将种种社会存量以某种“黑箱”的方式集成起来的[38];另一方面,技术又是基于现象,通过组合得到的递归结构[39]。因此,迁移学习在缩短了AI 的学习周期的同时,不仅使人工智能这个“黑箱”变得更“黑”了,而且在这个基于以多数派的现象为样本构建的数据集的持续递归过程中,少数派群体总会“被成为”一些所谓的“孤立点”,进而越来越被轻视。在模型持久化(model persistence)的过程中,模型会不断地根据模型应用的反馈来进行自我修正,偏见便会在人工智能的每一次自我修正中得到强化。
由此我们不难发现,机器学习作为一项技术,不仅存在前人已经深入讨论过的数据本身的“偏见进,偏见出”的问题,同时在学习方法中也处处体现着人为的价值偏好,只是被隐蔽地藏在了方法的具体细节之中。正如有专家所指出的,算法歧视高度隐秘,个体不易察觉,算法的广泛应用使公众愈发依赖算法[7]。不同的人工智能有着不同的价值观和不同的习得算法,所以即使面对同一问题,其决策也不尽相同。而这些人工智能的价值观在机器学习领域被称为“假设”,然而抛开机器学习来看这些价值观,它们更应该被称为人类对这个世界的规律性的信念。这些价值观同数据一样,都是人工智能算法歧视现象的根源,也是人工智能技术价值非中立性存在的根源。
如上所述,在机器学习的各个环节中都潜藏着人类有意或无意的价值偏好,这些价值偏好塑造了人工智能的价值观,在人工智能的学习和决策过程中成为价值判断的标准。人工智能的价值非中立性,实质上便是根源于机器学习算法中各部分的价值偏好。从算法结构的角度看,人工智能的价值非中立性是不可避免的,扎根于机器学习算法的各个重要组成部分之中。因此,总体上看,不存在价值中立的人工智能,人工智能价值观始终被人类的价值偏见所制约。就现阶段的人工智能技术而言,更多的智能也许就意味着更多的偏见。
毫无疑问,人工智能技术极大地改善了我们的生活质量,同时再一次革命性地解放了人类的劳动力,但与此同时,我们也要对其负面效应保持持续的警惕。目前我们或许仅仅担心搜索引擎中的误导或消费过程中的价格歧视,但是很快我们将不得不担心是否还能通过新闻来认识外面的世界[35],算法裁决的判决与量刑是否也具有算法歧视[40],甚至自动驾驶汽车是否会在算法的指引下对低价值对象的突然撞来[41]。不仅如此,随着我国智慧医疗建设的推进,届时更多的人工智能医生和人工智能护士将加入到医疗共同决策(shared decision making)中进行价值判断并提供治疗建议[42-43]。
尽管学术界对于人工智能能否成为道德主体依然存在较大争议,但普遍认同应尽快将人工智能纳入道德体系范畴之中。那么,人工智能技术带来的决策风险应该如何评估?人工智能应承担的法律责任与伦理义务又该如何得到保障?
首先,我们不能因其价值非中立性的不可避免便放弃作为。我国早在2005 年的《公司法》的修改中便明确提出,公司应当承担社会责任,作为人工智能产品的设计者和部分使用者的人工智能企业因此就显得责任格外重大。2018 年在北京召开的人工智能标准化论坛发布了《人工智能标准化白皮书(2018 版)》,建议研究制定人工智能产业发展的标准体系。正如偏见是人类社会所固有的一样,价值非中立性是人工智能的固有属性,我们不应该也没必要回避或是畏惧人工智能技术的价值非中立性实质;相反,我们应该正视和承认它的非中立性实质,并在此基础上有针对性地制定合理的规范,将由人工智能技术固有的价值非中立性所引发的负面效应限制在一个可接受的范围之内,所以这是一个需要国家机构、企业、学术界和普通大众共同完成的艰巨任务。一方面,理论与算法研究应秉持开源、透明和可解释的算法价值取向;另一方面,也要为人工智能的决策设置“人为”的边界。
具体而言,在宏观层面上,明晰了算法及其偏见的产生机制,企业便可以在规制上有的放矢,指定符合伦理的算法开发规范,有效地将可预见的偏见扼杀在算法开发阶段,如使用价值敏感设计方法进行概念分析层面的数据伦理概念分析、经验分析层面的实践分析以及技术分析层面的算法伦理分析[44];国家相关机构则可以根据具体算法的特征,有针对性地推进改进算法公平性、增加算法透明度和设计责任机制等工作,如针对人工智能技术引发的伦理问题,可采用伦理责任分级制进一步细化各责任主体的伦理责任,同时针对共同决策制定完善的责任分担机制。此外,应加强政府部门的监管力度与权限和各高校的人工智能技术伦理与规范教育。最终,由各界协同创建与人类的法律、社会规范、道德伦理相契合的算法和架构。另一方面,在微观层面上,用户首先应做到有意识地主动保护个人数据的隐私与安全;更重要的是,若要破除如“信息茧房”之类的顽疾,用户需主动地向算法传递积极的价值取向,与人工智能共同完成每一个选择与决策,而非被动地任由算法左右我们的价值观。唯有在算法层面上理解了当代人工智能技术的运作原理,才能有效地让其为我们而服务,进而方可在与人工智能互动的过程中张弛有度,既不会被其牵着鼻子走,亦不会因恐惧迷失其中而对其敬而远之。
综上所述,人工智能的决策取决于它的经验(数据)和价值观(机器学习算法),经验难免有偏误,价值观也免不了有所偏好,致使人工智能技术在算法层面的价值非中立的难以绝对消除,人工智能背后充斥着人类智能的介入。然而我们依然可以通过共同的努力,将人工智能价值非中立性带来的影响限制在可接受的范围之内,最终实现安全、公平、透明、道德、智慧的人工智能技术体系。诚如麦克斯·泰格马克所言,我们并不必担心人工智能会变得邪恶,也不必担心人工智能会拥有意识,实际上我们应该担心的是日益强大的人工智能与我们的目标不一致[40],并且经常反思“我们所说的目标,究竟是谁的目标?”[32]67。