认识黑箱视角下相关性与因果性关系之辨析

2021-11-11 23:51
社会观察 2021年1期

在大数据与人工智能发展得如火如荼的今天,机器可以轻而易举地挖掘到海量数据。更进一步,数据间的相关性很容易被发现,由此人们将更多的目光放在了相关性上,甚至一度出现了“相关性能够取代因果性”的呼声,这其实是人们还没有弄清楚相关性的本质的表现。从人的好奇本心出发,从认识发展的数千年历史来看,人类的目光从来不会停留在眼前实用的水平之上,人们总会不断地追问“为什么”这样的“形而上学”问题,因此,“因果”就成了人类理解世界的基本框架,它是贯穿哲学和科学史的一个极其重要的核心概念。

在相关性凸显的大数据时代,如何厘清相关性与因果性两者之间的关系,自然成为人们争论不休的一个热门话题。我们拟从认识的不透明性(Epistemic Opacity)这一分析角度出发,以期使人们对相关性与因果性之间的复杂关系能有若干新的理解。

认识不透明性的内涵

从古希腊伊始,哲学先贤们就不断追寻世界的本原,而后科学从哲学母体当中逐渐分离出来;当然,无论是哲学还是科学,其不断发展在某种程度上都是为了能够实现对世界的所谓“理解”,即透明性认识。然而,到了20世纪,随着计算机的出现与应用,一种以计算机为核心研究工具的计算科学应运而生,特别是在当前的人工智能领域,认识的“不透明性问题”的表现日益突出,由此引发了许多学者的关注。

1.关于透明性的说明

在有关世界本原问题的探索之路上,古希腊哲学家毕达哥拉斯独辟蹊径,提出了“万物皆数”的观点,实际上强调了对世界的数学描述与抽象化认识的重要性。到了近代科学发展时期,伽利略直接把宇宙看成是一部由数学写成的大书,并用实验与数学相结合的方式研究自然界。牛顿作为经典力学的集大成者,建立了以运动力学三大定律和万有引力定律为公理基础的理论体系,开创了近代科学分析、解决问题的基本科学方法论模型或范式。及至当代,惠勒又进一步提出了“万物源于比特”的主张;同时伴随计算科学的深入发展,一种新的世界观即计算主义逐步形成,它把宇宙看作是可计算的量子计算机,形成的是信息论式的科学范式,把物质粒子看作是信息模式,把物理规律看作是算法,认为万物都可通过算法理论而实现。总之,从数的角度来理解世界,早已成为科学认识中最悠久的传统——人类一直都在追求的对世界的透明化认识,离开了数这一核心要素根本就无从谈起。尤其是关于量的认识还代表了人类认识的深化程度:一个学科是否成熟的标志之一,就是看它是否从定性研究阶段进入了定量研究阶段。于是,“数学化”由于其专门化和符号化的特征,顺理成章地成为人们表达科学思想与理论的最主要的形式,我们也可以将这一过程及其结果称之为“科学表征”。认识的透明性也因此与科学表征密切联系在一起。我们以一种能被人类进行明确审查、分析、解释的方式来表示系统的状态以及这些状态之间转换时所遵循的规则或规律,我们所熟悉的自然科学的形式化表征以及人文科学的语言表征通常都是透明的——理论模型以及模型的每个部分如独立掷币的过程及投掷概率的恒定性等都可以被明确地表征。但是,在计算机科学中,“‘透明性’更可能涉及到一种信息不可见的情形,例如,一种应用程序或者计算过程反对其使用者来说是透明的”。总的来说,在透明的表征中,透明性主要是指认识主体对研究对象能够作出适合于人类语言规则的解释,即研究主体可以访问、得到并能以自身理解的方式来把握系统的本质,它强调的是认识论意义上的可理解性与确定性。

2.认识的不透明性

计算主义主张宇宙万物都可通过某种算法而实现其可计算性,而反计算主义则对这种建立在还原论基础之上的认识论观点充满了质疑。单就物理世界而言,包含随机性的真实物理世界与计算机可模拟的理想化的世界之间存在巨大差异,可计算结构仅仅是真实世界结构的一部分,因为某些物理过程并不能由算法实现可计算性,物理理论并不能展现那些不可计算元素,人类得到的只是关于世界的有限认识,计算主义不能实现完全透明化地认识世界,在认识层面上不可避免地含有不透明性。

认识不透明性的概念是美国科学哲学家保罗·汉弗莱斯(Paul Humphreys)在深入研究计算科学时提出的。在他看来,由于我们无法直接审视与核查计算机模拟过程中的大多数步骤,致使“核心模拟初始状态和最终状态间的动态关系是认识上不透明的”。他将认识不透明性产生的根本原因归结为人类有限的计算能力,因为在计算科学的实践层面,面对巨大的计算量,人类不可能审查全部的计算过程,这就造成人类在认识上存在着盲区,即不透明性:“假若认识主体X在时间t不了解与这个过程相关的所有认识论元素,那么该过程相对于主体X在t时刻是认识上不透明的”,即“认识不透明性背后的含义是:主体不了解或无法知道与可证明特定计算步骤的有关内容”。总之,认识不透明性现在已经成为与“计算方法”密切联系在一起的一个显著特征,由此也成为人类在认识论上绕不开的一个问题。

近年来,在大数据与人工智能的语境下,人工智能凭借大数据技术尤其是运用多层神经网络的深度学习算法技术已经进入了发展的快车道,其运算速度与准确度在某些方面已超越人类。与此同时,不透明性在人工智能领域中也有了新的表现。(1)某些商业机构封锁关于人工智能中的关键技术细节,从而构成“专利壁垒”,这种基于人为因素造成的不透明性不属于认识论层次上的问题。(2)认识论维度上的不透明性主要包括:a)算法层面,诸如由多个隐含层的人工神经网络构成的复杂算法,此种算法类似黑箱,造成了算法的不可解释性问题;b)数据层面,不透明性与数据偏见息息相关。在人们收集与选择数据时,偏见会随着人类自身的进入而渗透在数据中,致使用于训练的数据带有原始性偏见,用具有偏见性的数据训练算法,又会产生算法偏见与算法歧视等一系列问题;c)智能体层面,智能体由算法、数据和计算机硬件协同组成,它的内部工作机制相当复杂,纵使假设人类可实现对算法和数据的透明性认识也未必能够透明地认识作为整体性存在的智能体。这些不透明性共同导致了人工智能难以被解释的困境,即“当人工系统做出的决定传达给‘人类系统’时,必须填补一个重要的决策后认知差距:解释性差距”;换句话说,针对人工系统的自动决策,“我们能观察到它的输入与输出,但是却不能说出输入是如何变成输出的”。

认识不透明性与相关性和因果性的关系

当下所出现的用相关性取代因果性的极端看法,实质上是没有认清两者的区别与联系。在我们看来,要从相关性中去寻求因果性,主要是要在认识论层面上克服不透明性的困难。

首先,相关性是指一个事物或属性的变化同时会引起别的事物或属性相应发生确定的变化,但这样的知识有时却不能被透彻地理解。例如,令人费解的一个典型的相关事例就是超市中啤酒与婴儿尿布销量之间存在的明显的正相关联系。所以,相关性注重的往往是事物之间的表面关系而不是本质联系。假如人们仅仅依据相关性来把握事物间的关系,其认识有时就会存在模糊性与不确定性,也就是我们这里所强调的不透明性。因为事物间的相关关系有时会带有一定的欺骗性和错误性,比如对于古代的西方人,很长时间一直坚信“物体越重,下落的速度越快”等。这些问题的存在表明,人类并不容易挖掘出现象背后真正的因果关系,进而实现知识的透明化。

那么,我们如何才能避免认识的不透明性,顺利找到正确的因果性呢?毫无疑问,发现相关性有利于找到因果性;从相关性到因果性,是科学知识发展的必由之路!

当近代科学在牛顿力学和还原论思想的引导下走向辉煌的时候,一个由严格因果性决定的世界呈现在人们的眼前。然而,随着认识对象的复杂化,不确定性不可避免地渗入科学规律之中,统计学意义的因果性观念逐渐削弱了机械决定论式的因果观。例如,在热力学系统的研究中,人们无法准确地刻画每个分子的微观运动状态,只能从宏观角度去统计性地研究整个系统,从而作出关于所有分子的平均运动状态的说明。我们的研究表明:统计规律所展现出的因果性仍旧是确定的、客观的。但本文这里所要强调的问题是,宏观的统计相关性与微观的随机性即认识的不透明性之间的关系,第一次打破了机械决定论所蕴含的宏观统计决定论与微观因果决定论之间的“一一对应”关系,即预示了相关性与因果性之间可能存在的复杂关系,认识的透明性问题也由此变得内容更加丰富起来了。

如今,得益于大数据技术与计算机硬件的发展即算力的提升,加之以数据为训练导向的深度学习,人们更容易用适当的曲线类型来拟合观察到的数据,得到相应的数据之间“明显”的相关关系,但这种关系的本质终归还是建立在统计学之上的!即“深度学习只是让机器具备了高超的能力,而非智能。这种差异是巨大的,原因就在于后者缺少现实模型。与30年前一样,当前的机器学习程序(包括那些应用深度神经网络的程序)几乎仍然完全是在关联模式下运行的”。这意味着,若仅仅依靠挖掘到的数据,是不能识别出带有方向性的因果关系的。因为即使是应用多层神经网络的深度学习,从内部整体来看,它从最初的数据表征形式经过每层神经网络加工,连续不断生成新的表征形式,到最终输出某些数据表征结果,这一过程虽然类似于科学和数学中的推理过程,但是我们能否理解这个“推导”过程,仍然取决于它能否被透明地认识清楚。这是因为,处于输入端和输出端中间的“多层神经网络”作为表征世界的内部模型十分复杂:一是其中的某些层级可能发挥的仅是辅助作用,并不具有任何实际的表征意义,这样的无意义表征层并不会妨碍我们的“理解”,就像在物理学中,为了方便起见,我们经常把物体进行理想化处理,视它们为没有质量的质点一样;二是多层神经网络层与层之间的转换需要牵涉到数亿级别的参数以及复杂的非线性,从而导致我们不可能透明地去认识这个形式变换的过程,这大大地提高了人类理解的难度;三是神经网络在共同作用的整个过程中,内部整体处于一种自动构建过程,建模人员能够了解的只是模型的静态结构即组成模型的组件,但对于模型的自动化动态工作方式还是无法透彻把握;四是复杂算法作为人工智能技术的核心组成要素,其“不透明性”似乎是它的天然属性,因为“算法过程中的高水平的自动化可以内在地增加不透明性,以数千个参数为前提的基于挖掘数据的分析可能很难向人类解释”,整个运行过程就犹如一个黑箱!

总之,基于多层神经网络协同作用等基础之上的以机器学习为代表的大数据和人工智能,其内部运行隐含着很多层级的“认识不透明性”。那么,如何克服认识上的这种不透明性,从相关性最终获得因果性,我们下面择要讨论一二。

发现因果性的可行性路径

如前所述,目前以机器学习为代表的人工智能的本质,仍是以统计相关模型为基础的,这意味着无论用多大的数据量来训练机器,它都无法达到人类智能的高度。那么,其间的鸿沟到底是什么呢?“贝叶斯网络”之父朱迪亚·珀尔(Judea Pearl)认为,真正的类人智能机器即强人工智能应该具有像人类那般的因果推断能力。这一标准的提出,将相关性与因果性的关系赋予了更丰富的内容,更确切地讲是从人的本质的高度,强调了我们必须要从相关性走向因果性,从而实现认识的透明性。

为了使机器拥有类人的因果推断能力,珀尔首次构建了一个可以反映人类因果推断能力的由关联、干预与反事实三个层级共同构成的因果关系之梯。

处于第一层级的关联要解决的问题是:通过观察(seeing)来寻找事物间的规律即相关性。在关联层中,虽然是在相关性的基础上对事物的未来发展作出预测,但是此关联层的相关性的真实性还难以被确定。第二层级的干预,涉及在观察的基础上通过采取行动(doing)去改变现状。干预层的doing不同于关联层的seeing,前者是主动性行为,而后者是被动性观察;干预层通过主动施加某个行动从而来观察相应的改变,而后变量之间的相关性得以确证,但因果性未必能得到确认。第三层级的反事实,表示在一个虚构的世界中,具有想象能力(imagining)的人类能够思考类似“假设我当时采取与在真实世界中不同的行动,那会怎样”的问题等。在反事实的世界里,我们能够可靠地去寻找关于背后解释的推断,从而确认事件间的因果性。

基于对因果关系之梯的上述理解,我们要从相关性中发现因果性,必须经历从关联到干预,再从干预到反事实的两次飞跃。具体分析如下:

首先,在从关联到干预中,如何识别“混杂因子”是一个复杂的相关过程中的主要问题。珀尔认为可采取“前后门”调整的方式,即分别从因果性具有的前后方向的不同角度改变和考察相关性中不同因素的作用,亦即通过某种干预行动并确定干预后的影响以充分掌握由X开始指向Y的直接的因果路径中的所有变量的数据,从而有助于因果模型的建立。我们认为,从关联到干预的过程,其实也是一个从观察到的尚未知其真假的相关性到相关性得以确证的过程,而混杂因子则是本文所强调的认识不透明性的重要表现形式之一,所以去混杂的过程就是消除认识不透明性的过程。然而,在这个过程中,蕴藏在相关性中的因果性此时还不一定能得到确证。

其次,从干预到反事实,是因果模型形成的最终过程。在反事实中,珀尔在因果图的基础上试图建立结构因果模型。所谓因果图,是珀尔建构的一种用于表征因果模型的图示工具,它是由代表变量的点和表示变量之间存在已知或者似乎存在因果关系的箭头一起组成的图。从干预走向反事实,也是借助于因果图,同时结合他自己提出的do算子,可以“测试”一个隐含在相关性中的因果性的过程。例如对吸烟究竟能否致癌的分析——在科学史上,有关吸烟究竟能否导致肺癌的问题曾引发了一场激烈的争论,因为人们不能透明地认识吸烟是否导致肺癌的整个过程。珀尔在自己的著作中,利用基于假设代表因果信息所绘制出的因果图和do算子方法,确实为我们逐步揭示了吸烟致癌的因果机制。

由此可见,珀尔所提出的理论观点,即通过因果关系之梯的层层递进,给我们提供了一种从表观的、复杂的统计相关性如何走向真正的因果性的可行的方法论策略,有助于我们消除可能横亘在相关性与因果性之间的认识论上的不透明性。当然,像我们上面分析过的,认识的不透明性有各种不同表现和不同类型,如何克服它们,需要更细致、具体和有针对性的分析,特别是需要更多的富于启发性的观点的提出,让我们共同期待!