深度学习的哲学反思

2021-01-02 03:59:52孙永丹邓辉文
科教导刊·电子版 2021年7期
关键词:阿尔法康德主义

孙永丹 邓辉文

([1]西南大学逻辑与智能研究中心 重庆 400715;[2]西南大学计算机与信息科学学院 重庆 400715)

0 引言

毫无疑问,当前最火的人工智能技术当属深度学习。然而正当深度学习技术几乎等同于人工智能之时,对于深度学习的批评也不绝于耳。这些批评中,比较著名的有UCLA教授朱松纯批评深度学习技术是“大数据、小任务”,纽约大学教授马库斯(Gary Marcus)不仅批评深度学习,更提出发展强大人工智能的四个步骤,清华大学人工智能研究院院长张钹教授则提出需要超越深度学习,打造第三代人工智能。

那么,深度学习有没有前景,未来人工智能应该如何发展,这就是本文试图解决的问题。本文立足于对深度学习的反思,从哲学角度探讨未来人工智能应该如何发展,需要解决何种问题。

1 为什么深度学习需要哲学反思

尽管人工智能是一个工程性很强的科学,但是同样需要人文科学,特别是哲学的参与。笔者的观点主要有以下三点:

1.1 人工智能研究什么

人工智能——这一新概念是约翰·麦卡锡(JohnMcCarthy)1956年首先提出的,提出的目的是为了让机器拥有人类的智能。但是这需要回答一个根本性的问题,那就是人类智能的本质是什么?

对于人类智能的本质,这是一个众说纷纭,难以形成共识的问题。比如,图灵奖得主Yann Le Cun与美国工程院院士Jeff Hawkins认为是预测力,而美国天普大学计算机与信息科学系教授王培认为是对环境的适应力,此外,还有的学者认为是推理能力、学习能力、抽象能力等等。正因为对智能本质难以形成共识,因此让人工智能拥有人类智能的哪一个方面,人类智能中的哪一个能力,这成了一个不确定性的问题。

如果你认为人类智能的本质是大脑,那么你的研究路径就是去研究人类大脑是如何工作的,并通过大数据去训练出一个神经元网络,这就是深度学习,也就是联结主义的思路;如果你认为人类智能的本质是推理与判断,那么你的研究路径就是去研究知识表征与逻辑推理,并通过知识库与推理规则去建构一个公理系统,这就是符号主义的思路。

人工智能研究有几千种不同的技术路线,但绝大部分技术路线可归结为这两种人工智能经典思路,每一种思路之下的人工智能技术路线都遵循相同的基本原理,也面临相同的局限性。复旦大学哲学学院教授徐英瑾认为,正因为人工智能研究对象的不确定性,人工智能需要对其它学科具有很强的包容性,而哲学正是一个对其它学科极具包容性的学科,因此,从包容度来讲,需要从哲学视角来讨论人工智能。

1.2 任何学科都会有反思,但是哲学层次与其它具体学科有所不同

这些年有很多专家在不同层面反思深度学习,根据笔者的梳理,主要有两个层次:一个是工程学层次,主要从数理建模层次反思,比如有中国科技大学计算机学院教授陈小平,以及清华大学计算机系教授的张钹院士等。

另外一层则是哲学层次,主要从认知科学与哲学层次反思,比如有澳大利亚哲学家查尔莫斯(DavidChalmers)与美国认知科学家侯世达(DouglasHofstadter)、马库斯,以及复旦大学哲学学院教授徐英瑾等等。

总体来看,这两种层面的反思各有利弊:工程学层次的反思,均有正在进行的研究项目作为支撑,因此操作性强,但是难以摆脱就事论事,头疼医头,脚疼医脚的弊端。而哲学层面的反思,优点是跳出人工智能视角分析人工智能,并从深厚的哲学中吸取思想,因此非常具有前瞻性,可以一眼看出某一人工智能路径的哲学预设,并判断其发展前景,同时也能在人工智能发展陷入低谷时给一些启示与指导。笔者的建议是,对深度学习的反思,一方面固然要立足于哲学视角,另一方面也要立足于工程学视角,只有把这两种视角相互融合,我们的反思才具有前瞻性与可操作性。

2 深度学习技术是什么

反思深度学习,不能仅仅站在深度学习的视角就事论事,而应该站在整个人工智能研究的角度来反思。如何实现人工智能,当前有两种基本观点:

2.1 两种思路的技术差异

2.1.1 符号主义

符号主义(Symbolicism)立足于符号的逻辑推理,尽管在证明数学定理领域取得了巨大成绩,但符号主义也存在明显的局限性,主要局限有三条:其一是封闭性问题。目前已有的方法只能解决完全信息和结构化环境下的确定性问题,而人类的决策等都是在信息不完全和非结构化环境下完成的。其二是表征问题。现实世界是一个高度模糊、不确定的世界,而符号表征需要确定与精确,这一矛盾根本难以协调。其三是常识问题。常识如何获取、表达和推理对于符号主义是一个巨大的难题。

2.1.2 联结主义

联接主义(Connectionism)本质上模拟人类的大脑,通过大量数据来训练和调整神经网络,从而得到一个新模型。联结主义的优势在于,绕开了符号主义难以处理的表征与建模问题,在数据充足,并且有较高质量的前提下,能够在图像分类识别、下围棋等领域的表现超过人类,这是在近年来联结主义受到青睐的重要原因。然而,联结主义也面临诸多困境,遭受到很多批评。对联结主义的批评主要有以下三类:第一是鲁棒性。现有深度学习方法的有效性对数据的数量与质量又非常高的要求,一旦出现异常问题时,其有效性将大幅度下降,因此深度学习具有脆弱性与不安全性。第二是深度学习的“黑箱”性质。也就是深度学习不能被理解;第三是对大数据的依赖。与三十年前相比,深度学习现代人工神经网络并没有本质上的进步,之所以发展如此之快的原因,一方面是大数据的飞速发展,另一方面是计算机算力的指数级增加。

2.2 不同研究路径背后的哲学预设

当前两种范式的人工智能,分别将智能的本质理解为符号推理与经验学习,从而开创了符号主义与联结主义——两种不同的研究路径。

2.2.1 符号主义背后的哲学预设

符号主义继承了发源于古希腊的理性主义。这种思维在科学史上有诸多代表性学者和成就,如亚里士多德的公理化逻辑、莱布尼兹和牛顿的数学分析、罗素的逻辑主义思想等等。

2.2.2 联结主义背后的哲学预设

建立在人工神经网络基础上的联结主义人工智能则跟经验主义相关联。典型代表是深度学习,深度学习来源于神经网络,而神经网络是一种模仿人脑神经结构与功能的信息处理系统。当人工智能通过无监督学习积累海量的数据后,通过海量的训练让目标函数取得最优值来建立模型,这个模型就通过经验数据的学习具有一定的智能水平。

2.3 人工智能哲学预设与研究人工智能研究路径的关系

人工智能在模拟人类智能时,不管是理性主义的哲学预设,还是经验主义的哲学预设,归根到底都是认识论问题。那么,人工智能认识论与人工智能研究路径,这两者是什么关系呢?笔者的观点是,这两者是相互支持、相互验证、相互促进的。人工智能研究要取得突破性进展,不仅需要技术上的突破,也需要认识论调和与突破。

3 从哲学反思如何实现新一代人工智能

3.1 康德的调和思路

认识论的历史,几乎就是理性主义与经验主义相互论战的历史。双方论战几百年之久,直到康德(ImmanuelKant,1724—1804)的出现。康德在《纯粹理性批判》中提出了一套调和经验论和唯理论的思想。澳大利亚哲学家查尔莫斯(David Chalmers)与美国认知科学家侯世达(Douglas Hofstadter)等人联合撰写的论文《高阶知觉、表征和类比——对于人工智能方法论的批评》就颇有参考价值。

文章结尾部分有一段评论直接和康德相关:

两百年前,康德提出概念和知觉之间存在着一种密切的联系:

没有知觉的概念是空的。人工智能的研究常常试图在忽略感知的情况下为概念建模。但正如我们所见,高级知觉过程是人类认知能力的核心。没有建立适当表征的过程,认知就无法成功。

没有概念的知觉是盲目的。我们对任何给定情况的感知都受到来自概念层面的持续自上而下的影响的引导。如果没有这种概念的影响,由这种感知产生的表征将是僵化的,不灵活的,无法适应许多不同的上下文提供的问题。

事实上,不管是阿尔法狗的成功,还是马库斯提出的强大人工智能系统,基本上遵循了康德的思路,也就是将概念与知觉联系起来,将理性主义与经验主义调合起来,具体到人工智能领域,就是将符号主义与联结主义调和起来。

3.2 “阿尔法狗”是调和符号主义与联结主义的典型代表

根据阿尔法狗团队在《自然》(Nature)上发表的论文,可以发现阿尔法狗采用了符号建模,这是标准的符号主义路径,另一方面,阿尔法狗的问题求解采用的不是逻辑推理,而采用联结主义的路径。

这两者是如何根据康德哲学实现调和的呢?人类首先通过建立模型与算法给予阿尔法狗基本的“先验知识”,这些先验知识主要是下棋的基本规则。然后,阿尔法狗通过学习人类的棋谱,或者是自己博弈来积累大量的经验数据。最后,通过先验知识来处理、加工这些经验数据,形成自己可以理解的知识,然后用来与人类下棋。并且这些知识也可以作为下一个阶段的先验知识处理下一阶段经验数据,从而导致阿尔法狗的下棋能力螺旋式提升。总而言之,没有先验知识,阿尔法狗接触到的仅仅是一些支离破碎的经验数据,根本难以形成知识与智能;但仅有先验知识,没有经验数据,那阿尔法狗的智能永远禁锢在初始原点,学习能力难以提升。正是先验知识与经验数据的融合,正是理性主义与经验主义的融合,造就了阿尔法狗智能的强大。

尽管阿尔法狗在围棋、视频游戏等任务上获得了极大的成功,但是这些任务从本质上是高度数理化的虚拟场景,这个场景中边界是可控的、规则是明确的,同时可以低成本地得到大量的数据,这固然便利了人工智能工程师建构模型、设计算法,却与康德的本意相悖,康德提到的“可感知世界”,那不仅是一个能够认识与理解的世界,也是一个充满不确定性与模糊性的自然世界。而康德的这一思想,似乎被现在绝大多数人工智能专家刻意忽视。

3.3 发展新一代人工智能需要面对的问题

为什么康德的思想被刻意忽视呢?根源在于理解“可感知世界”对于人工智能太难了。根据陈小平教授观点,人工智能涉及的三层空间:现实层、数据层和知识层。其中,现实层就是人类的现实世界,这是非常复杂、模糊和不确定性的世界。中间层是数据层,其数据是通过包括人工采集和机器感知从现实层收集的。在现实层和数据层上,经过人工建模,或者通过人工智能无监督学习,就可以成为人工智能的知识。符号主义算法只能在知识层运行,而联结主义算法只能在数据层运行。而阿尔法狗的算法则在这两个层面上运行。

因此,未来要打造更加强大的人工智能,有两个绕不开的挑战:

3.3.1 人工智能能不能理解知识与数据在现实层的含义

解决办法是从“句法与数据”到“语义性与意向性”。所谓语义性,就是人类智能所涉及到的符号有意义、指称和真值条件等特征。所谓意向性,就是有对外在事态的关于性(aboutness)或指向性,就是有对它物的知道和意识,有对自身的超越性,而不致停留于纯符号的形式转换。从语义学的角度来看,有意向性就是有语义性。

不管是符号主义还是联结主义,均没有意向性。对于符号主义来说,知识构建的空间本质上是人工标注的,高度精确与抽象的符号世界。在符号世界中,现实层的“对象”和“关系”等用符号表示,但符号本身只有语形,没有语义。对于联结主义来说,这个问题更严重,因为深度学习不仅只能学到没有明确语义的“局部片段”,这些片段还不具备可组合性,不能用来归纳与推理,因此深度学习不仅不明白“物体”的“内在语义”,还不能通过加工、整理“局部片段”得出新的知识。

如何解决呢?根据认知科学、人工智能和自然语言处理(NLP)专家尼伦伯格(SergeiNirenburg)的观点,可以建立本体论构架,要表征的符号与数据的意义作本体论的定位,也就是说,说明这些符号与数据属于哪一类存在,其特点、性质与边界条件是什么。建立了本体论框架,在这种静态知识资源上就可以不断生成各种含有意义表征的动态知识资源。动态的知识资源是在应用所提出的任务、要求的基础上所产生的新知识。

3.3.2 人工智能为什么要理解理解知识与数据在现实层的含义

人类为什么要认识世界?因为要生存,所以要认识所处的环境,了解这些环境中哪些对自己有利,哪些做自己有害,如何利用环境求得生存。这就是人类的生存与进化法则。但目前人工智能即便解决了第一个问题,那么依然存在的挑战是,如何认识自己,如何有自己的目标。

不管符号主义还是联结主义均没有自己的目标。符号主义的解决办法是通过知识表征与刻画。最典型的符号主义系统是“专家系统”。专家系统显然已经预设了设计目标——如一个关于医疗诊断的专家系统显然已经预设了“治疗病患”这样的目标。但问题在于,这一目标依然是人类“强加”给人工智能的,而非人工智能自己的目标。与符号人工智能相比,基于联接主义或深度学习技术的人工智能,离“自主产生目标”这一目标更远。因为此类人工智能需要大量的训练数据,而训练数据很容易受到人类给其设定的偏好函数影响,因此,从本质上看,深度学习的人工智能形成的目标也是人类“强加”的。

现实层是一个不确定性、模糊的世界,人类在实现目标的过程中,面临短期目标与长期目标、手段与目标、坚持与妥协等等相互冲突目标的权衡,正是这样权衡,才是智能的真正体现,也增强了人类的适应能力。而对于人工智能来说,这些相互冲突的目标如何刻画,偏好函数如何设计,均是巨大挑战。并且只要人工智能的目标,不是自己主动形成的,而是人类“强加”的,那么人工智能将永远处于人类“工具”的角色,永远难以成为对自己行为负责的智能主体。

猜你喜欢
阿尔法康德主义
极狐阿尔法S HI版
汽车观察(2022年12期)2023-01-17 02:19:24
“萤火虫-阿尔法”小型火箭首飞概述
国际太空(2021年10期)2021-12-02 01:32:42
ARCFOX极狐阿尔法S
汽车观察(2021年11期)2021-04-24 18:04:58
新写意主义
艺术品鉴(2020年9期)2020-10-28 09:00:16
纯接受性的被给予?——康德论自我刺激、内感觉和注意
哲学评论(2018年2期)2019-01-08 02:11:48
近光灯主义
艺术百家
电影文学(2017年15期)2017-12-26 12:24:06
这是一部极简主义诠释片
Coco薇(2016年7期)2016-06-28 02:13:55
康德是相容论者吗?
哲学评论(2016年2期)2016-03-01 03:42:25
对康德空间观的误解及诘难的澄清与辩护
哲学评论(2016年2期)2016-03-01 03:42:22