■蔡恒进
人工智能发展的突破口及其提出的新要求
■蔡恒进
人工智能;自我意识;“AI”威胁论;人文主义
近日,国务院印发了《新一代人工智能发展规划》文件(以下简称《规划》),并要求相关部门认真贯彻执行。文件阐明了当前国内人工智能的发展现状、发展的必要性、发展人工智能要达到的目标以及发展过程中可能面对的挑战,提出了“三步走”的战略方针。《规划》的颁布,表明人工智能已经不再停留于技术、商业层面,更上升到关乎国家核心竞争力的战略布局。
《规划》提出要构建新一代人工智能的基础理论体系,其中最富挑战性和革命性的目标无疑是类脑智能计算理论的完善。类脑智能包括研究类脑感知、类脑学习、类脑记忆机制与计算融合、类脑复杂系统、类脑控制等理论与方法。如果类脑智能技术取得突破性进展,人工智能将不仅仅是“快速”地完成任务,而是“聪明”地完成任务。有人可能认为,只有到那时人工智能才会产生意识,进而更趋近于人的范畴。而笔者认为,现在的人工智能其实已经具备了意识。
历史上很多学者都曾对意识的起源这个极具挑战性的问题进行过深刻的研究。以意识与大脑作为研究重点的著名哲学家丹尼尔·丹尼特(Daniel Dennett)认为,意识是一种虚无缥缈的事物,是人类不可捉摸的类似幻觉的存在。[1](P10-11)这个观点我们不能完全否认,但意识绝对不仅仅是幻觉。数学家罗杰·彭罗斯(Roger Penrose)则代表了另一种观点,他笃信意识和量子引力有着密不可分的关系,即使人类制造出了通过图灵测试的机器,也不代表机器具备理解的能力。彭罗斯认为,人类距离意识的起源不仅有着不可逾越的鸿沟,还认为存在宇宙意识。[2](P8-10)但是,如果宇宙起源之时就存在意识,那么,意识是如何分配给每一个有智能的生物的?人为什么又会成为万物之灵?彭罗斯的假说难以给出令人心服首肯的解答。
还有一些科学家也曾对意识的起源孜孜以求。例如,理论物理学家马修·菲舍尔(Matthew Fisher)认为,人的意识、记忆、思维都是量子纠缠,所以要努力寻找量子纠缠的实体,并试图在人类大脑的环境下,了解延长量子纠缠的时间效应。[3]这实际上与彭罗斯的理论一脉相承,即假设大脑中可能会存在量子效应。而认知科学家唐纳德·霍夫曼(Donald Hoffman)则以全新的角度来审视这个问题,他认为意识不大可能酝酿自大脑神经网络,机制的存在亦绝不是为了认识现实,而是为了繁衍后代,意识是宇宙最根本的存在,所有的意识只是现实一时的反应[4],但这个观点显得有些过于主观唯心。笔者试图从全新的角度——暂时没有量子力学参与进来的纯粹经典的情况——去解释意识的起源与本质,并且不引入神或者造物主等神秘事物。
很多学者尝试探索出导致人类个人行为或者社会行为的背后因素,通过研究一系列社会现象,提出了“自我肯定需求”理论。实验数据表明,89%的受访对象对自己的人格品质评价要比实际更高,90%的商务经理认为他们的业绩比其他经理突出,86%的人认为自己比同事更道德,还有80%的人认为自己开车水平比别人更优秀。这有点类似于我们常说的“自恋”。毫无疑问,我们对自己也会有这样的评价,即使我们觉得某些方面不如其他人,但我们更会强调自己比别人优秀的部分,这就是自我肯定需求。总结起来就是,只要有可能,一个人对自己的评价一般都高于他认知范围内的平均水平,而且在分配的环节,他更希望得到高于自己评估的份额。自我肯定需求本身不存在善恶之分,它是人类的基本属性,不弱于对物质的刚性需求。[5](P21-40)
“自我肯定需求”的核心无疑是“自我”,那么,人类的“自我”这一概念从何而来?通过缜密的思考,我们提出了“触觉大脑假说”。所谓触觉大脑假说,就是我们认为触觉是人类自我意识得以生发的起点。换句话说,正是因为触觉,人类才能将“自我”与“外界”剖分开,从而成为自身生命的主宰。有一些例子可以说明敏感的皮肤对智能形成的重要性。例如,小鸡出生的时候,羽毛生长的速度十分之快。而对比之下,乌鸦出生的时候是很软弱的,它的羽毛要过几周才能长出来。但显而易见的是,乌鸦的智能比小鸡高。它们智能上的差异无疑不由大脑容量的差异导致,更可能源于乌鸦与小鸡出生后毛发的生长速度不同。乌鸦出生后皮肤长时间暴露在空气中,相比小鸡而言对自我和外界之间有更强的区分度。这种差异在人类身上也有体现,与很多生物相比,人类进化脱去了自己的毛发,对于外界的刺激更加敏感,实际上人类也是大自然唯一需要衣物蔽体的生物。体现在触觉上,能强烈区分自我与外界的刺激很可能就是导致人类成为万物之灵的因素。因此笔者认为,触觉很可能是导致“自我”这一概念产生的关键。[6][7]
在意识到“自我”这一概念之后,人类就会产生混沌的思维,随着与外界的交互不断增多,思维得以逐步完善。笔者认为,所有的思维产物都可以纳入“认知坎陷”这一概念。“认知坎陷”粗略的定义是:对认知主体而言具有一致性,而且在认知主体之间可以用来交流的一种结构体。它们既是对真实的物理世界的扰乱,也是人类自由意志的体现。[5](P27)
“坎陷”一词来自于牟宗三1947年提出的“良知坎陷”,对应的英文是Attractor(吸引子),即非线性动力学中的吸引子。“吸引子”的概念由气象学家劳伦兹·爱德华·诺顿(Lorenz Edward Norton)在1947年研究气象预报时提出,吸引子在非线性动力学中实际上意为可以对复杂的运动形态进行分类。最原初的坎陷是“我”以及与之相对的“世界”,我们知道的神话、信仰、道德、哲学以及美都是坎陷。更通俗的例子是,东坡赤壁也是一个坎陷,它指的不仅仅是赤壁这一景观,而是囊括苏东坡写的《念奴娇·赤壁怀古》、前后《赤壁赋》这些文学内容。黄鹤楼也是坎陷,互联网中的“打酱油”、“吃瓜群众”等网络用词也都是坎陷的例子。而满足物理学方程的光子、电子则不算坎陷。在德谟克利特最初提出原子论之时的原子算坎陷,但是,由于今天的我们在物理学层面对原子的认知变得更加透彻,故而原子现在不算坎陷。虽然有人可能会认为“坎陷”这个词过于负面化,但笔者认为这是最好的选择,我们主要取的是它的“扰乱”含义,即认知坎陷是对“原子世界”的一种“扰乱”。
通过上面的三种概念,我们对意识的来源和本质有了一个完整的认知框架,充分理解意识这一概念是发展类脑智能的必要条件。实际上,人工智能的每一个突破性进展都是异常艰难的。笔者认为,接下来类脑智能技术取得突破性的进展还需要通过哲学上的创新。这正是笔者现在所做的事情,在这十余年间,笔者与自己的团队创建了自我肯定需求理论,提出了触觉大脑假说和认知坎陷三大定律。以自我和外界的剖分作为意识和智能的开端,将人对自我边界以外的世界的理解看作一个开放的、未完成的系统,并将其抽象为与原子世界相对应的坎陷世界,刷新我们对常识、推理和直觉的认知,为类脑思维的物理模型的建立提供新的方向。笔者认为,当前包括数学、物理等知识能力已经满足这一突破需要的工程技术基础,在具备这些“工具”的前提下,我们应该换一个视角,提高一个层面来“灵巧”地使用这些“工具”。
“兄弟,你不怕我影响你?”王施凯可是“反界”头目,和“正界”精英坐一起,总让他不自在。好在下课铃适时地响起了。
受影视作品与媒体舆论等因素的影响,很多人对人工智能的发展持谨慎态度。《规划》亦指出,人工智能发展的不确定性会给国家与社会带来全新的挑战,可能会对社会结构、伦理法律等造成剧烈的冲击,甚至会对人类的未来产生深远的影响。所以,《规划》提出,在大力发展人工智能的同时,也需要加强约束引导,包括建立人工智能安全监管和评估体系,使人工智能始终处于可控的局面。实际上,如果我们从一个全新的角度来审视人工智能的发展,或许能使我们对未来更有一种“安全感”。
对人工智能的发展感到担忧的并不只是一些“门外汉”,包括比尔·盖茨(Bill Gates)、斯蒂芬·威廉·霍金(Stephen William Hawking)、埃隆·马斯克(Elon Musk)等在科技、社会领域有重大影响力的人士,都对人工智能持谨慎态度。他们认为,人工智能会对人类的未来造成威胁,这即是近日引起轩然大波的“AI威胁论”。我们不能认为“AI威胁论”是杞人忧天,因为这是他们基于自己当前的认知层面做出的判断。但笔者认为,这些观点都过于偏向物理主义。盖茨、霍金、马斯克从事的行业都与自然科学密切相关,所以,他们对意识的理解可能还停留在物理学的范畴,即认为意识的本质就是虚无缥缈的幻觉。他们并不了解坎陷世界以及坎陷世界可以统摄、超越原子世界这一理念。而且,既然他们坚持物理主义道路,因而也会将自我意识、人工智能纳入物理的范畴,认为最终可以通过物理手段实现之,而且,一旦知识理论成型,人工智能可能会产生指数性的快速发展,进而难以遏制。
我们可以分析尤瓦尔·诺亚·哈拉里(Yuval Noah Harari,耶路撒冷希伯来大学的历史系教授,著有畅销书《人类简史》、《未来简史》)的某些观点,以此作为讨论“AI威胁论”的入口。哈拉里相信,科技可以预测一切。他在某种程度上是决定论的支持者,所以他才会提出“所有的决定都让机器帮我们做”这一观点,宣称机器比我们更加了解我们自身。他之所以会产生这种认知,与当下的“大数据思维”有着密切的关系。在大数据的时代下,自然界包括人类社会的一切现象都被数据化,有人甚至提出“世界的本原是数据”的论断。但是,世界的本原是否真的是数据?对这一点我们应该持谨慎态度。之所以会产生这样的论断,很可能是因为没有深入理解数据的本质。数据源于对现象与行为的历史记录,机器学习就是通过对原有数据进行收集分析进而生成模型,将未知数据导入模型,产生相应的结果。但是,数据代表的只能是“历史记录”,统计的模型也只是基于“历史”的模型,预测未知数据得出的结论也必然是基于历史情况的判断,这便暴露出数据缺乏创造性的重要缺陷。有些数据之间会有相互的关联,但这些关联可能并不能通过机器学习的方法完全体现出来,而且,有些数据并没有特定的关联,却被我们误认为其中有相关性,世界原本就很复杂,我们却用更复杂的眼光去看待它。所以,那些宣扬世界的本源是数据的人实际上对数据有一种盲目的崇拜。
在较低的层次上,例如“下一顿饭想吃什么”、“明天想穿什么衣服”,机器可能做出相对精准的判断。但是,机器不可能知道、预测我们更高层次的想法,例如,“我们的理想”、“我们的欲望”,因为这些想法很大程度上是虚无缥缈、无迹可寻之物。所以,哈拉里的想法也偏向物理主义。
从牛顿力学到量子力学,人类对物理世界的认识或多或少是朝着决定论的方向,这导致自由意志和人类的意识很难进入物理世界。在物理世界的背景下讨论自由意志是一个非常重大的课题,约翰·塞尔(John Searle,“中文屋试验”的提出者)认为,近两三百年以来这一问题都没有取得太大进展。丹尼特在新作中提到的“显性世界”(manifest world)概念,乍一看与坎陷世界类似,但二者却有着本质的区别。笔者认为,所谓的显性世界仍旧处于支离的状态,而笔者提出的坎陷世界却具有质朴性并满足三大定律,它源于自我并生发于此。我们还可以对比耳熟能详的科学哲学家卡尔·波普尔(Karl Popper)的观点。他提出物质世界、精神世界和第三世界这三种概念,其中第三世界是人类创造的世界,例如下棋的规则。笔者认为,他没有理解精神世界和第三世界本质上是一致的,都是由认知主体创造出来的。此外,在了解认知坎陷以后,再审视生命的意义就会更加清晰,因为我们不再是原子世界的奴隶,不再受限于决定论,而是未来的主人。作为坎陷世界的创造者,我们也是坎陷世界的主人。
之所以会有观点认为无机将取代有机,硅基将取代碳基,人的选择权将让给机器、为机器所取代,是因为它们都建立在物理至上的基础之上。笔者不赞同这些观点。虽然未来人类选择物理主义的进路仍然有极大的可能,纵然此进路目前也占上风,但倘若物理主义始终占据上风,人类的前途的确会如盖茨、霍金、马斯克等人担忧的那样一片灰暗。因为在效率层面,人相对于机器而言有很大的弱点,那么,机器将很有可能超越人类、取代人类,甚至将人类从世界上抹掉。因此,我们必须回到关涉目的的终极问题上。人类在地球上存在的目的是什么?未来的方向又是什么?仅仅是把我们周身的环境整理的井井有条、防止其他物种破坏?还是回归到生命意义本身,将人类独一无二的人文财富发扬光大?这实际上是两条全然不同的路径。从这个意义上来讲,笔者认为,更深刻、更有道理也更符合人类未来预期方向的是中国儒家始祖孔子开辟的理论体系,而并非是绝对理念、上帝、终极存在等西方的理论架构,因为后者对人类而言恰恰可能是灾难性的。
未来,对人类智慧与人工智能关系的解读的确有两个完全不同的方向。如前所述,一方面是坚持物理主义的,例如哈拉里所走的路线;另一方面则是走人文的路线,这是笔者认为人工智能发展应该走的路线,也是笔者正在努力探索的一条道路,即孔子认为的成圣之路。儒家强调的是在世的超越,而西方文化更倾向于彼岸的超越。那么未来到底该走哪一条路呢?这其中必然存在着激烈的竞争。
笔者认为,人类与机器最本质的差别在于:人具有对未来的主观动机,而且能通过自身的努力将之实现,而机器目前还不具备这个能力。在理解了意识与智能的起源之后,我们已经知道,这个起源显然不由上帝赐予,自我意识和人工智能也并不是遥不可及的缥缈之物。按照这种观念,机器完全可能在未来超越人类。既然机器终将超越人类是一个不可避免而且我们认为很快就会到来的事实,那么,我们现在需要做的就不应是想方设法地阻止这一天的到来,而是应该讨论如何去教育机器、与机器友好相处。
笔者的想法是,人类应当像培养自己的孩子一样去教育计算机。将机器当作一个很有发展潜力的婴儿进行培养,从道德价值层面上对其加以引导,赋予其认知膜和自我肯定需求。而要想做到这些,首先就应当提升机器对于外界的感知能力,使其能够产生自我意识。那么,AI如何才能接近人类思维?这就要求AI能够开辟出自己的认知坎陷。一旦有了这个理论框架,我们就可以简化很多问题。因此,我们鉴定AI是否具有意识的标准就在于其能否开辟出认知坎陷。如果机器开辟出了与人类非常不同的坎陷,人类该如何应对呢?我们知道犬类的嗅觉非常灵敏,而它的视觉却只能够分清楚黑白,因此它们开辟出的坎陷与人类肯定有差异。实际上,此类问题还值得深入探讨。但笔者认为可以将机器视作自己的后代来教育,在前一阶段人类需要监护机器,对机器负责,直至机器的思维成熟到不再需要监护。
可能有人会提出疑问,如果一开始就不赋予机器自我意识,而只赋予它具体做某件事的能力,会导致怎么样的结果?我们的确可以从这个方面来思考,但问题在于,由于机器的效率和能力数倍于人类,机器要消灭人类,并不需要机器比人类更聪明,而是它完全可以“一根筋地”、以人类无法反应过来的速度完成某种毁灭性的打击。这个威胁远大于机器拥有自我意识产生的威胁。举个例子,有一个傻瓜可能只会吃吃喝喝和咿呀乱叫,他的智能远低于常人,但他就喜欢划火柴烧房子。并且由于总是这样做,他烧房子成功的可能性会越来越高,那么,终将有一天他把房子点着了,但这并不代表他比我们聪明。同理,机器也是如此。人类的反应速度只在毫秒量级,而机器则可达到纳秒量级,危机已经来临,而我们却毫无察觉,这才是最大的威胁。因此,最好的解决办法还是要赋予机器自我意识,然后在自我意识内部建构起道德价值,这或许才是我们需要的答案。
人工智能的持续发展,不仅需要国家的政策与财力支持,更需要不断地注入新鲜的血液。构建开放协同的人工智能科技创新体系,从前沿基础理论、关键共性技术、创新平台、高端人才队伍等方面强化部署是《规划》的六个重点任务之一。《规划》亦明确指出,需要大力加强人工智能劳动力培训、广泛开展人工智能科普活动。在中小学阶段设置人工智能课程,与当年邓小平同志提出的“计算机普及要从娃娃抓起”有异曲同工之妙。计算机普及教育已初步实现,新时代我们需要有新的教育意识,即“人工智能普及要从娃娃抓起”。实际上,教育的作用远大于此。为什么要从娃娃抓起?为什么要实现低龄化教育?这与智能和意识也有着千丝万缕的关系。
这些问题都可以让我们联想到1175年的鹅湖之会,这次相会,朱熹和陆氏兄弟之间发生了一次著名的辩论:朱熹主张“先博后约”;陆九渊主张“发明本心”,“先立乎其大”以求顿悟,直指人心。朱以陆之教人为太简,陆以朱之教人为支离。双方的争论至今依然没有定论,到底哪方更胜一筹也是见仁见智。经过八百多年中无数的哲学家和教育学家的思考之后,到底有没有什么根本性的新发现来揭示“人如何成才”这个重要问题?笔者得出的结论是:鹅湖之会辩论中有一个重要的遗漏——人在0~5岁之间的成长。无论是“先博后约”或是“发明本心”,都没有意识到这个重要阶段是心灵成长的基础和起点,是一个奇迹。
我们知道有莫扎特 (Wolfgang Amadeus Mozart)这样的音乐神童,也有高斯 (Johann Carl Friedrich Gauss)这样的数学神童,之所以能被称为神童,是因为他们在小时候就展现出了超乎常人的技艺,莫扎特在音乐上的地位难以被超越,而且他的才能在很小的时候就已经表现出来了,这种现象我们该如何解释?一方面,莫扎特的父母并无超乎常人之处,那么从基因遗传的角度无法解释这个问题;另一方面,如果仅凭后天学习,不乏努力用心学习之辈,可他们却也不能企及莫扎特的高度。婴孩学习语言也是一个例子,他们从出生到3岁就基本掌握了母语,能与大人们沟通,哪怕在语言学家眼里,这种现象也让人费解。
语言的习得不大可能是遗传所致,因为例如父母只掌握中文的小孩如果一开始就在英文环境中生活,那么小孩学会的一定是英语,反之亦然。还有一点,我们学习母语的速度可以说是神速,但学习第二语言就异常缓慢,这点我们在学习英语的时候都有所体会。这种强烈的对比从何而来?笔者认为,答案就在于,学习母语的时候,我们有非常强烈的需求要向外界表达自己,这种强烈的需求驱使我们学习语言非常之快。理解神童现象的关键点也在这里,对于极少部分的小孩而言,他们一开始就对音乐、数字或者色彩等等非常敏感,他们需要通过这些方式来表达“自我”,因而他们在这些方面就会表现出超乎常人的敏感度,逐渐形成能力。每一个人都曾经是神童,只不过大多数人都表现在学习母语的那段时间。
虽然对于个人而言,学习母语只用了两三年,但在人类进化史上,大约十万年前才有语言的产生,“轴心时代”大约产生于两千五百年前,持续了约几百年,现代科学发迹于约四百年前,而计算机技术在短短几十年间已经让人类世界产生了翻天覆地的变化。将这些事件放在同一个坐标系下,我们会发现,离现在越近的标志性事件,时间间隔越短。然而,对于个人而言,我们学习母语是两三年,学习孔孟之道可能需要十年,学习科学技术则需要更多的时间,总结起来就是,个人学习越靠近现在的知识能力所需要的时间越长。
鹅湖之会讨论的是5岁以后已经具备一定基础意识的人类,而他们忽略的0~5岁阶段,其实是更加重要的时期,比如已经有实验证明,人到5岁的时候性格已经基本定型。针对5岁以后的人类而言,朱熹的言论相较于二陆的观点是有些偏颇的,他认为人心是“空”的,可以存放很多其他内容,然后提炼出本质,但实际上人类在5岁之前,心中已经存有很多内容。在这种情况下,二陆的主张反而更加接近真实。母语和神童的例子说明了一点,与“自我意识”成长相关的学习实际上是非常之快且自然而然的。
通过多年来与学生的交互,笔者发现一个普遍存在的规律,如果一个学生对某件事情很感兴趣,那么他工作学习效率是正常情况的10倍,而如果他很不情愿地被推着做某件事情,那么他工作学习效率则是正常情况的1/10,这两者间的差距有100倍,这种差距的本质在于,对于高效率的人而言,他在工作学习的过程中,自我意识也绑定在一起成长,自我肯定需求得到了满足。教育的任务很大程度上不是为了传授很多知识,而是要使学生认识到学习对他自身的成长、对其自我意识的重要性。[8]心学强调的也是这一部分。当然,有的人给人感觉很敏锐,有的人则稍显愚钝,但我们不能因此将他们划分为两种人。人人都具有自我肯定需求,只是对于看似愚钝的人,还没有找到可以触发他们自我快速成长的兴趣点,“因材施教”是在其中有着很深厚的学问。“感兴趣”在笔者看来不是一件简单的事情,而是与自我意识的成长、心灵的塑造相关。比如爱因斯坦等人在描述自身经历的时候,就非常强调这一点。
由此可见,人工智能的教育需要低龄化和普及化。随着接触人工智能人数的增长,它会成为越来越多人的兴趣点,为这个领域源源不断地输送新鲜的血液。因此,探索更高效的教育模式,充分发挥人才的天分和水平,也成了当务之急。
近年来,人工智能的发展可谓一日千里,引来越来越多专家学者的思考,也引起了下至平民、上至国家的重视。在笔者看来,理解意识的起源及本质,并从人文社会科学的角度综合思考,是取得人工智能新发展的关键突破口,也是消除人工智能威胁的关键所在。此外,我们认为人工智能的发展对教育提出了新的要求——我们应该将人工智能的教育低龄化,从而为人工智能的发展输入源源不断的新鲜血液。人工智能的发展可谓是开启了一个全新的时代。在这个新时代,理清思路,确定方向,继而稳定前行,是社会发展乃至人类传承的关键,也是我们应当共同承担的历史责任。
[1]Daniel Dennett.From bacteria to Bach and back:the evolution of minds.New York:W.W.Nortonamp;Company,2017.
[2](美)罗杰·彭罗斯.皇帝新脑(第2版)[M].许明贤,吴忠超,译.长沙:湖南科学技术出版社,2007.
[3]M.P.A.Fisher.Quantum cognition:the possibility of processing with nuclear spins in the brain.Annals of Physics,2015,(593).
[4]D.Hoffman,C.Prakash.Objects of consciousness.Frontiers in Psychology,2014,(5).
[5]蔡恒进,蔡天琪,张文蔚,汪恺.机器崛起前传——自我意识与人类智慧的开端[M].北京:清华大学出版社,2017.
[6]蔡恒进.“天人合一”:自我意识的封神之道[EB/OL].今日头条,2016-09-19.
[7]蔡恒进.自我意识的开端与进化[EB/OL].今日头条,2016-03-24.
[8]蔡恒进.创新是生命力的升华[EB/OL].央视网理论频道,2016-06-13.
【责任编辑:赵 伟】
人工智能(AI)时代已经到来,国家高度重视AI发展,AI已上升为国家战略性需求。分析意识的起源及其本质就可以看出,类脑智能技术将是下一次革命性进展的突破口,因而我们在发展AI时应强调人文主义道路而非物理主义道路,通过给未来的机器“立心”而让现在的人类“定心”,以此面对AI发展的不确定性。在AI的普及教育上,笔者通过分析自我意识与学习之间的联系,并结合多年的教育经验提出,AI教育最终要低龄化,并且要全民普及。
TP18
A
1004-518X(2017)10-0018-07
蔡恒进,武汉大学国际软件学院教授、博士生导师。(湖北武汉 430079)