申 锋,何可人
1956年8月,计算机科学家、认知科学家、计算机程序设计语言LISP创造者约翰·麦卡锡(John McCarthy)、人工智能与认知学专家马文·闵斯基(Marvin Minsky)、信息论创始人克劳德·香农(Claude Shannon)、计算机科学家艾伦·纽厄尔(Allen Newell)、诺贝尔经济学奖得主赫伯特·西蒙(Herbert Simon)等学者齐聚美国达特茅斯学院,召开了一场耗时两个月的“人工智能夏季研讨会”(Summer Research Project on Artificial Intelligence)。从此,“人工智能(Artificial Intelligence,AI)”概念诞生,1956年也就成了“人工智能元年”[1]。2016年,由谷歌旗下DeepMind公司开发的阿尔法狗与围棋世界冠军棋手李世石进行围棋人机大战,以4∶1的总比分获胜;2017年,它又以3∶0的总比分战胜了世界围棋冠军柯洁。一时间,“人工智能”名声大噪,风头无两,成为媒体大力报道、投资者争相投资、研究者集中研究、各国政府高度重视的话题。在2018年5月28日召开的中国科学院第十九次院士大会、中国工程院第十四次院士大会上,习近平总书记在讲话中指出:“进入21世纪以来,全球科技创新进入空前密集活跃的时期,新一轮科技革命和产业变革正在重构全球创新版图、重塑全球经济结构。以人工智能、量子信息、移动通信、物联网、区块链为代表的新一代信息技术加速突破应用,以合成生物学、基因编辑、脑科学、再生医学等为代表的生命科学领域孕育新的变革,融合机器人、数字化、新材料的先进制造技术正在加速推进制造业向智能化、服务化、绿色化转型。”[2]当前,全球正迈向以互联网+、人工智能、新能源、生命科学、3D打印、自动驾驶等技术为代表的第四次工业革命阶段[3]。2017年,国务院印发《新一代人工智能发展规划》,明确提出了我国发展人工智能的“三步走”战略[4],为抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国提供了强有力的政策支持和条件保障。
不同于以往的科技发展,人工智能通过模拟人类思维模式,通过人工的方法使机器能够进行感知、理解、识别、判断、学习、交流等思维活动。事实上,人工智能带来的最大变化就是,机器从以前需要由人来操作使用的工具,变为似乎自身具有智力,能够自主进行感知、识别、判断、交流等活动的“机器人”,这在以往的科技变革中是从未出现过的。正如有学者评价人工智能的发展时说道:“‘人工智能’的发展,表明人类正在从意识指导下的人工物制造,走向制造人工物使之有意识,以及增强人类大脑使之具有更高水平的意识。这是一次新的科学技术革命,标示着人类开始从物质决定意识,到意识反作用于物质,再到制造物质的意识(人工智能),最终到人类对自身意识的改造(人类思维加强)。与以往科学技术革命引发物质生产革命不同,这次科学技术革命引发的是精神(思维)生产的革命。这在人类发展的历史上还是第一次。”[5]这种评论虽对人工智能发展态势有夸大之嫌,但不可否认,人工智能在当代已经引起了新一轮的科技变革。由于是新的科技变革,必然会产生各种新的问题。面对已经到来的人工智能时代,我们理应主动应对时代的变化,考察人工智能的发展现状,分析人工智能发展对人类实践的影响,对由人工智能所引发的新问题进行理性反思,进而找出应对之策,为我国人工智能的健康发展提供相关智力支持。
目前,学界认为人工智能的发展阶段大致可分为三个阶段:弱人工智能、强人工智能和超人工智能[6]。其中,美国心灵学家约翰·塞尔(J.R.Searle)首先做出了弱人工智能与强人工智能的区分,认为前者只是从事认知科学或心灵研究中的辅助工具,后者则与人类心灵等价。换句话说,弱人工智能仅在单个领域比较强,擅长做某一方面工作。如战胜李世石和柯洁的谷歌阿尔法狗,其特征是擅长下围棋,但无法下象棋等其他棋类。而强人工智能具有在各方面都能与人类比肩的能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等各种类人操作,与人类能力已无差别,甚至还能超过人类。超人工智能是由英国牛津大学人类未来研究院的尼克·波斯特洛姆(Nick Bostrom)提出,是指在所有领域都要比最聪明的人类还要聪明得多的人工智能。从目前来看,强人工智能和超人工智能仅处在想象阶段,并未真正实现。
然而,即便有此划分,关于人工智能到底在何种程度上达到人的智能水平、从何种角度来解释人工智能,人们对此也意见不一。比较著名的两个案例就是“图灵测试”和“中文屋”实验。艾伦·麦席森·图灵(Alan Mathison Turing)曾在哲学杂志《思想》上发表的一篇论文中提到,判断人工智能成功与否的方法,即测试者是否可以确定自己是在与计算机还是在和人类交互(交互时间最多五分钟),如果有超过30%的测试者不能确定被测试者是人还是机器,那么这台机器就通过了测试,这个人工智能就可被视为是成功的[7]142。2014年6月7日,在英国皇家学会举行的“2014图灵测试”大会上,弗拉基米尔·韦谢洛夫与尤金·杰姆琴科一起开发的聊天程序“尤金·古斯特曼”(Eugene Goostman),成为历史上第一台通过了图灵测试的计算机[8]。虽然图灵测试引起了人们的兴趣,但是这并不足以表示人工智能具有与人一样的思维能力。正如约翰·塞尔所认为的那样,强人工智能最终也只能是一种机器,而不可能成为与人一样具有伦理与道德、能像人一样思考的“机器动物”。他在《心、脑与科学》一书中,用“中文屋”(Chinese Room)的思想实验来验证自己的观点[9]。该实验具体如下: 在一间屋中存有一批中文字符和对应的英文规则书,只懂英文的塞尔按照英文规则书的要求将从屋外传入的中文符号以另一种排序方式传出屋外,但他始终不知道屋外传入的中文符号是一个中文问题,而经过他重新排序传出的中文符号是相应问题的适当答案。在屋外的观察者看来,塞尔由于理解了中文问题,从而做出了恰当的回答,但是实际上,在屋里的塞尔却自始至终不会理解这个中文的问题,他只是按照英文规则书来操作符号,即模拟计算机程序工作,至于符号的意义,则与他无关。正如塞尔自己所说:“迄今为止尚无任何理由认为,我的理解与计算机程序,即与在由纯形式说明的元素上进行的计算操作有什么关系。只要程序是根据在由纯形式定义的元素上进行的计算操作来定义的,这个例子就表明了,这些操作本身同理解没有任何有意义的联系。”[10]由此可见,“图灵测试”与“中文屋”的逻辑是相对立的:图灵测试认为只要外表看上去能够做出聪明的行为,就能够被视为人工智能。“中文屋”的测试则认为即使外表上表现得很聪明,可是因为屋里面的人实际上不理解自己到底在做什么,所以不能算是人工智能。
美国人雷·库兹韦尔(Ray Kurzweil)认为,在不久的将来,强人工智能将变为超人工智能。届时系统将智能化到可以自我复制,进而在数量上超过人类,并且还可以自我提高,从而在思想上超越人类,最重要的问题和决定将交由计算机负责。这就是著名的奇点(Singularity)论。他推断,强人工智能将在2030年之前实现,到2045年,超人工智能将会战胜战争、疾病、贫困和个人死亡[7]173-175。然而,正如前文所述,虽然人工智能划分为三个阶段,但是人工智能的发展是否能达到后面两个阶段的水平,我们目前仍不得而知。或许,如影视剧中所设想出的那种无所不能的人工智能场景永远也不能实现。我们认为,当下人工智能所能达到的水平,仅处于所谓的“弱人工智能”阶段,即基于人们生产、生活的需要,在某一特定应用领域较强的人工智能水平阶段。以我国为例,得益于互联网发展所产生的海量数据,以及传感技术和深度学习技术的发展,我国在计算机视觉、语音识别、无人驾驶等应用领域已进入全球前列[11],涌现出一批骨干企业,拥有了进一步发展人工智能技术的有利条件。总体来看,当前,人工智能已经投入到交通、商务、家居、医疗护理、教育、办公等应用领域,这些也是各国政府大力支持、鼓励发展的人工智能领域。
现代科学技术的发展使其呈现出与传统技术完全不同的差异。就传统技术而言,它不能超越人的双手和感官的范围,具有很大的局限性,对社会文明进程的影响有限。而现代科学技术经过充分的发展之后,具有高度的能动性,能够轻易影响到整个社会文明的进程。以人工智能为代表的现代科学技术,“正普遍、深刻而又无情地创造和重塑着人类的理论基础与现实基础,改变着人类的自我认知,重组着人类与自身以及与他人之间的联系,并升华着人类对这个世界的理解”[12]。人工智能时代的到来,让我们必须认真评估其带来的影响,研究人类智能与人工智能存在的区别,分析人工智能给人们生活带来的好处与隐藏的危机,思考人工智能作为科学技术所隐含的意识形态层面的影响。
按照马克思的观点,人类要生存首先就要从事物质生产活动,人在实践活动中不断进行自我塑造、自我发展,人在实践活动中不断改造自己的自然属性,也通过实践活动形成自己的社会属性。人的大脑的进化、人类智能的发展,都是在实践活动中不断进行的,人类也是在不断的实践过程中形成各自群体的历史性、文化性、社会性。而人工智能则有所不同,它是由芯片、算法、数据组成,它不具有意识,它的一切规定性都是由人赋予的。人工智能所展现出来的强大力量,使得人们很容易忽视人工智能的组成基础。学者金观涛认为,人具有自由选择的能力,通过创造各种符号系统来把握世界并赋予世界以意义。人工智能所赖以依存的数学符号系统只是人类创造出来的诸多符号系统中的一种,在数学符号系统的运行规则背后,起码还存在以下四个层面涉及智能的本质:“第一,主体是自由的,可以给出符号并用符号系统指涉对象。语言就是这样的符号系统;第二,人用语言传递知识,组织社会,产生社会行动。这一切会反过来使主体意识复杂化,社会意识由此起源;第三,人会意识到自己有自由意志,让意志指向某种符号系统,创造一个应然世界;第四,应然世界的演变会进一步放大主体的自由,以创造出更为复杂的符号系统”,而“至今为止,人工智能的发展都没有可能涉及上述人类智能的四个基本层面”[13]。中国科学院院士、中国人工智能学会副理事长谭铁牛也认为:“人的大脑是一个通用智能系统,可以举一反三、融会贯通。与之相比,当前人工智能的差距还比较大,比如有智能没智慧、有智商没情商、会计算不会‘算计’。”[14]由此可见,人工智能无法取代人类智能,产生于人类交往活动的语言当然可以被形式化成符号,形式化的符号也能被置入人工智能体中。但是,正如约翰·塞尔所认为的那样,这些客体化了的符号的意义在于它们起源于人类,而人工智能只能以“技术化”的方式工作,这些符号只有通过人来解释才有真正的意义。但是,我们也应清楚地看到,人工智能已经在某些方面对人类智能加以复制和强化,在这些方面已经远远超过了人类智能,而此类人工智能的应用在给人类带来便利的同时也引发了一些新的困惑与问题。
人工智能的应用在日常生活中会给人类带来诸多好处。《当人工智能照进生活》一书,通过汽车、社会基建设施、制造业、农业、物流和仓库、安全保障、零售、安全防范、办公室工作、住宅、医疗、教育、金融等13个领域运用了人工智能之后的改变[15],让我们看到了人工智能给社会生活带来的积极变化。以“自动驾驶汽车”为例,至少具有三方面的优势。第一,驾驶时间的有效利用和运用负荷的减轻;第二,减少因司机的马虎大意而引发的交通事故;第三,通过适当保持车辆间距缓和交通堵塞状况。但是,也有人对自动驾驶提出质疑[16],虽然自动驾驶发生事故的概率降低了,但是事故不可能出现零概率。如果自动驾驶汽车撞了人,甚至导致被撞者死亡,那么,死者家属该向谁追责以及如何追责?如果被追究责任,自动驾驶汽车和一般车辆不同,因为司机不是人类,而让自动驾驶车辆本身来承担事故责任是不太可能被人接受的。那么,当自动驾驶汽车出现失误时,应该由谁来负责?此外,智能医疗设备出现失误的问题,运用人工智能技术导致人们隐私无法得到保障的问题等,已经在现代社会凸显出来。
法兰克福学派已经对科学技术所具有的意识形态性进行过深刻的批判,这一批判至今仍显示出强大的现实性,对作为科学技术发展成果之一的人工智能来说同样适用。法兰克福学派认为,在发达资本主义社会,科技理性、科学技术的活动方法已经成为人类其他活动的尺度,科学技术已经在观念上控制一切。人们在掌握科学技术的同时,却越来越被宰制和操控、被压抑和限制,从而丧失了追求全面解放的信仰和能力。科学技术经历了由祛除蒙昧、反抗封建社会统治的“天使”,到控制、操纵、压制人类,使人变成“单面人”的“魔鬼”的转变[17]。“技术越来越脱离了人类,而变成了人类的主宰。它已经变成了一种无可匹敌的、魔鬼般的、无所不在的力量。它掠夺大自然,剥夺了人们的自由。”[18]科学技术变为意识形态,正是科学技术不断发展,成为第一生产力之后的事情。人工智能作为最前沿的科学技术,又与人们的日常生活密不可分,更容易受到人们的崇拜而形成固有观念,因而更容易操纵人。“科学对我们时代的日常意识具有巨大的权威,这一权威可以被独裁主义加以利用。今天,科学技术操纵已经把自己在日常生活领域中的汇水面积,拓展到劳动过程和政治活动。人们存在着相当普遍的恐惧,担心‘科学技术’操纵将扩展到整个日常生活,使之彻底地‘遵从’。”[19]非但如此,以人工智能为代表的现代科学技术,在推行脑力劳动机械化的道路上不断前进,是否会进一步放大人的欲望,从而成为人类向自然加速索取的工具,进而导致新的生态危机的爆发,这也是不得不考虑的问题。因为,“只要人的欲望还没有自觉地受到约束,人的需要的无限性与外部资源的有限性之间就必定会发生激烈的冲突”[20],从而导致生态危机爆发,威胁人类的生存。
尤为值得注意的是,人工智能所带来的最大影响,可能还在于它的未来发展的不确定性,以及我们未曾估计到的风险。人工智能一旦发展到人类无法控制的程度,将会造成不可估量的灾难。正如比尔·乔伊所认为的那样,在21世纪,人类拥有的最强大的三种技术(机器人技术、基因工程技术和纳米技术)正在使人类自己成为濒危物种。“现在,驱动我们的是巨大的财富和全球竞争。我们是新技术的创造者,也是想象中未来的明星,不顾明确的危险,也不去估计我们的创造和想象的实际结果会是怎样,生活在那样的世界里又会怎样。”[21]
无论人工智能技术会发展到什么程度,首先我们不应该否认,人工智能是由人创造的,且发展人工智能的根本目的也在于促进社会进步,实现人的自我解放和全面发展,如果脱离这一根本目的,人工智能的发展就可能会偏离轨道。马克思在《共产党宣言》中告诉我们,人类社会终将迈入共产主义阶段,“代替那存在着阶级和阶级对立的资产阶级旧社会的,将是这样一个联合体,在那里,每个人的自由发展是一切人自由发展的条件”[22]。人工智能恰恰具有促进人类自我解放的潜能,然而,这种潜能并不是自发显现出来的,它需要一定的引导。
从历史来看,人的发展经历了马克思所说的“人的依赖性”“以物的依赖性为基础的人的独立性”“自由个性”三种形态。马克思在《1857—1858年经济学手稿》中说:“人的依赖关系(起初完全是自然发生的),是最初的社会形式,在这种形式下,人的生产能力只是在狭小的范围内和孤立的地点上发展着。以物的依赖性为基础的人的独立性,是第二大形式,在这种形式下,才形成普遍的社会物质变换、全面的关系、多方面的需要以及全面的能力的体系。建立在个人全面发展和他们共同的、社会的生产能力成为从属于他们的社会财富这一基础上的自由个性,是第三个阶段。”[23]这三种形态的递进转换,其背后是生产力的不断发展,是科学技术带来的物质财富的增长和人们享受到的自由时间的增多。人工智能提高了劳动生产率,是对人类必要劳动时间的极大缩短,为人类的全面发展提供了更加广阔的发展空间。因此,发展人工智能的目的是为了人类的自由和全面发展,实现人的自我解放,而不是牟取暴利、炫耀技术或是毁灭社会。马克思对科学技术推动社会不断向前发展的论断充满信心,但正如乔治·拉雷恩所说:“马克思非常相信理性,但他认为要使人类获得解放,理性的承载者应该是新生的无产阶级而非资产阶级。承载者换了,解放的信念依然未变。”[24]在马克思看来,在资本主义社会,由于资产阶级追逐的是新科技所带来的巨额利润,因而无法承担起解放人类的使命,这个使命只能由无产阶级来承担,只有当无产阶级掌握了科技的力量,人类才能得以解放。事实上,正如核裂变既能为城市提供电力,也能摧毁城市(如切尔诺贝利和福岛第一核电站)一样,人工智能是同时具备潜力与危险的“双重用途”技术。“技术是力量,同一种技术,能用于各种目的。什么事情都是人类自己做的,和平也好,打仗也好,而且人类必然要借助现有技术去增强这些事情。我们会一直这样走下去。”[25]
人工智能的应用所带来的双面性影响,我们在前文已经有所提及。由于目前强人工智能并没有出现,所以强人工智能是否会成为最终颠覆人类文明的“罪魁祸首”,我们不得而知。问题在于,由于人工智能产业的发展,更多的人对人工智能技术抱着完全信任的态度,这就容易陷入“技术主义直线思维”的价值盲区[26],即以为技术的自我发展可以不受价值观念的约束,或者单凭既有的理性知识和经验,可以完全自发地产生价值观念。这种只看技术无视价值观念的行为,其实就是“科技万能论”的拥护者,容易陷入到自我设置的科技理性的陷阱中。这种对科学技术的盲目崇拜,可能导致的不利结果就是:人们在掌握科学技术的同时,却越来越被宰制和操控、被压抑和限制,从而丧失了追求全面解放的信仰和能力。科学技术带来的现代工业文明涤荡了神圣和崇高,自身又陷入了工具理性的牢笼之中。这样,实现人的自我解放就成为了一句空话。
针对人工智能可能带来的问题,我们需要运用不同手段,从制度、道德、监督等不同角度为掌控人工智能技术提供不同的支持与保障。比如,2017年1月,在美国加利福尼亚州阿西洛马举行的Beneficial AI会议上,“生命未来研究所”(Future of Life Institute,FLI)核心成员霍金(Stephen Hawking)和马斯克(Elon Musk)等近千名人工智能领域的专家联合签署了“阿西洛马人工智能原则”[27]。这23条原则旨在确保人类在新技术出现时能顺利规避其潜在的风险,使未来人工智能的研究人员、科学家和立法者有所遵循,以便确保安全、符合伦理规范和对人类有益。在2018年全国人工智能哲学与跨学科思维论坛上,苏令银建议将儒家伦理规范“忠”“恕”“仁”嵌入机器之中,提出三条机器伦理[28]:“忠”是从正面意义上要求机器完成其被指定的角色的任务;“恕”则要求机器不能伤害人类;而“仁”则要求机器通过学习人类来提升道德,同时拒绝做不道德的事情。无论如何,作为人工智能的“主人”,人类负有防范人工智能风险的义务,这一义务贯穿于人工智能机器的研发、制造、销售、使用和管理等各个阶段[29]:在研发阶段,人们负有确保技术安全监管与审慎研发的义务,应该从源头上杜绝人工智能产品中所潜伏着的巨大安全隐患;在人工智能产品制造和销售环节,人们负有及时排除人工智能产品隐患的义务;在人工智能机器的使用环节,人们负有设置符合机器正常使用标准的义务。
从本体论来看,人是一种具有自觉意识的主体,具有在实践中不断追寻意义和实现价值的内在冲动。人在不断进行的实践活动中满足自己生存与发展的需要,也是在不断满足自我需要的基础上,形成了区分好坏、辨别善恶、指导行动的价值观。事物对人有没有价值,只有人自身才有评价的权力。技术本身无所谓好与坏,正如一把菜刀,既可以为人制作出一道精美的菜肴,也能成为伤人的工具,这就要看它与作为主体的人之间的关系。所谓客观事物的好与坏、善与恶、有用与无用、有利与无利、有益与有害,都是相对于主体的人而言的。也许有一天,人工智能的“奇点”时代会到来,或许强人工智能甚至超人工智能真的会实现,但彼时也将会对“人”这一概念、以及人之为人的属性重新界定,而这一议题,目前尚不在我们讨论的范围之内。事实上,无论人工智能有多么“聪明”,无论其有多么“像”人,甚至在某些方面具有超越人类的极大能力,但应该记住,人工智能不过是人的“工具”,是一种机器,是附属于人的。因此,我们认为,人工智能这一工具将来是成为解放人类的力量,又或是成为统治人类、控制人类的桎梏,完全取决于人类自己。我们可以直观地发现,不同的个人、群体或社会势力、集团对人工智能也有着不同的态度,有的拒斥,有的欢迎,即使在欢迎的阵营中,其目的也不一样。我们既不能在享受人工智能技术所带来便利的同时,怀念在心中构想出来的、未曾出现过的田园牧歌式的生活,也不能对人工智能技术所带来的一切不加批判地全盘接受,而应该超越“人工智能非好即坏”的二元论观点,在人类运用人工智能技术的实践过程中完成对其的理性反思。以人工智能为代表的科学与技术的发展,依然会给资本主义社会带来异化的问题。但是,资本主义的异化现象,其根本原因不在于科学与技术,而在于资本主义的生产方式,在于科学与技术的实际控制者资产阶级。正如马克思所说,在资本主义社会,“每一种事物好像都包含有自己的反面。我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳。……技术的胜利,似乎是以道德的败坏为代价换来的。随着人类愈益控制自然,个人却似乎愈益成为别人的奴隶或自身的卑劣行为的奴隶。甚至科学的纯洁光辉仿佛也只能在愚昧无知的黑暗背景上闪耀。我们的一切发现和进步,似乎结果是使物质力量成为有智慧的生命,而人的生命则化为愚钝的物质力量”[30]。在人工智能时代,马克思这一批判性论断对资本主义社会仍具有现实意义。
当前,我国仍处在现代化、市场化和社会主义改革的三重大变革之中,作为科技创新的最新成果,人工智能对推进我国现代化进程、提高我国综合国力具有十分重要的意义。我们目前需要做的是,保持清醒头脑,对以人工智能为代表的新的科学技术加以理性的认识和认真的批判、反思,对科学技术的作用限度进行分析,纾解科技理性和价值理性二者之间的张力,进而结合中国客观实际,更好地指导我国的现代化事业健康前行,为提升人民的福祉而努力,为实现人的解放和全面发展而努力。也许,习近平总书记的这句话可以作为本文的结尾:“中国要强盛、要复兴,就一定要大力发展科学技术,努力成为世界主要科学中心和创新高地。”[2]