王 鲲
自机器人诞生之初人类便一直存在着“机器人恐惧症”的想法,但机器人真的快征服地球了吗?真正伤脑筋的,是所谓的“人工智能”。但在担心机器人比人类聪明使人类失去存在的必要,或是机器人奴隶反抗人类主人之前,我们先要问的是,人工智能有可能吗?还是先来看看机器人的历史吧!
机器人历史回顾
最早的“机器人”顶多只能算是结构精密的自动化机械,就像你不会称一个时钟为机器人一样。那时的机械以现代的角度来说也称不上是机器人,但想象古希腊人看到希洛(Hero of Alexandria)或阿加扎利(Al-jazari)所做的精巧自动机器(称为Automaton)时,他们的感觉恐怕和我们第一次看到iPhone的感觉差不多吧。而“人形机器人”的概念来自大发明家(兼科学家、数学家、工程师、人体解剖学家、画家、雕塑家、建筑师、植物学家、音乐家和左手倒着写字专家)达文西。他的众多草稿中,就包括一个内含机械构造的武士盔甲。就像大部份达文西草稿内的东西一样,没人知道在当时有没有人做出这么个机器人来,但看机械,似乎会站会坐、会挥手,嘴巴还会动呢!
真正意义上的机器人出现于1959年。美国人英格伯格和德沃尔研制出世上第一台工业机器人。这台机器人外形像一个坦克的炮架,基座上有个可转动的大机械臂,该臂上又伸出一个可伸缩和转动的小机械臂,能进行一些简单操作,代替人做一些诸如抓放零件的工作。
经过了40年的发展,机器人获得了很大的发展——无论在数量还是质量上,这呈现了各门科学技术相互融会贯通的结果。现代工业机器人主要有四种类型:(1)顺序型——这类机器人拥有规定的程序动作控制系统;(2)沿轨迹作业型——这类机器人执行某种移动作业,如焊接、喷漆等;(3)远距作业型——比如在月球上自动工作的机器人;(4)智能型——这类机器人具有感知、适应以及思维和人机通信机能。
智能机器人是最复杂的机器人,也是人类最渴望能早日制造出来的机器人。要制造一台智能机器人相当困难,这就涉及到了人工智能技术。人工智能就是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,主要目标就是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。
谈谈人工智能
人工智能的奠基者,大部份人都公认是英国的数学家图灵(AlanTuring)。他发明了一种称为图灵试验的测试方式,做为机器是否有人工智能的判断标准:让机器和真人分别坐在两个看不见对方的房间里,通过电脑屏幕打字交谈。如果人类无法判定坐在对面盒子里的是人类还是机器的话,那机器就通过了这个“图灵试验”。依现在的技术,要做出在一般性交谈中很像真人的电脑响应程序已经很容易,但拿稍微深入一点的内容去戳电脑,电脑马上就原型毕露了。
这就是为什么一部分哲学家和科学家相信类似人类的人工智能永远不可能的原因——电脑根据输入的文字操弄自己手上的数据库,然后再回答出一个答案来,这样叫做“智慧”吗?电脑知道自己在做什么吗?以IBM的深蓝为例。当年深蓝打败了世界棋王卡斯珀罗夫被誉为是人工智能的一大进步,但深蓝真正在做的,只是把每一步可能的棋步都算出来,并且据此决定什么步数算出来的赢面最大而已。如果接下来问深蓝晚饭吃什么好,深蓝也只有卡壳的份儿。从某些角度上来看,现在的人工智能顶多只能说是强化版的电话语音而已,使用者输入123,电脑就根据这个切换到不同的回答。简单来说,电脑无法像人类一样,整合过去的经验和知识,产生“灵光一闪”的时刻,创造出新的发明、新的设计或新的理念。究竟人工智能还有多遥远呢?
目前科学家面临着两个大问题——辨识和常识。人类在辨识方面没有什么困难(通常情况下),可以从眼睛看到的画面中,分析出每个物体的属性,并且过滤掉不重要的东西:可以从耳朵听到的声音中,自动将不同的声音分离开来,甚至专注在被大音量掩盖的小声音上,一切都不用特别去想就能办到。但机器人就没办法了,它们可以看得比人类清楚,听得比人类清楚,但他们无法知道究竟它们听到的是什么,看到的是什么。人类有这样的能力,源自于长时间的演化,让许多“运算”都被潜意识中的脑力分摊掉了,意识所见到的世界,只是经过潜意识计算处理后,剩下来的简化部份。更重要的,人类有能力跟经验判断、分类未知的事物,而这是电脑办不到的。
另一个人工智能的难题是常识。人类从日常生活中的经验中获得常识。例如“水是湿的”、“时间不会倒流”、“绳子可以拉,但不能推”、“苹果有现实扭曲力场”等,这些事情不能用程序来表达,只能在碰到的时候学起来。海伦凯勒学习“水”的含意的故事大家都听说过,但人类有能力将概念(实物的水和文字的水)连接起来,机器人却做不到。每一样概念都要用程序写进机器人的内存里,机器人才会“懂得”。换句话说,就是机器人没有连结概念的学习能力。
如何让机器人有智能?
那要怎样做,才能让机器人有接近人类的智慧和能力?目前有两派的做法。一派称为“上到下”,另一派是“下到上”。上到下的这一派。认为人工智能,就是将所有机器人该知道的事以“规则”的方式写进机器人的内存里(向阿西莫夫致敬),发现机器人哪里不行,就补充进去,直到完善为止。深蓝是这样,前阵子Darpa大挑战赛也是。这种方式的问题呢?机器人还是没有学习能力。自然,随着规则愈来愈多,机器人会愈来愈像有智慧的样子,但反过来说,只要一碰到规则之外的状况,或是对规则理解错误,事情就糟糕了。我们有可能将所有的规则都写出来吗?有可能,但目前进展非常非常缓慢。或许一个方法是让机器人根据感知补充,或甚至自定规则,但先不说目前的技术还办不到,重要的是,人类敢这么做吗?
下到上则是反过来,不事先设定任何规则,而是让机器人在自然环境中靠着模仿和尝试错误来建立对周遭的理解。这种方式用在像Roomba这样的自动机器人上还蛮成功的,毕竟它只要知道上次往前跑多远撞墙,下次就会在快撞墙的时候转弯,看起来好像有学习能力。但例如要让Roomba靠着“尝试错误”来抓老鼠,就困难重重了。
人工智能的瓶颈
到现在为止,我们还只是在“学习”上面打转,还没有触及“情绪”、“意识”这类更高深的问题。就算人工智能能了解实体概念(水、桌子)、抽象概念(上、下、高、扁),人工智能能有“喜欢”、“忌妒”、“后悔”、“恐惧”这样的非逻辑属性吗?会有高兴、难过这样的情绪反应吗?许多科学家认为这就是机器人和人类的分水岭了:电脑依逻辑运作,因此它的行为都是依照分析现况,找出最适合的动作。反过来说,为什么一定要有非逻辑的判断方式呢?
或许在人类的演化中能找到解答。生物不见得有时间去运算所有的可能性之后,再运算出一个最合适的答案来,因此有“喜欢”这样的情绪,来协助我们做选择;因为有时做的决策不够精细,因此有“后悔”这样的情绪帮我们避免重蹈复辙:有恐惧这样的情绪可以让我们在危急的时候做出快速的反应,而不会因为思考方案而危害生命。机器人如果没有情绪的话,随着智能愈来愈高,总会有停罢的一天的,因为当要计算的问题愈来愈多,或是问题本身有问题的时候,它会没有一个备用的非理性回路让它跳出来。
意识是一个更复杂的问题,因为究竟意识是什么,目前人类还给不出个定论来。这牵扯到了前面提到过的“理解”的问题——假设有一台电脑,完全可以通过图灵测试,可以跟人类毫无问题地交谈,这样算不算有意识?到底和人类的意识差在哪里?这不是一个简单的问题。
所以人工智能目前的发展进度如何?随着电脑科技的进步,部份人类逊于机器的工作,像大型系统管理、文书工作等,都会逐渐电脑化、自动化,直到有一天科幻小说里的那种掌管一切的超级电脑出现为止。这并没有想象中的那么遥远。但是不是超强的计算能力就会让电脑“产生意识”甚至进而“奴役人类”?这可不是件靠单纯计算能力就能办到的事。但科技的进步速度之快,让我们很难对此妄下断言,或许我们该来好好打算一下,要怎么和未来的电脑主人们共处了。
责任编辑尹莹莹