高翔宇
作为科幻大片中不可或缺的主角,人工智能在大多数人眼中是高新科技的代表。如今,随着人类科技的迅猛发展,人工智能已经被广泛应用到生活的方方面面。
不过,你或许还不知道,科学家眼中的人工智能和你以为的人工智能,相差十万八千里呢! 不靠谱的想象
这得从最早的智能机器人说起。
相传周穆王到昆仑山狩猎,遇到了能工巧匠偃师,偃师可以造出智能机器人。他制造的机器人可以像真人一样唱歌跳舞,还可以和周穆王进行眼神交流……
多么不可思议,那可是几千年前呢!
“嗖”的一下,几千年过去了,人工智能技术没有太多进展,依然停留在“不靠谱”的传说中。
直到上世纪60年代,第一次计算机技术大爆发。科学家们乐观估计,人工智能机器人大概三五年内就会出现。但是二十年过去了,人工智能还是停留在传说里。
1988年,科学家马克打破僵局,率先设计出BEAM人工智能机器人。
BEAM机器人是由4个英文单词首字母组合而成,翻译成中文分别是“仿生”“电子”“美学”和“机械”,BEAM机器人就是结合这些要点制作出来的机器人。
这是当时智能机器人研发的四个方向:仿照生物设计动作;利用电子元件控制神经;让机器人看起来很美;同时又很结实。
但是这些依然很不靠谱。 图灵测试
为什么不靠谱?我们所看到的人工智能机器人不正是这样的吗?
外形的确如此,它们拥有“眼睛”“鼻子”“耳朵”……可以模拟生物的应激过程。但是,内心却大相径庭。
在科学家看来,没有“灵魂”的机器人可不是智能机器人。
什么才是智能机器人的“灵魂”呢?那就是机器人的“自主意识”。
在科学界,还真有测试机器人“灵魂”的实验。这就是大名鼎鼎的“图灵测试”。
图灵测试是:让一个人面对两个“人”谈话,被谈话中的一个是人工智能机器人。
谈话结束后,如果我们不能分辨出谁是机器,谁是人类,那么,测试通过。
但是很遗憾,这个测试除了在电影里成功过以外,迄今为止,现实中所有的人工智能都还没有达到通过图灵测试的水准。
这是迄今为止,科学家检测人工智能的最高标准。
现实生活中,我们看到的各种人工智能,远低于这个标准,它们被科学家称为“弱人工智能”。
时至当下,各种弱人工智能机器人已在不知不觉中走进了千家万户,大到可以照顾老人的陪护机器人,小到可以吸尘的智能吸尘器、智能小玩具……
它们的“智能”主要依靠一种叫做“传感器”的东西。
“传感器”这个名词听起来有点陌生,其实它就是机器人“眼睛”“耳朵”“鼻子”的合称!它的功能主要是——
测距:机器人光知道哪个方向有障碍物还不行,还必须知道障碍物距离自己有多远,才好判断下一步行动……
测光:机器人还需要判断环境的亮度。它会根据环境的亮度变化,通过数据库的对比,判定大致的时间季节。
测速:机器人的行走速度对于移动中的精准判断非常重要。当机器人面对较为复杂的环境时,它不光要判断物体的距离,还要判断自己的速度、对方的速度,避免发生碰撞。
这些听起来很深奥,其实,都只是通过传感器来实现的。
但在科学家眼里,仅有传感器的机器人,就算再灵敏,充其量也只是个“白傻甜”的智能玩具,距离真正的人工智能还远着呢。
那么,什么才是科学家眼中真正的人工智能呢?
一眼识别你多疼
这么说吧,科学家眼里的强人工智能,可以“看叶落而知秋,观杯水之冰而知天下寒”。
如果你感到疼痛,眉头一皱,智能机器人就能知道你有多疼。如果你从皱眉变成龇牙咧嘴,智能机器人也能迅速洞察你的疼痛程度加深多少,你的疼痛有可能来自身体里的哪个部分!
这可不是瞎掰扯,而是基于智能机器人——识别、计算、逻辑推理三大系统以及海量大数据的调动、对比、匹配的基础上得出的推论。
这种强人工智能机器人可以帮助麻醉师判断,你在外科手术时是否注射了足量的麻醉剂。
这项技术很像电影《超能陸战队》里的机器人“大白”,它只要看一眼就能判断出你是否受伤。未来的医疗机器人也会像“大白”一样,看到了你痛苦狰狞的表情,就能主动为你提供治疗。等到那一天,或许你就不必去医院排队候诊了。
但“大白”毕竟还是电影里的产物,想实现这一切其实并不容易。因为上述的每一个细小的“智能”,都建立在复杂的数据分析处理的基础上。
举个例子来说,比如:人拿一杯水只需几秒钟,而机器人要想拿一杯水,则要被分成30个动作,每一步都需要计算机的结构化编程、建模,最终也很难做到像人一样灵活。
再比如,当机器人看到一个长方形,它首先得在数据库里收集和这个长方形最像的那个形状:一个窗户?一扇门?一个风筝?
然后根据数值大小进行对比匹配,最后得出的结论居然是:我的天啦,这是一张人脸。
神奇的奇点
不过,科学家也认为,按照目前人工智能的发展速度,强人工智能的到来还是可以预期的。
他们认为,科技发展非常迅猛,强人工智能可能会在某个时间点自动浮现出来。这就是科学家认为的奇点。奇点也是人工智能发生质变的一个关键点。
其实,人类作为智能生物,在几百万年前的某个时刻,也曾经历过这样一个奇点。
从那一刻起,我们从“猿人”变成了“智人”,从此走上飞速发展的道路。
科学家推断,人工智能的成长轨迹可能会像智人一样。
所以,纵然现在的人工智能只是在为人类服务,但是,随着时间的推移,人类会慢慢发现,我们已经成为人工智能的“奴隶”。这种在电影中才会出现的场景,真的可能发生在我们身边。
到那时,人类会越来越分不出人工智能和真人的区别了,就像图灵测试那样!
目前,苹果的机器人Siri,微软的机器人Cortana,都在变得越来越“真实”。
我们偶尔会有点恍惚,为什么“他们”既有礼貌又充满情感?为什么“他们”可以对答如流?这屏幕背后和我们说话的,到底是什么样的家伙?真的只是机器人吗?
你还别说,不光你我,就连科学家们也在掰着手指计算。
有科学家就乐观估计,2035~2080年,是人工智能最有可能出现奇点的时间段。到那时,弱人工智能将慢慢退出历史舞台,强人工智能则会强势诞生。
因为,那个时候,我们生活的方方面面都会被数据化,收集到各家公司的数据库里,加上计算机快速发展的计算能力、分析处理能力,强人工智能会强有力地显现出来。
正如前面所说,在强人工智能机器人面前,一个眼神就能暴露你的内心。
大数据的分析匹配让你的内心无法遁形。根本不需要多说一句话,你会马上得到最需要的服务。这意味着我们的生活更加方便,也意味着我们更依赖人工智能技术。我们的一举一动、生活爱好都将被人工智能监控、塑造,就像现在的我们离不开手机一样,离开人工智能,我们将寸步难行。
遭遇“恐怖谷”
如果这样的情景真的出现,会不会有一点点恐怖呢?
科幻美剧《西部世界》已经开始探讨这个问题。
在现实生活中面对一个“活生生”的机器人,很多人都会产生不适感,落入“恐怖谷”中,因为在它们面前,我们的身体和灵魂都仿佛“没穿衣服”。
“恐怖谷”是日本机器人科学家森昌弘提出的理论。
森昌弘认为,机器人的仿真度越高,人们越有好感。但当仿真度超过一个临界点时,这种好感度会突变成恐惧感,就像坠入“恐怖谷”中。随后,当机器人和人类的相似度继续上升,人类的情感反应又会变回正面,因为我们对机器人已经完全依赖。
这的确很恐怖!
不久前,美国汉森机器人公司研发的机器人“索菲娅”就验证了这一点,因表情反应“太像人”而惊吓到众多网友。
索菲娅的脸结合了电影明星奥黛丽·赫本和科学家汉森妻子的特点,能做出62种表情,皮肤采用汉森公司专利仿生材料制作。
网友们把索菲娅的各种表情截图制作成表情包,称其比很多演员演技还好。索菲娅在接受美国哥伦比亚广播公司电视台主持人查理·罗斯专访时对答如流,展现出人机对话的超强性能。这同样令人感到惊讶。
智能的“灵魂”
目前,中国的人工智能也有了长足的发展。
中国科学技术大学研发的第三代交互体验机器人“佳佳”已经诞生。身高1.6米的她肤白貌美,五官精致,初步具备了人机对话理解、面部微表情、口型及躯体动作匹配,还有大范围动态环境自主定位导航等功能。
有人会问,这么多功能中,最难开发的功能是哪个?
答案有点出乎意料,不是对话能力,也不是自主定位功能,而是面部微表情的变化。
因為表情的变化,最能体现内心,最能接近人的行为表现。在科学家看来,机器人微表情的进化是综合人工智能的最强表现。
科学家说:因为像人,更像人一样有着千变万化的表情,机器人才有了智能的“灵魂”。
仰望宇宙不凡奥秘,探索世界精彩科技。
科技高能量,科学新力量!高能调查员,为你解答——不可思议的世界。