如今科技急速发展,人工智能已经不再是一项虚无缥缈的实验室科技。你看,在我们的生活中有帮助我们更便捷生活的智能手机语音助手,还有比亲朋好友更懂我们的推荐算法……这些人工智能技术早已渗透人类生活的方方面面。我们现在所处的时代,正以前所未有的速度接近下一次技术革命,而开启下一次技术革命大门的钥匙就藏在人工智能的广阔蓝海中。
[打好基础学习不误]
“小爱同学!”
“我在。”
“播放一首抒情歌。”
“好的,马上为您播放!”
……
面对自动运行的家用电器或与智能音箱对谈时,也许你会对它们的贴心、智能化感到不可思议:机器为何能读懂人类的想法呢?其实,目前的人工智能基本都是基于机器学习技术实现的,可以说,是机器学习让家里的电器读懂了你。
机器学习,就是让机器具有学习的能力,而学习能力正是普通机器与人工智能的分水岭。18世纪中叶,在瓦特改良蒸汽机的时代,开启了人类第一次工业革命的蒸汽机只会夜以继日地重复一个动作,任何看过这台机器的人都不会把它与“智能”二字联系起来。随着科技的进步,人们设计了许多更为复杂的机器,但它们仍然不智能。
20世纪50年代,计算机理论迅速发展,机器学习终于登上了历史的舞台。机器学习的基本思想其实并不复杂,即将大量数据输入人工智能算法(AI算法)中,对其进行训练,让AI算法生成模型,从而实现对事物潜在规律的揭示和对未来情况的预测。
例如,你想观察路过家门口的洒水车,并对它的“行为”进行预测。在观察的前6天,你发现洒水车每天清晨5点准时路过家门口,此时便形成了一个简单的认识模型:洒水车每天清晨5点都会路过家门口。如果第7天是周日,是洒水车司机的休息日(但你并不清楚),你发现洒水车没有像往常一样路过家门口,此时意味着之前的认识模型并不准确。又过了一周,洒水车仍然是周一到周六每天清晨5点路过家门口,周日不再出现,你便可以通过新数据来纠正认识模型,从而更加接近事实。
机器学习的过程与观察洒水车的“行为”差不多。输入数据之前的机器就像一张白纸,它一无所知,就像第一天观察之前你不知道洒水车会来一样。假设洒水车的观察者是一个十分懒惰的人,不愿意动脑筋推测洒水车的运行规律,他就可以把每一天洒水车的“行为”数据输入机器的AI算法中,这个过程被称为“训练”。通过大量的数据训练,AI算法对于洒水车“行为”的预测会越来越准。
[逃不开题海战术]
有了数据之后,我们还需要选择合适的“学习方法”才能让人工智能学得更快更好。你可能听说过一些与机器学习有关的名词,比如“监督学习”“强化学习”等,但却一头雾水,实际上这些名词都是描述机器学习过程中不同的训练方法,它们能使机器适用于不同的情况。
比如,我们想让一个AI算法学会辨认猫和狗,可以采取以下办法:如果提前给它看大量猫和狗的照片,并且“告诉”它哪些是猫哪些是狗,这就叫监督学习;如果我们给AI算法大量猫和狗的照片,但是不“告诉”它哪些是猫哪些是狗,而让它自动寻找猫和狗的差异,这就叫非监督学习;如果让它每次看图后选择图片里的是猫还是狗,答对奖励加分,答错惩罚扣分,它在试图尽量得分、规避扣分的规则下,经过大量训练会自己“进化”出正确辨认猫和狗的能力,这就是强化学习。
正是通过大量的数据训练,机器才获得了强大的能力。就像即使人工智能“阿尔法围棋”(Alpha Go)背后的科学家们并不是围棋大师,有些甚至完全不会下围棋,却能让它战胜围棋世界冠军,这在传统的机器上是不可能发生的。
[机器学习并不完美]
机器学习是否意味着我们与人工智能时代近在咫尺了呢?很可惜,虽然机器学习让人们身边的很多物品越来越智能化,但距离真正的“强人工智能”还有很大的差距,这是因为当前基于数据的AI算法在很多时候有很大的局限性。
比如,一个长期接受“辨识猫狗”训练的AI算法可能会把吉娃娃(一种小型犬)错认为猫,也有可能把无毛猫误认为狗,主要是因为机器学习得到的结果与训练数据高度相关。如果训练人工智能用的数据是有偏差的,比如训练用的猫的照片基本都是有毛的长尾猫,狗的照片基本都是大型犬,那么这样训练得到的AI算法就很容易在辨识某些其他种类的猫和狗时犯错。
目前,人工智能系统的问题在于机器学习的可解释性缺陷,即机器学习是一个“黑箱”过程,我们无法解释它到底根据什么特征做出判断。人类在学习辨认猫狗的时候,往往会把判断特征集中在猫狗身上的某些关键部位。但一个通过图像训练得到的AI,即使结果正确率很高,却有可能把某些判断特征放在环境上,显然是不合理的,会导致AI的应用存在风险。就好比一个自动驾驶AI,如果我们不能判断出它是根據什么做出驾驶决策,那么即使它在推广前的测试中无比安全,也可能在现实复杂路况中犯致命错误。今年3月份发生在美国的一场车祸,就是因为辅助自动驾驶系统错误地把卡车的白色车厢识别为天空,导致其直接撞了上去,完全没有减速。
这也从另一个角度为我们说明了一个道理:题海战术虽然有用,但并不高效,而且会导致潜在错误,要想从根本上学习新知,就要运用因果逻辑,从根本上搞清楚事物的来龙去脉,而这也正是科学家们目前希望在人工智能身上实现的。
[学会判断因果才会升级]
让人工智能实现本质的飞跃,关键就藏在每一个人的大脑中,上天赐予人类的最强大的武器——因果逻辑。
关联和因果的区别在于,关联仅反映数据间最表层的信息,即相关性。举个例子,有数据表明,气温与犯罪率有相关性,气温低的时候犯罪率更高。我国春节期间的犯罪率的确会上升,其原因主要是春节期间小偷的活动变得频繁,而春节又处于一年中气温最低的时间段。如果我们把这个数据输入只懂得分析关联性的人工智能系统中,仅从关联的角度分析,将会得到“气温降低导致犯罪率上升”的结论。如果利用这个人工智能系统预测一个没有春节文化的国家的犯罪率,或者一个气温异常年份的犯罪率,就会得到一个“谬以千里”的结论。
从因果关系的角度出发,我们不仅要分析数据之间的关联性,还要判断其内部的逻辑链条。比如,当全年气温保持不变时,犯罪率是否会变化?如果得到的答案为“是”,那么便可以认为除了气温还有其他影响因素。比如,由于新冠肺炎疫情暴发,2020年春节期间我国国内人员流动降低,虽然冬天的气温仍照常下降,但犯罪率却没有随之变化。
看到这里,大家应该能知道为什么说我们离想象中的人工智能还差得很远,因为人类目前构建的人工智能连判断因果的能力都没有。很幸运的是,科学家已经认识到因果学习是让人工智能实现下一次飞跃的关键,许多科学家相继投入了因果机的理论研究当中。相信伴随着技术的发展,人工智能技术一定会越来越可靠,并且更大范围地造福人类。