马迪
2016年1月底的某天晚上,一条新闻同时震惊了体育圈和科技圈,也刷爆了笔者的“朋友圈”—谷歌旗下公司研发的软件“阿尔法围棋”(AlphaGo),在完全平等的5局正式较量中,5:0完胜职业棋手、欧洲围棋冠军樊麾。电脑第一次击败职业围棋手,这意味着什么?
计算机和人类在棋类项目上的正面交锋令人着迷,一向被视为“电脑vs人脑”的终极较量。这个过程中,人类不可避免地节节败退。1997年,超级电脑“深蓝”(DeepBlue)战胜国际象棋世界冠军卡斯帕罗夫,当时曾轰动世界。失落之余,人们自我安慰道:至少我们还有围棋。
“深蓝”之所以能战胜卡斯帕罗夫,凭借的是强大的计算能力—1秒内计算出2亿种可能性,棋手的每一步几乎都在电脑预测之中,一旦露出破绽就会被抓住。超级计算机用穷举法算出了国际象棋对弈的所有变化(大致数量为10的47次方),从此立于不败之地。
但这一招在围棋项目上就行不通了,理由只有一个:算不过来围棋一向被公认为最深奥、最复杂的棋类运动。复杂到什么程度呢?围棋棋盘横竖各19道,共有361个点,最多有3的361次方种局面,约合10的170次方。这是个天文数字—要知道,在已观测到的宇宙中,原子的数量只有10的80次方而已。
另外,布局、形势判断等整体形象思维的能力,这也是电脑短期内不可能拥有的。因此,围棋一直被认为是人工智能难以攻克的堡垒,可以说是“赌上了人类智慧最后的骄傲”。不少计算机专家都认为,电脑要想在围棋上战胜人类,恐怕再过100年也难以实现。
这也就是此次“围棋失利”令人震惊的原因。更惊人的是,“阿尔法”研究团队放弃了“蛮力穷举”方式,而让电脑学习、模仿人类大师的下棋方式。对战中落败的樊麾说:“如果事先没人告诉我AlphaGo是个机器的话,我会以为对手是人类—或许棋路有些奇怪,但很强,是个真正的人类。”
是的,穷举围棋并不是最终目标,就算以后超级计算机能做到这一点,也称不上是人工智能。只有从规律中学习算法,才是解决问题的根本手段。
让电脑像人脑一样思考,甚至超过人的智能,一直是科学家的梦想。人工智能(Artificial Intelligence,简称AI)这个词正式诞生于19 56年,当时科学家们满怀憧憬,信心十足,认为几十年内就能实现这个目标,但这种乐观并没有持续很久。后来的发展事实证明,虽然计算机的运算能力越来越强,却只能执行由人编写好的程序;另一方面,神经学家至今也没有彻底解开人类大脑运行之谜,更不要说制造出超越人的人工智能了。
“阿尔法围棋”之所以能够像人类棋手一样思考,其核心是两套不同的神经网络:“策略网络”和 “价值网络”。其中,“策略网络”负责减少搜索的宽度—将围棋盘面落子选点从几百、几十个缩减为三五个;“价值网络”负责减少搜索的深度—一边推算一边判断局面,局面明显劣势的时候,就直接抛弃某些路线,不再参与计算。两种网络配合起来,不再对每一步及其背后的无数种演变给予同样的重视,从而将计算量控制在可以完成的范围里,本质上和人类棋手的做法是一样的。
2012年,神秘的Google X实验室构建出了全球最大的人工神经网络“谷歌大脑”—由1000台计算机、1.6万个处理器构成的10亿个连接节点。通过“自学”YouTube视频中提取出的1000万张截图,在无外界指令的自发条件下,“谷歌大脑”自主学会了识别人脸、人体甚至猫等类别的事物。
这就是人工智能领域革命性的新技术—“深度学习”。深度学习是指人工智能从未经标记的数据展开学习、训练,自行掌握概念,最终学会辨识声音、图像和其他数据。这更接近人脑的学习方式。
在应用方面,深度学习使得语音图像的智能识别和理解取得惊人进展,推动了人工智能和人机交互大踏步前进。当谷歌公司在其安卓手机操作系统上采用基于深度学习的语音识别技术后,单词拼写的错误率下降了25%,这是语音识别领域10多年来最大的突破性进展。
一旦学会了正确的“姿势”,人工智能的学习效率远超人类。人类棋手一年可能下1000盘棋,而“阿尔法”一天就可以验算几百万盘,它可以24小时无休地自己和自己玩,而且在每一局里不断学习和提高。
“阿尔法围棋”,或者说谷歌的野心是,通过围棋来证明深度学习的算法优势和人工智能的方向。3月,“阿尔法”将迎战韩国职业九段选手李世乭,谷歌为此提供了100万元美金作为奖金。这场比赛可能将成为历史性的见证,让我们拭目以待。
人工智能战胜人类的那一天迟早会到来,大部分人都不能否认这一点,争论只在于这一天的早晚。我们只需要记得:最终,并不是计算机打败了人类,而是人类打败了人类。