岑舟
要击败《星际争霸》玩家,AlphaGo要学的东西还很多
人工智能AlphaGo与职业棋手李世石的五番棋子最终以4:1结束,前三场AI早早锁定了胜局,之后人类为了寻找平衡感,纷纷邀请AI斗地主、打麻将。
真的挑战来自于电子竞技,AlphaGo的开发公司Deep Mind已经准备把下一个挑战人类的项目定位为《星际争霸》。 其实早在2011年3月,DeepMind创始人Demis Hassabis就曾在一次演说中提出了想要用AI智能挑战《星际争霸》的目标。
Demis Hassabis提出了开发出一种可以智能演算游戏玩法的智能机器,他把RTS(即时战略游戏)的经典之作《星际争霸》当做首要挑战目标。当然,这并非易事,包括《星际争霸》在内的RTS游戏中需要大量的操作、局势判断等复杂因素,这也是开发的首要最大困难。
尽管单机游戏里的电脑玩家也被称为“AI”,但AlphaGo这样级别的对手一旦出现在《星际争霸》战局上,将远远比七个“极难的电脑”恐怖得多,因为游戏里的电脑玩家仅仅是通过加资源作弊变得强大,而真正强大的AI胸有韬略,却从来不会心理崩溃。
不过曾经被称为“星际第一人”的“教主”Flash近日公开表示若真与这样的AI对战,自己也可以取得胜利。
韩媒报道,Flash在接受SBS的采访时表示,自己可以战胜AI。他认为星际和围棋不一样,下围棋的时候,你可以看到对手具体下到了哪里,然后再来寻找对策。但是打星际,你不会时刻知道对手在干什么。
同样向人工智能发出宣战的还有前《星际争霸》职业选手“暴风虫族”Yellow,他在个人ins上说,最近到处都在谈AlphaGo,如果以后要挑战星际,就让我上去,给大家展示一下人类的完胜。Yellow认为,《星际争霸》这个游戏眼睛看到的并非全部,还必须得了解玩家视线之外发生的一切。
《星际争霸》、《星际争霸2》以及《魔兽争霸3》可以说是全球最具竞技性的三大RTS游戏,而《星际争霸》系列也被称为史上最难驾驭的RTS游戏。在三部作品中,游戏内置的AI对手数《星际争霸2》最为智能,作为暴雪最近一个开发的RTS游戏,《星际争霸2》的AI对抗在其资料片三部曲中的第二部《虫群之心》中有了一次大幅的改进和优化。玩家可以自行选择AI对手的战术、风格,如将AI设置为以空军为主战单位、前期压制为主要战术的风格,这不但使玩家在对抗AI时拥有了更多的玩法和趣味,也让RTS游戏的智能性有了大幅的进步。
然而,相比真正的人类对手,目前《星际争霸2》的AI仍然会有不足。它仍然需要靠固定的演算方法和你进行对抗,对于审视局势、更高级的判断以及更灵活的应变性操作和人类对手的相似性仍有很大差别。并且与AlphaGo不同,现在《星际争霸2》中的最高难度AI虽然对于新手玩家是一个难以突破的对手,但对于职业的《星际争霸2》选手甚至业余高水平玩家来说,最高难度的AI依然可以轻松击败。
其实无论Demis Hassabis还是AlphaGo都和游戏渊源颇深,因此这次Demis Hassabis提出挑战《星际争霸》其实并不令人感到多么意外。
Demis Hassabis获得过5次智力奥林匹克冠军,也是一位国际象棋神童,最终以两科优等成绩获得剑桥大学计算机科学学位,他创造了第一款包含人工智能的视频游戏《主题公园》,然后创建了视频游戏公司Elixir1,之后离开游戏产业深造神经科学的博士学位,最终于2010年创立Deepmind团队,今天人们说中国的公司为什么投资开发AI的很少,跟学科背景有关只懂编程而不懂脑科学的人根本没有办法涉足AI的设计。
Hassabis不断用人工智能在各种游戏上击败最聪明的人类。他曾经说:“可以说创立Deepmind一直以来是我的最终目的,我用了近20年筹划这个事情,如果你从一个最终我将要从事人工智能研究的角度审视我的经历,你会发现我的每一步选择都是朝向人工智能的,熟悉我的Bullfrog员工都知道,我写的所有游戏的核心都是与人工智能相关的。”
“在16岁的时候写《主题公园》游戏的时候我第一次意识到人工智能的前景不可估量。这款游戏十分畅销,说明玩家享受其中,因为人工智能十分贴合玩家的心意。因此我继续在游戏领域进行拓展,然而在2000年的时候我感觉到我们已经在‘从后门偷偷逼近人工智能研究的路上走到了尽头,因为不管怎么样你的最终目标都只是做出一款游戏,所以我转而去学习神经科学,以期在人工智能领域有所进展。”Hassabis说。
尽管用人工智能进行游戏对战是宣发推广的策略,Deepmind团队最终希望将人工智能用于更多主流的项目当中。Hassabis表示游戏仅仅是提供测试平台用来测试我们的算法。换句话说,所有的游戏玩家都会让AI变得更凶猛,更厉害。
在AlphaGo学会下围棋之前,它其实在玩游戏上已经超越了很多人类。
2015年,Deep Mind公布了AlphaGo前身的学习成果。那时候它的名字还叫“自己学习游戏规则的人工智能”。谷歌在没有给予任何游戏相关情报和规则指示的情况下,让AI玩了49款规则不同的游戏,其中29款的成绩明显高于人类玩家水平。
但大多数的电子游戏的AI仍然非常蠢,尤其是他们扮演游戏中的队友的时候,能不能让AlphaGo来担当游戏里的敌人或者队友,让游戏变得更真实、更刺激呢?
技术上没有任何门槛,但无论游戏厂商经常会将AI多么多么狡猾作为卖点,游戏里的队友仍然呆笨无比,再狡猾的敌人也是有规律可循。即便是在以难度可怕而著称的游戏《黑暗之魂》中,玩家在多次受挫后总能发现敌人的规律进而想出破解之道。
加拿大阿尔伯塔大学的计算机科学博士Dave Churchill曾经解释过:“游戏业界排斥现代AI技术的最大原因是开发者不想在这上面浪费运算能力。”他解释说:“游戏设计师会竭尽全力推动视觉效果发展,但在AI设计上他们可能只会用上1%的技能。”
特效撩人故事性感人们就会购买游戏,至于玩起来发现AI低劣,那已经是购买之后的事了。
除此之外,Churchill还表示,游戏AI的目的性更强也是开发者“偷懒”的原因。当玩家躲进掩体里,AI就会选择投掷手雷或冲上来包抄。AI敌人唯一的目的就是干掉玩家,所以这种“if-then”式的逻辑非常管用,看上去也还像那么回事。比起敌人来,队友AI的任务要宽泛得多,它们没有需要针对的目标,犯傻似乎也就在情理之中了。
至于让游戏更有挑战,开发复杂的AI要花好多钱,不如把敌人的血量和防御调高,把玩家的生命恢复能力降低,或者干脆只让主角找到一半的子弹,改改参数,根本不用花钱。
AlphaGo强大运算能力是1202个CPU和176个 GPU堆起来的,它们加起来的能耗远超200000W,一般的人家里的电脑带不动不说,就算小区里有条强悍不跳闸的线路,电表一小时走200度—好多售电卡一次才卖2000度电。
此外AlphaGo的强大也体现在学习能力方面,就AlphaGo学习围棋来说,AlphaGo有两种学习功能,第一种是根据高手棋谱的学习,第二种是自我对弈,自我学习。如果你让AlphaGo加入到你的电子游戏里,他可能要在你上班或者上课的时候自己单挑BOSS,好等你晚上回来配合你作战。
和队友相比,还是砸馆者的角色更适合阿尔法,从围棋转进RTS游戏,他还需要学不少的东西。
兵种克制、基本套路之类的基础问题自然是首先需要植入的,这也是许多人类玩家在入门时需要掌握的基础。若真想开发出足以与顶级职业选手抗衡的人工智能,则必须要让AI理解一场《星际争霸》游戏的“意义”。
这是人工智能发展最大的困难,在《星际争霸》中,让AI理解一场游戏的意义可以包括“为什么要运营”、“为什么要使用这个战术”之类的问题,从而引导AI电脑做出“何时该补农民、何时该进攻”的判断。
许多玩家在讨论未来人工智能时,往往会提出它们可以完成类似“50个枪兵完美散开躲毒爆”的操作,再强悍的微操高手也无法胜过未来的AI。
但如果只是用这样狭隘的思路去设定未来我们要对抗的人工智能,则失去了创造他们的意义。相信未来我们创造人工智能的更大目的还是为了创造出一个“拟人化到极限”的虚拟对手,而不是创造一个神一般的虚拟对手。
所以,未来一个理想的《星际争霸》人工智能,应该是一个可以利用人类的思维逻辑、人类的操作能力击败你的对手,不用微操赢你也能让你输得心服口服。
输给人类玩家还可以学习和训练,看高手视频、反复练习开局等等,但AlphaGo的学习能力已经让人类目瞪口呆了—他可以不休息反复学习,而人类还要吃饭、睡觉和娱乐。
在《星际争霸》这个项目上,人类也许无法打败AlphaGo,但人类的了不起之处在于,他们可以开发出算法更优的AI打败AlphaGo。
你应该开发出更快的火车来超越之前的火车,而不是吃药打针,憋着和火车跑出一个胜负来。