Paradox
最开始的时候本来想着做一个科普的内容,但是在耐心研究过之后才发现,Google的世界已经不是我这样没进行过专业训练的电竞记者能够用明确清晰的描述清楚的了。但是,对于人工智能我们还是看到了非常多的误解和偏见,所以有一些基本的不错的提法,还是希望能够有更多的人能够了解。
上一次关于人工智能的热点来自于“Alpha Go”的横空出世,之前的杂志上也做过专门的内容,对于那个阶段的人工智能而言,我们可以清晰的归纳出一些限制条件。这其中最重要的一点是来自于规则,任何棋类运动都拥有非常清晰而且简明的规则,在规则的基础之上,谷歌的DeepMind无论实现怎样的学习,在我的认识里,都还是沿着过去几十年里一般性的计算机算法在前进。换句话说,在Alpha Go的阶段,利用原来的线性逻辑,谷歌实现了让电脑的去学习。Alpha Go的伟大之处也正在于此。
但当我们把规则放到星际争霸中的时候,谷歌虽然只是提供了一些思路,在我看来既然他们敢开启这个项目,那他们对于“混沌”的处理已经到了我们想象之外的程度,在信息不对称和实时交互的环境下,实现对于部分混沌规则的信息提取与分析,听起来确实是一个非常让人兴奋的事情。如果还像很多水友把DeepMind和悍马2000摆在一起的话,我只能说这是对于人工智能的侮辱。
说了这么多,更重要的是谷歌的工程师为电子竞技的选手和数据分析师,提供了一个非常重要的思路,通过这个思路也许我们能够获得完全不同的电竞解决方案,也是电子竞技不同于传统体育的要点所在。
部分混沌的规则
听起来很玄妙的理论,我们可以用非常字面的方式理解混沌,因为部分混沌到底是怎么界定的不是重点,重点在于我们在所有的电竞项目的游戏规则中,我们要直面复杂设计规则带来的不可知。
在传统的思维方式中,我们希望能够有一些模型有效的量化眼前的世界,所以在数据分析的过程中,我们更习惯归纳和总结。但在一定的条件之下,归纳和总结会让我们浪费大量的时间,而游戏本身版本迭代速度惊人,同时很多平衡性调整是牵一发动全身,所以很难实现规律的总结,而DeepMind的思路,通过大量的统计和不断的试错,来是发现相对优的解法。其实这样的方法在电子竞技的训练中是完全可取。以职业选手的训练量和训练水平,我们只需要大量提取数据,很多问题我们完全可以通过经验规律来解决,最重要的是,我们要相信这些规律。
不对称性信息的提取
在一般的传统体育中,场面的博弈中几乎不会存在直观信息的不对称,但是在电子竞技中,不对称的信息是一个非常基础的玩法。但是在数据分析的过程中,我们更喜欢从结果出发,然后提出一些可以支撑的战术分析逻辑。比较好的战术分析师和教练会尝试不断的开关全图,开让选手理解他们的逻辑。但是对于本身不对称的信息到底应该通过什么样的方法来提取,可能我们还做的远远不够。
这不是说我们应该在什么时间把在什么位置插眼或者探路的问题,是从既有的信息中,怎么提取有效信息的问题。我想在这个维度上,不久的将来DeepMind会给电子竞技带来非常多全新的思路,毕竟谷歌是在走在人类最前沿的,如何能够更好的向DeepMind平台学习提取信息的方法,非常值得选手和战术分析师的关注。
实时交互环境的分析
这是人类要强于人工智能非常重要的部分,在我们大脑中,科学家还没法解释清楚神经元对于信息汇总之后的分析是如何精密实现的。DeepMind在星际争霸中遭遇的最大障碍可能也来自于此,但从专业人士口中得到的信息是,在自主学习的过程中,人工智能是把信息的提取和分析剥离。
在这一点上,也是对于一般性思维方式的挑战,我们习惯把很多信息混在一起讲,实际上这样的讲法往往不能切中要害,而追求单纯的控制变量又做不到,所以电竞的数据分析一直都处于一个低水平发展的阶段,而DeepMind告诉我们,越是实时交互环境下的事件,我们越应该把信息的提取和分析分开来处理。
原因很简单,只有朝着这个思路前进,我们才能提高训练的效率。而可能最初的训练体验会很差,但长此以往,我们对于信息处理的能力是可以得到充分训练的,以此因为大量的实时信息的涌入而造成分析困难。简单的说,在星际争霸中,面对三线空投,除了拉农民这样的规避动作之外,在三线空投都已经定位的时候再选择主力的分兵防守,可能比第一时间拉上大量部队回防在最终的结果上要好,可能用一矿的农民为代价保住了最关键的牛塔,然后才能有下一波反击的机会。
结语
对于是不是我们将来要依靠人工智能做为陪练和分析师,是不是要看到谷歌的强大AI与世界最顶尖职业选手的对抗,这些在好的方法论面前都变得不那么重要。过去十几年里,硅谷的很多企业都一直潜心人工智能,这不仅代表着智械危机的将来,也代表着人类应该不断进步的现在。