梅佳+张薇+晁春彬
“人工智能”与“哲学”,两个看似毫无交集的概念却有着密不可分的联系。复旦大学哲学院教授徐英瑾一直是那个用哲学思维审视人工智能的人,他开设了“人工智能哲学”课程,还出版了专著《心智、语言和机器》。在他看来,人工智能这个新领域需要哲学思维的牵导,这个快速更新的时代也需要一些逆风而行的人。
人物PORTRAIT = P
徐英瑾 = X
P:许多人认为人工智能是技术色彩浓郁的领域,而哲学则高度思辨化和抽象化,二者完全无法联系到一起。能简单说说你将二者联系在一起的理由吗?
X:现在人工智能的发展主要面临两方面的问题。一方面是,关于“人工智能”是什么都不太清楚,对于“人类智能”的概念也没有清晰的定义,不同领域的人有着不同的观点,大家甚至都没有在同一个桌面上讨论问题,整个状态一片混乱,这一点是很糟糕的;另一方面,现在人工智能的研究里,特定领域的人不关心其他领域里的人在做什么,所有的人都只做自己擅长的方面,这也是很不可取的。这时候就体现了哲学思维的重要性,哲学主要是站在更高的角度思考战略性问题,要从根本上理清楚你在做什么。忽视哲学思维的话,如果放在其他学科范式成熟的自然科学领域可能问题不大,但正因为人工智能是历史上没有的新事物,我们才更需要哲学这种战略性思维去做牵导。另外,早期西方人工智能的发展本身也是受到哲学影响的,你像人工智能之父阿兰·图灵就是半个哲学家,像司马贺、麦卡锡这样的人工智能元老也是富有哲学思维能力的。
P:站在哲学领域,或就你个人来看,何为人工智能?
X:哲学本来就是百家争鸣的学科,在哲学界这个概念没有达成共识。就我个人来看,进化论思想对我的影响比较大。进化论的思维强调“怎么以最小投入达到最大产出比”,按照此思路,人工智能应该是“以最经济的投入得到的最具有适应性的行为”的某种转化器。从这个角度看,像阿尔法狗这种大规模投入的人工智能就显得不够智能。
P:你曾经说“儒家本行是做数据工作的”,这个说法很有趣,能具体解释一下吗?
X:实际上儒家所做的事情一点都不神秘,像孔子所做的事情有个很大的特点就是搞数据搜集,像 “风”、“雅”、“颂”就是把周代各个小国家以及社会生活的各个方面所积累的数据做一个典型性的处理。补充一点,儒家并不认为道德养成是要靠说教,而是主张做具体的事情陶冶情操,去除你的浮躁情绪。站在人工智能的角度看儒家,这很像神经元网络的训练模型,也就是网络本身的习性需要通过大量数据喂给它,然后再调整网络内部的计算单元之间的权重,使得网络得以被“养成”。在这方面,孔子思想与基于人工神经元网络的认知哲学的路线是很像的。
P:你曾經提到过“通用人工智能”AGI的概念,它是不是也是出于哲学的视角提出的新概念呢?
X:其实这是一个很大的误会,AGI其实并不是一个新概念,而是最开始的那批具有哲学情怀的人们研究人工智能的初衷,它指的是一个各种能力都具有的、真正像人的人工智能。但在研发的过程中,大家发现做不出来,就只能先做小的领域,例如围棋领域造一个AlphaGo,这样做着做着就背离了初心。但这样下去,人工智能的智慧程度就会有很大的局限性,因为它做不到“通”。所以我还是提倡将这种通用人工智能作为AI的发展方向。
P:你一直在反对以大数据为基础的人工智能,为什么?
X:其实休谟很早就在哲学领域提出过这个问题,最大的弊端在于你通过概括和归纳是永远得不出普遍性的真理的。即便你观察到的1000只乌鸦是黑的,第1001只可能也不是黑的。具体来说,大数据最大的特点是,它不明白自己所做的事情其中的“道”,因此遇到变化时无法有效处理,而智能的特点就在于其中的“变”。从另外一个角度讲,大数据在哲学上让我不太舒服,因为大数据的很多支持者们在哲学上不相信世界上有因果关系,他们认为世界上所有的东西都可以用数据的相关性来解释,而我则相信在现象背后是有更深的因果关系的。因此,大数据最多只能成为辅助我们进行数据处理的一种工具性的东西,而不能成为人工智能核心的研发对象。
P:现在,大数据成了主流性的东西在发展。为什么现在会出现这样的问题呢?
X:站在文科的立场,我们认为技术人员也是人,也具有很多人的特质:懒惰、惯性、容易受权威影响,在一个技术圈里大家相互印证,就很难跳脱这个框架。同时,一些公司是拥有很多的数据资源的,他们会觉得不使用的话才是一种浪费。因此,从这个角度我们也认为不能只留下跟着主流走的人 ,这个时代还需要一些逆风而行的人,才能帮我们看清前进道路上的风险。这也是哲学工作价值之所在。
P:你曾经提到人工智能发展的“商业逻辑”,能展开讲讲吗?
X:今天的人工智能研究受商业驱动的色彩非常浓,而投资方往往要求科研的研发周期能够赶上资本的回利周期。然而,科研的发展周期其实往往很长,急功近利的话就容易产生泡沫。例如现在,根据媒体的报道,人工智能的突破似乎每周都有,但从学理角度看,很多“突破”里面都有水分。目前我认为我们发展AI还是要整合语言学、心理学、神经科学、脑科学和进化论这几大领域,尽管这种结合的周期非常长,但我们一定要放轻松,以吃功夫茶的心态来对待人工智能。目前看来,哲学的这种“慢思维”的确尚且不太能影响快节奏的商业逻辑,但我希望能至少有几个人听到我的声音,能够在不同的技术路径上多尝试几条新路,不要一棵树上吊死。
P:有人认为AI产生意识是不太现实的问题,从技术哲学的角度你是怎么看待的?没有意识和具有意识哪个更加可怕?
X:首先,取决于你怎么定义“意识”,按照我自己的定义,意识和注意力有极为密切的关系,意识就是把你的精神能量聚焦在你要处理的某个信息点上,这也是智能的本质特点吧,也就是面对海量信息的时候,系统要根据任务的重要性来分类处理信息。因此,我认为AI应当有意识,否则它就不会具有足够的智能。
如果抛开哲学,从常识的角度看待意识,AI对社会的威胁的确是存在的,但这一点与AI有没有意识,关系不是太大。具体来看,软件是不可能消灭人的,软件结合硬件才能消灭人,也就是说,你得考虑一下我们该给AI设计什么样子的身体。例如,你把所有的AI都设计成《超能陆战队》里的大白,全部都是能充气的,那一个充气球怎么统治全人类呢——纵然它的内心是“邪恶的”?在我看来,最大的危险其实是有些不负责任的人故意把强智能和强身体结合在一起,这才是最可怕的。因此一些敏感的机器人外围设备,我们还是要严格监管,防止落在不负责任的个体或团体手里。
P:《未来简史》的作者尤瓦尔·赫拉利认为未来可以把世界上最优秀的哲学家集合在一起,讨论道德上的难题,再把方案写到程序里。这样人工智能可以做一些关于伦理道德的决定。你怎么看待这种说法?
X:赫拉利不了解哲学界的行情。首先呢,哲学家的特点就是互相挤兑,而且彼此挤兑了两千多年了。把哲学家关在一个房间里,大家是不可能形成共识的,尤其是关于伦理道德的哲学争议,更不容易达成共识;其次,即使勉强弄出一个共识,“你知道你要做这件事”是一回事,“你如何把它做成”又是另一回事情了。具体而言,所有的道德命令都是人类的自然语言表达出来的,例如“不要偷盗”、“不要奸淫”等等,但如何把自然语言和机器代码具体结合在一起,这将是非常麻烦的事情。