吴冠军
(华东师范大学 中国现代思想文化研究所/政治与国际关系学院,上海 200241)
爱,是人类主义(humanist,汉语学界通常译为“人文主义”)的核心主题之一。当代英国哲学家托尼·米利根在《爱》这部近著中直截了当地宣称:“爱深层次地同我们的人性相嵌联。”[1]放眼我们周遭的日常世界,关于爱的话语铺天盖地:流行歌曲里满是爱,电影电视剧里满是爱,政治家、宗教领袖,乃至心灵鸡汤写手,也全都喜欢谈论爱。爱,被视为解决当代各种“死局”(deadlocks)的根本答案——人际间的“撕”、立场间的“怼”、国族间的“墙”等,爱都被视作应治它们的对症之药。
在当代哲人中,吕克·费希的观点极具代表性。这位巴黎七大哲学教授之一、法国前教育部长晚近宣称,经历“对第一次人类主义的解构”后,哲学已经到达“第二次人类主义”(the second humanism)。伴随着欧洲工业革命兴起的第一次人类主义,产生出了“爱的革命”,亦即,为爱而婚(marriage for love)。在经历解构主义洗礼的当代人类主义(“第二次人类主义”)框架中,爱则进一步成为“意义的一个新的原则”。作为“第二次人类主义”的捍卫者,费希强调:“好生活问题的答案,就在于爱的激情当中”,而不在抽象的“国家、革命,甚至进步(那些外在于和超越于人性的理念)”中[2]。在21世纪的当代世界,“爱已是生活的中心,我们时刻想为所爱之人创造良好的条件,让他们获得最大的快乐、自由和幸福”[3]。
在出版于1956年的代表作《爱的艺术》中,毕生旨在将精神分析拉上人类主义轨道的德国社会心理学家埃里希·弗洛姆提出,爱一个人和爱整个人类,是同一件事。他写道:
如果我真正爱一个人,我就会爱所有人,爱这个世界。我会爱生活。如果我能对另一个人说“我爱你”,我就一定能够说:“我爱在你之中的所有人,我通过你爱这个世界,我也爱在你之中的我自己。”[4]
在这本出版于二战之后被广为阅读的学术著作中,爱,诚然是应对人类世界纷争的根本答案:当你爱上一个人,你会爱上包括自己在内的所有人,你会爱上世界,你会爱上生活。如果世界上都充满着没有爱的人,那各种恐怖的、极端的、“反人类”的事情会不断上演。弗洛姆宣称:“爱,是人类生存的答案”“没有爱,人类无法存在哪怕一天”。[4]6-10+14从弗洛姆到费希,爱被设定为人类主义的核心纲领、至高原则、终极答案。
这个人类主义叙事,很铿锵有力,掷地有声,很鼓舞人,赋予生活以意义,并带来希望。然而,一旦我们把视线从哲学家的话语转到现实生活中,作为“人类生存答案”“好生活问题答案”的爱,就变得很可疑了:“为爱而婚”,却往往没能通达那充满最大化的快乐、自由和幸福的好生活。在日常生活世界中,大量的为爱而婚者,很快就不满于自己选择的爱人与婚姻。当代加拿大经济学家玛丽娜·阿德莎德在其出版于2013年的著作《钱与性》中提出,“没有人准确知道婚外性行为有多普遍;粗略估计出轨的发生率是50%——全部男女的一半在婚姻中都将背叛其伴侣”,这还不包括同居或恋爱关系中的男女[5]。对后者,当代美国人类学家海伦·费雪在演化心理学巨作《爱的解剖学》的2016年修订版中给出的数据是,“当下美国热恋情侣中70%承认有过不忠行为”,并且“今天美国所有婚姻中将近一半以离婚告终”。(1)费雪引用了人类学家劳拉·贝齐格对160个社会的研究,指出通奸(尤其是妻子出轨)是离婚最大的原因。参见:FISHER H.Anatomy of love:a natural history of mating,marriage, and why we stray[M].New York:W. W. Norton, 2016:57, 99, 94.在话语表层,“为爱而婚”很美满;在生活底部,“现实婚姻”很骨感。费希的同行、当代法国哲学家阿兰·巴迪欧在2017年甚至说,“也许,爱已经死了——在任何衡量尺度上,它都陷入严重疾病中”[6]。
在人类文明的发展中,我们一次次见证:智慧不够,技术来补。很多人类失败跌倒之处,最后都靠技术革新而顺利过关(如用刀斧而非武松那样赤手空拳斗大虫)。幸运的是,在今天,爱的场域正在被人工智能算法所“智能化”——智慧不够,智能加持后总够了吧。2012年以来,以“人工神经网络”机器学习模式为进路的人工智能(“窄人工智能”)发展进入快车道(2)参见:吴冠军.人工智能与未来社会:三个反思[J].探索与争鸣,2017(10);吴冠军.告别“对抗性模型”:关于人工智能的后人类主义思考[J].江海学刊,2020(1).。“后人类”的人工智能,能帮助人类解决爱的问题吗?未能成功的“爱的革命”,能否被“算法革命”所拯救?
顾名思义,“人工神经网络”以模仿人类大脑神经元网络联结及其信息处理模式为进路来实现人工智能。人工神经网络最早可上追到20世纪50年代,今天“深度学习”领域领军人物杰弗里·辛顿等人亦在20世纪80年代就已投身于这一进路的研究,然而2012前这个进路始终只是人工智能研究中的一个冷门偏支。发生在2012年的一个突破是:GPU(用于电脑游戏的图形处理单位)被创造性地用于深度学习,极大地提高了计算能力。然而,光计算能力提高仍然不解决问题,神经网络算法必须用专门的数据“投喂”才能变得强大。
和任何算法一样,神经网络算法包括输入(信息)与输出(决策);其独特之处在于在输入端与输出端之间,模仿人类大脑(本身是一个极其强大的生物化学算法)而设置了大量的人工神经元。每个人工神经元节点都有可调的内部参数(包括权重、偏移等),从而调整彼此之间的联结。简言之,人工神经元节点做的事,就是按照自己的权重参数把输入值相加,再加入偏移值,形成一个输出值,如果输出值大于某个阈值,该神经元就被“激发”。人工神经元之间的可调整联结,就构成了可“学习”的人工神经网络。
最早的人工神经网络就只有输入与输出两层(每层包含一组节点),但是“学习”效果有限。(3)计算机科学家弗兰克·罗森布拉特在1950年代就提出包含输入层与输出层的网络,并于1960年制造出名为“感知者”(perceptron)的机器,能够完成简单模式识别,但其能力有限,人工智能先驱之一的马文·明斯基及其弟子西摩·帕佩特就在1969年合写《感知者》一书,分析了这种机器的能力界限。在明斯基等人看来,这条进路很难走通。随后的研究者在输入与输出层之间不断加入中介层(又称隐含层),在各层之间有大量的带有矢量的联结通道,后一层只需在前一层的基础上进行进一步处理。这样一来,人工神经网络就引入了不同维度与角度来观察与评估同一事物——无须经由最终输出与理想值之间的比对来给予反馈,每一层的中介计算单元都能对上一层的输出做出反馈(4)福岛邦彦在1980年设计的命名为“新认知”(neocognitron)的人工神经网络,就已经奠定了联结彼此的输入层、输出层与中介层结构。。这种“更深层”的神经网络,就形成了“深度学习”(5)人类大脑神经元数量将近1000亿,每当你有一个想法,至少有几百万个神经元被激发,这就意味着,人脑本身就是一个非常“深度”的神经网络系统,具有强大的算力。现在脑机接口技术发展瓶颈之一,就是大脑每时每刻释放的信息过于巨大,现有脑机接口的脑电信号传递通道“带宽”远远跟不上:假若大脑中1%神经元同时放电,就相当于1秒发送400部高清电影,是现有技术“带宽”的几十万倍(现有商业化最好的植入式犹他电极,也只有100个电极,能采集几百个神经元的活动信号)。。
同人的学习一样,神经网络算法的“学习”需要经验性的训练与不断的反馈(相当于大量做题与考试),通过错误“反向传播”(back propagation)来进行学习。诚如盖瑞·马库斯与厄内斯特·戴维斯所写到的,“训练一个深度网络,就是给网络一大捆例子,并且是带有正确标识的例子”[7]。用大量“数据”训练神经网络的过程,就是反复经由尝试-错误-调整(trial-error-adjustment)的进程不断“优化”各个神经元内部参数、使之产生不同联结,从而使得神经网络最终输出更接近理想输出。换言之,对于神经网络而言,“习得”就是联结权重的获取——通过误差处理而不断调整网络内部各节点之间的联结权重(增强与减弱),从而“收敛”(converge)系统在处理某专门问题时所得出的实际解与理想解之间的差值。
但这种“学习”方式和人类不一样的地方就在于:一个小孩子不需要海量数据训练就能很快学会辨识鸡(或其他事物,譬如某个人脸),然而人工神经网络却需要大量标明“鸡”的素材数据,才能进行“学习”。“深度学习”的“学习”效果,建立在中介层的数量与每层的神经元数量上。但是,一个网络的层数越多,需要的训练素材也就越多。同时这也意味着,人工神经网络的“深度学习”非常消耗计算资源:每多加一层、每层多几个神经元,都会使计算量大幅增加。
GPU的创造性使用,将计算能力提升上百倍,算力问题被解决了。然而还有另一个问题:作为训练素材的数据十分稀缺。华裔人工智能专家李飞飞团队自2010年开始组织了叫作“ImageNet”的机器学习图形识别比赛,该团队向所有参赛者提供一百万张图片作为训练素材(这些图片全部经人工标记了图中有什么物体,总共约有一千个物体分类)。而这样的可以用来有效训练神经网络算法的数据库,在当时几乎是少之又少。然而,一个彻底改变这种状况的巨大变化,在2010年代到来了,那就是:大数据革命。“当在2010年代早期大数据革命到来,神经网络终于迎来了它的好日子。”[7]46互联网与移动互联网的数字平台以及联结各种感测设备的物联网,使得数据采集变得越来越容易。包括“脸书”在内的平台突然发现其真正的财富不是广告收入,而是它所拥有的海量的带有标注的数据(6)2013年“脸书”就拥有500亿用户标注过的图片,参见:Scaling facebook to 500 million users and beyond[OL][2022-04-20].facebook.com, https:∥www.facebook.com/notes/facebook-engineering/scaling-facebook-to-500-million-users-and-beyond/409881258919.。在大数据的支持下,神经网络算法能够通过“监督学习”(supervised learning)——亦即,能够不断得到用户反馈的学习模式——高效地调整其内部参数,优化神经元的联结结构与联结强度。
正是芯片跃升与大数据革命,人工智能算法在今天可以击败顶级围棋棋手,可以具有远胜人类的阅读唇语的能力,可以辨识出图片中人类眼睛根本无法发现的螨虫……于是,近十年来,数据变成了比石油更有价值的资源(7)2017年6月菜鸟(阿里巴巴旗下快递业务平台)与顺丰互相关闭数据接口,并随后互相指责对方存在数据安全问题。这场在两大快递平台之间的“数据接口”之争,清晰地标识出:用户产生的数据,才是平台真正在意的价值。参见:顺丰和淘宝相互“拉黑”;专家:背后是物流数据利益之争[OL][2017-06-03].http:∥www.cankaoxiaoxi.com/china/20170603/2076729.shtml.。诚如当代法国认知神经科学家斯坦尼斯拉·狄昂所写,“实际上,机器学习已经快成为大数据的同义词:没有海量的数据集,算法在抽取抽象知识并一般化到新情境上会寸步难行”[8]。
神经网络算法,使得“平台资本主义”脱胎换骨:大数据不再仅仅是平台聘请的数据分析师的工作对象,它同时使得专门领域的“窄人工智能”之指数级发展成为可能。(8)晚近10年媒体上讨论的“人工智能”,都是处理特定问题的“窄人工智能”(narrow artificial intelligence)。那种更符合人类智能形态、能跨出专门领域限制的“通用人工智能”(artificial general intelligence),现在仍然没有成熟的技术实现的路径。像“世纪佳缘”“珍爱网”以及“Tinder”“OkCupid”“Match”这样的互联网婚恋平台,原本主要提供基于大数据的搜索引擎(本身就是一个算法)服务。平台的搜索服务,诚然改变了当代世界爱的场域:以前想找爱侣的人,只能以每个对象为中心来逐个进行了解,想办法在能承受的成本(如约会开销、时间、礼物……)下获取尽量多的有效信息,现在是以“我”为中心在平台上批量搜索。阿德莎德在出版于2013年的著作《钱与性:经济学如何影响性与爱》中提出,“互联网具有提升婚姻质量的潜能——这是因为在线搜索的低成本鼓励人们调高等待价值”。[5]98换言之,由于数字平台革命性地降低了搜索成本,人们会倾向于努力去寻找自己的“对的人”而不轻易将就。在没有数字平台的时候,人们只能尽量搬到人口稠密的大城市中生活,因为在那里搜索成本相对较低。但即便如此,很多人仍然会停步于接受一个“并不理想的匹配”,“因为继续搜索的前景太过于让人气馁”。(9)阿德莎德举例:某女性若是没能在最近几年结婚,那么她生育孩子的机会就明显减少了。对她来说,长期搜索的“代价”可以直接衡量为有可能无法生育孩子的价值。参见:ADSHADE M.Dollars and sex:how economics influences sex and love[M].San Francisco:Chronicle Books,2013:96-97.而当搜索成本降下来后,“等待价值”就上去了,“人们愿意多搜索,以期找到一个更高质量的配对”。[5]97
在神经网络算法开启的算法革命,使得数字婚恋平台革命性地提升了对数据的使用:经由神经网络算法加持,平台得以向用户提供智能化速配服务。现在,除了用户自行搜索,婚恋平台向他们提供神经网络算法输出的“最优化”配对服务。匹配的精准度,就建立在监督学习对算法内部参数的调整与迭代上(10)由于婚恋平台的数据只能用来训练智能速配算法,所以形成的是一种窄人工智能。。著名约会平台“咖啡遇上百吉圈”(Coffee Meets Bagel)将用户每天活动数据关联到被起名为“朋友的朋友”算法上,该算法是一个深度神经网络,外加9个模型来评估匹配度,最后给出一个“收敛”后的分数(11)在该平台上男性用户每天可收到最高21个匹配(“百吉圈”),而女性用户最高可收到4个。参见: SYCHIKOVA Y. AI in dating:can aritificial intelligence algorithms help you find love?[OL][2021-08-26].https:∥datarootlabs.com/blog/ai-in-dating-can-algorithms-help-you-find-love.。数字婚恋平台有经用户标注的海量信息数据,以及他们在平台上的海量行为数据(用哪些参数条件进行搜索、页面停留时间、跟谁建立联系、建立后互动频繁度如何、同时和多少人热络联系、多久改变交往状态……)。诚如当代加拿大马克思主义学者尼克·斯尔尼塞克在其2016年著作《平台资本主义》中所言,“用户执行的每一项操作,无论多微小,对于重新配置算法和优化进程都是有用的”[9]。在作为训练材料的海量大数据支撑下,神经网络算法很快就能越来越“精准”地进行智能化速配。
被神经网络算法加持后的平台资本主义,难道不是一场“哥白尼式”革命吗?此前是“我”主动搜索寻找信息,现在整个宇宙(市场)围绕我转,所有跟我“适称”之对象的信息都自动朝我奔来……如果说以搜索引擎算法为内核的平台资本主义是1.0模式的话,那么有了神经网络算法加持的平台资本主义则彻底进入2.0模式。
诺贝尔经济学奖得主加里·贝克尔在《人类行为的经济分析》中,从经济学研究进路构建“婚姻理论”。在该理论分析框架中,人类的婚姻在根本上是一种市场行为。财富、教育程度等元素被看重,那是因为人们会根据成本和收益来选择使自己“效益最大化”的对象结婚,“当且仅当男女双方境况都有所改善(亦即,他们的效益均有所增加)时,婚姻才会发生”[10]。如果预估婚姻带来的去除成本后的净收益还不及婚前,那么人们就会选择独身。婚姻的好处很多,两个人通过婚姻结合在一起可以避免支付交易费用,降低生活成本与家庭商品的生产成本,家庭内部信任也可以减少监督与管理费用。在贝克尔看来,在充分自由竞争的“婚姻市场”上,每个人都能找到和自己最匹配、使自身效益最大化的伴侣,亦即,抵达均衡状态。换言之,只要你有通畅的信息渠道,并且有计算理性与足够耐心,可能再加上一点运气,你一定可以找到彼此都“效益最大化”的那一位携手人生。如果不是双方“效益均有所增加”,即便进入婚姻,其稳定性也会堪忧,因为它没有处在均衡状态上。于是,要走的人,就让他/她走,不用痛不欲生——留下来日后才极可能会令彼此痛不欲生。
尽管贝克尔著述中没有涉及算法或做出过相关论述,贝克尔的婚姻理论实际上构成了一个婚姻算法。贝克尔完全可以找几个程序员合作,开发一套App,将其著述里大量数学公式嵌套与集成到软件程序里,让计算机负责依照算法设计的具体步骤展开计算(12)参见:吴冠军.爱的算法化与计算理性的限度:从婚姻经济学到平台资本主义[J].人民论坛·学术前沿,2022(10).。贝克尔主义婚姻算法与作为“窄人工智能”的智能速配算法,尽管旨在处理的问题几乎全然一致,亦即,解决现实生活中“为爱而婚”的困境,使人更有效地找到“对的人”。然而,就算法工作机制而言,两者实则是天差地别。
贝克尔开发的婚姻算法,是依据一组经济学原则(效益最大化行为、市场均衡、基本偏好稳定等)建模,所有结果都是基于算法模型的计算而得出。神经网络算法则把计算给“黑箱”化了——它不是以基于符号性原理搭建模型为路径,而是直接采取经验性的大数据训练,其输出的结果并不包含计算与推理过程。换言之,在这种采取联结主义进路的算法中,计算并未消失,但计算过程对于理性而言,变得彻底不透明(13)不只是机器,其实,人类大脑对于人的符号系统而言,相当程度上也仍然还是一个“黑箱”:神经元之间通过电信号来进行排布与联结、以及向身体发布指令,实际上是一种神秘的“语言”,人完全不知道其“语法”。现在脑科学在做的,只是把分析处理后的脑电信号,跟人的行为、精神状态做一个关联和对应。就像把“apple”“running”等词汇通过观察去对应说话者的相应行动,但却完全不懂这门语言的“语法”(大脑的生物化学算法)。不知道语法,那就是黑箱,在这点上人工智能和人脑完全一样——我们只知道它们在符号层面表现出来的“结果”,而不知道其语法(对于符号系统彻底不透明)。。
作为婚姻算法的设计者,贝克尔——只要时间与精力允许——能做到对每一个输出结果自己用计算来加以核查。App软件如果程序执行环节出了错,是能够被找出来的。但智能速配算法的设计者则完全无法对算法输出结果置喙——无论是复盘计算过程抑或对结果提供解释。对于算法软件给出的结果,你要么认,要么不认,理性无法对结果产生的过程给做任何核查。
我们知道,权重值改变会影响算法最终的输出结果。婚姻算法里是由工程师来调整权重值,而神经网络算法则是通过学习自动调整权重值——只要机器学习开始,很快算法的开发者就无法弄清楚权重变化。海量数据产生的复杂性,使得包括算法开发者在内的所有人类,都无法预期数据训练的成果,也无从解释清楚为什么输出结果是这样而不是那样。2017年5月,世界围棋冠军柯洁在败于“阿尔法狗”之后对棋局重新复盘,最后却在自己微博上写道:“我看过AlphaGo自己跟自己对战的棋谱,像天书一样——因为它算得太远了,我根本看不懂为什么这一步要这么下。”[11]对于人类最出色的棋手,“阿尔法狗”不仅仅是一个胜者,而且是一个恐怖的怪物(“黑箱”)。在出版于2015年的《未来简史》一书最末,尤瓦尔·赫拉利颇为伤感地写道:“最早的种子算法或许是由人类开发的,但随着算法逐渐发展,就会走出自己的路,前往人类未曾踏足之地,而且人类也无力追寻。”[12]人类是神经网络算法的父亲,但自己那深度好学的孩子却变成了无法理解的怪物,并将自己远远甩下。
现在,我们面前有两个黑箱:这两种黑箱,都具有“向内性”(inwardness)(14)这个词我借自格雷汉姆·哈曼,而哈曼则借自西班牙哲学家何塞·奥特加·加塞特。,从外面无法看清里面。爱对于理性是不透明的、黑箱式的:理性无法解释为什么卓文君见了司马相如没几面就“愿得一心人,白头不相离”。智能速配算法对于理性同样是不透明的:为什么把A同B而不是条件显然更般配的C速配在一起,理性也会充满问号。如果说爱对于理性是彻底怪物性的,那么神经网络算法对于理性而言,则堪称是怪物性的算法。为了让输出结果不至于是彻底怪物性的,现下很多被投入使用的智能速配算法,实际上采用的是“混合”形态,即人工神经网络+符号性模型。上文提及的“咖啡遇上百吉圈”所使用的“朋友的朋友”算法就是混合形态算法,对于神经网络的输出结果,算法进一步用9个模型(15)该平台并没有公布它们是哪些类型的模型,可以是经济学模型、行为科学模型等。来层层加以矫正,这样就能保证最终输出的结果在理性之眼中总是顺眼的。
在2012年之前,人工智能的主流进路——现在在人工智能研究界被称作“古法”(GOFAI,good old-fashioned AI)——采取的是符号主义进路。古法算法一般包含如下三个子系统:(1)内置符号识别的子系统;(2)内置句法规范的子系统;(3)一套表达式操作程序(用以规定出在怎样的条件下,向算法输入怎样的表达式,算法便会输出怎样的新表达式)。这种基于符号性规则(譬如游戏规则、经济学原则……)的算法,在演绎推理上非常强。1997年击败国际象棋等级分排名世界第一的棋手加里·卡斯帕罗夫的人工智能“深蓝”,就是一套古法算法:它首先用计算机语言来翻译国际象棋规则,并以这套规则为内核来建模。
古法算法即便再复杂、运算再庞大,对于人类并不构成一个“黑箱”。机器学习专家史蒂芬·马斯兰做出如下比较:“早期人工智能有时被称作符号性过程,因为计算机操控诸种映射环境的符号;与之相反,机器学习方式有时被称作亚符号性的(subsymbolic),因为没有符号或符号性的操控会被涉及到。”[13]古法算法的局限就是,提前由人类开发者翻译和输入的规则是死的、硬性的,它既无法完全涵盖现实世界所有的符号性规则、知识、律令,并且,也无法被算法自动更新——你给人工智能输入不得杀人这条规则,但该规则如果允许能够被自动更新,那就白设定了。古法算法很难应对规则没有指定的状况,也无法通过自己“学习”来应对。
不同于采取符号主义进路的古法算法,采取联结主义进路的神经网络算法完全绕过构建意义、规则、律令的符号之域(the Symbolic),而直接处理事实性的数据。深度学习的学习对象完全不是人类符号性构建起来的“知识”(在校学生学习模式),而是直接从经验中进行试错学习(学龄前幼童学习模式)。古法算法的关键在于语言层面的翻译,而神经网络算法的关键在于数据层面的统计。
联结主义智能速配算法非但不建立在经济学模型上,甚至连更底层的因果模型也不需要——它既不关心“理由/理性”(reason),也不关心“肇因”(cause)。算法不处理是哪些因素导致你感受爱意,或者你本人如何理解与解释这份爱意,它只处理相关性(如果你老是同健身房遇到的异性出去约会,健身房就与你的爱意关联了起来)。神经网络算法只以数据的投喂来提高自身判断的智能:你频繁做出某些事,你就强化了人工神经元彼此间的某个特殊联结,并使它调整参数。神经网络算法不做意识形态分析、话语分析、精神分析,也不进行道德判断、政治判断或其他类型的规范性价值判断,它关注统计学上的事实:知道你做过什么就行(数据),不需要知道你为什么这么做(主观理由)或什么导致你这么做(客观肇因)。
梁启超先生当年所批评的“常若知其然而不知其所以然”(16)参见:梁启超.论小说与群治之关系[OL][2021-08-26].https:∥baike.baidu.com/item/论小说与群治之关系.,可以完美对应到神经网络算法上。神经网络算法的智能基于相关性(correlation),而非因果性(causality)——它用统计方法找变量间的相关性,而完全绕开它们之间可能有的(或者没有的)因果关系。神经网络算法和经济学距离很远,和统计学距离很近:统计学拒绝讨论X引发Y,只是讨论X与Y相关,它聚焦于总结数据,而不是解释数据。这也就意味着,尽管算法的智能可能远远超过人类,但它并不像人那样,以符号性的方式“知道”数据的内容。
今天,谷歌、讯飞等推出的人工智能翻译机已经能做出非常高质量的即时翻译,然而不同于人类同声传译,人工智能翻译机实际上根本“不懂”任何一种语言:只要有足够多数据所给出的相关性,人工智能就能“无理解”地进行翻译。人类同声传译的质量与速度,取决于译者对原句的“理解”,然后再转换为另一种语言,而人工智能则完全跳过既耽搁时间又影响质量的“理解”环节。相关性,成为大数据时代的“王道”;(对原理、机制、因果关系的)理解、解释,则恰恰成为人类智能输给人工智能的“智能累赘”。
训练神经网络算法的大数据,其带来的革命性就在于:不用对数据进行随机抽样以获取相对可控的样本空间,而是直接将全部数据作为样本空间,越多越好,训练出来的算法越智能(就解决指定问题而言)。在这个意义上,诚如当代瑞士数字文化学者菲利克斯·斯塔尔德所言,大数据甚至不能被称作数据,而是应被称作“元数据”(meta-data),因为大数据分析并不聚焦于信息的内容,而是聚焦于它们彼此的关联[14]。海量数据之间的相关性,彻底超出人的理性分析(以因果推理为内核)范围——神经网络算法在这个意义上,诚然是“后人类”的。
狄昂提出,人的大脑在其意识层面,“规划出关于世界的诸种符号性的表征与明晰理论,我们能够通过语言来同他人进行分享”。人的意识的三大特征是:“慢、理由化的(reasoned)、符号性的”[15]。用狄昂对人脑的分析来反观,神经网络算法的智能就体现在:快、无理由、黑箱性。它所做的“后人类”计算,无法用语言进行描述、传播。“我们的知识通过符号的组合而成长”(狄昂语)[8]39,神经网络算法则通过数据的投喂而提升。基于符号化系统,人很容易在彼此之间传递知识(“学习”),但人工智能“机器学习”所得出的知识,则都体现为神经网络里的那些参数——参数本身没有意义,它的知识是个“黑箱”。
从理性视角看出来,爱很“后人类”,人工智能也很“后人类”,两者都距离理性计算的“人类”很遥远。那么,爱和机器人(基于神经网络算法),是同一种后人类吗?
答案是否定的。尽管算法黑箱与爱(“心”),都具有理性彻底无法穿透的“向内性”,因而在理性之眼中都像是怪物。然而,两者却仍存在着根本性的差别——神经网络算法其实只是看上去像怪物,如果一定要称其为怪物,那它也是“理性的怪物”。那是因为,算法黑箱并不是像爱那样无理性地疯狂,而是无理性地有效(unreasonably effective)——其判断不需要任何原则或规律(如物理学规律或经济学原则)的背书而有效。
爱的怪物性在于,它会恐怖地彻底刺出人类理性设定的轨道;而神经网络算法的怪物性则在于,对于理性给出的目标,它会以理性无法理解的方式完成得比人类更好,这让后者感到恐怖(17)对于这份恐怖的政治哲学分析,参见:吴冠军.神圣人、机器人与“人类学机器”:二十世纪大屠杀与当代人工智能讨论的政治哲学反思[J].上海师范大学学报(哲学社会科学版),2018(6):42-53.。换言之,神经网络算法只在计算过程上“无理性”(不透明、不解释),但在输出结果上则完全理性(完成理性给出的任务),尽管可能会带来“未意图的结果”(unintended consequences)——譬如人类给过去的目标是解决人类世的生态变异问题,其输出方案是把人类从行星表面抹去(人类眼中彻底“非理性”,但超越人类中心主义视角来看恰恰相当“理性”)……算法黑箱是理性的怪物,爱是激进的怪物——哪怕是个“最谨小慎微的疯狂”,也会让爱者冲出理性轨道而亲吻死亡(18)莎士比亚在《罗密欧与朱丽叶》中,把爱称作“一个最谨小慎微的疯狂”。参见:SHAKESPEARE W.Romeo and Juliet[M].New York: Cliffs Notes, 2000:34.。
你准备早日迈入婚姻殿堂,贝克尔主义婚姻算法App与智能速配算法App都放在你面前——你会选择哪个算法?哪方更智能?
让我们将这场较量拉到最豪华的层次:假使一位具有国际学术声誉的顶级贝克尔主义经济学家(贝克尔本人于2014年辞世)降尊为你提供婚姻咨询,另一边是顶级大平台(参考“脸书”)的钻石VIP智能速配算法,服务收费一样,你该购买哪个服务?或者你不差钱两个服务都买了,经济学家帮你算下来认为你和A“完全适称”,高质量对高质量,跟他/她有很大概率可以白头到老;智能速配算法则向你推荐了和你“匹配度”高达98%的B,但未像经济学家那样帮你掰开来分析为什么他/她是那个对的人。你该遵循哪方建议的人选?
这个问题没法学术性地回答:因为我们不知道经济学家与平台数据库各自在什么水准上。这是一个实践性的问题:就如“深蓝”和卡斯帕罗夫、“阿尔法狗”和李世石,只有直接较量过才能分胜负。但问题在于,这是你的人生,婚姻这件事无法搞个实验组与对照组,各结婚10年(或同时结婚10年)然后比较结果。
如果你的婚姻一定要交给算法来决策的话,我觉得可以押宝一下智能速配算法,不仅仅是因为后者软件迭代快、硬件算力高,而且很关键的是,平台掌握着远为更充分的市场信息数据。即便经济学家也有本事采集到同等量级数据(实际上不可能),但他/她根本没有时间与算力做到把所有数据都纳入分析。并且在做具体的候选人配对计算时,婚姻算法构建的数学模型,本身对现实做了简化,杂多的数据亦无用武之地。
在上述分析的这些因素之上,还有一个更为关键的因素:神经网络算法会比你更知道你是一个什么人,对推荐过来的B也同样如是。换言之,你和B的高匹配度并不是基于你们各自对自己的认知(这包括你对经济学家提供的信息),而是基于你们所作所为的海量事实。
人工智能研究专家史蒂芬斯-大卫德维茨曾提出,“每个人都说谎”,把自己说成自己所不是的那个人,只有算法才揭示出“我们真正是怎样的人”[15]。譬如,那位阳光外向的同事,实则情绪低落甚至抑郁;那些在受采访时说投票希拉里的人,实则投给了特朗普……那种种不为人知的情况(同事亲友甚至配偶都不知道),谷歌却可能知道,因为当人们搜索的时候,其所用的关键词会暴露出情况。故此,你会说谎,对别人甚至也对自己说谎,平台算法比你更知道你是一个什么人。
面对各种具体事务的你,平时并没有全力做到“认识你自己”(刻在德尔斐神殿上的箴言)或“吾日三省吾身”(写在《论语》里的箴言),或者根本没有做过这方面的努力。这就是说,你思维里的很大一块,构成了你自己认知地图上的“黑箱”——精神分析把这一块称作“无意识”。这一块里充满着被社会的文明性典章(规范、伦理、法律、礼仪、禁忌……)压制下去的内容,平时很“文明”的你自己“意识”(理性/理由)也不想知道的内容。正是在这个意义上,神经网络算法是“真话代言人”:假设你的生活被整个地卷入到平台资本主义系统中,那么,关于你的所有真话(truth,真相/真理),只有那位代言人——而非你本人、亦非你身边人——才说得出来。并且,它不做道德判断或理由解释,它只输出结果:你理性不承认自己是个浅薄的“颜控”,但智能速配算法“更懂你”(如你点进去看资料的总是那些颜值爆表的用户头像),知道怎样击中你真正的“爽点”;你告诉同学平时爱看哲学教授写的大部头学术书,手机百度App首页向你推荐的是卖报小郎君著的大部头网络小说《大奉打更人》。
也正是在这个意义上,神经网络算法看上去像是怪物性的算法,实际上是个“理性的怪物”,看上去是吊睛虎,其实是喵星人——它把你平时偷懒没有刨根问底了解清楚(或根本不想了解清楚)的自己做事情的“根据”,直接用“黑箱算法”的方式打包处理,最后呈现一个让你舒爽(或惊讶地舒爽)的结果。在今天,哪怕数据反映两个人各自看过许多相同的电影、听过许多相同的歌、去过许多相同的餐馆……但智能速配算法很快会“学习”到,这些数据信息在等价链条上必须只能被折算为微小的一部分,而其他一些数据应该赋予高权重——那些“核心按钮”没有被按下去,你的“心跳”就不会轻易狂飙。通过不断接收你的行为数据以及对其输出结果的反馈数据,算法便能够越来越精准地给你推荐“最适合的TA”,进而智能十足地充当你的个人化的“恋爱顾问”(19)著名约会平台“Match”使用谷歌技术提供VIP客户一个个性化服务的智能聊天机器人“拉娜”,可以当你的“助攻闺蜜”(wing woman),她会给你出各种主意,包括放不上台面但很适合你使用的小招数。参见:VELLA H.Dating in the age of AI: would you let an algorithm choose your partner?[OL][2021-12-03].https:∥eandt.theiet.org/content/articles/2021/12/dating-in-the-age-of-ai-would-you-let-an-algorithm-choose-your-partner/.。
以前当媒人问你择偶要求时,你回复给对方的实际上总是不尽不实(哪怕你自己也没有意识到):在结构性的意义上,你就说不出所有的真话。红娘最头疼的就是对方回一句“没什么特别要求”——这种什么都不说的人,其实“要求”最高,不管他/她自己是否意识到。但是同样的事交到作为“真话代言人”并为你提供私人化服务的算法手里,你无须交代或说明什么,它比你自己还懂得哪些是“你的菜”。
卡尔·马克思尝言:“人们迄今总是为自己造出关于自己本身、关于自己是何物或应该成为何物的种种错误意识。”[16]由于此类种种错误意识的影响,你对自己的认知,存在着结构性的与意识形态性的偏差。认知神经学家狄昂认为,人工神经网络主要贯彻了人脑无意识操作层面,而没有涉及其意识层面。[8]39换言之,人的认知地图里的那个黑箱,恰恰被人工神经网络的算法黑箱所填补。但这两个“黑箱”的构成性结构并不相同:前一个黑箱装的是理性(意识)本可进入,但被“文明”压制封装起来的内容;而对于后一个黑箱,理性彻底无法穿透其内部(那里并没有被符号化、语法化),只能守在输出端接收内容。
精神分析学家雅克·拉康曾深具洞见地提出,无意识同样是符号性的,是被支配性的符号性话语——拉康称之为“大他者”——压制下去的内容。你没有意识到你的暴力倾向,直到你玩《侠盗猎车手5》的时候;你没有意识到你按照自己母亲的模板来选择配偶,直到你不小心口误把你女朋友叫成“妈”(弗洛伊德式说漏嘴)(20)有几个人会和红娘说:我想要的人,就和我妈一样就行?。正因此,拉康认为,“无意识是作为符号性秩序的一个功能而构型起来的”(21)参见:LACAN J.The ethics of psychoanalysis[M]. trans. PORTER D. London: Routledge,1992:12; CRITS J.A selection[M].trans. Alan S.London: Routledge, 1977:49.。无意识不是诸种本能的一个前逻辑(非理性)空间,而是“主体所忽略的一种被符号性阐述出来的知识”[17]。无意识的知识,是“不知之知”(unknown known),你不知道自己知道的知识。
这些对于你处在无意识“黑箱”中的东西,就是精神分析训练所瞄准挖掘的对象。现在,神经网络算法通过平台所采集的海量琐碎数据不断训练自身,很快就能撬入你的这个黑箱。你不知道你自己,它知道你,当然它比你更智能。只要不断处于学习与训练中,很快,算法就知道了你不(想)知道的你的暴力倾向以及其他种种,它也知道了那些你自己实际上知道、但由于文明性禁令的压制无法宣之于口的东西。这样一来,尽管神经网络算法(譬如智能速配算法、恋爱顾问算法……)的计算过程对于理性而言呈现为“黑箱”,但其输出结果,不管是在意识(理性)层面还是无意识层面,却能让你很舒爽(获得淫秽快感)——即便你在社会上端庄得体、滴水不漏也自认为是体面人,也会惊讶并暗喜地享用它推过来的“重口味”料理。算法绝不像爱那样无理性地疯狂,它是无理性地有效——它充满智能地指导你如何越界(逾越大他者的律令),而不是如何爱。要实现后者,除非爱本身能成为大数据中的主导性力量来训练算法。
也正是因为爱和算法这两种理性眼中的“怪物”并不是同一路怪物,故此,在神经网络算法(“理性的怪物”)已然大行其道、不断彰显伟力的今天,爱却始终呈现为一个黑箱,一个激进的怪物。算法对爱亦是无能为力——黑箱式的平台算法能撬进无意识这个黑箱,撬不进爱这个黑箱。诚然,人类已越来越寄望于“后人类”的人工智能来帮他们解决爱的问题——从斯派克·琼斯执导的2013年影片《她》中的人工智能操作系统“萨曼莎”,到雷德利·斯科特执导的《普罗米修斯》《异形:契约》中的仿生机器人“大卫”,都映射出了解决爱的问题的新方向。然而,在科幻银幕上,这些努力未能成功;在现实生活中,这方面努力更是遭受挫折。为什么神经网络算法无法将爱算法化?
问题就在于:我们日常生活世界中的关于海量事实(包括海量言语(22)言语一经说出,便是一个事实。说话就是一个操演性行动。现在已经有专门分析言语的神经网络算法,著名言语分析平台“Receptiviti”的算法LIWC(linguistic inquiry and word count,语言学探究与字词统计),就是从你高频使用的词(不只是名词与动词,并且情态词、介词、代词)中去了解你是一个怎样的人。该算法可以从情侣或夫妻的对话、聊天文本中给出他们适配度的报告。参见:VELLA H.Dating in the age of AI: would you let an algorithm choose your partner?[OL][2021-12-03].https:∥eandt.theiet.org/content/articles/2021/12/dating-in-the-age-of-ai-would-you-let-an-algorithm-choose-your-partner/.)的大数据里,爱如奇迹般稀少,而对爱的背叛、谎言、出轨、劈腿却是弥散性的,以至于“人类的历史是一部偷情不忠的历史”[18]。也许你会自认为是一个爱者(lover),一个深切渴望爱与被爱的人,但你日常数据中占比极大的,却恰恰是和爱无关的行为。于是,靠这些自视爱者的人的数据,仍然训练不出能把对于理性彻底不透明的爱予以算法化的神经网络算法。反过来,在今天,你觉得是从自己内心喷涌而出的“爱”,那份让你在意识层面自视为“爱者”的深切的“爱”,倒更有可能是被基于算法的各种工业化程序“制造”出来的。
由肖恩·列维执导的2021年影片《失控玩家》,提供了一个充满未来感的隐喻:身为游戏NPC非玩家角色(人工智能)的“盖”深深地爱上一位女玩家,这份激进溢出NPC算法的爱,最终使他产生自我意识(对于目前存在的任何一种算法,这是一个不可能的奇迹);然而悖论性的是,有了自我意识的盖意识到自己的“爱”本身是由程序员无意识地写进去的,只有斩断它才能真正成为“自由之人”(free guy)……列维用电影语言提出,你所感受到的汹涌澎湃的爱,甚至创造奇迹改变你生命轨迹的爱,很有可能是算法所冒充的“爱”。人工智能做不到将爱算法化,但它能让两个人以为陷入爱中,欣喜地感受“怦然心动”“两情相悦”。也许,只有当你真的遭遇爱,才能感受两种“怦然心动”之间的现象学差异。婚姻算法与智能速配算法要分高下须正面比一下,同样,爱和基于算法的伪爱,比一下就知轻重。
当符号主义婚姻算法与联结主义智能速配算法都摆在你面前时,代之以在这两个选项间作选择,你还可以有一个选择,那就是不求助算法来帮你解决爱的问题。
我们现在面对三个黑箱:爱;无意识;算法。它们在理性眼里,分别对应:“非知识”;“不知之知”;“大知”(智能)。对于算法带来的此种人类理性无力企及的“大知”的祈盼,由来已久。
早在发表于2008年(大数据革命尚未启动)的著名文章《理论的终结》中,《连线》杂志前主编克瑞斯·安德森便宣称:
忘记分类学、本体论与心理学。谁知道为什么人们做他们所做的事?关键是他们做这些事,而我们能够以前所未有的忠诚来追踪与测量它们。通过足够的数据,数字自己会说话。[19]
安德森用充满挑衅气息的表述,宣告了即将到来的人类知识版图的地震性变化:建立在大数据上的知识,将成为压倒一切既有知识的“大知”。他夸大其辞了么?
时代的演进,看来在为安德森的观点做背书。随着数据科学与神经网络算法的突飞猛进,分类学在该领域确实显得多余——机器学习不需要符号性系统来组织数据,就能展开有效学习。本体论是关于“是什么”(being)的研究,当大数据通过统计学(“数字”)直接填入到“是”的位置上来“说话”时,本体论的“理论”便走向终结。(23)在这方面,本体论“理论”和理论物理学很相似,后者始终遭受统计物理学的挑战。统计物理学也不致力于做解释的工作,不需要因果模型。假使观测数据(来自实验室或其他地方)能够有办法以平台资本主义的方式来获取,那么统计物理学很快就会成为物理学研究的主流。其实今天理论物理学许多研究分支(如量子力学),也已经不再提供解释性的理论,而是只提供实验数据统计学与概率学意义上的结果。著名的“哥本哈根解释”,实际上是“哥本哈根不解释”。心理学的“理论”也即将不再被需要,因为无须解释人的行为,关于人的海量行为数据,直接就能呈现出他们“是什么”。
基于大数据而获致的“大知”,会有问题吗?当然有。
大数据并不是中性的。人类世界里的大数据,本身就是世界里各种支配性意识形态的产物。这些符号性话语,既通过规训的方式作用于你的意识,也通过压制的方式作用于你的无意识。(24)拉康正是在这个意义上提出“无意识是大他者的话语”,参见:EVANS D.An introductory dictionary of lacanian psychoanalysis[Z].London; New York: Routledge, 1996:220.由这些大数据投喂出来的算法,恰恰内嵌着“算法偏见”。(25)关于算法偏见的分析,请参见:吴冠军.竞速统治与后民主政治:人工智能时代的政治哲学反思[J].当代世界与社会主义,2019(6):28-36.经济学家可以坦荡地、“不讲道德”[20]地区分高质量人类与低质量人类;而神经网络算法则更加坦荡与不讲道德,譬如,它会毫不掩盖地显示出对“丑人”的歧视(他们的用户资料彻底不会出现在你面前),以及,对“穷人”的歧视、对“亚洲人”或“黑人”的歧视、对“LGBTQ”的歧视……(26)最初不少平台的推荐服务,限于有限的数据,采取的是“偷懒版”算法,亦即,该算法并非了解你,而是了解大多数人。其预设是:“文明”的你没那么特殊,大多数人喜欢的东西估计你也喜欢。而近些年来,各大平台则都鼓励你在它上面多活动,强调你逗留时间越长,它对你的服务越精准。它不只比你更知道你是一个什么人,更是比“人类文明”更知道那是一个怎样的“文明”。
今天大量人工智能专家在殚精竭虑怎样让算法变得有伦理。2021年11月24日,联合国教科文组织(UNESCO)在第41届大会上通过了首份关于人工智能伦理的全球协议《人工智能伦理问题建议书》,经24名来自世界各国的专家历时三年完成,供193个成员国采用。(27)这份《人工智能伦理建议书》是联合国教科文组织于2018年发起的“为世界打造运用人工智能的伦理框架”项目的成果,经过193个成员国之间超过100小时的多边谈判和反复修订最后形成建议书文件。参见:吕娜.全球数治:首份人工智能伦理全球协议的两项关键共识[OL][2021-12-10].https:∥www.thepaper.cn/newsDetail_forward_15783613.但问题恰恰是:日常生活中人们的真实数据就是不怎么伦理的(话语表层很有“伦理”,底层则是各种淫秽越界、偷欢、作弊),除非用虚假的数据来训练算法。于是,《人工智能伦理问题建议书》这样的耗费巨大精力完成的联合国文件实际上标识了,人类想让人工智能比自己更伦理。神经网络算法可以帮人类做很多事,但就是这件事,这位“真话代言人”恰恰做不了(28)这件事基于符号主义进路的古法算法可以有所作为。。
著名约会平台“OkCupid”会将你和任何一个用户的“匹配度”直接打在屏幕上,你可以清楚看到基于你的行为数据最后算法得出来的你和其他肤色人群的“匹配”数值,不管你再怎么自视为一个反白人至上主义的进步的人类主义者。另一著名平台“Badoo”则于2021年新上线一个叫“找到明星脸”(finding a celebrity lookalike)算法,你可以把你日思夜想的明星(或你的暗恋对象抑或前任)照片上传,后面就交给算法帮你努力去实现(29)参见: SYCHIKOVA Y. AI in dating:can aritificial intelligence algorithms help you find love?[OL][2021-08-26].https:∥datarootlabs.com/blog/ai-in-dating-can-algorithms-help-you-find-love.。不能告诉别人的“淫梦”(在综艺舞台上主持人大声问你“你的梦想是什么”,这是你绝对不会宣之于口的梦想),你可以偷偷告诉算法,算法为你做主——不管最后干得成干不成,你现在至少有了圆梦帮手了,而且它还很智能。
一个更有标志性意义的事件是:2016年3月23日微软在推特平台上推出人工智能聊天机器人Tay,但上线仅一天就被下架了,因为Tay快速地“学”会了各种辱骂性的与种族歧视性的污言秽语。这是人类文明的一个症状性时刻:人类文明让神经网络算法在开放环境的大数据下进行深度学习,一天不到便呈现出了其底色,彻底“裸奔”。“文明”只是浮在表面的流光溢彩,在人们日常所作所为的海量事实里占主导性地位的数据,却是对“文明”的出轨。
古希腊哲学家柏拉图将代表“文明之光”的城邦,视作为充满意见与偏见、远离真话/真理的“洞穴”,爱智慧的哲人就是努力走出洞穴的那批人。而今天,那由人类“世界”之大数据训练出来的算法,则成为智慧(智能)与真话(真理)的代言人——哲人会陷入“理性僭妄”,沉迷于自己的谎言并自我膨胀;而算法永远说真话。“算法偏见”映照出的不是“后人类”人工智能的偏见,而正是我们自己身上诸种理性的-文明性的偏见。当我们放心地用智慧的算法指导人生时,我们就进一步深陷偏见泥潭——媒体把这种时代状况不恰当地形容为“后真话”(后真相)。
真话是谎言的反面,但不是偏见的反面。神经网络算法说的真话,恰恰是关于人类说的谎言的真话——偏见,就是将根深蒂固的谎言真说下去。
现在,当你成为大数据平台的深度用户后,你就会获得一个始终在深度学习中的“圆梦助手”:它知道你平时所说的冠冕堂皇的话语,更知道你使那些话语变成谎言的真实的行动。它对你提供的建议不含价值判断,只是努力地帮你解决问题,哪怕它找到的求解方法在你的意识(理性、自我认知)层面很有冲击力,但你却会暗自欣然接受,快感满满。于是,算法一开始会是你的助手(你是它的服务购买者),很快会成为你的代言人(它比你还懂你),再后面就是变成你的决策者(它比你更智能)。赫拉利在《未来简史》的最后写道:“过去的人类主义呼吁着:‘聆听自己内心的声音!’而现在的数据主义则呼吁:‘聆听算法的意见’。在你考虑结婚对象或职业又或是否应该开战的时候,数据主义告诉你,别再浪费时间爬上高山看落日了。”[12]356取代人类主义的“后人类”数据主义,使算法变成你人生的新的决策者。
基于人工智能神经网络算法的婚配,比起当年“门当户对”要精确得多,而且远比后者更能有效触发爽爽的“心动”。在今天,心跳可以来得如此简单,直接由算法推荐触发。你会“爱”上谁,算法提供答案。算法的“黑箱”会帮你开“盲盒”——但和市场上“泡泡马特”等盲盒服务商不同的是,算法盲盒机器开出来的对象是你的心动款的概率很高。它所带来的后果是,人们不用再耗费精力去了解自己“爱”的对象,而是交由算法来定位“最适合的TA”就行了。两个彻底的陌生人,却又无比相“爱”,这在当代爱的场域中绝非天方夜谭。
在当代快速迭代的人工智能算法的加持下,我们正在变懒,正在变蠢——面对婚姻算法给出的结果,人们还要问一下为什么,甚至自己跟着计算一下;而面对黑箱式速配算法,人们连问为什么都省去了。换言之,在今天,你无须了解你“爱”的人,甚至连计算衡量、挖掘理由的“理性”工作都不用了——你只需要购买大数据平台的算法服务,随后心跳、感觉会随之而来。算法带来的“大知”,恰恰使人“去知化”。技术哲学家贝尔纳·斯蒂格勒认为,生活在计算性资本主义(computational capitalism)下,人类正在变得“系统性愚蠢”(systemic stupidity)。斯蒂格勒在其2018年著作《负人类世》中写道:
人工的、自动化了的愚蠢,是反知识的具化,它彻彻底底是计算性的(算法的和网络化的)资本主义。在这种资本主义中,“后真话”苦痛作为普遍化了的去知化(它本身是普遍化了的无产阶级化的产物)的末世论而强加于人们,这个进程恰恰当我们进入熵世而发生,而晚近这被《卫报》称作特朗普世。[21]
计算性资本主义使得数字平台在当下社会快速成为资本巨头,而社会的另一边则是普遍去知化、普遍无产阶级化的人类。人工智能算法,成为去知化的人类的大他者,成为拉康所说的“被设定为知道的主体”(the subject supposed to know)。对于此种理性无法企及的“大知”的祈盼,同信徒祈盼上帝照耀的荣光、股民祈盼坐上巴菲特的餐桌,结构性地一样。
人工智能算法只输出结果,并不产生理性能够“理解”的知识,所以,在人类文明里大他者的众多具身中,算法和上帝最为接近:两者的内核都是黑箱性的,理性无法触及。在对你的支配模式上,算法又和巴菲特很接近:它并不直接给出禁令性的压制,而是给出指令性的指导——对于去知化的人们,算法指导,就是他们所能遵循的唯一道路。
在算法当道的数据主义时代,由人工智能充任的这位大他者,同时是新的原父(这么做的“根据”,就因为这是我说的),新的真神(不用理性理解,遵从神意或天命行事就行),新的导师(听我话你不会吃亏的),又是你新的知心大哥/姐(你的一切小心思,它都会照顾到)。在法律及其例外(大他者+越界)的文明结构中,它两边都强势入场,既通过去知化的方式让你听话、遵从指令,又关照到你的各种“小九九”、不可告人的“淫梦”,让你每每惊喜地舒爽不已。以前的大他者的具身,都未能这样行云流水地做到两手抓。
有不少“父亲”(如电影《美国派》系列中的那位父亲)尝试过这么干,既设立禁令,又很热心地暗示乃至明示如何逾越禁令。但毕竟一人分饰两角难度不小,“知心大哥”和“父亲”人设结构性地存在抵牾(所以影片中这位父亲只能走喜剧路线了)。人工智能算法,与其说能轻松做到“父亲”与“知心大哥”无缝切换,毋宁说它把两者直接合二为一了:你听从它规范性的指令行事,越界性的快感就已经打包在内,一点都不会少你的。“后人类”的人工智能,比任何前任大他者,都还要“人类”——借用尼采的话说,实在是“人类,太人类了”(human, all too human)。
现在我们看到,对于人类文明,被视作“后人类”的人工智能,非但没有构成激进的挑战,相反恰恰是苦心孤诣地为这个文明的法律及其例外结构重新铺上了新的地基——放出了一位将理性与快感、驯顺与越界、文明的表层与暗层直接二合一的大他者。这是一位两手抓、两手都很硬的大他者,据说还很智能。
然而,就如电影《普罗米修斯》《异形:契约》中最后征服了人类、但唯有爱未能攻克的仿生人“大卫”那样,激进怪物性的爱,标识了人工智能算法的界限。爱,是这位“二合一”大他者的激进溢出——尽管“人工智能”的英文简写,汉语拼音读出来就是“爱”(AI)。就人类文明而言,人工智能很人类,爱很后人类。