的信息网络简史》
[ 以色列] 尤瓦尔·赫拉利 著
林俊宏 译
中信出版社
2024年9月
2023年,全球多个国家共同签署了关于人工智能的《布莱切利宣言》,宣言中写道:“这些人工智能模型所具备的最重要的功能可能会造成严重的甚至是灾难性的伤害,无论是有意的还是无意的。”人工智能的持续发展,会给人类带来怎样的未来?是否会像好莱坞电影里那样,造反的机器人在街上追杀人类?
历史学家尤瓦尔·赫拉利在《智人之上》一书中写道:“虽然以上使用的是这种仿佛描述世界末日的语词,但专家与政府并不是让人联想到那些好莱坞电影的画面。这种情节一来实在不太可能发生,二来只会让人们忽略真正的危险。”
在他看来,专家真正要警告的是另外两种情况——第一,人工智能的力量可能会大幅加剧人类既有的冲突,让人类形成内斗。
第二,硅幕所分隔的或许不是彼此敌对的人类,而是一边为所有人类,另一边为我们新的人工智能霸主。不论在哪里生活,我们都可能被一张看不透的算法大网束缚,它控制着我们的生活,重塑着我们的政治与文化,甚至是去改造我们的身体与思想,但人类却再也无法理解这些控制着我们的力量,更别说加以阻止了。
在过去的十万年里,智人一步步积蓄着力量,掌控着地球的变化。但持续不断的征服和发明,也让人类进入生存危机。全球生态问题的凸显、虚假信息的泛滥,都困扰着人类。人工智能时代的前景也晦暗不明,它当然有令人振奋的进步一面,却也让人怀疑其是否会成为毁灭人类自身的杀手。
赫拉利在探讨人工智能的问题时,并未将之作为新技术孤立看待,而是将其拉入人类社会历史进程的大框架之下,从信息的历史角度剖析世界和未来。
人工智能的本质是信息,人类社会的形成从未离开信息。赫拉利认为最初的信息模式和技术是“故事”,在他看来,故事是人类在远古时代就发展出的生存手段和信息处理方式,也是最符合人类心智和思维习惯的沟通手段。故事的诞生是人类“认知革命”开始的标志,发生在大约七万年前。
从口口相传的故事,到文字书写和印刷术的普及,再到互联网和人工智能,不同时期构建的信息网络塑造了人类世界,并将人类黏合为一个个社群。神话与官僚制度、智慧与权力、信息与真相之间,关系始终复杂,也因此影响着社会结构和不同路径。就如赫拉利所言:“数万年来,智人正是靠着发明与传播各种虚构故事幻想和大量的错觉——内容可能关于神祇、魔法扫帚、人工智能和取得许多其他事物来打造并维持诸多的大规模网络。”只是,他随即引用乔治·奥威尔的名言来形容智人这一行为的最终结果:“无知就是力量,无知无法通向任何地方。”
信息并不总会带来真相,这绝不是网络时代的症状,而是人类社会自使用信息以来就不可避免的暗面,人类对信息的利用,也从不是单纯为了真相,而是为了实现各种不同目的、获取各种利益,形成各种组织和网络。历史上对官僚制度和话语体系的构建,或是为了统治而创造的各种神话故事,都是维护秩序的信息网络,它们也总是会为了秩序的维系而牺牲真相。
真理固然也能带来权力,但在人类历史上的大多数时间里,掌握权力的都是那些知道如何创造意识形态以维持秩序的人,意识形态本身也是信息的一部分。
也就是说,信息的首要作用是“连接”。赫拉利认为,古代社会的连接受制于人类无法突破的地理环境,呈现两种形态:一种是早熟的政治体,依托于大区域和丰富物产,有效降低了统治成本,形成中心式网络;一种是博弈的政治体,因为地域零散而边缘,形成分布式网络,彼此博弈。
前者更容易形成思想的统一,以稳定和秩序为优先项,形成专制政体,也从此难免治乱兴衰的轮回。后者则通过博弈,逐渐推动信息与真相的接近,因此产生共和政体。英国就是后者的典型例子,《大宪章》是博弈的结果,百年战争让它远离欧洲大陆政治,大航海和煤炭推动了生产力。
而在工业革命后,分布式网络曾经的优势被中心式网络学走,辅以中心式网络原本的高效,使得不少国家实现了迅速转型。但这种以专制为底色,以工业为推手的变革,正是阿伦特所说的“极权主义的起源”,也为人类带来了巨大灾难。
如今的算法和人工智能同样是对分布式网络的冲击,对于有心独裁的人来说,算法和人工智能堪称中心式网络的最好加持,是推动专制、塑造乌托邦的最有力武器。而且,信息的力量不再仅仅属于掌控资源的国家,也属于那些控制信息的公司和组织。科技巨头控制着全球信息,构建了比历史上任何帝国都更具影响力的数字帝国,影响着全球的政治经济和文化。
《智人之上》提到,脸书、亚马逊这些科技巨头,绝不只是像忠仆一样满足着用户的奇思妙想,遵循着政府的法规,而是正在越来越多地塑造着这些奇思妙想与法规。这些企业不但能直接联络到全球最强大的政府,还能投下巨额资金进行游说,以阻挠那些可能破坏其商业模式的法规。比如,它们曾经极力维护1996年《美国电信法》第230条,该条款规定线上平台无须对用户在平台发布的内容负责,正是这则条款让脸书无须在罗兴亚人冲突这件事上负责任。
各大科技巨头也能直接影响民众的情感系统,而且它们还是操控用户与选民想法的大师。在这种情况下,科技巨头企业正在做的并非人类世界的真相,而是给人类强加一个扭曲的新秩序:“社交媒体算法只把人看成矿井,想要‘开采’更多的注意力。人类有丰富的情感,如爱、恨、愤慨、喜悦、困惑,但算法把一切简化成一件事——参与度……正因为对人类的理解如此狭隘,所以算法创造了一个新的社会系统,鼓励我们顺从人类最基本的本能,同时阻碍我们发挥人类完整的潜能。”
与此同时,因为独裁本身的脆弱与不合理性,人工智能也会制造反噬,为人类带来祸患。在赫拉利看来,独裁政权成为算法傀儡的风险远高于民主政权,这是因为独裁者需要维持脆弱的平衡,既要垄断信息的发布,又要控制信息的口径,操作难度比过往更大。
当然,人工智能并不是洪水猛兽。在人类社会的历史上,所有威力强大的信息网络都没有天生的好坏之分,它总是取决于人们的设计和使用方式。赫拉利提到,金属活字印刷术曾为欧洲带来一场信息革命,使得基础教育得以普及,宗教无法继续垄断知识,民众也可以更为自由地交流信息。但这场革命也带来了各种阴谋论,让各种谎言流传甚广,比如猎巫事件便基于《女巫之锤》的传播。
同样,报纸和广播等大众媒体的发明,推动了社会议题的建设与传播,促进了人类的大规模民主。但与此同时,专制集权同样可以利用大众媒体形成所谓的共识。也就是说,信息传播的便利,对各种障碍的一步步消除,固然是人类的一次次巨大进步,但它未必会带来真相和真理,也可能带来谎言。所以,仅仅让信息传播更快更自由是不够的,人们还需要科学解决“人会犯错”这个基本问题,即通过构建网络协同、能够证伪的纠错机制,实现事实与真相的发现和传播机制。
与宗教不同,科学的核心恰恰在于自我修正的能力。科学之所以能推动人类知识的进步,是因为它允许质疑和挑战,结论可以被推翻。赫拉利写道:“自我修正机制需要不同的机构制度互相制衡。政府、法院、媒体、学界、民间企业,以及非政府组织,都可能犯错、可能贪腐,因此都该由其他机构来制衡监督。而为了彼此监督,这些机构就必须拥有独立获取信息的能力。要是所有报纸都只从政府那里取得信息,就不可能揭露政府的贪腐内幕。要是学界的研究都只能依赖单一商业巨头的数据库,学者还敢批评该公司的运作吗?而且,如果只有单一数据库,想要审查就会易如反掌。”
赫拉利认为,人工智能的行为很可能不再受制于人类,甚至可能会构建数字屏障,将人类社会分割为敌对阵营,让人类失去对自身命运的控制。在面对人工智能这一关乎人类存亡的重大技术革命时,人们需要全面的协作和更加谨慎的筛选与纠错。