机器的智能和人类的智慧

2020-08-09 08:51邱泽奇
财经 2020年16期
关键词:网络化机器利益

《AI联结的社会:人工智能网络化时代的伦理与法律》

(日)福田雅树等著 宋爱译

社会科学文献出版社即出

围绕人工智能主题,我读过很多作品。一些书名看起来很学术的,读起来却非常科普。也许是人工智能话题炙热的缘故,除了科普作家,某些学有专长的著名专家也加入其中,但对人工智能却是一知半解,有关人工智能的研究成果也是鱼龙混杂。我手里的这本书是否也是其中之一呢?

我抱着尝试的心态读下去。这一读,便没有放手,直至卷终。《AI联结的社会:人工智能网络化时代的伦理与法律》(以下简称《AI联结的社会》)是一本论文集。通常,论文集会依照论文的主题汇集,难以让讨论具有内在逻辑一致性。这本论文集不同的是,它的主题内在逻辑一致性很强,从这个角度来说,它更像一本合著成果。在假定人工智能自身形成网络的场景下,会给人类带来哪些挑战。围绕这一主题,全书划分为六个部分,总论部分交代了问题和方法,第二部分探讨人工智能的研发原则,第三部分讨论人工智能数据、信息、知识的流通和使用,第四部分分析在人工智能网络化的场景里人类的隐私与安全,第五部分探索人类社会基本准则面对的挑战和应对之策,第六部分再回到人类自身,讨论保障人类珍视的尊严、人格与责任。

务实的智慧

简要的内容构成介绍应该能让读者了解,这是一部接地气的著作。与天马行空地探讨智能时代、机器崛起、人工智能时代的作品不同,与耸人听闻地断言智能革命、机器取代人类、奇点临近的作品也不同,《AI联结的社会》的出发点是,我们知道人工智能的发展是一股历史潮流,势不可当;我们不用像算命先生那样去预测什么时候人工智能时代会到来;我们也不用像森林里的小女孩那样不断呼喊“狼来了”,人工智能要夺走我们的工作;我们尝试着回答,人工智能会以什么样的形态到来,在这个进程中,人类可以做什么来保证人类的基本利益,即人还是人!说得更加简洁一些,在人类面对网络化的智能机器时,如何保障人类的基本利益:身体、人格、责任、尊严?

以我对人工智能有限的认知,我以为,这样的提问非常日本!工业化的历史表明,同在儒家文化圈,日本却是一个非常务实的国家。明治维新以后,我们不知道日本人提出了什么惊世骇俗的理论,却知道日本的产品行销世界,对日本产品的质量,鲜有人怀疑。这源于日本人的务实。人工智能的发展显然还没有走到真正威胁人类的时刻,探讨人工智能场景下的人类利益,显然是一个虚拟问题。务实的日本人在遭遇一个虚拟问题时,又如何处理呢?《AI联结的社会》同样展现了务实的智慧:日本专家们采用了情境锚定法(Anchoring Vignettes)。情境锚定法是社会调查中面对未来时常用且有效的测量方法。它假设一个情境,实在的、可以在头脑中呈现的情境,然后,询问人们面对情境的决策和行为取向。在理论研究中,这样的方法也被称为思想实验(Thought Experiment),是理论逻辑演绎的常用且有效的方法。

当今科技发展的现实充分证明,人类与人工智能共生的时代已经开始,未来全球联机协作的人工智能,将构筑起深度改变人类生活的“人工智能网络”。围绕这些问题,日本信息学界、法学界、社会学界、人工智能技术领域的多位前沿学者从国际化、专业化的视角出发,进行了深入探讨,在社会政策和法律应对层面,提出了建议。

本文为著名学者邱泽奇教授为《AI联结的社会》中文版所作序言。本书简体中文版将于8月上市。

运用情境锚定法,《AI联结的社会》给定了一个讨论的初始:在未来,无论是专用人工智能还是通用人工智能,人工智能自身形成了一个网络,“使用者不仅可以自己设置,也可以接受他人设置”(第10页),就像是《黑客帝国》里的机器帝国,人工智能甚至具有了拟人的“意志”,“拥有与人类智能相关的功能;能够通过对信息、知识进行系统化处理,得到数据、信息和知识”(第6页),“渗透到社会整体之中,进而使人类和人工智能网络共存,在各种社会场景中,都将可能实现人工智能、物和人的相互联结”(第11页),人类如何做才能既利用人工智能为人类服务,又保护人类的基本利益?

在汗牛充栋的人工智能研究中,人工智能网络化是一个被忽略或被默认的议题。说是被忽略,至少在我读到的文献中这是第一本将其特别强调的作品。说是被默认,在众多讨论人工智能的研究中,作者们往往忽略了人们生活在一个政治和社会制度有差异的世界,国家技术能力的强弱和国家之间关系的好坏并非与人工智能创新和应用没有关系。忽视既存的制度约束和假设人类的一般存在看起来有利于讨论,实则是学术的不负责任。《AI联结的社会》突出强调人工智能网络化的现实社会情境,也是学术务实的另一个证明。

面向超级智慧

《AI联结的社会》首先呈现的不是人工智能带给人类的便利,而是风险。“这些风险与人工智能网络化为社会带来的便利同在,有时可能超越国境,超越现实与虚拟的界限,瞬时扩散出去”(第13页)。借用既有的研究成果,《AI联结的社会》将风险区分为功能风险和制度风险,认为其中重要的不是功能风险,而是制度风险。因此,风险分析是人类面对人工智能挑战的出发点,包括风险评估、风险管理和风险传播(第14页)。风险分析的目的,不是为了甩锅,而是让风险明确化,进而确保公平竞争,让风险与收益达成平衡。在这里,我们既看到了日本人务实的一面,又看到儒家文化的深层存在。

设定人工智能网络化的前提,自然地提出了人工智能治理的人类化议题。《AI联结的社会》的主张是,人工智能的治理,一定是国际的,而不是一国的。为促进技术创新和应用,初始期宜采用软性治理,治理内容除了确保各种价值观,还应确保廉洁、透明性、可控性、安全性、隐私性、安保体系、公正性等(第18页)。为了既促进人工智能的发展,给人类带来更多便利,又保障治理的有效性,约束人工智能可能带来的风险,《AI联结的社会》认为,一个由人工智能高度互联建构的智联社会(第20页),应该遵从八项基本原则:“第一,所有人都可以受惠;第二,保障个人的自主性及人的尊严;第三,保证革新性研究开发的持续与公平竞争;第四,坚持可控性和透明性;第五,利益相关方的参与;第六,兼顾虚拟世界与现实社会;第七,通过超越空间的协调合作实现有活力的区域社会;第八,通过分散合作解决全球性问题。”(第21页)

与上述原则关联密切的被分解为了人工智能研发中的人类伦理与秩序的贯彻,人工智能使用中的数据、信息、知识等价值观,人工智能与人类的关系,包括如何保障人的尊严、人格与责任以及支撑因素如隐私、安全、既存的社会准则等。贯穿《AI联结的社会》始终的是,保障人类基本利益的原则被置于最优先的位置,基于此,《AI联结的社会》里出现了一些日文风格突出的概念。它意味着《AI联结的社会》的讨论既不是日本人自己圈子内的讨论,也不是脱离了日本的话术贩卖,而是从日本的关切出发,面向整个世界的分析和探讨。

参与讨论的近20位作者,既有业界人士,也有学界新秀。从《AI联结的社会》文本可以看出,他们的一个共同特点是,都非常熟悉国际上人工智能探讨的热点和难点问题,表达的也是他们对这些热点和难点的观点。人工智能数据是大数据问题的一个子集,欧盟有GDPR,美国有关联的法律却没有一般的法律,中国在《民法典》中有涉及,日本的《個人信息保护法》也只是关联的法律。到目前为止,数字化前沿国家对此还没有达成一致。

我以为,根本不可能达成一致,尽管其基本出发点是保护人类利益。但我们知道,机器并没有利益,机器的利益实际上是掌握机器的人的利益,电车难题(见第五部分的讨论)便是典型的例子。当我们在人工智能里设定人类生命优先时,不是牺牲机器的问题,而是优先保护谁的生命的问题。如此,问题又回到了人类,而不是人与机器的关系。为此,我更愿意把问题修订为,当人工智能网络化将带给人类更大利益同时也带来更大风险时,如何分配这些利益才是对大多数人更加有利的,也是对大多数人而言更加有利于控制风险的?

在这个问题面前,人类自身的歧视、分化、极化、垄断等将会是长久且难以达成平衡的议题。我们期待一个可以促进技术发展的竞争性研发生态,却又希望避免一个由发展带来的垄断性市场,回避一个由利益分配严重不均所产生的极化社会,还希望避免一个因伦理失衡而可能带来的毁灭性后果,最终希望做到人类自洽(第307页),这的确需要超级智慧。《AI联结的社会》至少是面向超级智慧的有益尝试。

猜你喜欢
网络化机器利益
机器狗
机器狗
论确认之诉的确认利益
未来机器城
当代新闻学的网络化发展
绝不能让“利益绑架科学”
基于OPC的网络化群梯管理系统开发
利益链与新垄断
网络化时代社会认同的深刻变迁
我国食品安全网络化治理的思考