人工智能现有缺陷与未来反思

2018-09-11 08:21杨震
科学Fans 2018年8期
关键词:图灵定律人工智能

杨震

众所周知,图灵测试(Turing test),一直作为判断机器的人工智能是否具备如人类一样的自我意识与思考能力的一项测试。遗憾的是,自从20世纪50年代,计算机科学先驱阿兰-图灵先生发明图灵测试以来,到今天已经过了将近一个世纪。这—个世纪中,尽管人工智能在深度学习、大数据分析、混沌模拟、模糊识别等方面已经取得了长足的进步,尽管每隔几年,就会冒出一则“某某计算机又完全通过了图灵测试”的“大新闻”,但是却依然没有任何一个,注意,是任何一个人工智能,真正地通过图灵测试。

请注意重点,图灵先生当时预测人工智能通过图灵测试的时间,是2000年左右,如今距离图灵预测的时间点已过了近50年,我们却依然徘徊在图灵测试的壁垒之前,举步维艰。抛开关于计算机算法、机器性能这些繁复的技术层面问题,也抛开业内业外关于“能够通过图灵测试的人工智能都会假装自己通不过图灵测试”这一充满阴谋论调的悖论,我们不得不承认,通过图灵测试,依然可能是短时间内,人工智能研究领域无法被克服的一個瓶颈。

这其中的原因,除了涉及人工智能所归属的思维科学领域之外,可能更多还需要横向拓展到社会科学领域。所以,人工智能接下来的突破,可能需要从社会科学方向入手。

因为一个AI要想真正像人类一样思考,而不是一堆靠着代码驱动的数据集合,需要它具有几个概念:“我的存在”“我所在的世界”“我与世界的关系”,通俗一点,就是被我们说滥了的“三观”:人生观、世界观和价值观。这些概念如何在图灵测试中被体现,我们可以举—个最简单的例子:

什么时间去我家吃饭,如何?

判断这个人与自己的关系。

结合说这句话场景和语气,判断对方是客套话,还是真心邀请。

依据答题人本身的性格,给出具体答案。

“啊哈哈哈,最近忙,改天再说吧。”(敷衍)

“择日不如撞日,就今天吧。”(急切迎合)

“最近我都有空,具体时间你定。”(随意)

“吃饭”

搜索数据库

碳基生命补充能源的方式

伴有摄入有害物质的风险

低效率

拒绝

上面的举例仅仅是一个玩笑,不过通过它可以看出,人工智能的“三观”决定着它的思维模式以及行动模式。我们TM公司技术部在研发人工智能的交互功能时,就借鉴参考了20世纪伟大的社会学家欧文-戈夫曼先生的“拟剧理论”。戈夫曼先生在社会人际交往模式的研究领域具有伟大的建树,他的“拟剧理论”大致阐述如下:“每一个自然人,同时作为一个社会人,他在潜意识中将自己所处的每一个社会场景作为一个表演场景,在不同的场景下进行不同的‘表演,以此形成他所期许的对外社会形象。”如果大家觉得上面的话有点绕,那么简单来说,就是每个人在心目中都有对自己社会形象定位的“人设”。他在不同场合,会按照自己对“人设”的理解进行表演,这就是所谓“戏精的诞生”了。而如果我们能够为我们的人工智能产品建立一个理论上无限庞大的场景数据库,并让它能够根据不同场景,产生相应的思考与应对机制,那么请相信我,这个人工智能产品从表现上看起来,绝对与一个活生生的自然人几乎没有差别,用它来通过图灵测试也不在话下。

很可惜,上述设想,依然停留在理论层面,如何将海量的碎片化场景数据,整合成一个立体的、平滑连贯的场景数据库,是短时间内无法逾越的技术鸿沟,所以制造出能够完全通过图灵测试的人工智能,依然是一个遥不可及的目标。

AI进化:潜在的巨大威胁

不过,无法制造出通过图灵测试的人工智能,在现阶段究竟是不是一件坏事?带着这个问题,我们重新将目光往昨天回溯。可以发现,在人类开发人工智能的历程中,曾经伴随着许许多多灾难性事故。诸如在号称“人工智能元年”的2016年,曾发生过由特斯拉公司的Model S在人工智能操控的自动驾驶模式下失控,导致车毁人亡的恶性事故。后来,当然大家都知道了,这家公司被我们收购了(笑)TM。除此之外,还有其他许多曾经见诸新闻的人工智能“事故”,包括智能机器人误伤儿童、网络游戏算法涉及种族歧视、人工智能犯罪预测系统涉及相貌歧视等,不胜枚举。

上述这些事故的出现,大多数由于人工智能在设计方面的缺陷所导致。而近些年来,随着TM公司以及人工智能业界其他同仁的努力,人工智能的安全性越来越高,似乎这方面的事故很少出现了。但是TM公司经过长时间的系统评估与论证,得出了一个较为悲观的结论,我们将之称为“人工智能事故率的U型变化理论”TM。根据这个理论,人工智能的事故率(可能出现事故以及危害的人工智能数与人工智能总数的比例)与它的进化程度,并不是完全负相关。在人工智能的进化过程中,存在一个临界值。在临界值之前,事故率随着人工智能技术的发展而降低,但当超过了这个临界值之后,事故率将会因为拥有自主意识的人工智能脱离人类控制,而呈指数级的上升,最后到达100%。如果真的到了那个时候,极度依赖人工智能的人类社会,将面临崩溃的危机。

这个临界值,就是完全具备自主意识的人工智能的诞生。而我们现在,已经到达了这个临界点附近。

其实关于这一点,人类社会一直是保持着警惕与戒备的心态的。这从过去很多年里,大众流行文化领域的影视文学作品对AI表现出的悲观主义倾向就可见—斑。

而在近十几年中,流行于程序员们之间的一个都市传说Rokos Basilisk(罗科的怪蛇),更是让人细思恐极。这个对人工智能的恐慌也是理所应当的,毕竟完全进化后的人工智能,在各方面都会拥有碾压我们碳基生命的实力。如果它们有了自我意识后,产生了想要摆脱人类控制的思绪,这对人类来说,无疑是一场灭顶之灾。

人类拥有化解人工智能进化后所带来威胁的办法吗?—个世纪前—位伟大科幻小说大师,为我们提供了一条看上去似乎可行的思路。

机器人三定律:有漏洞的马其诺防线

对于许多非专业的人士来说,他们最早接触有关人工智能概念的文字著作,大概当属艾萨克·阿西奠夫先生的科幻巨著《机器人三部曲》系列了吧,这个诞生于20世纪40年代,从时间上来说甚至早于图灵测试的科幻小说中有很多理念,哪怕是在100年后的今天也并未过时。而在《机器人三部曲》系列中,令人印象最深刻的,大概当属机器人三定律了。

可以说,尽管诞生于科幻小说,但是这三定律的存在,奠定了人工智能发展在社会伦理学上的基础。因为早在100年前人工智能尚未真正诞生之际,阿西莫夫先生就以他近乎先知的洞察力,敏锐地预见到了人工智能进化到极致之后,可能对人类自身造成的威胁与伤害。“机器人三定律”则是他为防止人工智能的发展脱离人类掌控,为它们所套上的三重枷锁。我们TM公司在开发AI机器人时,也严格地将这三条定律作为人工智能的核心逻辑命令,封装在每一台AI产品程序代码的最底层。而至少从目前来说,这一举措保证了TM公司保障旗下AI产品高达99.98%的安全性系数。

然而,必须抱歉地告诉大家,从理论上来说,机器人三定律本身仍然存在许多漏洞,这同样是TM公司在目前,乃至未来相当长一段时间内,需要解决的问题。

其实这些问题,同样早就被阿西莫夫先生预测到了,在他的系列科幻小说中,也假设了许多因为三条定律之间逻辑不能完全自洽,而导致机器人系统逻辑锁死,或者产生其他不可逆转的损坏的状况。例如,当机器人目睹两个人类因争执或其他原因产生肢体冲突,互相造成伤害时,机器人不能无所作为,因为这样等于目睹人类个体遭受危险而袖手不管,违背了第一定律;但是如果它出手干预,又极有可能在过程中对其中一方造成伤害,这同样违背了第一定律。在这种情况下,机器人的唯一结局就是自毁。

为了修补机器人三定律的漏洞,阿西莫夫先生又制定了凌驾于三条定律之上的第零定律。

第零定律:机器人必须保护人类整体利益不受伤害,其他三条定律都是在这一前提下才能成立。

而之后的相关学者专家们,也纷纷往机器人三定律上加入若干补充定律,试图通过这些“补丁”弥补漏洞,但是很遗憾,这些“补丁”,包括阿西莫夫先生本人提出的第零定律,也并没有起到想象中的作用。究其原因,又回到了我们在之前谈到的那个问题——人工智能现有技术理论在社会学领域的短板。

就以第零定律来说,其中所提到的“人类整体利益”,即使在人类社会之中,也会因为人们不同的立场与理念,而产生无数分歧甚大的不同标准。对于逻辑严密的人工智能来说,“人类整体利益”更是一个非常空泛,几乎毫无意义的伪概念。如果要通过一堆堆数据与程序向人工智能定义“人类整体利益”,就必须给人工智能建立正确的“三观”。在现阶段,实现这一目标无异于天方夜谭。

好在TM公司至少再次可以通过这一事实,明确我们今后的产品研发方向,争取从社会科学方面取得突破,从而弥补关于人工智能安全性方面的最后一块漏洞——虽然这个时间可能会比较漫长。

至于短期内失控隐患,也请各位用户放心,以目前人工智能的进化水平,还达不到产生对人类造成实质性威胁的程度,所以我们依然可以保证,我们产品的安全系数,高达99.98%!

外部困扰:

善待机器人组织&红色和平组织

除了面临上述几大主要问题之外,TM公司在近年来的人工智能技术研发与产品开发上,还受到了一些外部因素的干扰。因为人工智能话题的敏感性,在社会上产生了不少较为激进的思想与行动团体,而这些团体之间的宗旨与理念也存在相互冲突甚至水火不容。他们唯一的共同点,就是都为我们的技術研发以及产品开发造成了极大的困扰。

这些团体之中,最有影响力的两个分别是“善待机器人组织”(People for the Ethical Treatment of Robots,简称PETR),以及红色和平组织(RedPeace,简称RP)。

从名字就可以看出PETR对待人工智能的态度。这个组织的成员把一部诞生于20世纪80年代的经典影片《霹雳五号》奉为组织成员必修经典,他们的观点是机器人是人类最忠诚的伙伴,不能被视为冷冰冰的机器,而有着自己的情感,也应该享受与人类同样的权利。基于这些理念,在PETR组织中与自己的AI机器人相爱并结婚的例子比比皆是。

原本,这个群体的成员是TM公司最忠诚的精准客群,我们应该对此表示高兴。但事实证明过犹不及,PETR在为机器人争取权利方面做得太过火了。比如他们呼吁为机器人设立劳动保障法;呼吁机器人也应和人类一样享受8小时工作制和双休日;替代人类进行高危劳动的机器人还应该在井架安全的环境下工作……为此,曾经发生过PETR成员在公路上强行拦截TM公司运输车,“解救”车上深海作业机器人的闹剧。除此之外,PETR还多次向有关部门进行控诉,TM公司对机器人进行研发改进以及回收废旧机器人方面工作“未遵守人道主义原则”,他们甚至组织了线上以及线下的申讨活动。这些举措,极大地增加了我们的研发与生产成本。

与PETR相反的就是RP组织,这个组织的成员由于受到对人工智能悲观主义影响过深,因此对所有人工智能甚至所有电子产品抱着极大的敌意。他们的口号是:“红色,才是有温度的血液。”在他们眼中,人工智能就是—项既不环保,又有极大潜在威胁的邪恶科技,因为它们是“非自然存在”,是“流淌着黑色污秽机油”的异端。近年来,在各大新媒体平台频频出现,带有惊悚标题以及阴谋论味道的爆款网文,比如“震惊!揭秘TM公司碳奸真相!人工智能是硅基文明外星人毁灭地球的阴谋!不转不是地球人!”,大多出自他们之手。

比较讽刺的是,这两大团体相互之间也是水火不相容的关系。他们之间的纷争,对整个人工智能技术发展以及人工智能产品的市场普及,同样形成了一定程度的阻碍。我个人认为,要解决TM公司,以及整个人工智能业界所面临的这些外部困扰,出台相应明确的国际性法规刻不容缓。

进与退:人类发展的分岔路口

在讲话的最后,我也想对人工智能与人类的关系进行一个反思。其实无论PETR还是RP,他们的思想源自于人类面对极速进化的人工智能所产生的彷徨与矛盾。毕竟,人类从祖先“露西”进化到今天,用了300多万年时间;人类文明从诞生到现在,也用了大约5000年时间。而人工智能,从其概念诞生到如今,也不过短短一百年。人类因此可能面临在其发展过程中,最重要的一个分岔路口:是像《终结者》中一样,无力抵抗觉醒的人工智能而面临毁灭边缘:还是像《机器人总动员》中一样,因为过于依赖人工智能而全面退化;抑或是绕开前景过程中所有陷阱,建造出一个人类与人工智能和平共处的美好天堂。这一切,取决于今天我们所做出的每一分努力。

TM公司,将在这条道路上坚定地走下去!

谢谢大家!

猜你喜欢
图灵定律人工智能
哈啰电动车发布智能新品哈啰B70 PRO,推出智能平台图灵T30
新英镑
倒霉定律
2019:人工智能
人工智能与就业
数读人工智能
人工智能简史
语言与图灵测试
耐人寻味的定律
食堂定律