霍金生前大胆预言:“超人”种群将占领主导地位

2018-12-29 00:00:00
读报参考 2018年31期

在英国《星期日泰晤士报》上发表节选并于10月16日出版的《重大问题简答》一书中,霍金毫不留情地评论了诸如地球面临的最严重威胁、机器占领主导地位以及外太空可能存在智慧生命等问题。

人工智能

霍金对规范管理人工智能的重要性提出了严重警告。指出“未来人工智能可能形成自己的意志。与我们人类相冲突的意志”。他在书中写道,应当制止可能出现的自动武器军备竞赛,提出如果发生类似于2010年股市闪电崩盘那样的武器崩盘,其后果将会如何的疑问。

他接着写道:“人工智能的真正危险并非在于恶意,而在于能力。超级智慧的人工智能将极其擅长实现目标。如果这些目标与我们不一致,那我们就麻烦了。你可能不是出于恶意而踩死蚂蚁的那种邪恶的仇恨蚂蚁的人,但是如果你负责一项水力环保能源项目,而洪水淹没地区有一个蚁丘,那么蚂蚁就惨了。我们别让人类陷入蚂蚁的境况。”

基因编辑和超人

坏消息:未来1000年的某个时刻,核战争或环境灾难将“严重破坏地球”。可是,到那时。“我们的天才种族将已经发现了摆脱地球粗暴束缚的办法,因此能够战胜灾难”。不过,地球上的其他物种可能做不到。

成功逃离地球的人很可能是新的“超人”,他们利用诸如“规律成簇间隔短回文重复系统(CRISPR)”这样的基因编辑技术超过其他人。霍金说他们会不顾禁止基因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命。

霍金似乎对最后一点尤为感兴趣。他写道:“已经没有时间留给达尔文的进化论来提高我们的智力、改善我们的天性了。”

“一旦出现这种超人,未经基因改造而提高能力的人必将遇到重大政治问题。他们无力竞争。也许他们会绝种,或变得可有可无。不过,将出现一种不断加速改进的自我设计人类。如果这种人类种族设法重新设计自己,它很可能扩散开来,殖民其他行星和星球。”