未雨绸缪
——人工智能专家呼吁禁止发展杀手机器人

2017-12-07 08:47温杰
航空世界 2017年10期
关键词:军备竞赛马斯克联合国

文/温杰

未雨绸缪
——人工智能专家呼吁禁止发展杀手机器人

文/温杰

8月21日,国际人工智能联合会议(IJCAI)在澳大利亚墨尔本召开。在开幕式上,特斯拉公司的伊隆·马斯克和谷歌公司的穆斯塔法·苏莱曼牵头,与来自26个国家的116名机器人和人工智能领域的专家联合提交了一封公开信,共同呼吁禁止使用自主攻击武器。

这封公开信获得了多名在机器人领域声名显赫的人物的支持,并且着重强调了紧急行动的必要性,促使联合国推迟了原计划在21日召开的一个会议,专门来评估这一问题。目前,联合国已经投票决定,开始正式讨论无人机、坦克和机枪等武器的发展和使用问题。

这不是IJCAI第一次作为讨论致命性自主武器系统的平台。两年前,人工智能和机器人公司的一些创始人在布宜诺斯艾利斯召开的会议上,曾经向联合国致公开信,呼吁联合国阻止目前正在进行中的杀人机器人军备竞赛。这封公开信把无需人类指令便能够选择并攻击目标的人工智能武器与无人机、巡航导弹等人类选择打击目标的武器进行了区分。

在信中,这些技术领袖在常规武器公约的审查会议上警告说,继火药和核武器后,这一领域的军备竞赛可能会引发“第三次战争革命”。他们在信中写道:“一旦研制成功,致命自主武器将使武装冲突扩大到前所未有的规模,而且战争进展的速度也比人类理解得更快。这些自主武器可能成为恐怖行动的代名词,会成为独裁者和恐怖分子对无辜平民使用的武器,也有可能被黑客所利用,做出我们不愿看到的行为。”

尽管机器人士兵仍处于纸上谈兵阶段,可是计算能力和人工智能的迅速进步,增加了军方在20年内把机器人士兵派上战场的可能性。在这封公开信中,这些创始人表示,虽然对军队作战人员来说,人工智能技术可以令战场更加安全,但这种不受人类控制的武器会引发全球性人工智能军备竞赛。技术领袖们认为,留给人类采取行动的时间并不多,“潘多拉的盒子”一旦打开,就很难关上了。

人工智能技术正在让自主武器系统变得更加致命

此前,专家曾经警告说,人工智能技术已经达到了一个重要阶段,即自主化武器将在今后几年内就可以投入部署和使用,而非人们想象的还需要数十年。

专家们忧虑,具有自主作战能力的攻击型武器会降低战争的门槛,甚至有可能导致更多平民丧生。

在今年的会议上,这些创始人呼吁把“缺乏道义的”致命自主武器系统加入到联合国在1983年生效的《特定常规武器(CCW)公约》禁用的武器清单中。这份清单包括化学武器和蓄意使人失明的激光武器。无障碍机器人公司的创始人瑞安·盖瑞比表示:“与仍然处于科幻领域的人工智能表现不同,自主武器系统正处于发展的尖端,具有非常现实的潜力,有可能对无辜百姓造成重大伤害,并引发全球不稳定”。

作为这封公开信的签名者之一,马斯克多次警告对人工智能前瞻性规范的必要性,呼吁国际社会出台新的规定,确保公众的安全。他将人工智能系统称为人类面临的最大生存威胁,认为如果该系统决定优先打击是获得胜利的最可能途经,那么它就有可能选择发动一场战争。9月4日,马斯克在推特上发布了个人观点:“国家间为在人工智能领域获得优势而不断加剧竞争,最有可能引发第三次世界大战。”

不过,也有其他一些专家认为,人工智能尽管存在巨大的破坏性潜力,但从现实来看仍然十分遥远。Facebook公司的首席执行官扎克伯格认为马斯克的预测“相当不负责任”,而马斯克则回应称,扎克伯格对于整个问题的理解是“有限的”。

马斯克强调,人工智能是关乎人类文明存亡的最根本的风险。他认为,保持与机器智能同步的最好办法是升级人类智能。近期,马斯克非常罕见地在公开场合谈到了通过开发脑机接口来推动人类进化的可能性。而他本人最新创建了一家神经连接公司,主要目标是开发“超高带宽脑机接口”,尝试通过机器与人类大脑相接,将生物智能与数字智能更紧密地结合,最终实现人类与机器的真正融合。

编辑:石坚

猜你喜欢
军备竞赛马斯克联合国
马斯克打脸简史
联合国呼吁提供55亿美元以免3400万人陷入饥荒
《 联合国糖尿病日》
梅耶·马斯克的“育儿经”
学历军备竞赛,可以休矣
拒绝学校“军备竞赛”的大人们
乡镇市场上演电商“军备竞赛”
无人仓的“军备竞赛”
马斯克预计“猎鹰”9可在12月复飞
只因他是马斯克