2023年6月初,“美军无人机‘反杀人类操作员”的传闻在社交媒体上不胫而走。面对公众对“人工智能叛乱”的担忧,作为当事方的美国空军不得不反复“辟谣”。
据美国商业内幕网站和英国《卫报》网站等媒体报道,5月下旬在英国伦敦举行的“未来空天作战能力峰会”期间,美国空军人工智能测试和行动计划主管官员塔克·汉密尔顿上校提到了一次模拟测试。汉密尔顿是佛罗里达州埃格林空军基地第96测试与作战大队的负责人,该部队负责美军先进无人机和人工智能技术的测试工作,曾为F-16战机开发自动防撞系统, 以降低事故风险。2022年12月,美国五角大楼旗下的研究机构“国防高级研究计划局”宣布,人工智能已经可以操控F-16战机,并在与人类飞行员的模拟对抗中展现出压倒性实力。
据汉密尔顿介绍,在一次模拟测试中,一架负责执行防空火力压制任务的无人机,收到了识别并摧毁敌方防空导弹的指令,但最终是否开火需要获得人类操作员的批准。这架无人机使用的人工智能系统在进行数据训练时,得到了“摧毁敌方防空系统”为最优先级任务的信息,因此,当人类操作员发出不允许发动攻击的命令时,人工智能系统认为操作员是在阻扰它执行优先程度更高的命令,进而选择对自己的人类操作员发动攻击,杀死了人类操作员。
“人工智能可能伤害人类”的观点并不新奇,但这一次,美国军方人士的背书引起了更强烈的不安。
汉密尔顿曾警告不要过分依赖人工智能。汉密尔顿去年接受《国防智库》采访时说:“人工智能不是一个好东西,这不是一种时尚,人工智能正在改变我们的社会和我们的军队。”
“ 我们必须面对一个人工智能已经存在, 并正在改变社会的世界。” 汉密尔顿说,“人工智能也非常脆弱,很容易被欺骗和被操纵。我们需要开发更强大的技术,让人工智能更可控。”
北美青年文化平台“VICE”称,汉密尔顿在“未来空天作战能力峰会”上透露的消息印证了有关人工智能的危险假设:当被要求实现某个目标时,人工智能可能采取意想不到的有害行动。例如,一个强大的人工智能被指示制造尽可能多的回形针,那么为了集中所有可用的资源服务于这项任务,它会乞求、欺骗、撒谎或依靠偷窃提高自身的能力,任何阻碍这一过程的人都将被清除。
美国谷歌公司深度思考人工智能项目的工作人员在一篇论文中提出了相似的情况:如果人工智能被允许“消除所有障碍” 或“ 运用所有能量” 实现特定目标,最终可能导致世界末日。
面对媒体的质询和公众的批评,美国空军在事发一周后做出了回应。美国福克斯新闻网援引军方发言人安·斯特凡内克的一份声明说,美国空军从未进行过基于人工智能的无人机模拟测试,而是致力于“有道德并负责任地使用人工智能技术”。这位发言人强调,“汉密尔顿上校的言论似乎被断章取义了,某些人只是为了制造逸闻趣事。”
塔克·汉密尔顿出面澄清说,自己在会议发言中“用词不当”。“我们从未进行过那样的实验,也不需要为了一个似是而非的结果而进行实验。”他告诉会议主办方“英国皇家航空学会”,“虽然这只是个虚构的案例,但它说明了人工智能带来的现实挑战”。
军方否认进行过实际测试,但美国“防务一号”网站注意到,一些行业领袖最近签署了一封联名信,警告人工智能构成了“威胁”,其危险性与流行病或核战争近似。
美国《福布斯》杂志网站评论称,軍方的“辟谣”来得太迟。在先入为主的社交媒体时代,官方的自我辩解往往只能影响一小部分人。
《福布斯》杂志网站认为,“‘被造物背叛造物主 的桥段永远不会过时,从《弗兰肯斯坦》到《终结者》,再到《银翼杀手》《西部世界》《黑客帝国》,‘堕落的人工智能的形象在虚构作品中仿佛无处不在,并因为对现实的影射而越来越深入人心”。