人类真能派机器人杀人放火吗?

2015-09-23 01:47编译王玥娇编辑徐臻
博客天下 2015年12期
关键词:杀人敌人框架

编译 王玥娇 编辑 徐臻

智识

人类真能派机器人杀人放火吗?

编译 王玥娇 编辑 徐臻

电影《复仇者联盟2:奥创纪元》中的人造机器人奥创

一旦错杀,谁为“杀人机器人”负责?

“杀人机器人”(致命性自主武器系统)正站在伦理辩论席上。

简而言之,他们能够代替士兵自动杀伤敌人。机器人们由人类远程操控,发展至由计算机软件和传感器装置控制,进而全自动执行识别敌人、判断敌情和杀死敌人等任务。

这是对军方的极大诱惑:无需报酬、不休不眠、没有情绪且自主执行上级命令。最重要的是,即便它们在战场上大规模“死伤”,国内民众也不会感到任何悲痛。

目前,最接近“杀人机器人”的是韩国研发并开始使用的一款哨兵机器人。它的个头与3岁孩子相当,重17公斤。这款造价约20万美元的机器人能识别2千米(白天)和1千米(夜间)以外的人、汽车或树木,还可探测到4千米(白天)和2千米(夜间)以外的移动物体;能够盘问10米以内的来客,并在侦测到闯入者时发出警报。

距离“杀人机器人”真正部署到战场可能还需要20-30年,但已经引发对机器人武器军备竞赛的担心。

“杀人机器人”是否有权处置人类生死?

在所有管理机器人的规则和道德框架中,最著名的是1942年的阿西莫夫三大定律:机器人不得伤害人类,或因不作为使人类受到伤害;除非违背第一法则,机器人必须服从人类命令;在不违背第一及第二法则下,机器人必须保护自己。

这套规则在科幻世界规范着机器人的行为,因为小说设计成所有的“正子脑”都由同一位天才科学家设计出来,别人的设计都失败了。但在现实世界中,设计和使用机器人的人类才必须成为这种规则的遵守者。

致力于制定机器人规则的英国工程和物理科学研究理事会成员乔安娜・布莱森认为:“人类需要建立自身的道德框架,机器人不用。因此人类有必要做出选择,把机器人放在人的道德框架内才不会残杀地球上的其他生命。”.

猜你喜欢
杀人敌人框架
框架
捡敌人的枪来用,靠不靠谱
绑架杀人潜逃24年终落网
广义框架的不相交性
可怕的杀人风
敌人派(下)
WTO框架下
可怕的杀人风
足够是够的敌人
一种基于OpenStack的云应用开发框架