时事引读
2018年4月,韩国科学技术院(KAIST)与韩国顶尖财团合作开设的人工智能武器试验室引发世界舆论关注。4月4日,全球超过50名人工智能研究人员联名提出抵制,原因在于该机构试图研发自主武器。4月9日,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,讨论致命自主武器系统研发,也就是常说的“杀手机器人”可能带来的影响。有媒体表示,韩国此举必然会造成毫无道德、伦理限制的杀人机器四处横行,而人类却束手无策的情况。对此,世界各地网友都表示“千万不要打开这个潘多拉魔盒”,否则人类将有灭绝可能。
素材聚焦 联合国黑名单
据英国《金融时报》报道,2018年2月以来,KAIST一直在进行四项实验,分别是:基于人工智能的指挥和决策系统、水下无人机导航算法、基于AI的智能飞行器训练系统、基于AI的对象跟踪和识别技术。就学术界来说,这些实验看上去很正常。但不正常的地方在于,KAIST进行的研究是与韩国军工企业“韩华Systems”合作的,而韩华Systems的母公司韩华集团(Hanwhua)因为制造集束弹药已被联合国列入黑名单。提出抵制的这50多位学者担心,KAIST研发自主武器将会加速AI军备竞赛,导致更大规模的战争加速到来。不过,KAIST总裁Sung-Chul Shin表示:“KAIST没有任何意图参与开发致命的自主武器系统和杀手机器人。作为一个学术机构,我们非常重视人权和道德标准。”
素材拓展 自主武器
自主武器并不等于智能武器,也不等于自动化武器。后两者现在已经存在,比如自动瞄准装置、导弹定位系统、无人机等。但无论是哪种武器,其最终决定权都在人类手中。而自主武器,属于强人工智能范围,它把武器是否对人类进行毁灭性打击行为的决策权交给机器,这无疑是十分危险的做法。以人工智能为例,当前已经出现过一些类似的“失控”事件,涉及种族歧视、性别歧视等。比如微软的聊天机器人Tay曾在Twitter上发表涉及种族歧视的言论,导致其上线一天就被迫关闭。总之,禁止自主武器的开发,并不是要妨碍人工智能技术的发展,也不妨碍其被正常用于军事领域,其中的关键就在于,人类是否拥有控制权。
【考场仿真试题】请根据以上材料,写一则150字左右的微评论。
【范文示例】科学进步的意义,应是给人类带来生活的便利。研制“杀人机器人”,非但不能给人们创造出更安全舒适的生活环境,反而有可能给人类带来毁灭性的打击,这样的“科学”于世界何益呢?在世界新形势下,我们每个人、每个地区都应树立人类命运共同体意识,不能自掘坟墓,要合理发展,争取共赢!
其他適用话题 人工智能;社会秩序;人类未来