方宇宁/编译
科学家谈人工智能
方宇宁/编译
英国BAE系统公司开发的自动化程度极高的无人机“塔拉尼斯”,但仍然需要人类来为它制定作战决策
●对未来机器人可能存在的风险和担忧,四位机器人学领域的专家谈及了他们的观点和解决之道。他们分别是伯克利加州大学计算机科学教授斯图尔特·拉塞尔(Stuart Russell),英国布里斯托尔大学机器人学讲师萨宾·赫尔特(Sabine Hauert),斯坦福大学生物医学和计算机科学教授拉斯·奥尔特曼(Russ Altman)和卡内基-梅隆大学计算机科学教授曼努拉·维罗索(Manuela Veloso)。
人工智能(AI)和机器人领域面临一个重要的伦理抉择:对于致命性自主式武器系统(LAWS),我们应该持支持还是反对态度?
要不了几十年,或在未来几年里,人工智能和机器人技术的发展,将导致LAWS在技术上的完全可行性——自主式武器系统被称为自火药和核武器发明以来的第三次战争革命。
斯图尔特·拉塞尔
自动化武器系统在搜索和瞄准目标时无需人工干预,当针对的目标包括人类在内时,其杀伤力是致命的。例如,配备了多轴飞行器的LAWS可以自行寻找并攻击敌方战斗人员。但巡航导弹和无人机除外,这类武器还是要由人类来操控的。
现有的人工智能和机器人组件还可以为诸多功能提供物理平台,如感知、运动控制、导航、测绘、战术决策和规划等,LAWS只是集合了这些功能。例如,自动驾驶汽车技术就是一个很好的证明,包括用于执行城市搜索任务的模拟人类战术控制的DeepMind DQN学习系统。
美国国防部高级研究计划局(DARPA)的两个LAWS项目已在计划之中。这两个项目分别为“快速轻型自动化系统”(FLA)和“孤立环境下的联合作战系统”(CODE)。前者对微型旋翼飞行器编程后,可在城市环境或建筑物内部执行高速无人飞行任务;后者是正在开发的一种空中无人飞行器,可在敌人的信号干扰或人工通信无法正常进行的情况下,完成包括搜索、锁定、跟踪、攻击、评估反馈等一系列任务。其他国家可能也在进行一些相类似目标的秘密计划。
而“国际人道主义法”——控制人类战争时期攻击行为的国际法——并没有对此类技术有任何具体规定(可能仍然是适用的)。根据1949年签订的日内瓦公约规定,战争中任何的人类攻击性行为必须要满足以下3个条件:军事上的必需性;战斗人员与非战斗人员的差别对待;军事目标与潜在附带伤害之间价值的平衡。1977年补充的马尔顿斯条款,其相关规定禁止使用“违反人性和公共良知原则”的武器,一些主观判断是当前自主式武器很难或无法做出的。
根据日内瓦《特定常规武器公约》的精神,联合国举行了一系列关于LAWS的会议,未来几年内,可能导致产生一项限制或禁止自主式武器的国际条约,如1995年禁止激光致盲武器的使用,否则LAWS的发展有可能因失控而导致军备竞赛的不可避免。
在4月份举行的《特定常规武器公约》第三次会议上,我被邀向专家提供证词,并倾听了一些国家和非政府组织的发言,德国称将“生与死的决定完全由自主系统决定”是完全无法接受的,日本称“没有开发将人类排除在外机器人的打算,完全自主的机器人有可能犯下谋杀罪行。”而美国、英国和以色列认为没有必要制定这样一个条约,因为他们现有的内部武器审核流程,足以确保不会违反相关的国际法。
但几乎所有加入《特定常规武器公约》的国家都提出了对机器人武器锁定和攻击目标的决策进行“有意义人工控制”的必要性。遗憾的是,“有意义”的定义仍有待确定。
争议包括多个方面。一些人认为,自主武器拥有效率和选择性方面的优势,通过自动选择只针对战斗人员,可最大限度减少平民伤亡。其他一些人坚持认为,LAWS会降低开战门槛,在没有直接面临危险的情况下发起攻击。另外,LAWS如果掌握在恐怖分子和其他非政府武装分子手里,可能会对平民造成灾难性的伤亡。
LAWS通过让机器来选择攻击和杀灭的对象,有可能违反保持人类尊严的基本原则,例如,它们有可能被指派执行这样的任务:消灭有“威胁行为”的任何人。
按照LAWS技术的发展轨迹,其最终有可能超出人类控制,凌驾于人类之上。这可能是人们最大的担心。自主式武器的能力,更多受适用范围、速度、载荷等物理定律的限制,而非受人工智能缺陷的限制。例如,随着飞行机器人体积变得更小,其机动能力的增强具备携带致命有效载荷的能力,也许携带填装有1克炸药的锥形物就能够刺穿人的头盖骨。尽管有限制,自主式武器的灵活性和杀伤力仍然会将人类置于死地,这样的未来不是我们想要的。
因此,从事人工智能和机器人领域的科学家有责任表明立场,正如当年物理学家对于核武器,或生物学家对于在战争中使用病原体表明立场一样。应当召开专门的学术会议进行讨论,伦理委员会也应对此展开讨论,并在一些专业出版物上发表表明立场的论文。如果什么都不做,就等于表示支持LAWS的继续开发和使用。
——斯图尔特·拉塞尔,伯克利加州大学计算机科学教授。
萨宾·赫尔特
媒体的一些炒作性的新闻标题,激起了公众对机器人和人工智能的过度恐惧或过度期盼两种极端反应,而一些研究人员则完全中止与媒体和公众在这方面的沟通。
这些问题是我们无法规避的。广大公众,包括决策者、投资者和直接受益于机器人领域发展的利益相关者,他们听到的大多是片面的讨论,或者担心机器人会抢了他们的饭碗而失去工作,或者担心人工智能有可能带来潜在的威胁,考虑是否应该通过制定法律来“掌控”这些目前仍处于假设中的技术。
我和我的同事努力利用一些场合向人们解释,我们不是在做什么邪恶的事情,我们多年来致力于开发的自动化系统,可以更好地帮助老年人,改善公共卫生保健现状,让人们的工作环境变得更加安全、更有效率,还能够促进人类对太空和海洋的探索。
从事这一领域研究的科学家有责任成为一名信息传播者,应该充分利用媒体这一公共平台引导展开相关讨论,我们可以探讨机器人学和人工智能的最新进展以及限制因素,描绘人工智能发展的图景,揭开人工智能技术的神秘面纱。我曾经有过通过社交媒体“众包”设计治疗癌症的纳米机器人的经历,我的第一个博士生就是通过其纳米药物博客发现的。
人工智能和机器人领域需要有与著名评论家沟通的思想领袖——如物理学家斯蒂芬·霍金(Stephen Hawking)和企业家兼发明家埃隆·马斯克(Elon Musk)——参与到诸如瑞士达沃斯等世界经济论坛。另外,公众的参与也有助于资金的筹集,如麻省理工学院(MIT)的辛迪·布雷西亚(Cynthia Breazeal)在开发家用机器人JIBO时众包集资,募集到了220多万美元资金。
当然,这种交流也存在不少障碍,包括许多研究人员没有推特和博客,以及时间限制等。尽管如此,开展机器人和人工智能方面的培训、支持和鼓励是必不可少的——由我合作创办和主持的Robohub.org网站可以提供上述帮助。Robohub建立于2012年,是一个致力于机器人社区与公众沟通的平台,提供诸如机器人和人工智方面的速成课程。我们邀请专业的科学传播者协助相关研究人员推介后者的研究工作,将他们的发言压缩在5分钟之内,同时把现场拍摄内容上传到YouTube。
迄今,我们已经建立了一个汇集大量博客和微博的门户网站,旨在让更多的机器人和人工智能爱好者接触到相关信息和知识。通过这类社交媒体,使研究人员拥有一个能够展开平等和谐讨论的公共平台。
科学传播的好处可以列出许多,但这种激励必须是来自于资助机构或研究机构。麻省理工学院机器人研究员罗德尼·布鲁克斯(Rodney Brooks)1986年提出的“包容式体系结构”,是一种可以对环境做出反应的仿生机器人程序。在之后的近30年时间里,他的文章被引用了近10 000次。包括由布鲁克斯创办的再思考机器人公司开发的一段机器人视频,在一个月时间里就产生了60 000多条评论。这对如今的公共论坛在体现研究成果的影响力方面有助益。
政府、研究开发机构和行业协会都欢迎这类互动,但是每个具体开发项目与公众的沟通却是极少,公众也很少能接触到。以我看来,全球的人工智能和机器人技术利益相关者,应该拿出预算中的一小部分(比如0.1%)用于与公众的互动,让更多的人对该领域的发展有更多的了解。目前很少有促进公共领域内机器人学和人工智能知识普及的努力,这种平衡是急需的。
一个致力于机器人社区与公众互动的平台,将吸引公众介入与他们有切身关系的新一代机器人的讨论。同时,我们要防止媒体炒作带来的对机器人技术和人工智能等相关政策的误解,这一点是至关重要的。
——萨宾·赫尔特,英国布里斯托尔大学机器人学讲师。
美国宇航局的Robonaut 2机器人可用于医学、工业领域以及空间站的建设
拉斯·奥尔特曼
在生物医学领域,人工智能不仅有助于科学新发现,还对改变卫生保健现状具有惊人的潜力。如用于数据分析的人工智能系统在对基因组学、蛋白质组学和代谢组学数据,电子病历以及监测健康状态的数字式传感器数据等进行分类的基础上重新进行定义。
其中,群分析可以用来定义新的疾病症状,将某种疾病从被认为是相同的疾病中分离出来,或找到与其他疾病相类似的潜在缺陷,而模式识别技术能将疾病与最佳治疗方法相匹配。例如,我和同事们正在进行的患者群体对调节免疫系统药物反应的识别项目。
在给病人看病时,医生可以从虚拟群体数据中寻找与身边病人相类似的“患者”,用以权衡诊断治疗方案。通过这样的一个系统互动,或结合患者诊断数据和虚拟患者群体中类似病例的数据,医生可以做出诊断和治疗决定。
在具体的运作过程中,我有以下两点担忧。首先,人工智能技术可能会凸显现有医疗体系存在的差距,而要改变这种状况,则需要创建某种能够让所有病人受益的医疗体系。以美国为例,人们享受的是两种不同层次的医疗护理,在这样一个两级医疗体系中,只有特殊群体或那些支付得起费用的人,才能从先进技术和新的医疗体系中获益。穷人是完全与之无缘的。这既不公正也不公平。而确保人工智能技术带来益处的公平分配原则,是政府以及技术开发者和支持者共同的责任。
其次,是医生对高性能人工智能系统输出数据的理解和解释能力。对输出的数据结果,如果不能知其然并知其所以然,大多数医生是很难接受医疗决策辅助系统得出的某个复杂治疗建议的。
遗憾的是,人工智能系统越先进,往往也越难于理解和解释,如通过贝叶斯分析法直观显示基于概率的评估结果。因此,创建人工智能系统的研究人员需要让医生、护士和其他相关人员了解并合理使用这些系统。
——拉斯·奥尔特曼,斯坦福大学生物医学和计算机科学教授。
曼努拉·维罗索
人类是集感知、认知与行动为一体来认知世界的,即人类是通过身体这一天然传感器来评估周围世界的状态:首先用大脑思考,然后制定行动计划,最后通过四肢来实现目标。我的研究团队正在尝试构建能与人类做同样事情的自主机器人,这样的机器人由人工传感器(包括摄像头、麦克风和扫描器等)、算法和执行控制机构组成。
但是,在能力上自主机器人与人类有着很大的不同。机器人也许可以有知觉能力、认知能力和有限的行为能力,但它们可能无法完全理解某个场景,不能完全识别或操纵所有的物体,也不能理解所有的口头或书面语言,或顺利通过复杂地形。我认为,机器人应该成为人类的助手,而不是取代人类。
为更多地了解机器人和人类是如何协同工作的,在过去3年里,我们与自己研制出来的四个辅助机器人CoBots一起共享实验室和工作间。这几个机器人有点像机械讲台,它们有避开障碍物的轮子,可以向不同方向移动;有深度视觉的相机和激光雷达系统;有处理信息的计算机系统和人机交流屏幕;还有可携带物件的篮筐。
早前,我们就意识到现实世界环境对机器人的挑战,CoBots不可能识别出遇到的所有物体,没有用来开门、拿东西的手和手臂,虽然它们可以通过语音与人类交流,但可能并不能真正识别或理解话的意思。
为此,我们引入了“共生自主”的概念,让机器人能够从人类或互联网上寻求帮助。现今,在我们的实验室大楼里,CoBots机器人与人类互相帮助,克服了彼此的局限:CoBots可陪同来访者参观大楼,或在两地之间搬运物体,并在这个过程中收集有用的信息。例如,生成精确的空间图,显示温度、湿度、噪音和光线水平,或WiFi信号的强度等。我们需要做的就是帮助机器人开门,按下电梯按钮和拿取物体等。
但是,机器人与人类的安全共生共存仍需克服一些障碍。我的团队正在研究如何通过语言和动作使得机器人与人类更容易交流,以及在物体识别、任务执行和目标达成的过程中,机器人与人类如何更好配合等问题。
我们还在研究如何改善机器人的外观来强化与外界的互动,特别是通过指示灯的显示来更多揭示机器人的内在状态。例如,指示灯为黄色,表示机器人正在忙碌;指示灯为绿色,表示机器人处于空闲状态中。
尽管未来的路还很长,但我相信,如果人类与机器人能够互助与互补,那么人工智能与机器人将会有一个光明的未来。
——曼努拉·维罗索,卡内基-梅隆大学计算机科学教授。
[资料来源:Nature][责任编辑:则鸣]