司徒民淇+刘宗凡
编者按:随着科学技术的快速发展,人类在人工智能领域取得了突破性的进展。在人工智能给人类生活带来更多便利的同时,也引发了许多伦理道德方面的问题。希望人工智能技术可以在科技伦理道德的引领下,走向更加美好的明天。
● 人工智能——是福是祸?
我们从哪里来?要到哪里去?对于这个终极的哲学问题,今年的科幻大片《异形:契约》给我们带来了深深的思索。这部片子里的生化人大卫(David),是当之无愧的主角。
大卫是一个由人类创造的生化人,在大卫的心中,一开始人类是至高无上的。随着大卫的不断学习,他对人类的态度也发生了巨大的变化。我们看到大卫从完全服从到背叛人类的过程其实是他的知识体系不断完善、不断进化的过程。大卫是从“善”变到“恶”了吗?其实,作为一个生化人,他不断接受人类的指令就是在不断完善。大衛通过不断探寻,觉得自己找到了生命的意义。他觉得自己解决了“我是谁”“我从哪里来”“我该到哪里去”的问题。在这个思想的驱使下,他开始了灭绝人类、灭绝人类创造者——工程师,以及创造异形的过程。
人类创造的人工智能,是成为人类忠实的助手,还是会反噬人类?《异形:契约》给了我们非常震撼的答案。
21世纪是科技的时代,人类在人工智能、转基因技术、纳米技术、克隆等方面取得了极大的突破。这些新兴技术的崛起,在给人类带来更多福音和更广泛可能性的同时,也引起了前所未有的关于科技伦理道德的讨论和争议。如何让科技的发展更符合人类的伦理道德观念,是值得我们思考的问题。
人工智能技术诞生于20世纪50年代,经过六十多年的发展,人工智能已经从简单的智能设计发展到如今的企图制造出接近甚至超过人类智能的机器。同时,一系列的伦理道德问题也应运而生。我们应该如何理性看待这些问题?如何使人工智能向更有利于人类的方向发展?
国外对人工智能的研究比较早,与之相关的思考也有很多。美国的阿西莫夫提出了著名的“机器人三大定律”,这个定律成为如今人工智能界默认的研发法则。英国的安德鲁在《人工智能》一书中对人工智能进行了分类,而美国的芒福德在《机器的神话》(The Myth of the Machine)中对自动机器的应用提出了强烈的批评。
国内对人工智能的研究起步较晚。改革开放之后,我国对人工智能的研究才逐步活跃起来,与之相关的论文也处于不断丰富状态,其中比较有代表性的有陈立鹏的《人工智能引发的科学技术伦理问题》、谭薇的《机器人的伦理抉择》、王晓楠的《机器人技术发展中的矛盾问题研究》等。这些文章均对由人工智能引发的伦理道德问题进行了深入的讨论。
科技伦理是指在科学技术活动中人与社会、人与自然和人与人关系的思想与行为准则,它规定了科技工作者及其共同体的价值观念、社会责任和行为规范。
刘大椿在《科技伦理,在真与善之间》中指出:科学活动的基本伦理原则是客观公正性和公众利益优先性。科学的社会规范是科学建制与整个社会的契约,它使科学技术得以在符合伦理道德的前提下蓬勃发展。
● 围棋人机大战与人类危机
2016年3月,由谷歌开发的AlphaGo程序以4:1的成绩战胜国际围棋冠军李世石,关于人工智能的话题席卷全球。在人工智能引起热议的同时,潜在的恐慌和危机感也悄然而生。
AlphaGo程序使用“神经网络”的算法,通过输入几千局人类优秀对局、自身的“对战”和与其他同类程序比赛等方式进行“自我学习”,从而进一步提高自身的“棋技”,最终达到超一流职业棋手的水平。而围棋,其棋盘上有19×19=361个点,每个点都有黑、白、空三种情况,合法的棋局数高达3的361次方种,这巨大的可能性使围棋曾经是人工智能界面临的一座高山。如今,这座高山已经被翻越,同时也意味着人工智能技术又到达了一个新的高度。
谷歌董事长施密特在赛前发布会上表示,无论输赢都是人类的胜利。因为是人类创造了人工智能并且让它达到了一个新的高度,人工智能是人类智慧的一种体现。
人工智能的强大之处,在于它可以通过不断的“自我学习”来逐步提升自己的技能,并且,机器的“大脑容量”和“学习速度”都是人类鞭长莫及的。可以预见,人工智能在某一方面超过人类智能只是时间问题。人工智能的强大之处,正是它让人恐慌之处。根据达尔文的《进化论》,一个细胞经过千千万万年的发展、进化和自然选择,形成了如今的人类。那么,一个人工智能程序是否会经过学习从而进化成一种可以取代人类的“物种”呢?
这种潜在的可能性早已不是什么新鲜事。早在1942年,美国阿西莫夫针对这个问题提出了著名的“机器人三大定律”,其法则如下:
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则的前提下,机器人必须保护自己。
这是人类在人工智能方面筑起的第一道伦理道德之墙。于是,问题转化成了如何将这些伦理道德灌输给机器人。难点在于,对于伦理道德,即使是人类也没有一个明确的界限。例如,如果“公平”和“生命至上”同时作为伦理准则,那么面对前方道路上玩耍的五名儿童和另一条废弃道路上玩耍的一名儿童,火车“控制者”应该选择哪一条道路行驶?这样一个连人类也无法得到统一答案的问题,人工智能又应该如何应对呢?做出合乎伦理道德的选择,需要根据实际情况并结合大量的“学习积累”(人类称之为经验)决定。
但是,如果人工智能在学习中,因为一个偶然的错误而接受了错误的观念,那么这种错误的观念是否会颠覆机器原来的理念?首先,这样的“错误”是有可能存在的,正如人类的每一个细胞都有可能发生基因突变一样,计算机病毒的存在很大程度上提高了这种错误出现的概率。其次,原本的正确理念是很有可能被颠覆的,正如人类对“老人摔倒该不该扶”问题的答案产生动摇一样。endprint
给人工智能筑起一道更加稳固的伦理道德之墙,需要广大的科技工作者及其共同体制定更加具体详细的伦理道德规范,编写出拥有“自我辨别能力”并能够筛选出正确的学习数据加以学习的程序植入机器中。同时,广大公民也要对人工智能有一个正确的认识,只要理智地看待,相信伦理道德的真善美最终会成为人工智能不可动摇的基本准则。
● 现代军用机器人与责任争端
现代战争,战情复杂,场面残酷,对作战人员的素质提出越来越高的要求。然而,人的作战效能,往往受到生理和心理极限的影响。而由机器人为主导的无人作战平台,可以超越人类的极限,可以承担危险性高、难度大、持续时间长的作战任务。更为重要的是,对于战争中最昂贵的牺牲品——人类来说,可以大大减少伤亡,所以各国现在在军用机器人方面都在持续投入研究。
为了在新一轮军用机器人竞赛中占得先機,欧洲各国采取联合研发战略,其中的典型作品便是由法国领头,希腊、意大利、西班牙、瑞典和瑞士等国合作研发的“神经元”无人战斗机。“神经元”无人机采用了飞翼式设计,具有隐身性能突出、智能化程度高、对地攻击方式多样等特点,可以在不接受任何指令的情况下独立完成飞行,并在复杂飞行环境中进行自我校正。该无人机综合运用了自动容错、神经网络、人工智能等先进技术,具有自动捕获和自主识别目标的能力,并解决了编队控制、信息融合、无人机之间的数据通信以及战术决策与火力协同等技术,是一种可以在无人实时操作条件下执行观察打击一体化任务的高科技装备。
现代军用机器人因具有强大的功能,在现代战争中显示出了突出的优势,受到了世界各国的青睐。军用机器人的研发也产生了一些伦理问题,集中体现在军用机器人的伦理设计和责任问题。
军用机器人具有非常明显的优势,它具有极高的智能,更全面的作战能力和更强的战场生存能力,可以代替士兵完成危险的军事任务,减少人员伤亡。在和平时代,军用机器人的决策,通常由人类来决定。同时我们可以预测的是,在战争中,需要做出决定的事件每时每刻都存在,人类无法代替机器人做出所有的决定。因此,机器人的自主决策会成为必然,如机器人可以决定是否向“目标”开火。围绕这个问题的议论也越来越多。
首先,机器人如何判断其面对的“目标”,是己方士兵、敌方士兵、平民,还是平民中的间谍?如果判断错误,就有可能导致机器人滥杀无辜。其次,从战争伦理方面看,绝大部分人不喜欢杀戮和战争,在战场上表现出向善的一面。但是,机器人是不存在“人之初,性本善”这样的心理的,它不具有恐惧感,自然也不会有同情心,不会对目标手下留情,甚至不知疲倦。因此,具有强大破坏力的军用机器人很有可能成为战场上的“冷血杀手”。
另外,潜在的更加可怕的危险是机器人极可能被恐怖分子所利用,发展为“机器人恐怖主义”,这种每时每刻都可能存在的危险比未来战场上的危险更加令人恐惧。
机器人杀人,谁应该承担责任?是机器人本身,还是机器人的设计者?受到惩罚的又应该是谁?机器人本身是一台没有感知的机器,对于它的杀人行为,我们可以理解为机器出现的问题。对于一台存在问题的机器,我们第一反应不是像对待孩子犯错一样,对它进行打骂,而是想办法找出问题的成因并进行修理,因为,机器人本身无法接受我们所认同的惩罚。对机器人设计者、系统程序员或者军队指挥官进行惩罚更是不合理的。
责任应该如何分担的问题,需要社会进行更加系统全面深入的研究,制定可行的责任承担机制,具体问题具体分析,从而得出更加恰当的答案。可以预见,因机器人犯错而带来的责任,应该由机器人、机器人控制者、机器人设计者、系统程序员共同承担。如何规范军用机器人在现代战争中的使用,则需要世界各国共同制定一份公平、合理的法则,让机器人在战场上可能造成的错误影响降到最小。
有英国专家称,20年内“自动杀人机器”技术将可能被广泛应用。对此,不少人感到忧虑:对于这些军事机器,人类真的能完全掌控它们吗?
● 社会型机器人与情感依赖
前段时间,网络上有一篇很爆笑的文章:《买了个扫地机器人,不仅人工智障,还是戏精》。各位“机主”在不断吐槽扫地机器人的“智障”行为时,更透露出这个“人工智障”在家庭中类似家庭成员的地位,有些“机主”把这个机器当成了宠物来“养”。评论中除了有“同情”机主的,还有很多人动了心准备买一台回来“养”。扫地机器人逐渐走进普通人的家庭,反映了社会型机器人的普及。
随着人工智能技术的发展,社会型机器人已经逐渐渗透到我们生活中,如真空吸尘器、宠物机器人、机器人娃娃、护理机器人等,它们的出现给人类的生活带来了极大的便利。我们可以预测,在未来,服务型机器人将与计算机及互联网一样,成为人类生活中必不可少的一部分。而这便涉及人和机器人之间的情感问题。
人类在和这些机器人接触的时候会发生什么?这本身就是一个值得深思的问题。服务型机器人有着人类的社交技巧,可以和人类进行交流与互动,甚至可以理解我们。经过长期和机器人的相处,人类很有可能对这些机器人产生情感依赖,对机器人的情感依赖带来的副作用,可能会比如今对手机、电脑依赖带来的副作用严重得多。一个在机器人保姆陪伴下长大的孩子,会不会像“狼孩”一样,无法和正常的人类交流?虽然这只是一种极端的假设,但是机器人依赖带来的心理问题却不容忽视。
人和机器人的社交最大的一个特点是单向性,即只有人类对机器人产生情感而机器人不会对人类产生情感。社会机器人的拟人化,使人类在和它相处的过程中,潜意识地赋予它人类的情感,甚至在心理上产生一种信念:机器人拥有人类的感情状态。人类的情感大多数是在不知不觉中产生的,就像吸毒一样,过一段时间之后才发现已经成瘾的事实,这就很难让人类意识到这种情感只是单向的。这种对机器人的情感很容易导致“机器人犯罪”,即通过控制机器人,从而向它们的主人灌输某种观念,使他们购买商品、毒品甚至进行违法行为。机器人没有内疚的情感,自然不可能像人类一样因为内疚而停止某些行为,所以说,机器人一旦被不法分子控制,其后果是难以想象的。endprint
情感依赖还可能导致人与机器人相爱。爱上机器人甚至和机器人结婚不仅在社会伦理道德上很难被接受,而且在法律上也没有被定义和许可。但这些都不能改变这种可能性存在的事实,人类应该如何看待这样的事情,或者说,人类应该制止这些事情发生吗?现在没有人可以给出一个明确的答案。
在人机交互日益频繁的社会,我们需要明确的一点是,人工智能无论如何深入,都只能作为提高人类生活幸福感的工具存在。我们如何能在以人类为中心的社会中,保持自身人格的独立和完整性,如何给予机器人一个明确的界限,让它可以拥有自己的“人生准则”,可能是未来人工智能技术发展中更令人深思的问题。
● 人工智能伦理委员会——责任与约束
对于人工智能,人类应该对其工作原理有一定的了解,不要在毫不知情的情况下盲目相信“人工智能最后将取代人类”这种片面且极端的说法。人工智能是人类智慧的结晶,在一定程度上可以减轻人类的工作负担,对社会发展起积极作用。目前,人工智能及与之相关的产品主要应用于模式化的思维领域,使人类从繁琐的思维任务中解脱出来,集中精力于需要深度思考的领域。
正如每一枚硬币都有正反两面一样,人工智能既可以给人类带来福音,也可以毁灭人类。但是,人类不能因为其中有潜在的危险而停止研究人工智能,而应该引导人工智能技术向有利于人类和社会进步的方向发展,向符合科学伦理道德的方向发展。
从法律层面来说,世界各国应该联合制定关于人工智能的准则规范,并在其应用领域进行相应的道德约束。各国在此法律的基础上,制定符合本国国情的人工智能发展方略,尝试将“伦理道德”作为人工智能行业的特殊法律约束,将人工智能可能帶来的法律问题进行独立的约束和处理,用法律规范人工智能的发展。
谷歌旗下Deep Mind公司(研究AlphaGo的公司)创始人之一的谢恩·赖格(Shane Legg)指出,人工智能机器人是本世纪人类的头号威胁者。谷歌率先成立了人工智能伦理委员会,对机器人进行技术监管,确保人工智能机器人技术不被滥用,避免未来发生机器人灭绝人类的惨剧。2016年,科技巨头亚马逊、微软、谷歌、IBM和Facebook联合成立了一家非营利性的人工智能合作组织(Partnership on AI),以解决人工智能的伦理问题。
联合国教科文组织与世界科学知识与技术伦理委员会最新联合发布了一个报告(2016),这是一份关于机器人伦理的初步草案报告。草案讨论了机器人的制造和使用促进了人工智能的进步,以及这些进步所带来的社会与伦理道德问题。
从另一个方面来看,每一个从事人工智能方面研究的科技工作者,都应该始终把人类的利益放在首位,具有强烈的社会道德责任意识,不断学习和提高自己的伦理道德素养,提高自己的研发能力,编写出可以让机器人的行为更加符合伦理道德的程序,掌握好人工智能技术的方向盘,将人工智能技术带向科学伦理道德的真善美中去。
目前的人工智能技术虽然发展很快,但是依然存在着很多理论和技术上的问题,这些问题在科学技术的不断向前发展中最终会被解决,人工智能的真正实现也成为可能。对于人工智能技术所引发的伦理道德问题,人工智能领域方面的专家和学者们可以团结合作,深入思考和分析,制订相应的应对策略,让人工智能技术在提升人类幸福感的星光大道上走得更远。endprint