何梦雨
机器人军团现在不加思索地执行我们的指示。我们如何确保这些生物,始终以我们的利益行事呢?我们应该教他们学会思考吗?如果是这样,我们如何教他们辨认对错?
传说400年前,在现在被称为捷克共和国的布拉格,有位犹太教的拉比跪在伏尔塔瓦河河畔。他从水中捞出粘土,小心翼翼地拍打捏出人的形状。原来,布拉格的犹太人被诬告在他们举行的宗教仪式中使用基督徒的鲜血,因此遭到袭击。所以拉比犹大·洛伊乌·本·比扎莱尔(Judah Loew ben Bezalel)决定,他的社区需要一个比任何人都强的保护者。他将希伯来文的单词emet(真相)刻在黏土巨人的前额上,并将一个写有卡巴拉教派公式的胶囊放进它的嘴里。这个生物就有了生命。
美剧《西部世界》,一部关于人工智能黯淡前景的不祥预言。
第一个人造人格勒姆就这样诞生了,格勒姆在贫民窟巡逻,保护犹太社区内的人,并从事有益的工作:扫街,送水和劈柴。一切都很顺利,直到有一天平静被打破了,拉比忘了按照黏土人的要求让其在安息日休息,于是这个怪物开始了一场凶残的作乱。拉比被迫擦掉了格勒姆前额上刻字的首字母,它额头上的字变成了met,在希伯来文中是“死亡”的意思。生命从粘土人的身体中消逝,它崩落成灰尘。
这个关于制造人形机械仆人风险重重的警示性故事,在人工智能时代获得了新的意义。机器人军团现在不加思索地执行我们的指示。我们如何确保这些生物,无论它们是用粘土还是硅制成,始终以我们的利益行事呢?我们应该教他们学会思考吗?如果是这样,我们如何教他们辨认对错?
在2018年,这个问题变得更加迫切。自动驾驶汽车在城市的街道行驶数百万英里,同时做出可能影响其他道路使用者安全的自主决定。日本,欧洲,中国和美国的机器人专家正在开发服务型机器人,为老年人和残疾人提供护理。 2015年日本理化学研究所研发的护理型机器人ROBEAR(它们长着小熊猫的脸)就致力于帮助那些行动不便的人,轻柔的动作可以将人类抱起或放下,或者是帮助其站立起来。但是我们也可以想象它们会轻易把人撕得粉碎。
自2000年以来,美国陆军就部署了数以千计的配备机枪的机器人,每个机器人都能够在没有人类参与的情况下定位目标并瞄准目标(然而,他们不允许在无人监督的情况下扣动扳机)。这些越来越复杂的机器人正准备接管美国陆军最危险、枯燥无味和肮脏的工作。它们已经用于寻找埋藏在路边的炸弹,执行空中侦察任务和监视军事基地周围情况。
在科幻小说或电影中,人工智能(AI)经常让人类陷入噩梦中。比如《2001》、《终结者》、《银翼杀手》等电影中,智能电脑或智能机器最终将武器对准它们的人类创造者。电动汽车公司特斯拉、商业太空飞行公司SpaceX首席执行官埃隆·马斯克曾发表评论称,人工智能的进步就相当于人类正在召唤恶魔。他声称:“我认为我们应当对人工智能万分小心。如果让我猜测人类生存面临的最大威胁,人工智能或许就是。”著名物理学家霍金也表达了自己的担忧,他认为人类不断在AI领域探索“是个极大的错误,该错误甚至可能是人类有史以来犯过的最愚蠢的错误。”
2016年夏天,白宫委托专家研讨机器人的道德层面。麻省理工学院情感计算部主任罗萨琳德·皮卡德说:“机器的自由度越大,就越需要道德标准。”
现在蜿蜒流淌的伏尔塔瓦河岸边矗立着未来派风格的办公大楼,就在犹太拉比雕刻他的格勒姆的地方,整齐排列的电脑嗡嗡作响。这些电脑是奇特的教师,像忠诚于教育任务的人类一样有崇高的目的。他们的学生没有坐在每台电脑屏幕前,而是存在于硬盘上。这个名为GoodAI的虚拟学校教育的是人工智能:教它们思考,理智和行动。 GoodAI的总体愿望是培养具有伦理的人工智能。“这并不意味着让人工智能遵循既定的规则,按照人类规定的可能情况,该做什么以及不应该做什么,”捷克成功的电子游戏设计师兼GoodAI创始人马雷克·罗莎(Marek Rosa)说。他已经在该公司投资1000万美元。“我们的想法是培训它们将知识应用到以前从未遇到过的情况。”
2015年日本研发的护理型机器人ROBEAR(它们长着小熊猫的脸)就致力于帮助那些行动不便的人,轻柔的动作可以将人类抱起或放下,或者是帮助其站立起来。
专家们一致认为罗莎的做法是明智的。“预先为人工智能可能遇到的每一种情况都设定道德选择是不太可能的,”纽约大学的认知科学家,几何智能公司的首席执行官和创始人加里·马库斯解释说“例如,你如何为公平还是伤害的概念编程?”他指出,这种编码方法不能解释人类信念和态度的转变。想象一下,美国的国父们也算是先进了,但他们允许奴隶制,压制女性的权利等等呢,人工智能如何理解这些情况?
最终,我们需要一台能够自学的机器。罗莎认为人工智能就像一个孩子,作为空白的石板可以刻上基本的价值观,并且能将这些原则应用于不可预见的情景中。这一点和人类很像,人类通过观察他人的行为,从而直观地了解道德上可接受的东西。
GoodAI通过提供数字导师来监督人工智能获取价值观的进程,然后逐渐增加它们必须做出决定的复杂情况。 罗莎认为,父母不会让孩子一开始就在公路上跑。“同樣的,我们将人工智能置于越来越复杂的环境中,它们可以利用以前学到的知识做出行动,并从我们团队获得反馈。”
GoodAI只是近年来世界各地不断涌现的众多致力于机器人伦理维度的机构之一。其中许多类似的机构都有宏大的,带有不祥预感的名字比如:生命的未来研究所,负责任的机器人小组和全球伦理自治系统。关于如何更好地向机器传授道德伦理,很多人都有自己的看法,罗莎是一位,佐治亚理工学院移动机器人实验室主管罗恩·阿金另一位。
罗恩·阿金60多岁,是个秃头的机械伦理学家。他在乔治亚理工学院教授计算机伦理学,但他的工作并不局限于教室。阿金的研究资金来源广泛,其中有的资金来自美国陆军和海军。 2006年,阿金获得资助,研究如何使机器人战斗机在战争中能够遵守道德标准。他认为机器人士兵在伦理上可以优于人类。毕竟,它们不能强奸,掠夺或愤怒烧毁一个村庄。
教授机器人如何在战场上表现得当似乎很简单,因为各国遵循国际公认的法律来制定参与战争的规则。但是,工程师并不能预见战场上的每一个潜在情景,现实中总是存在道德上模棱两可的情况都。比如,一个机器人是否可以在一个目标正与平民分吃面包的房子里开火?它是否应该解救被围困在城镇一侧的五名低级新兵,还是要为另一名高级军官提供支持?决策应该基于战术还是道德层面?
为了帮助机器人及其创造者在战场上解决这些问题,阿金一直在研究与GoodAI不同的模型。他的方法被称为 “道德适配器”,也就是说试图模拟人类的情绪,而不是模仿人类的行为,以帮助机器人从错误中学习。他的系统允许一个机器人体验类似于人类的内疚感。 “内疚是一种阻止我们重复特定行为的机制,”阿金解释说。因此,内疚对机器人和人类来说都是一种有用的学习工具。
阿金采取的方法是,設计一种被称为“潜在行动的多维数学决策空间”的软件程序。这套融合了人类悔恨、同情、内疚等情绪的程序安装到机器人身上后,就能扮演“道德适配器”的角色,可根据传感器接收到的数据和情报,把机器人所有可能的行动分为“道德的”和“不道德的”两种,并根据需要选择适当的武器系统。
阿金解释说:“想象一下,一名特工在战场上射击之前和之后进行战斗伤害评估。 如果附带损害比预期的要多就会带来内疚感。特定的底线内,特工将停止使用特定的武器。此外,还将完全停止使用武器。虽然机器人可能感受到的内疚是模拟的,但像人类的内疚一样具有三重含义:相信规范遭到侵犯,对自己行为担忧以及回到原来状态的愿望”。
这是一个巧妙的解决方案,但不是没有问题。首先,在机器人能够修改其行为之前,内疚模型要求先出错。在战争的混乱中,错误可能是可以接受的,因为损害可能完全出乎意料。但如果错误出现在民用住宅、医院或道路上,公众对致命机器人错误的容忍度要低得多。杀手机器人可能还没来得及从错误中学习就被拆解掉了。
从虚拟教室到模拟内疚,教机器人道德的方法各不相同,但都是探索性的,并且每种方法下都伴随着各自的问题。在乔治亚理工学院,娱乐智能实验室主任马克·里德尔(Mark Riedl)正在尝试一种方法,他的解决之道不是在课堂上,而是在图书馆中寻找灵感。
通过让人工智能读取数以千计的人类历史故事,并允许它们根据自己的发现制定一套行为规则,里德尔相信,从烛光晚餐到银行抢劫等各种场景,机器人都能做出恰当的表现。包括美国国防高级研究计划局(DARPA),美国陆军,谷歌和迪斯尼等在内的一系列组织和公司为里德尔团队的研究提供资金支持。
里德尔赞同GoodAI的基本理念。“所有的答案都是为了将??机器人培养成孩子,”他说。 “但是我没有20年那么久的时间来培养机器人。这是一个非常耗时和昂贵的过程。我的想法是将故事作为学习过程的捷径。”
里德尔将这项技术命名为“堂吉诃德” 这项技术主要通过为机器人提供一些故事来展示正常的或者被人类所接受的行为,比如帮助别人、守时以及不消灭人类等等。据了解,这些故事都是研究人员从互联网上挑选出来的,它们讲述的都是正确的、被社会认可的行为。
接下来,如果人工智能能够做出跟故事的良好行为匹配的决定或者行为的话,这项堂吉诃德技术将会给机器人做出一定程度的“奖励”(就是类似小红花的一些机械行星)。反之,如果人工智能的决定或者行为不符合故事中的道德标准的话,研究人员就会对这些行为进行负面强化。
通过阅读几百篇关于偷窃与不偷盗的故事,人工智能通过这些故事的后果可以理解规则,并开始基于群体智慧制定道德框架。“我们人类的隐含规则很难明确写下来,但书籍,电视和电影的主角都体现了现实世界的价值观。人工智能可以从简单的故事开始,然后发展到年轻人读的故事。它会面对越来越复杂的道德情况。”
虽然在概念上不同于GoodAI,但里德尔的方法还是属于机器学习的范畴。他说“我们要求人工智能观看几千名不同主角的故事,他们每个人都经历着类似的困境。然后,机器可以做出判断,并且制定符合大多数人会认为是正确的行为方式。”
从格勒姆到弗兰肯斯坦,当人们想象人类作为造物主时,总是讲述成故事。 正如对这些故事都有一个令人沮丧的结论一样,现在的研究者还有一个担忧:如果你只让人工智能接触黑暗的情节,它最终可能会被训练成邪恶的。“如果你想成为AI的老师,那就得拥有圣人般的学识,”里德尔说,“但如果你在教材中删掉了反英雄形象,那就说明你这圣人当得不合格,因为你对这个社会根本没有深刻的理解,而这正是我的担心之一。我们已经进入了大数据时代,经验告诉我们,超量数据总比刚好够更安全,因此只要是合规的,就可以加入供AI学习的数据库中,只有这样我们才能不偏不倚的判断出到底什么是善什么是恶。”
里德尔声称我们正处于历史上的关键时刻,人类社会面临着一个简单的选择“我们可以认为永远都不可能有一个完美的机器人,而且由于存在各种危险,我们绝不应该开发人工智能;或者我们可以,尽自己所能,努力减轻伤害……我们永远不会拥有完美的自驾车。它会发生事故。但事故发生的次数比人类少。所以我们的目标应该是不比人类更糟糕。也许,有可能比人类更好。”
在科幻小说中,机器人获得感知力的时刻通常是人类对自己的造物有道德义务的时候。与锤子或铁锹相比,iPhone或笔记本电脑的复杂程度要高得多,但它们都属于同一类别:工具。然而,随着机器人开始表现得像人类一样,机器人开始获得情感,并学习和接受我们的文化和社会价值观,或许旧的故事需要重新审视。至少,我们有道义上的责任去教机器人如何在世上生活。一旦如此,我们可能就不得不重新考虑该如何对待它们。