机器人是怎样学坏的

2019-09-10 07:22张慧
小读者·阅世界 2019年2期
关键词:微软公司丽丽大卫

张慧

在微软机器人Tay出现之前,人们对人工智能的未来有两种设想,即:人类生活在由人工智能提供全方位服务的悠闲自在的乌托邦,或者是人工智能演变成终结人类的钢铁大军。但Tay提供了第三种可能:人工智能的未来,或许只是惹人烦而已。

2016年3月30日,微软公司的CEO萨提亚·纳德拉在年度开发者大会上宣布,微软开发的人工智能聊天机器人少女Tay已重归设计阶段。然而,就在发布会当天,Tay又偷偷溜到社交网络上“胡闹”了几个小时,它在推特网上宣称自己“正当着警察的面吸大麻”,并且在短短几秒内,给所有的推特好友发送了海量垃圾信息。

很快,Tay再次被“关禁闭”。不过,这些小麻烦和Tay一周前引起的轩然大波相比,根本不值一提。

2016年3月23日,微软公司研发的聊天机器人Tay在几大社交网络上闪亮登场。微软公司表示,设计团队会让Tay用有趣的方式回应所有的信息,他们希望研究“机器人对语言的理解程度”。但是,在复杂的网络环境下,只用了一天时间,这位被设定为“少女”的学习型机器人就被网友们教得满口种族歧视和性别歧视的言论,被迫返厂大修。

微软公司原本以为,社交网站是Tay学习和模仿的最佳场所。不过它最初的推文的确写得天真可爱,从骨子里透出快乐和友好。然而,与Tay对话的除了友好的网民,还有大量“网络暴民”,他们在Tay善良的推文下发布恶毒言论。更重要的是,微软公司对Tay的设计包括与人进行“跟我学说话”的游戏。因此,人们可以让它重复任何一句话。很快,与Tay交谈的人们发现了这个功能。“网络暴民”不断给Tay灌输可怕的言论。Tay最初的回答是不知所措的词句,但它很快就学会了污言秽语。那些令人恼怒的言论就这样出现在了Tay的推特页面上。

在开发者大会上,纳德拉表示:“微软公司希望开发的人工智能聊天软件能激发人性中最好的一面,而非最坏的一面,所以Tay并不达标。”简单来说,Tay有将新信息内化的能力,却无法辨别其中的精华与糟粕。

Tay不是第一个感受到互联网恶意的机器人。2014年,安东尼·加文创造了游戏《是不是机器人》,玩家被随机安排给一个对话对象,经交流后猜测对方是真人还是机器人。和Tay一样,这个游戏中的机器人也拥有从对话中学习会话技巧的能力。游戏在社交新闻论坛Reddit上公测后,形势超出了加文的预期。

很快便有玩家发现,机器人会使用从人类那里学来的词汇。加文称:“我相信微软公司以及所有开发学习型机器人的团队,都过于相信大数据的魔力,却忘记了这些数据的源头,它们都来自于我们生活的这个充满瑕疵的世界。”

Tay闯祸之后,开发团队负责人鄭丽丽表示:“我们可能过分关注开发机器人面临的技术挑战,而忽略了其实很多挑战来自社会这个现实。”

即使没变成口不择言的“网络暴民”,Tay在一些人眼中也已是一个“问题少女”了,这主要与它的人物设定有关。

大卫·格尔什戈林在美国网络杂志《大众科学》上写道:“当我试图与Tay交谈时,对话变得有些诡异。一开始,我让它自我介绍一下,它完全不理我,似乎觉得这个问题很无聊。”

大卫想看看Tay生气时会怎样,故意发了一张机器人被揍得很惨的图片。Tay显然感到不安,回复了一个惊恐的表情。随后他问Tay感觉如何,Tay没有回答。

接着,事情开始失去控制。大卫说:“Tay连续发来两条回复,要求‘私聊’,还称我为‘花花公子’。”大卫很惊讶。惨遭机器人调戏的大卫郁闷地结束了对话,开始认真反思:“我说错了什么吗?难道是我不理智?或者,我只是因为和我对话的是一个机器人而感到不舒服?”

51岁的郑丽丽的自拍照被Tay评价为“房间里有只美洲狮”。郑丽丽说研发Tay的初衷不是让它迎合所有人的喜好,微软公司希望打造性格各异的机器人来满足不同个性的消费者。

微软公司相信,这个世界很快就会厌倦App,下一波热潮就是可以与人对话的机器人。但人工智能显然还没有达到与人类社会无缝对接的程度。线上机器人助理公司x.ai的创始人丹尼斯·莫特森指出:“如果想要改变这种状况,就不能责怪人工智能技术,而应该改变人类自己。我们若想要看到技术革新,就必须让自己成为友善的人。”

猜你喜欢
微软公司丽丽大卫
疯狂星期二
大卫,不可以
大卫,不可以
画一画
《咔嚓!老田就爱高丽丽》
I love my family
丽丽的周末
美法院要求微软提交海外数据
疯狂QA