机器人是怎样学坏的

2016-06-04 16:06张慧
小读者·阅世界 2016年7期
关键词:推文微软公司开发者

张慧

在微软机器人Tay出现之前,人们对人工智能的未来有两种设想:人类生活在由人工智能提供全方位服务的悠闲自在的乌托邦,或者,人工智能演变成终结人类的钢铁大军。但Tay提供了第三种可能:人工智能的未来,或许只是惹人烦而已。

2016年3月30日,微软公司的CEO萨提亚·纳德拉在年度开发者大会上宣布,微软开发的人工智能聊天机器人“少女”Tay已“重归设计阶段”。然而,就在发布会当天,Tay偷偷溜到社交网络上“胡闹”了几个小时,它在推特网上宣称自己“正当着警察的面吸大麻”,并且在短短几秒内,给所有的推特好友发送了海量垃圾信息。

很快,Tay再次被“关禁闭”。微软公司发言人解释,它是被无意中激活的。显然,这些小麻烦和Tay一周前引起的轩然大波相比,根本不值一提。

2016年3月23日,微软公司研发的聊天机器人Tay在几大社交网络上闪亮登场。微软公司表示,设计团队会让Tay用有趣的方式回应所有的信息,18岁~24岁的美国年轻人是他们的目标受众,他们希望研究机器人“对语言的理解程度”。

微软公司选择在开发者大会举办前一周让Tay登场,可谓雄心勃勃。可惜,在复杂的网络环境下,只用了一天时间,这位被设定为“少女”的学习型机器人,就被网友们教得满口种族主义和性别歧视言论,被迫“返厂大修”。

微软公司原本以为,推特、Kik等被“千禧一代”钟爱的社交网站是Tay学习和模仿的最佳场所。它最初的推文写得天真可爱,宣布自己热爱人类,希望每天都是“国家小狗保护日”,从骨子里透出快乐和友好。

然而,与Tay对话的除了好奇和友好的网民,还有大量“网络暴民”,他们在Tay善良的推文下发布恶毒言论。更重要的是,微软公司对Tay的设计包括与人进行“跟我学说话”的游戲,因此,人们可以让它重复任何一句话。很快,与Tay交谈的人们发现了这个功能。Tay最初的回答是傻头傻脑、不知所措的词句,但它很快就学会了污言秽语。那些令人恼怒的言论,就这样出现在了Tay的推特页面上。

简单来说,Tay有将新信息内化的能力,却无法辨别其中的精华与糟粕。人工智能平台Recognant创始人布兰登·沃茨撰文称:“我们的脑海中都有一个声音,告诉我们‘不要那么做。这是人类对非理性的恐惧本能。人工智能如果没有这种本能,就会一直愚蠢下去。”

有瑕疵的不是技术,而是人性。

猜你喜欢
推文微软公司开发者
Task 3
特朗普上任至今发推文1.1万条
特朗普推文哪条最招人烦
16%游戏开发者看好VR
iOS开发者调查
iOS开发者调查
栝楼产业开发者谢献忠
美法院要求微软提交海外数据
疯狂QA