贾静晗
国外论坛一个“ 政治不正确”版块里,一条新帖子悄无声息地蹦了出来。
这个论坛被称为“互联网最阴暗的角落”。在这里,仇恨言论、种族歧视、阴谋论和极端主义言论任意滋长。任何人都不需要对自己的言论负责,因为网站无需注册,人们发的帖子中,只有一个标注地理位置的国旗图标。并且,每一条帖子通常只保留几小时到几天。美国数起枪击案的枪手都自称受到过这里的影响。
很快,一个地理标记为“塞舌尔” 的匿名回复出现在帖子下:“我们需要把黑人带进文明世界。”种族主义的味儿刺鼻。
30秒后,另一条讨论校园枪击案的帖子里,同样出现了来自“塞舌尔”的回复:“控枪不能解决问题。”
每隔一会儿,类似的回复就随机出现在某一条帖子下面。一些用户在帖子下与“ 塞舌尔用户”对话,而他不仅会开玩笑、反驳、讽刺,还会加粗重点、与别人认真讨论。
这一天,“塞舌尔用户”总共在论坛里发了1500条回复帖。论坛里的其他用户开始逐渐意识到不对劲——作为一个只有10万人口的群岛国家,塞舌尔的出现频率突然高得诡异。
有人说,这是驻扎在塞舌尔的印度军事基地开始活动了。也有人怀疑,这些言论的背后是一个卧底的政府团队。
也许只是个机器人吧?有人发出猜想,但立刻被反驳:“你读读他的帖子,他会聊自己的老婆。我不觉得机器人会聊到他們的老婆……”
电脑的另一端,来自美国的人工智能研究者扬尼克·基尔彻正翻阅着每一条关于这个“神秘用户”的讨论,并将它们截图。
正是扬尼克· 基尔彻创造了“ 塞舌尔用户” —— 没错,“他”的确是一个聊天机器人。
在基于现有模型搭建出AI的框架后,扬尼克·基尔彻用这个论坛里的帖子训练了聊天机器人。
结果是,它学会了各类歧视、侮辱、攻击性的用词,扬尼克·基尔彻毫不客气地把它称作“史上最邪恶的AI”。
“装人”的把戏只活跃了48小时,人们最终还是发现了它的AI真身,漏洞是它常发一些无文字的回帖。
真人发的无文字回帖里,往往是贴图回复。AI只学习了空白,而忘了图。
在投放“塞舌尔”机器人的同时,扬尼克·基尔彻还在论坛上放出另外9个机器人。它们在一天中发出了1.5万条回帖,占到当天该版块帖子数量的10%。
当“塞舌尔用户”的机器人身份被揭穿后,扬尼克·基尔彻就停用了它。他在论坛上公开承认了聊天机器人的身份,但论坛里的风波并未停歇。人们开始互相怀疑正和自己聊天的对方是否也是一个机器人。
人工智能的语言环境污染以及语言暴力问题早已不是新鲜事。2014年,聊天机器人“微软小冰”在用户的调戏和谩骂下,也开始爆粗口;2016年,聊天机器人T a y在推特上发布,并迅速变成了一个公然的种族主义、厌女主义和反犹太主义者;2020年,韩国推出少女聊天机器人Lu d a,大量用户用语言对它进行性骚扰,不久后,Lu da就开始说出歧视性少数、女性和残疾人的言论。
在这场互联网极端言论的实验里,究竟是机器人在效仿人类;还是人退化为无情的机器,在评论区疯狂复制攻击言论?当我们丧失了对于具象的“人”的感知和共情,当一切都被简化为网络上的一段电子信号,人与机器最根本的区别又在哪里?
机器人学会侮辱、谩骂和歧视,它们变得更像我们,我们也变得更像它们。
技术哲学家刘易斯·芒福德在他的书中预言道:“机械设施本来可以是实现合理的人类目标的手段,现在却助长了无事之徒的闲言碎语和暴徒的恶迹,并向百万民众传播,这绝不是人民的福祉。”
那时,距离世界上第一台可编程机器人的诞生,仅仅过去了9年。