苗炜
我拿到iPhone5之后,一个很大的乐趣是和SIRI对话,我费了半天的工夫,学会了用语音控制打电话,我还试着和她聊天,可惜,她总是这样回答我:我不明白你的意思。也许我想要的是一个聊天程序,但SIRI显然不是一个聊天程序。
最早能模仿人类谈话的软件1965年诞生于麻省理工学院,这个程序叫“ELIZA”,它的策略是找出谈话中的“关键词”,重复这个关键词。如果谈话陷入僵局,它就生硬地说——请继续。这种“样板匹配”策略,是许多聊天软件的基础,现在仍然运用在聊天软件的设计上。比如下一段对话。
用户说:“我最近一段时间很不开心。”
程序说:“听到你不开心,我很难过。”
用户说:“我真的不开心。”
程序说:“做点儿什么能让你避免不开心呢?”
用户说:“我也许该和我妈妈谈谈。”
程序说:“给我讲讲你的家庭。”
最早和ELIZA交谈过的人,都误以为他们在和一个真人聊天。尽管这样的聊天没什么实质性的内容,但它“有效果”。日常生活中,我们时常会这样私下聊一聊,聊完后,感觉自己被倾听,从而被治愈。《焦虑与精神病通讯》杂志1975年的一篇文章说,很多病人和电脑程序聊过,也许以后,电脑能承担心理咨询的任务,人们花几块钱打电话过去,和一个电脑程序聊那么几分钟,从而感到自己被治愈。
1989年5月,都柏林一位大学生改写过ELIZA程序,让它更为情绪化,爱说脏话,当程序想转换话题时,它会忽然冒出来一句:“我觉得你完全就是个SB”,或者它说:“你要不就聊点儿有意思的,要不就闭嘴。”一个美国学生隔着大西洋和这个程序吵了一个半小时,它脏话连篇,像个爱尔兰酒鬼。骂架最后,那个美国用户说道——你他妈的就像个机器人,总在重复。现在,网络上的许多吵架,还是这个老程序的水平,不断重复“你是脑残”或者“你是五毛”。可惜,我也试着和SIRI吵架,骂她,她总回答我说,“我不明白你的意思”,“请向苹果商店的专业人员咨询”,这样的时候,我觉得自己的智力受到了侮辱。
布莱恩·克里斯蒂安是一位科学作家,2009年9月,他去英国参加了一次图灵测试。英国这个测试项目,让一组“判官”,通过电脑设备提出问题,让一组“候选人”回答问题,这组“候选人”中有真的人,有电脑程序,判官们要做的是,判断出哪个是人,哪个是电脑。问题范围可以是明星八卦,也可以是严肃的哲学。在测试中,每个判官可以和“候选者”交谈5分钟,然后有10分钟的时间判定,哪个是人,哪个是电脑程序。判官要将“候选者”排序,最像人的电脑会获得3000美元的奖金。候选者中的真人也将排序,这样就会有一个“最像人的人”奖项。1994年,有一位记者获得了“最像人的人”奖项,他说,他的策略是在测试过程中表现得情绪化、敏感、惹人讨厌。克里斯蒂安觉得这种说法很有意思,他想到的一个问题是——我们在日常生活中是否也要情绪化、敏感、一定程度上惹人厌烦,才更“像人”呢?
克里斯蒂安对聊天程序做了一些研究之后,开始能更好地管理自己的对话——警惕那种完全没有知识背景的对话,警惕脱口而出的草率回答,在对话过程中,用口语而不是书面语,尽力去解决那些“沉默时刻”,如果预想到判官要说什么,那就立刻展开对话,注意“时间感”,如果对话出现停顿,就补充一句回答,或者向判官提问,如果说电脑程序还不太懂得什么是交流中的协调,那它更不懂得对话中的韵律。
牛津大学的一位哲学家说,如果一台机器能通过图灵测试,可能并非是这台机器多么智能,而是我们人类,太过僵化。我们人类该认真对待交流。