文/钟科 博士、海南大学经济与管理学院讲师
穆岩 本文通讯作者,中山大学心理学系讲师、硕士生导师,美国卡耐基梅隆大学心理学博士
人与人工智能的决策密码
文/钟科 博士、海南大学经济与管理学院讲师
穆岩 本文通讯作者,中山大学心理学系讲师、硕士生导师,美国卡耐基梅隆大学心理学博士
人类智慧更善于解决高情景依赖的难题,伟大的商业决策往往由此诞生。
谈到人工智能的商业应用,与技术进展相生相伴的是人们的各种担忧。有趣的是,两种截然相反的忧虑观点总能在人们的认知和讨论中一同加载。
一种可称之为“超智担忧”。这种观点认为人工智能因为“太智能”,在不久的将来能够强大到取代人类从事的各类工作,而在远期则有可能导致人类被奴役。在AlphaGo大胜李世石之后,这种担忧被广泛讨论。而赫拉利的《未来简史》则为“超智担忧”提供了理论的依据,他认为人工智能将有可能主宰人类,他描述的图景与很多科幻电影讲述的“机器人末日”异曲同工,但因为赫拉利是历史学家而非电影编剧,这本书引发的担忧感更真切强烈。
另一种可称之为“低智担忧”。这种观点则担心人工智能“不够智能”,人工智能无法达成预期的工作成效、引发事故的例子很多,因此人工智能不应急于推广应用。2016年,微软中国在微信平台上推出交互人工智能应用“小冰读心术”,用户在心里想出一个真实或虚拟的人,小冰通过15个问题与用户交互,根据用户“是/否/不知道”的三选一回答,来猜出答案。有人用小冰的姐姐、微软的另一个交互机器人小娜(Cortana)当作答案进行测试,发现小冰“连自己的姐姐都猜不到”。与Siri、小冰做主角的各种网络段子相比,当谷歌的无人驾驶汽车因技术原因发生交通事故时,低智担忧引发的舆论就严肃得多了,有人甚至斥责无人驾驶实验是一场闹剧。
按照心理学家费斯汀格的认知失调理论,出现上述两种观点共存的状况是因为,人们面对未知技术时的担忧是首先形成的情绪或观点,然后才是为这些观点找支撑的理据。诺贝尔经济学奖得主卡尼曼认为,人类有两个思考系统。系统1是快系统,经由漫长的进化形成,帮助人们通过快速形成的情感、情绪、直觉等对环境作出反应。系统2则是慢系统,在人类的社会交往中逐步形成,帮助人们理智地进行逻辑运算、比较分析,这个系统运转速度较慢,却使得人类决策的有效性大大提高。快系统让我们作出了“担心机器人”的情绪反应,但如果一直让快系统主宰自己的观点、拒绝让擅长分析的慢系统“入场”,我们很可能无法得出有关人工智能的有效结论。并且,在与人工智能的较量(如果真有的话)中先输一阵,因为人工智能的长处恰恰在于擅长使用逻辑演绎和量化分析。
因此,我们针对“低智担忧”,从心理学视角探讨人工智能如何帮助人类优化决策。而对于指向未来的“高智担忧”,我们也将基于一些大胆的推测提出若干见解供讨论。
从一个很具体的决策情境说起。
2016年,北京大学的心理学副教授徐凯文博士的一篇名为《时代空心病与焦虑经济学》的演讲引发热议。演讲开头讲述了他对有自杀倾向的年轻人实施的一次远程心理干预。那位年轻人在微信里给他留言:“我现在手里有一瓶神奇的药水,不知道滋味如何。”他立刻从这句话中读出了危险,并最终通过自己的专业技能救回了一条生命。
对于这个决策情境,不妨想象:一个人工智能的心理医生若是收到上述信息,是否能够分辨并作出恰当的分析和决策?
即使没有受过徐博士那样的专业训练,很多人在同样情境下,依然可以从这句信息中读出“暗示”,普通人的人际交流能力就能作到这一点。更重要的是,这句话若是换了几个字词——如“我现在手里是新药水,不知道味道会不会难喝?”——即使在情境大致相同(心理疾患向医生提问)的情况下,尽管表面意思大致相同,但内涵却千差万别,此时危险警报没必要响起。在日常交际和工作场合中,大多数人根据这类“微小信息差别”作出不同决策都游刃有余。
这类决策有以下特征:首先,输入信息量极小,只有几十个字符;其次,输入信息情境依赖性高并且模糊性高,“神奇”“药水”这些字符意指不明确;再次,相似的信息输入对应的决策结果和行动目标截然相反,两句话对应的决策分别是启动自杀干预措施、不启动自杀干预措施而启动病患售后服务措施,目标分别是“不要喝”和“按说明服用”;最后也是最关键的一点,对决策输出的错误容忍度非常低,既不容许在第一句话的情况下不采取干预措施;也不容许在第二句话的情况下错误地采取干预措施,从心理学角度来说,这样会在病患大脑中启动“自杀”概念,增大病患风险。
人类在工作场合需要处理大量这类决策,并且整体表现良好。但目前的交互型人工智能还难以胜任这类工作,即使它具备了从经验中自主学习的能力,人类也不会给它在真实情景中学习的机会,而模拟案例的学习也会因为难以达到决策精度的要求而就此作罢。
当然,在类似决策情境下,一旦上述特征发生变化,人工智能就有可能提供帮助,例如当输入信息很大并且错误容忍度较高时。有媒体曾报道,Facebook就通过人工智能在海量帖子中标记出有自杀倾向的帖子和用户,再转交由专业组织进行专业判断和干预。从海量信息中甄选并初步诊断出疾患,即使调用这个星球上全部的心理医生投入这项工作,也难以达到人工智能的效率和准确率,而且人工智能还能够根据反馈信息越作越好。
上述例子可以看出,在目前可预测的技术发展水平上,人类智能和人工智能各擅胜场。如果能具体识别哪些决策中,人工智能更强,而哪些决策中人类智能更强,商业人士就能够更好地利用人工智能优化决策。
认知心理学认为,人类决策的过程大致包括四个环节:
一是信息感知与存储。人类通过五种感官捕获信息形成知觉。大脑通过注意和记忆等功能筛选并存储信息。二是信息分析处理。通过情感或逻辑(慢系统和快系统的共同作用)等不同方式对信息进行综合分析。三是作出决策和输出。形成可能的备选方案,并作出选择,随后是对决策进行行为上的执行。四是形成反馈。获得结果反馈,进行无意识或有意识的学习,促使信息的分析处理作出改进。
人工智能正是通过计算机技术更聪明、广泛、精确地采集信息、存储信息、分析信息。在上述四个步骤中,人工智能在第一个步骤即系统的信息采集能力上,已经通过现代的各类传感技术具有人类无可比拟的优势。但在信息的分析处理和反馈学习这几个方面,人类智能短期内不可能被完全取代。
信息感知与存储过程人类感官只能对五种感官有关的部分物理和化学信息进行采集。在采集信息的种类和阈限上,人类有时甚至比不上其他生物。在更为复杂的生理数据采集上,机器的能力已经非常强大。在心理学与人工智能结合的领域,人们一直在探索采用现代传感器收集客观的生理数据用于对人的心理状态进行分析。传统方法依赖人的自我报告来测量情绪、消费满意度等心理指标,但这种自我报告会存在相当大的误差。
举例来说,我们开展的一项研究关注学生在考试时感受到的焦虑情绪,但我们不可能在考试时询问学生,因为这种询问会干扰改变学生的情绪状态。那么我们现在就采用远距虹膜分析技术,用红外摄像机拍摄学生的脸部,然后通过计算机视觉去计算学生瞳孔直径,判定学生当前的情绪状态。这一设备既可以选择低成本的普通摄像头安装在眼镜框架上靠近眼睛采集,也可以选择较高精度的红外摄像头在远程进行拍摄。美国DARPA就一直在资助远距虹膜分析研究,希望能够用于机场、车站等公共区域,远距离拍摄来精准识别个体,用于反恐和保安。商业领域中,基于远距离的面部表情和面部血流等生理指标的扫描技术,正在逐步应用于顾客的体验优化中。
客观生理数据采集将使得人工智能更加“善解人意”。比如,瞳孔测量以及面孔皮肤温度的红外测量可以用于自动化评估人的情绪,这可以应用于广告和网站设计,帮助我们直观地了解消费者的情绪反应。再比如,眼动追踪可以帮助我们判断人们当前的注意焦点在哪里,运动产生的肌肉电信号反应可以帮助我们评估学生在运动时的耗能与疲劳程度。这些本来是肉眼不可见的信息都可以帮助人工智能更好地理解人类的复杂行为。
信息分析处理和反馈学习在这个环节,人工智能发挥有效作用的限制条件很多,例如只有当决策反馈周期短、决策结果的优劣判定鲜明,并且允许重复练习时,人工智能才可能发挥作用。人工智能的初级应用之一就是利用现代高级统计方法以及神经网络等计算机学习方法,使我们对存储的数据进行更有意义的分析。
举例来说,医院和学校都积累了大量的数据,但由于没有经过智能化的整体设计,这些数据是零散而缺乏意义的。我们开展的工作就是用分析生理数据的算法分析每个学生各科的历次考试成绩,并建立一个数据模型去预测学生未来的学习。目前我们已经针对几所初中的数据开展了工作,并能够使用初一的各科成绩预测哪些学生在初三会出现大幅度成绩下滑。未来,这些历史数据如果再配合上新型传感器收集的客观生理信息,将能够更全面更精准地建立一个自动化数据模型,对学生发展过程进行智能化分析。
同时,在数据极大丰富的情况下,大数据高级统计方法可以建立自动化的计算机学习算法,高效率地处理多维度多层次的海量数据。当我们把数据采集与分析以人类行为为目标进行聚焦时,就有可能为教育革新开创曙光。未来不论是学校还是企业组织,都需要评估人才、培养人才。以往通常是选用统一标准划线。但是在信息高速流转的时代,社会与组织都需要更加个性化有创意的人才,人工智能对人类行为的分析,将有效地辅助人们进行科学的人才个性化测评,帮助判定一个人适合发挥特长的环境在哪里。这将发掘出海量的人才资源,进一步提升生产效率。
人工智能擅长处理海量数据。比如,IBM的Watson机器人用于分析癌症病人的药物治疗方案时,可以综合全球数以万计的病例,对当前病人使用某种药物方案时的风险给出量化数据。哪怕经验再丰富的医生,恐怕也很难记住并算出某一个药物的具体风险数值。
尽管人工智能在某些专业领域超越了人类,但目前还只是在某一个细分的思维领域能够进行深度有效的学习,而不像人类可以在众多不同领域灵活地学习。例如,被电脑打败的围棋高手可以很容易转行去学习如何下国际象棋,但是Master程序还无法自己修改自己,适应完全不同的学习内容。
尽管在数据主义者看来,生命也不过是数据流中的一段涟漪,因此一切都是可以被数据化的。但目前,人工智能的能力还是受限于它的制造者——人类的认知能力。在人类找到将宇宙彻底数据化的钥匙之前(也许不存在这样的钥匙),人工智能的能力就总是受限。至少我们看到,人类生活中大量重大决策是在情景模糊、小数据输入、决策结果判定主观且反馈滞后、需要历史数据之外的新备选方案的涌现、不允许反复试错的条件下进行的。例如,古巴导弹危机中肯尼迪坚持谈判的决策、软银首次投资阿里巴巴的决策,这些在政治史和商业史上由个人或组织作出的重大而优质的决策,之所以散发着人性的光辉,恰恰是因为难以被量化和推演。这些限制条件,从当前的技术发展来看,构筑了人工智能在商业决策应用能力的天花板。
霍金、马斯克等最强大的人类智能拥有者,都在近期发表了对人工智能可能毁灭人类的担忧。但2016年美国白宫发布的、由美国国家科学研究委员会撰写的报告《为未来人工智能作准备》则认为目前这种担忧不应当。报告指出,存在一个广阔的鸿沟把如今的狭义人工智能与强人工智能划分开来,过去许多年,通过扩展狭义人工智能解决方案来达到强人工智能的努力收效甚微。
如何使得强人工智能在诞生之初就确保满足“阿西莫夫三定律”(对人类的绝对服从;机器人不得伤害人类;机器人必须保护自己,除非会因此导致人类受到伤害)?白宫报告提及了一种预测:当一个足够聪明的人工智能被赋予完成开发更优秀、更智能的系统的任务,而这些反过来又可以用来创建更聪明的系统,导致原则上出现一个“智力爆炸”或“奇点”,届时机器的智力将会远远超过人类。
不知道是否还有其他的技术路径导致“奇点”的出现。但关于如何为可预测的技术路径设置技术的强障碍(如底层技术上制止“能够让机器人复制自己或进行新一代机器人开发”的算法被写出)和法律的弱障碍(设定严刑峻法制止某类人工智能的开发)应该开始进行讨论。康德说:“人才是目的。”未来人类的命运,或许取决于未来最聪明的那些开发者对这句话的认同与执行。
关于高智担忧。东野圭吾新近的小说《拉普拉斯的魔女》,塑造了一个被植入了人工智能芯片而具有预测能力的女孩形象。小说的结尾是这样的:
“这个世界的未来,到底怎么样?”少女深深地叹了一口气,摇着头说,“我跟你说,还是不知道比较幸福。”