采访/范松璐 本刊特约作者
尼古拉斯·卡尔:走出“玻璃笼子”
采访/范松璐 本刊特约作者
自动化在提高效率的同时,越来越消弭了真实世界的意义感。我们怎样从玻璃屋里出逃?
认为电脑才是完美的思考机器,久而久之会丧失让人之所以成为人的那部分质感。
我们是在控制技术,还是让技术控制了我们?互联网时代,大家都在兴致勃勃地拥抱崭新的技术。然而,也有一些冷静的观察者提醒,不要忽视自动化和高科技给人类带来的潜在影响——弱化才能、限制视野、消解人性,乃至于无形无迹中操控了我们。面对这柄双刃剑,该如何去明智地应用而避免其伤害?美国知名作家兼思想家尼古拉斯·卡尔在接受本刊专访时,谈及自动化在人类的思考方式、工作习惯、社会趋势、知识养成乃至伦理判断等各方面带来的影响。
如果细究硅谷背后的哲学,会发现这往往建立在“不喜欢人类”的基础之上。
《中欧商业评论》(以下简称CBR):你一直在反思科技与人类的关系,以至有人认为你在充满忧虑地散布技术恐惧论。在新书《玻璃笼子》里,是不是自己也有所调整,更多地转向科技的光明面?
尼古拉斯·卡尔(以下简称“卡尔”):
是在探寻光明面的可能性,这取决于人在设计和使用技术时究竟怀有何种意识,是从根本上信任人类、将电脑只作为辅助的工具呢,还是因为人类的不完美而要把一切交给计算机?这两种截然不同的看法会决定谁是主导——人还是机器。在《浅薄》里,我考虑人类可以更加深邃、专注和完善地思考;新书则更着重行为方面,比如工作学习、塑造才能。所以新书仍谈到一些关于人类过分依赖强大的技术而可能落入陷阱的阴暗面;但最后还是提到了用正确的方式去接近和使用技术,适当转移任务让我们能应对更棘手的挑战、取得更大成就,而不致损害人类自身更深的能力和更广的视野。
CBR:新书出版后,外界有怎样的评论,甚至辩论?
卡尔:英美的多数评论都是正面的,印象很深的是我和The Second Machine Age的作者之一,麻省理工学院的安德鲁·麦卡菲(Andrew McAfee)曾有一场辩论。他对于人类把工作交给机器人的前景更为乐观,对我而言这是不切实际的。最大的问题在于,人类会从思想上逐渐麻痹,觉得未来电脑能做好所有的事,坚信技术不会出现任何问题。那么当下我们就无须再去一点一滴进步,因此被技术进步束缚。
尼古拉斯·卡尔(Nicholas Carr)
美国知名作家兼思想家,技术、创新和战略研究专家,他的文章轰动互联网、信息和科技界,其撰写的三本书(《大转换》《浅薄》《玻璃笼子》)摘取了科技思想界的“王冠”。
CBR:你是不是认为,自动化能提高效率却消解人性,在技术的洪流中,人性的因素往往不可避免地淡化?
卡尔:因为计算机很棒,人会拿自己跟计算机作对比,觉得自己思考速度不如电脑,犯的错误更多……从而在电脑的阴影下定义自身,进而认为电脑才是完美的思考机器。久而久之,会丧失让人之所以成为人的那部分质感,一些可能慢一些但更深邃的思考,包括概念性、批判性和创造性的思考,这是电脑做不到的。我们也开始按照电脑的标准来定义智能,越来越不尊重人类独有的才能。
CBR:人类作为一个群体,对科技的态度也往往会在热情投入和犹疑抗拒两个极端之间跳转。就你的经验,如何去达到平衡?
卡尔:纵观历史,人类在面对所有新技术时的反应往往会走极端,要么觉得技术包治百病,要么觉得会毁灭世界,这是一再发生的,对计算机、互联网和人工智能都是如此。应该摆脱极端的想法,因为存在某种更加实际的中间状态。技术也是来自于人,由人设计、创造、使用,我们应意识到最终隐含的后果,再回过头来决定如何设计和使用技术。技术确实在改变我们的生活方式。我写《浅薄》的时候,使用智能手机的人还不像现在这么多;而现在智能手机正在从根本上改变人的行为方式。这发生得很快,我们只能拥抱和接受变化,不过同时需要多想想,除了好的方面,还有什么坏的方面?我们是在控制技术,还是让技术控制了我们?
CBR:那么,如何明智地应用技术而避免其弱点,让有力的新工具丰富生活而不是令生活枯竭?许多设计也在日益强调人性化,对此还有什么进一步的建议吗?
卡尔:会有些可行的方法,让技术更加具有人性。如果我们细究硅谷背后的哲学,会发现这往往建立在“不喜欢人类”的基础之上,比如觉得人类不可靠而且效率低,不如把一切都交给计算机,弱化人类在系统运行中的作用……许多工程师、程序员是这么觉得的,思考者也会这么看。然而许多关于人机互动的研究显示,起初不要把艰难的任务立刻交给计算机,先让人自己上手去学习解决,真正掌握以后再去引入自动化辅助,这时人已经知道了运行的原理,就可以利用工具来发展新的技能;如果一开始就一味求快,人很难学习基础技能并不断进步。一个例子是何时给小学生使用计算器效果更好,如果一开始先让学生学习掌握了数学技能,再给他们计算器,好过一上来就让学生使用计算器,否则他们没有学好基本知识,也很难再往上走。这样削弱了学习过程,过度依赖自动化而很难超越。总之,对一项任务或一种技能,最好能先让人类自己掌握,然后再自动化。
另外一点要特别注意的是,如今的自动化系统里,一些需要分析的环节也交给电脑了,典型的就是医疗、法律、投资等领域越来越多地使用自动化辅助,而且渗透到分析、判断甚至决策。一个可行的建议就是,先让操作的人自己观察、思考、做判断,而不要太急于让软件给出结果,这样电脑可以辅助专业人士得到更多的信息或视角,而不是限制他们的关注点。当下的趋势往往是运行软件之后,就会得到一个推荐方案,这样一来就改变了参与者的角色、态度和技术,整个任务的特性也变化了,做事的人不会被挑战也不必思考复杂的难题,就很难真的学到什么。其实,很多挑战性较高的工作都融合了心理运动技能和认知技能,需要人在行动前仔细而积极地思考,随着经验的积累而形成心智模式,最终将思维和行为连接而形成一种本能。
CBR:这令我想起法国艺术家杜尚的一句话:“我抛弃画笔是为了磨练我的头脑而非双手。”但他起初是经过了严格的绘画训练,熟练掌握了各个流派之后才转向的,否则进一步的探索可能是空中楼阁。
卡尔:是的,类似问题也出现在个人生活领域。人们越来越依赖网络地图和GPS系统,这样会削弱人类自身的导航、定位能力,很难跟真实的世界发生连接。自动化的成本很难确定,不能简单从机器替代人造成失业来看。由于参与度下降、能动性降低、技能退化带来的损失都是模糊和无形的,往往失去后方知珍贵。
CBR:然而,在依赖电脑、希望做事越轻易越好的同时,人还会具有一种挑战自我、寻求刺激的意图,以此来寻求成就感或存在感。你同意吗?
卡尔:是的,我希望是这样。人会有自我挑战的愿望,最深重的成就感、满足感也往往来源于此,所以很多人寻求深度的、有挑战的经历,我希望人们保持这一点。但另一方面,人从心理上需要不断被细碎的东西刺激而产生小的兴奋,这也正是电脑和手机所提供的。所以从心理角度分析,人类是分裂的,对大满足和小刺激的寻求同时存在,这两种本能都是好的,只是要意识到它们同等重要,因为很容易耽于对小乐趣的追寻而不自知。
计算机具有分析能力,但它不具备创造性,也不会思考如何用更为宽广宏大的方式去做更大的事情。
CBR:你提到计算机对医疗、金融和法务这类行业的入侵,令我想起迈克尔·桑德尔(Michael Sandel)教授警示金钱在非经济领域的入侵,感觉内在原理都是共通的。那么在你看来,还有哪些领域应该是保护起来的?
卡尔:我同意,虽然不是很清楚他整个的论证。我想还有个人生活领域,包括一些需要亲密关系的社会生活,人们也会过度寻求效率、速度、生产力和标准化。怎样去判断生活品质和友谊质量?人和人之间最有意义的关系,信任、礼貌和付出,不能通过市场上的交易或程式化的数据交换,可能慢一些更好;但在技术统治论者看来,这些都意味着低效率和添麻烦。如果你带着智能手机出门,个人生活可能也无比依赖这台机器,我相信这会改变我们对话的方式、
一定会有企业独辟蹊径,对抗自动化大潮提供人工而非机械化的产品、直接销售给顾客而不是在线销售。与他人的关系,乃至感受真实世界的能力。你说的商业逻辑在侵入生活的各个领域,确实如此。
越来越多的专业领域已经开始被自动化入侵了。比如医生做诊断、律师做庭审辩护方案、分析师测算风险……他们往往第一眼先看计算机说什么。商业也是如此,越来越多的市场决策是由电脑做出的,怎样分配广告预算、如何接近顾客等等。当然数据分析是完全必要的,互联网也是强有力的工具,但牵涉市场和人事决策时,应该适度抵御把过多工作交给电脑的诱惑,因为交出去越多,得出结果的差异性越小,因为大家可能在用同样的系统和软件,一切都变得越来越程式化,随着依赖的加深,人们会失去对市场、对人的洞察。
计算机具有分析能力,但它不具备创造性,也不会思考如何用更为宽广宏大的方式去做更大的事情,这些应该是人类自身来做的,也是不同企业存在差异的根本。
CBR:更进一步,有没有哪些特定行业的特质使之可能自动生成一层保护?比如设计,会对独特创意的要求更高而会拒绝同质化?
卡尔:从本质上说是的,但软件在设计领域的使用越来越广泛,很多建筑师已经不大会手绘草稿,输入目标和一系列参数后,就会生成计划,许多细节也已经被电脑框定,比如线条、图形都是格式化的,设计逐渐会一成不变,缺少细腻的情感色彩。但抵制这种做法的公司可能比全盘采用的表现更好,典型的例子如苹果。乔布斯不会让电脑基于一些数据分析得出的方案取代他和设计团队所作的决定,而是自己找出尽可能创新的方案。还有一个例子是丰田最近开始在一些汽车生产线上用工人替换回机器人,因为他们意识到机器人快速高效但没有创造性,而让经验丰富的技师在场,可以更好地解决问题、改善流程、提高质量,让更具经验和洞察力的人来影响机器并改变编程。丰田也是想借此重获一些手工生产的传统,因为完全依靠机器人会使他们对于正在做的事情越来越生疏,进而损害质量。这个例子表明,即便是在工业生产领域,人类的感触、洞察和才能仍很重要,也是在长期奋斗获得专业才能的过程中才具备的,如果只是追求效率而让机器人全盘替代人,这些都会沦丧。意识到这一点的企业即便短期内似乎损失了一些效率,但从长期来看往往更会成功。
CBR:高端品牌更为强调“高科技(Hightech)”以外“高感触(High touch)”的部分,但目前看来,这块最后阵地似乎都在往数字化方向倾斜,许多品牌在获取顾客洞察的过程中也在越来越多地用数字化手段代替传统的人际沟通。你怎么看?
卡尔:确实很多高端品牌在跟顾客沟通时也越来越多地依靠电脑、智能手机和大数据,原因并不难理解,与顾客的互动交给电脑越多,效率越高且能搜集更多数据,但这样存在将品牌与真实顾客隔离的危险,你会去审视一堆堆数据而非直接观察有血有肉的人,而数据往往趋于雷同,无法展示人真正细微的想法,这些只有在现场真正深入交谈、近距离沟通才能得到。当下,人与人之间的交互已经非常依赖电脑手机,即便顾客在现场,也可能会不断看手机。这带来越来越多的挑战,即便是朋友间谈话都很难不被技术干扰了。
在大势之下总有些反趋势的、更强调情感和人性因素的做法。
CBR:对于企业而言,往往要顺势而为。而且企业的作为也反过来作用于趋势,引起更深远的社会影响。在自动化大潮下,也会有反自动化的趋势驱动小众市场。你判断,哪些领域里会有基于“反自动化”的机会?
卡尔:我想一定会有企业独辟蹊径,对抗自动化大潮提供人工而非机械化的产品、直接销售给顾客而不是在线销售,也有可能将自己的品牌塑造成“人的公司”而非“自动化或机器人公司”。市场上也会对这样的体验有需求,其实已经有很多人对互联网感到不堪其扰,如果能在一定程度上给人解脱,可能会做得很好。比如在美国有新兴的生态农场,精耕细作、不使用现代机械和自动化,创造了巨大市场。很多人会按月付款,去农场采摘新鲜果蔬、接触牲畜,觉得这样更有意义。再就是一些与消费服务相关的行业,比如餐厅,顾客喜欢看到食物真实地被烹饪,也有些不错的餐厅已经这么做。包括在金融服务领域,会有顾客愿意有专业人士真正和自己坐下来一起沟通、共同查看资产拟定方案,而不是总对着电脑。其实在各个领域里,都会有顾客不断反思、愿意看到人切实的努力和才能的展现。当然这并不会阻挡自动化加剧的大势,只是在大势之下总有些反趋势的、更强调情感和人性因素的做法。若能抓住合适的点适度创新,也能发现机会。
CBR:我曾听到一个理论,当下有种“超现实主义(Hyper-realism)”的社会浪潮,人们越来越不重视“真实的”和“自己拥有的”这类因素,这种倾向从深层影响了人的行为方式并带来新的商业模式,比如基于租赁的分享经济。我想它也从深层推动了自动化的程度。你同意吗?
卡尔:是的,科技确实会使得我们难以和任何对象包括人或物形成紧密的联系,因为这种紧密联接需要凝神,而技术往往使人抽离,包括你说的例子,人们会倾向于租赁而不是自己拥有。总体上,人和整个世界的关系都在变得越来越肤浅,人会不断在各种体验中频繁跳动。艺术家创作出好作品需要全神贯注,从欣赏者的角度来说也是如此,这是双向的,如果打破了这种状态,大概就失去了人类体验所能达到的最高境界。
CBR:正如同欣赏一幅印象派画作,得其神髓的方式是站在真迹前面细细体会。有很多精彩的光电艺术展,可以实现全然不同的展示效果,但已经偏离了画作的某些本质。只是不知习惯了数字化审美的新一代能否真正去欣赏原作那种风味,可能他们会觉得那只是老掉牙、沉闷的玩意儿?
卡尔:这就是技术入侵已经达到了审美领域。我看过一篇文章,哈佛一位历史学教授要求新生做的第一件事就是去博物馆,在一幅画作或雕像面前静立三小时,什么都不要做。可以想象十八九岁的孩子大概会被逼疯。不过教授是通过这种方式告诉学生,有些事情必须花费时间,急不得,越是倾注心力在上面,它也会变得越发有趣。因为通过电脑屏幕看到的作品往往是被简化的,很多丰富的细节会被略去或无法表现出来,这会影响人的整体感知。然而现在多数人都越来越不耐烦,不只是年轻人如此。
CBR:大概是一定程度上世界受到功利主义的左右,显性的部分如效率更容易被测算,而很多宝贵的隐性品质则被低估了。
卡尔:是的,人们往往认为如果一样东西的好处无法量化,那就不重要,而现在随着大数据的普及,似乎一切都可以测量和计算,就开始放弃一些难以测算的隐性部分。然而增强理解、实现个人的满足感和成就感,都需要我们的个体与世界在生理和心理上紧密相连。
人需要积极生成知识而不是被动获取信息。
CBR:你提到人类的感触、洞察和才能,对一名专业人士而言,这往往形成一种经过长期积累锻炼而来的、算法永远无法替代的直觉?
卡尔:对,直觉来自经验,要经过艰苦的磨练而不能一蹴而就,软件可以解决很多难题,但如果人不去亲自解决这些难题,就很难形成直觉。另外我们对编程者未必要全盘信任,因为他们把一切都变得很容易,但人一定程度上需要做些难事儿,也是由此获得内心的满足感。一切太容易时,就会觉得自己无法完成艰苦卓绝的事业。
自动化时代能做到的是,意识到机器的局限,不要把关键的、有关伦理道德的决策交给电脑。并没有完美的道德算法,即便是功利计算也具有主观性,计算结果取决于决策者的价值观和利益。
CBR:自动化很大程度上依靠越来越强的计算机运算能力,但缺少理解力、移情和洞察力,这不是真正的智力。你对知识和智力是如何理解?
卡尔:知识和碎片化的信息关系不大,而只能通过与各种信息产生密切联系、获得经验才能形成知识;计算机能够通过超链接将无数碎片信息合并起来加以处理,能模仿那些基于显性知识的技能,但不能与人、事、经历等方方面面形成丰富有机的融合,也很难处理与隐性知识相关的技能。而我们估计情势、快速判断的能力以及富有创造性与艺术感的技能都来自隐性知识这个模糊的领域。当下的问题在于,人们越来越以为计算机生成的就是知识,可以完全依靠谷歌,想搜索什么就能马上找到,然而知识是通过把这些信息纳入头脑中编织而成,而且当你遇到新问题时,可以引入以前的经历而找出解决办法。但当过分依赖在线搜索而懒得再去记忆时,可能就封锁了自己形成真正知识的路径。
CBR:我的感受是,很多知识是内蕴的(embodied),经过一个相当复杂的过程而逐步获得,而且往往很难描述也很难移植,这大概是知识管理的一个难点,也是电脑做不到的。
卡尔:对,容易传递的只是信息,而知识往往基于丰富的经历而形成某种直觉和洞察,很难进行编码,转换成刻板的、一步步的算法和指令;如果硬去拆分,会发现只是得其皮毛而丧其本质。思维生成时需要概念推理以及更深层次的认知加工,真正的知识,特别是埋藏在记忆深处并通过技能体现出来的知识,是很难习得的。随着自动化覆盖了解决问题这类认知任务,人类思维将信息转化为知识、将知识转化为专业技能的能力都会受到影响,然而人需要积极生成知识而不是被动获取信息。
机器行动的背后反映出进行编程的公司自己的伦理观,而并非我们个人或整个社会所想要具备的伦理。
CBR:计算机的算法日益提升,但它没有同理心,这样往往会产生一种冷酷的野心,或者无情的效率;当然也有人会争辩,人性本身也有无情的一面。
卡尔:每个人的经历和个性都不同,这也使得伦理观是非常个人化的,无法去创立一种普世的、标准化的伦理观,也不能将道德伦理简化成一组人人都赞同的规则。自动化时代能做到的是,意识到机器的局限,不要把关键的、有关伦理道德的决策交给电脑。并没有完美的道德算法,即便是功利计算也具有主观性,计算结果取决于决策者的价值观和利益。当电脑越来越多地参与到分析和判断的环节中,比如诊断病人可能偏于轻率、自动驾驶汽车碰到突发状况、乃至用于战争的杀伤性机器人等等,都会遇到伦理困境。
机器行动的背后,反映出进行编程的公司自己的伦理观,而并非我们个人或整个社会所想要具备的伦理。所以在制造能够像人类一样自动运行的机器时,应该有一个伦理系统,问题是谁写程序、谁对其加以控制,怎样将它和个人的伦理观念相连接?但这一点上我不知如何才能解决。很容易让渡责任给机器,说“我不知道啊,是机器这么干的”。当然也有人认为,人也可以做出可怕的事情,可能机器的选择更明智。但更基本的问题是:在道德模糊的情境下,谁决定什么是“最优的”或“理性的”选择?还是不要轻易把伦理道德方面的决策交给电脑,这样往往会因为不了解机器是如何编程以及背后的伦理逻辑,最终人们停止了形成自己的伦理观。
CBR:而同时还有一点有关伦理的风险,因为隔着电脑,人对有害结果的感受不直接,这样会减低负罪感,这一点也是在许多心理学行为学实验中得到印证的。
卡尔:是的,这也在网络暴力中得以验证,很多发生在网上、具有攻击性和侮辱意味的话语,在现实中往往不会出现,因为对于施暴者而言,不觉得对方是一个活生生的人,进而扩大了这种暴力。
CBR:你有很多哲思,但哲思往往很难带来立竿见影的效果。有没有觉得在一个商业社会里,人们更多地追求具体解决方式,会给思考者带来困境?
卡尔:是的,在商业社会里人们不太看重哲思和深思,因为这需要一定的孤独,而当下人们不喜欢孤独,最好能将自己时刻连接在社交网络中,无形中形成了一种社会压力,从频繁互动的社交网络中抽身而退的人往往会受到质疑,这种氛围会阻隔人投入需要宁静和孤寂的哲思。人是社会动物,但同时也是孤寂的生物,在热闹的社交中很难真正认识自己。需要一定的平衡,不过我们正在日渐失去这一平衡。
CBR:你写书是什么状态?与世隔绝消失在山里还是闭门不出?
卡尔:我也要取得平衡,因为互联网也是很好的研究工具,获取信息方便,大量有关科学、历史的文献搜索可以很好地完成,不过我尽量关掉信息和邮件从而避免过多打扰,也基本不上社交媒体,不是不理解它们给人带来的好处,而因为频繁的干扰确实会令人难以静心、专注深思。我未必已经寻求到了完美方式,而希望尽量能受惠于科技而又不被完全勾引。