人工智能的人机交互研究
特约主持人:王鑫(同济大学艺术与传媒学院教授、博士生导师)
主持人语:2023年初,OpenAI公司的大语言模型迭代至GPT-4版本,再次“震惊”世界。跨模态人工智能的回应能力更准确,越来越像“人”,引发了“替代性恐慌”。人工智能可否作为“理解”主体这一问题逐渐凸显,如何认识和理解人机交互中主客体互动的技术机制,并应对其可能造成的深层冲击,成为亟需解答的问题。而这也是本期专栏的核心议题和出发点。本期专栏的两篇文章各有侧重,也彼此关联:王鑫的《基于“理解”的ChatGPT人机交流反思与主体性问题复归》一文从效果历史和身体认知的角度,讨论了大语言模型与人之间交流的“有限性”问题,认为“历史—身体—情感”的维度仍旧是AI目前难以逾越的理解“障碍”。陈秋心的《“人机互生”时代可供性理论的契机与危机——基于“提示词”现象的考察》一文则从可供性理论的视角来探讨此轮人工智能技术革命的深层意义,认为在人机互生时代可供性的“社会性”和“想象力”将成为核心问题,而可供性理论也可能面临人和物之间二元性模糊的底层危机。两篇文章均聚焦当下人工智能变革对人机交互的深层冲击,分别从“理解”的认知维度和“提示词”模式的主客体交互形态入手,就人机关系中人的主体性问题及人机交互技术机制背后的可供性问题展开研究,以求对未来社会中人机理想化的共生方式,及人类何以如其所是地生活于间做出一些探讨,盼学界更多关注和讨论。
摘 要:理解的可靠性、共通性和可解释是人机交流的理想状态,ChatGPT作为人工智能技术驱动的自然语言处理工具表现出的智能程度更趋近这一状态。探究人机交流的理解问题,旨在揭示其中隐匿的人对自我安全的寻求和人机关系可靠性的期许,以及人机共生背景下人的主体性问题。研究从效果历史和身体认知,即从“历史—身体—情感”方面讨论ChatGPT与人之间的交流的“有限性”问题,但依然难以消除伴随AI而来的碳基和硅基生命之间的差异问题,“替代性恐慌”也使主体性成为人机共生世界中再次被关切的议题。重返人类主体性问题,思考人类在多大范围和程度上可能被人工智能替代及其时间阈值,其意义在于使人作为个体存于人机社会总体之中,如其所是的生活。
关键词:理解;ChaGPT;人机交流;主体性
作者简介:王鑫,同济大学艺术与传媒学院教授、博士生导师,主要从事媒介文化、跨文化传播、传播思想史等研究。
中图分类号:G206 ""文献标识码:A ""文章编号:1001-4403(2023)05-0162-10
DOI:10.19563/j.cnki.sdzs.2023.05.014
可理解的AI是理想人机交流的基础,也确保了人机交流的可靠性与安全性。能够理解人的言辞、话语和交流情境,是设计和构建负责任AI的重要考量。ChatGPT作为大型语言处理模型的出现和不断迭代,能够实现更智能的人机对话,这不仅将可理解的AI向前推进,也带来人类对未知人机世界生存状态的可能性恐慌:人就要被机器替代了吗?特别是GPT-4出现之后,全球顶级科学家群体警示并且呼吁将人工智能的研发放缓甚至暂停,这也带来有关可理解AI的猜想,以及大语言模型是否能成为人类技术变革的奇点的讨论。本文认为,作为大型语言处理模型的ChatGPT,虽然越来越能理解人类的提问,但仍旧难以实现基于效果历史和肉身的理解,至少在一定的时间内难以实现人类之间在特定场景、语境和情感下的可理解性的交流。“理解”是可解释性和可靠性AI实现的重要环节。本文从“理解”入手,并从历史、身体和情感维度反思人机交流的可能性以及局限性,如果不能将AI置放到一个类人的社会化和具身的认知场景之下,那么这种理解和交流仍将困难重重。
一、关于“理解”的理解
谈论关于ChatGPT能否实现对人的理解,进而建立人机交流的可靠性基础和安全性根据时,如何来认知“理解”就变得很重要。那么,当谈论“理解”的时候,我们在谈些什么?
在日常生活中,理解是一个人(主体)对另一个人(对象)所思、所行的认识、把握并施以行动,实现理解的结果。它涉及三个方面的主要内容,“想法”(思)、“做法”(行)、“问题”(事)。这里的“理解”,通常来讲,是知晓、明白的意思。理解的过程,伴随着感性的体验和理性的思考,也即通过感知、认识、思考、分析和综合实现对人、事、理、情的知晓和明白。这遵循了西方二元论思维方式,预设了主体和客体,通过对形式因、质料因和动力因的分析,最终实现对事物或者规律的把握。从中国传统思维方式来看,理解更接近于“悟”。“悟”是“我心”之活动,无论是“顿悟”还是“渐悟”,都是依靠人(心)的蓦然开醒或者循序渐进,进而达到心对理、事、情、物的照亮,同时也是理、事、情、物对心的敞开。虽然中西方思维不同,但是理解都是和“心”(心理)有关的行为过程。谈理解的时候,就会涉及理解的主体、对象、过程、内容和方式。理解的通路(方式)或是依靠直觉感悟,或是依靠逻辑推理,抑或是兼而有之。
在心理学和哲学有关人类认知的研究中,理解是继感知、认知后更深层次的过程和部分。学者陈嘉明认为:“它(理解)是由理解者与被理解者双方的心理活动所构成的,其中被理解者的意向决定了该行动的意义;而理解者需要通过把握被理解者的意向来理解该行动的意义。通过这样的分析,我们看到‘意向’与‘意义’构成了行为理解的两个关键要素。此外,这一理解过程表现为一个心理活动的过程,即理解者想要‘把握’(理解)被理解者的过程。”①【①陈嘉明:《理解的“理解”》,《哲学研究》2019年第9期,第118-125页。】这涉及两个层面的意义:首先,理解是一个心理过程,是一个意向性活动,理解是需要行动来确认意向的合理性;其次,理解是一种外向的活动,是基于意向而达成的具体的行为,这也是理解的“内在现实”与“外在现实”。内在现实是一种意向,也是抵达外在现实的过程,外在现实是对理解的确认。不过,想要达成某种理解,或者实现人与人之间的沟通从而进入到理解层面,还需要考虑以下几个问题。
(一)理解的语境化
理解的实现有赖于语境,语境是交流双方能否进入同一命题或话题讨论的基础。这里的语境,既包括生活语言、话语建构的语言情境,也包括共同的“感觉结构”(feeling structure),还包括实现理解的历史维度和现实感。日常语言的理解有赖于共同的生活基础、交谈的习惯以及约定俗成的内容,可以在非系统化、非逻辑化和非周延性表达和语言叙述中,在理解的意向性和意义性方面实现双向达成。而不能置于其间的人,难以形成共同的感觉结构①【①Williams R.Marxism and Literature.Qxford University Press,1977,p.128.】,无法共享共同的意义交集②【②斯图尔特·霍尔:《表征——文化表象与意指实践》,徐亮、陆兴华译,商务印书馆2003年版,第1页。】。日常语言的零散性、碎片化、个人化和漂移的特征,使其难以形成清晰的边界和固化的模式,构成了人工智能基于语言学习达成理解的障碍。因为这类语言是通过历史的积淀、生活的经验、语言的习惯实现的共通和理解,必须是置于其间的人才能在零星散落只言片语中把握内在的要义,从而实现理解的可能和可靠。理解的语境化特征,既有历史和文化的内容,也有生活的向度,它提供了理解可能实现的历史背景和参照系,也提供了生活世界的自足性和先验性,即生活世界不依赖于个人的进入存在并先于个人进入而存在。人们在生活世界中的沟通和交往形成的一套话语方式,并不依赖于言辞的组合与排序而存在,而是在互动中得以达成和保留,并且成为可意会不可言传的内容。因此,虽然基于大语言模型的人工智能会实现知识的高度存储、归类、整合、排序、生成和输出,但唯独缺少了生活世界中“活生生”的人类感以及共同的感觉结构。ChatGPT能够提供一般性的解释和回答,甚至比人类提供的解答更清晰、细致和全面,却无法将人类丰富性和多元性的社会化表达融在语境中。缺乏了语境,就缺失了生命的历史与现实之间的相互激荡产生的内容,这些必须在特定空间和场景中展开,需要借助身体、情感的介入而实现。
(二)理解的情感性
理解的实现离不开身体的参与。与理解不同,感觉是借助感官对外界因“感”而“觉”的过程,而理解往往与概念或者问题密切相关,是经过较为复杂的思维过程而做出的判断或达成的行动。不过,这里需要区分一个问题,就是直觉和理解的差异和重叠。直觉是不依赖人的理性而直接察觉问题的本质,是一种“悟”,更接近现象学的本质直观;理解需要人的理性的参与,从简单到复杂、从模糊到清晰、从部分勾到整体,是一个分析综合的过程。一般对于理解的分析,偏重于把理解置于理性考察的范畴之内,因此也把理解和情感划分为理性和感性两个方面。实际上身体不只是从感觉上进入理解,也从情感上参与理解的过程,“斯宾诺莎就将情感理解为这种‘身体的感触’,正是这种感触产生了情感”③【③汪民安:《情动 物质与当代性》,山东人民出版社2022年版,第4页。】。人类信息的传递,不仅依靠语言,还需要借助人的表情和肢体动作传递信息。有研究表明,人类信息的传递30%左右依靠语言,70%左右依靠表情和肢体动作。身体的介入与感官的反馈,借助共情和符号经验的积累,共同参与了理解的过程。身体不仅汇集了各种感觉,也能够实现记忆,比如肌肉记忆、皮肤记忆等。这些参与记忆的身体感官和机能帮助人在感知和理解的过程中,做出判断和行动。理解是主体和对象(人、事、物、理)之间建立的桥梁。那么理解如何建立?就人与人之间的理解而言,需要建立情感、心意、见解和观念上的互通和一致,并在行动上体现这种互通和一致,所谓“同情共理”就是这个意思。理解而未有相应的行动,也不是真正的理解;对是否实现“理解”的检验,还在于主体是否可以重述被理解之事、物、情、理,并且通过行动构成意义。因此,理解不仅需要语言的会意、精神的相连、情感的共通,还需要行动的相似或者一致。因此,理解是在语言上的可解释,行动上的可靠和确定。“一切景语皆是情语”④【④王国维:《人间词话汇编汇校汇评》,上海三联书店2013年版,第328页。】,情感贯穿在观察、理解、分析、综合的全过程。
(三)理解的暧昧性
理解的实现,清晰准确的逻辑论证和概念的表达并不是必需的。这也使擅长处理边界明确、逻辑清晰、概念准确问题的AI大型语言模型处理系统存在一定局限。特别是中国人浑融的思维方式,体现为融会、体悟,在“恍兮惚兮,其中有象;惚兮恍兮,其中有物”中觉察。⑤【⑤老子:《道德经》,吉林出版集团股份有限公司2016年版,第67页。】可见,思维方式不同,“理解”的通路也是不同的。一个人的经验、能力、智识、判断、技艺等,都决定了是否“理解”,在多大程度上理解。这其中伴随着复杂的感觉、知觉以及思辨的过程,也使理解更容易表现出某种暧昧性。比如,两个人对同一个事物做出相似的理解和判断,并不依赖某种深度的交流和沟通,而是“心有灵犀一点通”,这个“灵犀”,就表明一种非理性的直觉和对认知模糊暧昧地带的冲破,从而实现心灵的共通和理解。与维特根斯坦强调的“凡是说的,就能说清楚”①【①维特根斯坦:《逻辑哲学论》,郭英译,商务印书馆1985年版,第45页。】的可传达性与可理解性不同,中国人注重“可意会不可言传”。通过清晰语言表达的东西未必能够传递某种境界的内容,反而通过心领神会,可抵达某种不可言说的精妙认知和领悟,比如俞伯牙和钟子期“巍巍乎高山,汤汤乎流水”的知音相遇。这说明,理解不仅是一种心理的意向性过程和意义生成的行动,还受制于特定思维和悟性(作为构成性先验原理,在认知理性领域对规律的把握②【②杨恩寰:《近现代西方美学研究文稿》,辽宁大学出版社2013年版,第4页。】)。同时,如果没有意义的生成,也即意向性达成的行动,或可如王阳明所说的“未有知而不行者,知而不行,只是未知”③【③于民雄、顾久:《传习录全译》,贵州人民出版社1998年版,第11页。】。此外,人类的相互理解还依赖于常识判断,ChatGPT能否处理规则和边界模糊的信息,尤其是这些在历史语境和时代变迁之下形成的信息,成为日常生活中不言自明的东西?ChatGPT又是否能理解人际沟通中的“不言自明”,特别是在不同语言环境中,ChatGPT能否会通各种复杂的内容,实现对人的理解?实现人与人之间的沟通和理解的路径并非单一的知识和信息的传递和接收,而是融汇了个体的生命经验、思维方式、情感类型、认知结构等诸多经验乃至先验的部分,而这正是人机理解的壁垒。
二、ChatGPT建立的人机交流能否跨越“理解”的障碍
ChatGPT对人类提问的解答,以及文本处理和生成的速度及内容,虽然还有差强人意之处,但它似乎已经跨越了既往人机交流的理解沟壑,进入到一个新的境界。但是,人机能否实现可理解的沟通,还有两个重要的问题需要解决。
(一)ChatGPT能否在“效果历史”中实现理解
伽达默尔认为,任何理解和解释都依赖于理解者和解释者的前理解。“某某东西作为某某东西加以解释,这在本质上是通过先有、先见和先把握来起作用。……任何解释一开始就必须有这种先入之见,它作为随同解释就已经‘被设定了’的东西是先行给定了的,也就是说,是在先有、先见和先把握中先行给定了的。”④【④伽达默尔:《真理与方法》,洪汉鼎译,上海译文出版社2005年版,第7页。】这里的所说的“先有、先见和先把握”,至少有两层含义:第一,知识或是来自于人的先验的部分,人不依赖于经验而先天具有认知和判断的能力,因此是可以理解和解释的;第二,知识或是来自于经验,人的理解是因为以前的经验、习得和具体的生活内容,人可以依赖先前的经验并由此形成的解释框架,进行判断和理解。由于经验具有较为复杂的内容和特点,使得人机沟通并非只是单一语言学习或者给定“提示词”生成那么简单。
首先是经验的社会性。社会是人与人的连接并建立关系,社会结构就是一个长的“互动仪式链”,整个链条“将会建立起什么类型的象征符号以及他们如何跟特定的人群相关联”⑤【⑤兰德尔·柯林斯:《互动仪式链》,林聚任、王鹏、宋丽君译,商务印书馆2012年版,IV。】。按照柯林斯的理解,社会结构作为一个互动仪式链需要高度的情感参与,并且依此建立起的象征符号十分重要。如果缺乏共有的社会经验、习俗、生活际遇和相似的观念与认知,是难以理解符号的象征意义以及建立有效地沟通。就这一点而言,雷蒙·威廉斯的“感觉结构”也具有相近的意义,这些理论家都意图表明,共有的社会生活经验和由此建立起来的可沟通性内容是实现人与人之间相互理解的前提。
其次是经验的生成性。人是在不断累积经验中建立整体性判断的,这是某种活化的智慧而不是像知识一样僵硬和教条。虽然深度学习或者知识图谱可以让ChatGPT与人类之间进行某种沟通,但其无法具备在过程和时间中存在的情感、情绪、想象、反思等内容,并由此形成的对于问题理解的前见。ChatGPT的“理解”,是某种程式化的或者“套路”的“空中起楼阁”,有时也会“一本正经”的杜撰或者离题万里,这表明ChatGPT难以从人的经验和语境中理解问题。一个人带着全部身心进入世界,不断地感知、认识、想象、思考和判断,并且与社会中不同的个体建立多样的关系,比如经济关系、社会关系、法律关系、政治关系等,并在时间中通过生命而不断生成新的内容。人生经验不断深化,才能不断理解复杂且深广的社会内容。人可以将经验的生命和先验的悟性生成为某种交流的智慧和表达的方式,体现人际之间独特的沟通气质。
再次是经验的生命性。这个世界不仅依赖学习,还依赖人的身心投入。杜威曾说:“在自然中并没有孤立无关的事情,但同时彼此交相作用和联系又不是笼统的和完全相同的。”①【①⑤杜威:《经验与自然》,商务印书馆2014年版,第269、266页。】生命个体因为这种身心投入而具有共识、同理和共情之心。虽然人与人之间的交流也会出现偏差、误解甚至无法沟通,但是作为生活世界根底中的部分或者人性的共通,个体生命还是会有某种超越性,进而实现某种不需要解释的理解。经验的生命性体现为丰富的生命感受和独特的生命经验,对于ChatGPT而言,既难以感知生命经验的零碎和冗杂,又难以基于“共通感”建立情感连接。ChatGPT可以给出“标准答案”,但是无法在“体恤”和“共鸣”中实现“理解”。个体以身心俱入在世间之中,这些过程和行动构成了后来理解的前提,这就是“先见、先行或者先把握”②【②③伽达默尔:《真理与方法》,洪汉鼎译,上海译文出版社2005年版,第7、8页。】。
这些基于经验的历史和先验的结构构成的前理解或者前见,“是历史赋予理解者或解释者的生产性的积极因素,它为理解者和解释者提供了特殊的‘视域’”③。因此,理解者的“前见”具有积极性的意义,在某种意义上决定了理解能不能发生和实现,甚至决定了个体能够“看到什么”和“如何看见”的问题。虽然这在某种程度上预设了人的局限性,但这也是个体差异和总体丰富的可能与现实。ChatGPT能否实现对人的理解,一个需要跨越的“沟壑”就是能否实现理解过程中的“效果历史”,由于其不具备类似人的社会经验和生命经验,因此难以在“效果历史”中实现理解。
(二)ChatGPT能否基于身体实现理解
“肉身寓所”是人类相互理解的基础。这里涉及几个可以讨论的问题:
首先是身体的行动。学者陈嘉明认为:“理解的最为典型的对象是与心灵活动有关的行为,包括言语和行动。这一理解过程表现为一个心理活动的过程,它是通过对意向性的把握来理解行动的意义的。理解者力求达到的是与被理解者在心灵上的会通。”④【④陈嘉明:《“理解”的理解》,《哲学研究》2009年第7期,第118-125页。】陈嘉明讨论的前提是相互理解的是两个“心灵”,而ChatGPT与人的交流最根本的区别在于,一个没有肉身的寓所;另一个拥有肉身的寓所,这是硅基和碳基的差异。肉身,可能是脆弱的;但是面对人机交流的世界,却可能是强大的。
其次是身体的感触。杜威认为:“‘感触’是以复杂地运动着的和有区别的反映为特征的‘生命—形式’的一种性质一样,‘心灵’也是一个有感触的动物所具有的一个附加的特性,这时候,它已经达到有了语言、有了互相沟通那样一种与其他有生命的动物交相作用的组织状态。……感触不再只是被感触到。它们具有意义而且产生意义;它们记录过去和预测未来。”⑤杜威在这里肯定了“感触”的意义,认为其可生产意义,这显然是赋予了身体和心灵一样的价值,而不仅是一种简单的生理基础,像听觉和视觉,既是理智上的感知,也是美感上的感知,这是一个不可否认的事实。人的身体结构作为自然的一部分,完美地与人的精神和理智构成吻合,共同参与了人类对外部世界的认知。“由于这个原因,有机的动作就是心灵的一个先行的动作;它们看起来似乎是深思熟虑的和具有意识智慧的,因为有智慧的动作在利用有机的动作所提供的机制时,必然也会具有有机动作的模样。”①【①杜威:《经验与自然》,商务印书馆2014年版,第274页。】当然,身体还是一个媒介,在感触中,建立与他者和世界的关系,并产生某种连接和交流,“当我存在时,会被社会和文化所塑造。这一切都与我的身体有关,当然,还有我的思想,二者是统一的。身体媒介也是一个符号载体,一个象征载体,这对我来说是最重要的”②【②Irrgang D,Handler F.Zur Genealogie des MedienDenkens.Kulturverlag Kadmos Berlin,2017,p.99.】。
最后是身心结构与自然要求。肉身和心灵之间,或者说身心之间,虽然存在不同的历史和逻辑理解,但是传统的二元论的“身心”关系,把身体当作“心”的寓所,并不能全然解释认知和理解的问题。梅洛-庞蒂的身体现象学将意识经验置换为身体体验,认为意识经验实际上由各式各样的身体体验构成,认识的主体是“我”,而“我”就是我的身体。身体某些莫名的疼痛作为记忆留存在心中,哪怕身体已经忘记了当时在刺激之下的行为,但是心里会长久地保存内容,正如“一朝被蛇咬,十年怕井绳”。身体与心灵不是传导信息和反映信息的关系,身体就是信息和意识本身。身体受到外界的刺激而产生的行为,并不会因为身体的感受消逝而不再,因为身体的经验已经成为一种本体感受,是通过位置、状态、动作、目的和需要等方面形成的。尽管经典的认知心理学和温和的认知心理学都认为,身体仍旧是“生理性”的存在,心智主要进行认知表征的运算和操纵,或者强调了身体经验对心智的塑造作用,但激进认知心理学认为,认知是具身的,是因为认知在本质上并非抽象符号的加工或运算,而是由身体经验构成。自然环境和社会环境与身体的关系,并不是身体的被动接受,或者类似镜子一样的“映照”,而是相互作用的关系。环境作用于身体,身体同样反作用于环境,也就是说,“人们不是表征世界,而是‘生成’(enact)一个世界。身体作用于环境的活动决定了认知的性质和方式”③【③④叶浩生等:《身体与认知表征:见解与分歧》,《心理学报》2019年第4期,第462-472页。】。从某种意义上来说,激进的认知心理学与生存论哲学构成呼应,人不是简单地“镜式”反映世界,也不是被给定的,而是生成的,是人在不断行动,并在行动中与自然、社会以及他人发生关系,在这种关系中不断建构自身的生活方式和生存观念。人是以“身心”投入生活与环境,并在时间和历史中认识和理解世界。“我们不像计算机:机器总是耐心和愉快地等待着他人的开启和指令。我们则是由起伏不定、不断扩展的欲望和欲望激发出来的各种身体动作所构成。”④
如果按照梅洛-庞蒂所说,组成人的意识内容的自我体验、客体体验以及对他人作为意向主体的体验都是基于身体知觉,是一种身体经验,那么其“身心合一”就不再是二元论的观点,它与中国传统哲学对“身心”关系的理解具有某种相似性。“认知是一种具身的活动,这种活动根植于身体,扎根于环境,与有机体的生物、心理和文化因素紧密联系在一起……对于心智的理解既不能离开身体,也不能脱离环境。”如果按照经典认知心理学和温和心理学的解释,认知可以被视为一种“运算”,是一种类似于“软件”性质的程序,那么AI可以实现与人之间的相互理解。但是,身体并非如经典认知心理学认为的那样可以与“心”划分清楚的边界。对于ChatGPT而言,其“肉身”的缺失是它与人之间的理解难以充分表现的一个重要因素,这是碳基生命和硅基生命最本质的区别。也许有一天有其他的途径能使机器能够绕过“肉身”来实现“理解”。
三、ChatGPT理解的“局限”与人机交流的有限性
人与人之间的沟通和理解难以充分实现,否则约翰·彼得斯就不会发出“对空言说”(Speak to air)的感慨。ChatGPT难以实现“效果历史”下的理解,也不具备“具身认知”的前提。这种理解的局限也让大语言模型在展现其新颖与强大的同时,不可避免地存在诸多问题。
一个职业文字工作者尝试完全使用ChatGPT撰写一篇访谈稿件时,她发现ChatGPT基本上能够准确清晰地提取“投喂”内容的重点,但是它并不能对人类交谈过程中的口语、情绪与跳跃性内容做出准确判断,这使得她不得不花费比实际写一篇文章更长的时间在整理内容和梳理逻辑上。不仅如此,ChatGPT在细节、判断与结构方面依旧存在较多需要提升发展之处,也无法代替人类的情感和创作的愉悦。①【①笔者注:《这是我们第一篇完全由ChatGPT写作的稿件》文章于2023年4月18日发表在《每日人物》的微信公众号上,这是一篇ChatGPT为第一作者的机人合作文章,并且附录了人类作者钟艺璇刊发的编后语。她认为,这是一次痛苦的合作,并讲述了与ChatGPT合作完成一篇稿子的来龙去脉以及所思所想,也再现了人机合作过程中,彼此“驯化”的痛苦。这是以个人视角的观察和体验,表明机器在使用人类文字语言材料过程中的诸多困境,这些访谈内容充斥的口语化、情绪化和跳跃性的内容,对ChatGPT来说无疑是一个挑战。人类作者钟艺璇承认,ChatGPT抓取、组织逻辑与总结的能力是值得肯定的,并且认为,“其更适用于模板邮件、公文写作甚至是复杂的数据分析,但是基于客观事实的稿件写作,似乎超出了它的能力范围”。对于华丽辞藻的运用,ChatGPT也是“稚嫩的,甚至让人哭笑不得”。对于访谈者所言的“吃醋”两个字,ChatGPT甚至编撰了访谈者“出轨”的情节,这也透露出ChatGPT无法感知情绪。“ChatGPT对‘生动’的理解,无非是从自己界定的‘生动’素材中,进行挑选、替换和更迭”。最后作者慨叹,“做人类真好”。】ChatGPT无法具备“效果历史”,也不具备“身体认知”,这是其理解所带有“先天”的缺陷,其对语言的理解障碍集中在对零散的、模糊的、边界不清楚的、可意会却不可以言传的内容的识别和判断。伽达默尔也强调了“语境”的重要性,“语境”不只包括具体的情境,也包括历史所留存下来的独特性的“内容”。如果想让人机沟通和交流变得顺畅,需要讲述者能够清晰地描述,较为准确地使用边界清晰概念明确的语言。但是,这种规范性的语言在某种程度上是很难实现的,特别是日常交流中的言语往往是碎片化和多义化的。
对于人类沟通而言,“只有当通过相互谈话而在语言上取得一致理解的时候,理解和相互了解的问题才能提出来”②【②③伽达默尔:《真理与方法》,洪汉鼎译,上海译文出版社2005年版,第498、502页。】。与人类沟通和交流类比,当ChatGPT与人的交流在语言上取得一致理解的时候,理解和相互了解是否是可能的?显然,解释学的奠基人伽达默尔对人类的理解秉持着相对乐观的态度,并且提供了一条重要的语言通路:“……一切理解都是解释,而一切解释都是通过语言的媒介而进行的。”③但是让伽达默尔更忧心的是,最困难的对话显然莫过于两个操着不同语言的人之间的对话。但是在人机沟通中,却没有那么困难,比如现在的各种翻译软件,如果人能够提供清晰的符合某种语言规范的文字,都会得到较好的翻译结果。但是如果某个语词有其特定的使用背景和特殊的语境含义,翻译软件则不能很好地回答,因为人的交流存在多种个性化的、语境化的、场景化的以及片段性的言语。
如果ChatGPT能够解决“效果历史”的问题,是不是理解的“沟壑”就会被填平?那么进一步追问,“效果历史”的问题如何被解决?这不仅是一个人文的困境,也是一个技术的困难。其实相比于“效果历史”的困难,“身体认知”的困难更是难以突破的,因为这本就是人机根本性的差异,是人体与科技体的根本差异。吴飞教授在《人工智能终可“识别人心”》④【④吴飞:《人工智能终可“识别人心”》,《学术前沿》2020年1月上。】一文中追问:人心是什么?人心可以计算吗?作为碳基的信息处理机制的人类大脑和作为硅基的计算机设备之间真的可以对话和相互理解吗?那么是否可以这样的思考:人的日常沟通和交流并非总是以清晰的语言描述,这里面有各种方言、俚语、缩略、转义、双关的等复杂的应用。语言是有规则和规范的,但是言语是零散的、琐碎的、片面的、杂乱的,人们日常生活中使用的是言语,而不遵循规范的语言规则。无论是杜威的实证经验主义还是梅洛-庞蒂的知觉现象学,或者如东方的“身心合一”,身体都构成了人的认知、意识的内容和方式。ChatGPT不具备“肉身”,因此难以具有身体对认知的独特性和意义。
四、人的主体性问题复归与人机社会的想象
GPT带来人机交流的突破性的技术进步,也带来一个很重要的问题,即人如何安放自身的位置。在大范围人工智能尚未被使用之前,本文提出重返人的主体性问题,实际上是想提示未来人机社会中人的存在维度及其可能性。人的主体性问题总是被认为是“人类中心主义”的某种转化性表述,但是随着技术高速发展,围绕技术展开的社会现实生活又滑向了“技术中心主义”的泥淖。人机社会中的人的主体性问题,对于反思和塑造人机(技)关系尤为重要。
这里谈的人的主体性问题,并不是康德思想界的“哥白尼式革命”之后,人成为知识的来源和如何可能的前提,相对于唯物论而言,这是一种主客体关系的倒置。康德的理论后果是,“主体越来越强化自己的主动性,他让自己获得一个强劲的立场,他开始有了自己的地位,他有意识地占有这一地位,并赋予自己特殊能力,从而将对象、将世界、将万物整体赋予一个尺度”。①【①②汪民安:《情动、物质与当代性》,山东人民出版社2022年版,第107、108页。】人类社会的行进就像一个摆动的“钟摆”,当某个理论或者某种社会理念达到历史的顶端,就会在巨大的惯性之下朝向另一个方向行进,“主体性”也成为当代哲学被批判的一个重要概念。但是,随着人类进入一个高度技术宰制的历史时期,智能生活刷新人类的生存经验和对世界认知的可能,人遭遇可能被替代的风险之后,重思人的主体性问题,就显得重要了。
本文讨论的主体性,并不是康德意义上认知的主体角度,而是对于在社会实践中的主体来说的。人是否能依靠自己的社会实践成为自身的主人,而不是在技术的垄断之下,不断“献祭”自身的能动性,丧失了人的创生、更新、发展和进步的能力,成为智能机器的附庸。技术作为一种权力,隐匿于其中的是一部分人对另一部分人的控制和剥削,“这是现代哲学的主体原则膨胀引发的一个后果……让客体去符合主体,让主体为客体立法。”②虽然前面提到具身理解以及效果历史,对机器替代人还有一些较为乐观的期待,但随着人类在人工智能路上越走越远,更多问题开始凸显。一些人已经洞察到诸如GPT的人工智能虽然以无身体的形式存在,但是会与人产生情感甚至是身体上的连接,人的类生存危机可能也在不远处。人能否与智能之物和谐共处,各自实现自身的可能性而不是彼此宰制的状态,能否在其自身局限性中开拓出更多的可能?人又能否实现“逍遥游”——一种如其生命所是的自由状态?这些都是值得讨论的问题。
人在高度计算化的世界中判断和选择,寻求最优解,实现极致的工具理性。齐林斯基教授访谈彼得·魏贝尔(Peter Weibel)时,魏贝尔说:“比如我们现在经常使用iPhone,其中的i就是我,最主要的原因是我们越来越多地使用移动技术,其中有一个永恒的主题:移动。移动,或者说便利性成为当代技术的核心事件和动力。”③【③Irrgang D,Handler F.Zur Genealogie des MedienDenkens.Kulturverlag Kadmos Berlin,2017,p.82.】人的确为了便利创新了若干新的技术,但是人也陷入技术编制的系统中。每个人都在智能化社会的结构中成为无法逃逸的“这一个”。而在GPT的智能化迭代中,机器也对人进行了“驯化”,人成为“完美的机器”。这是一种自我的消失和主体性的逐渐陷落。人在AI的速度、效度、精度、广度面前没有什么优越性而言,人丧失了强大的立场,并且失去了他的地位。萨特从“非知”和“要成为”两个维度赋予主体性的内在性条件和整体的动力。主体性永远处于总体化的过程中,“我们首先要努力去理解……为什么人,在自己的实际活动中,在自己的实践中,必然既是认识同时又是行动,是会产生自己的智慧的行动,为什么在这同时,在我们称之为主体性的层面上,它又必然是对自我的非认识?”④【④让·保罗·萨特:《什么是主体性》,吴子枫译,上海人民出版社2017年版,第35页。】
在历史和时代的总体性之下,重提这一度被高扬又被贬抑的概念,是因为在AI技术的宰制之下,人与AI的关系不再是对象化关系而是影子关系。从GPT-4写出的稿件中,人类仍能敏锐地嗅出文章是“机器味道”还是“人的味道”,虽然这表明AI对人更大范围替代的时间线尚未清晰,但是人类已经知晓结果。探讨人的主体性,并非制造主体与客体的二元立场,而是召唤人去思考未来人机社会中人的位置和人的生存可能性。“我们活着,主体性就是活出自己的存在,我们活出自己的所是,活出自己在社会中的所是,因为我们没见过人的其他状态。更准确地说,人是一种社会存在,同时人是从自己的角度体验整个社会的社会化身。”①【①让·保罗·萨特:《什么是主体性》,吴子枫译,上海人民出版社2017年版,第120页。】人与AI之间的影子关系,开始只是借助AI为自己服务,使自己的生活便利和自在。久之,人将会深陷对AI的依赖中,甚至可以摆脱某种人类社会的生存状态进入AI世界的生存中。彼时,人与AI之间的形影关系是否会发生转移?也就是说人有可能成为AI的影子,并在AI设定的程序化系统中,失去自由行动的机会,人从最初的便利和自在最终会被锁定在AI的控制系统中。笔者曾在其他文章中提到第94届奥斯卡真人短片入围作品《坚持住》,如果年轻人的父母最终没有救他于囹圄之中,他将被电子程序系统判定几十年的牢狱生活。绝望而孤单的禁闭生活,也许会让这个年轻人无法抵御而陷入精神崩溃。重提人的主体性,是对人的社会化和社群生活的呼唤,是让人作为个体存于人类总体之中,如其所是地生活,而不是异化为硅基生命中的一份子,成为数据系统中的“光点”。这并非预设某种悲观的人机关系,如果后者成为一种现实,人应该如何安放自身的位置?如果GPT-4已经具有9岁孩子的心智,那么迅速迭代的大语言人工智能如果可以进化到20岁人的心智,绕过或者跃过人而代替人的选择和行动,人类又将如何应对?本文此前论述的效果历史和身体交流似乎对ChatGPT的理解能力还持有一定的乐观,目的在于给人一种可以讨论或者反思的空间:在我们还没有到达机器进化到超越效果历史和具身理解的某个时间阈值之前,人类还可以做什么?还能做什么?
西格弗里德·齐林斯基教授在访谈魏贝尔的时候,他认为,
" “我作为一个人可以前所未有地影响和控制我的环境。从某种意义上说,我每天可以通过成千上万个按键程序改变环境。但在一万年前绝无可能。我最多只能点燃一把火,其他一无所有。而如今,我可以利用身边那么多的移动设备几乎不间断地按动按键,周围有那么多移动设备允许我自己控制和构建环境,这在以前从未发生。”②【②Irrgang D,Handler F.Zur Genealogie des MedienDenkens.Kulturverlag Kadmos Berlin,2017,pp.82-83.】
魏贝尔表述的是一种事实,的确,人最初是以某种支配性力量存在的,但是当如此多的移动设备建构的环境逐渐固定和封闭时,人支配机器还是被机器支配?正如人使用手机变成手机使用人,人已经无法离开手机,手机支配人去沟通、工作、表达、记录和生活。本文重提人的主体性问题,是为了探寻人类遭遇危机时如何释放人的主体能力并寻找到人机关系更理想构成的路径和方法。这里不再是人的主体如何获取知识以及知识如何可能的问题,也不是对主客体关系的二元论反思,而是在人机关系的预设下,人能够做什么以及人如何生活。这里的主体性,不仅包括“活出自己的所是,活出自己在社会中的所是”的问题,还包括人如何释放人的潜在能力和创造力,建立理想化的人机关系和支持逃逸的“诺亚方舟”,以及人如何依靠类存在的相互关系重新梳理和建设友好型人类社会,并“从自己的角度体验整个社会的社会化身”。人只有建立属于人类的稳定和充分依存关系,才有可能抵御AI带来的危险和挑战。
五、结语
本文讨论了基于“理解”的ChatGPT人机交流反思与主体性复归问题,这看似涉及两个层面的问题,其实是相互嵌入的。如果没有对人机关系中主体性问题的考察,或许就难以从“理解”的角度反思ChatGPT与人类交流的可能和局限。从效果历史和具身交流两个维度,也即“历史—身体—情感”方面探究人机交流能否实现理解的问题上,人类还可以在某个时间阈值之内存有一定的自信;毕竟,ChatGPT的使用者在反思其用户体验时,说出了“做人类真好”的感慨。③【③每日人物:《这是我们第一篇完全由ChatGPT写作的稿件》,2023年4月18日。】这或许也是人类面对机器越来越“像”自己时,人类越有机会重新审视自身的体现:人类的理性和思辨、人类的感性和想象以及人与人交流之间的有趣和生动,重返人类主体性意义的讨论的价值也在于此。在人类的价值和意义中,关于爱、责任、使命、信任、忠诚等属于人类的美好情感、伦理和道德基因,以及由此激发出的人性中正义、良善、牺牲和奉献等精神,并建立的人类的“共通感”,或许可以成为人类连接起来的某种强大的力量,而这些也会成为人类相互感知和理解最重要的部分。
A Reflection on Human-Machine Communication and the Issue of Subjectivity Based on “Understanding” in ChatGPT
WANG Xin
(College of Arts amp; Media,Tongji University,Shanghai 201804,China)
Abstract:The reliability,commonality,and explicability of understanding are ideal states in human-computer communication.ChatGPT,as an artificial intelligence-driven natural language processing tool,approaches these states in terms of intelligence.Exploring the issue of understanding in human-computer communication aims to reveal the hidden pursuit of self-security and expectations of reliability in human-computer relationships,as well as the subjectivity of individuals in the context of human-computer symbiosis.This research discusses the “finitude” in the communication between ChatGPT and humans from the perspectives of effective history and embodied cognition,especially the “history-body-emotion” aspects.However,it remains a challenge to eliminate the differences brought about by AI when exploring the contrast between carbon-based and silicon-based life,and the “substitutability anxiety” once again raises questions about subjectivity in the human-computer symbiotic world.Revisiting the issue of human subjectivity,this study considers the extent to which humans can be replaced by artificial intelligence and its time thresholds.Its significance lies in the ability of the individual to exist within the overall human-computer society and to live out one’s facticity.
Key words:understanding;ChatGPT;human-machine communication;subjectivity