权力的解构与强化:ChatGPT重建知识生产秩序

2024-04-29 00:44:03王婷瑜张新俏杜智涛
数字出版研究 2024年1期
关键词:知识生产人工智能

王婷瑜 张新俏 杜智涛

摘 要:以ChatGPT为代表的生成式AI自诞生以来便挑战着传统的知识生产秩序,引发了对智能传播时代知识生产秩序与边界的现实诘问和其背后知识权力的省思。在此基础上,有必要进一步澄清生成式AI面向数据、算法的知识生产逻辑。作为参与社会建构的知识生产代理,ChatGPT通过去中心化的知识供给,打破了“知识资本”的垄断趋势,间接推动了知识权力的多元与平衡。同时,ChatGPT的价值对齐可能受到隐匿价值观和现有权力结构的影响,从而进一步强化技术平台的生产性权力。此外,基于大数据语言模型所生产的普遍知识使地方性知识面临危机,增加知识泛化和泡沫化的风险。个人和社会在面对这场知识变革中应采取积极的应对策略,利用ChatGPT实现知识生产的新突破。

关键词:ChatGPT;知识权力;知识生产;人工智能;知识革命

DOI: 10.3969/j.issn.2097-1869.2024.01.006 文献标识码:A

著录格式:王婷瑜,张新俏,杜智涛.权力的解构与强化:ChatGPT重建知识生产秩序[J].数字出版研究,2024,3(1):43-50.

如今人工智能技术在各个领域展现着其强大的创新潜力,在知识生产和传播领域中,ChatGPT作为一种新兴的人工智能技术,自诞生以来便对传统的知识生产秩序发起了冲击和挑战,同时也提供了重建的可能。

ChatGPT是由Open AI推出的一种基于深度学习的自然语言处理模型,作为生成式AI在对话生成领域的应用,它采用了GPT(Generative Pre-trained Transformer)的架构,随着背后深度神经网络和海量预训练模型的技术突破,ChatGPT具备了理解和生成文本的能力,能够模仿人类的对话方式,实现与用户的交互。ChatGPT的能力与边界是目前学界热议的话题,人工智能发展至今对传统知识生产秩序的改变已是无可争议的事实,在讨论知识生产秩序之外,ChatGPT等对话生成模型的出现对知识权力分配的影响同样值得关注。知识生产秩序对知识权力的塑造和反作用不仅影响着大众对知识的获取和理解,同时还塑造着社会的认知与意识形态,ChatGPT的诞生与应用对二者及其作用关系产生了一定影响。本文将在传播学视域下,讨论ChatGPT引发的变革,深入理解新技术环境下知识生产与知识权力的解构与重构。

1 知识生产的复杂性:从知识内容到生产方式的再讨论

随着人工智能技术的迅速发展,AI在知识生产领域中发挥着越来越重要的作用。其中,ChatGPT作为一项具有代表性的技术工具,帮助知识生产实现新的突破,重新定义了知识的边界和秩序,为知识的获取和应用带来新的机遇和挑战。

1.1 AI的知识生产:算法与数据的优化更新

ChatGPT是生成式AI的一种应用,生成式AI是实现AIGC(Artificial General Intelligence Challenge)的重要技术路径之一。具体来说,自20世纪50年代图灵提出“机器能像人一样思考吗?”这一问题至今,AI经历了专家系统、神经网络、深度学习和预训练模型等多个里程碑式的重要节点。20世纪80至90年代,在递归神经网络(Recursive Neural Network,RNN)和深度卷积神经网络(Convolutional Neural Networks,CNN)的基础上,生成式AI技术出现,随着深度学习的兴起,生成式AI得到重大推进和发展,能够生成更加连贯自然的文本、图像等。2015年,Open AI推出了第一个GPT模型,将预训练和生成式AI相结合。随后几年,GPT模型不断被改进,使用大规模的预训练数据和自注意力机制,具备了在多个任务上生成自然语言文本的能力。ChatGPT是在GPT-3的模型基础上针对对话生成任务进行微调和改进的具体应用。尽管ChatGPT作为生成式AI已经取得了巨大的突破和进展,但它依然存在局限性,理解和推理能力仍然有限,离AIGC的真正实现仍有一段距离。

ChatGPT作为一种具有革命意义的知识生产工具,依靠算力、算法和大数据这三项关键要素,提升了人类知识生产的效率[1]。算法作为知识生产的引擎,指导着数据的处理和转化,是推动知识创造的关键因素。在Transformer的深度学习模型框架下,算法的优化和改进使ChatGPT具备了更强的理解和逻辑推理能力,可以带来更准确和连贯的回答。强大的算力保证了模型的性能和效果,加快了响应速度。在人工智能时代,数据是内容输出的基石。ChatGPT通过大规模数据的预训练,不断优化自身,使其能够更好地理解用户输入并生成更有深度的回应。从GPT模型迭代训练公开的数据量来看,2018年6月发布的初代模型由1.17亿参数训练而成,GPT-2、GPT-3的语言模型的训练参数分别为15亿和1 750亿,在此基础上继续迭代的语言模型会有更庞大的数据量作为支撑。

在AI的知识生产中,算法与数据的交互更新是至关重要的。算法与数据之间形成了一个循环的优化过程。用户输入驱动着算法模型通过处理数据生成新的内容,而对这些内容的反馈又用于改善算法的性能,不断改进其知识模型对用户输入的理解和回应。在此基础上,ChatGPT等AI产品对知识生产产生了显著的影响,大语言模型(Large Language Model,LLM)加速了知识的诞生,通过模拟预测提供了新知识生产的渠道和方法。知识生产和知识生产秩序二者相互作用,共同推动知识的发展和应用,为人类进步和社会发展提供重要支撑。

1.2 基于数据的知识:ChatGPT对知识边界的探索

在讨论ChatGPT对知识生产秩序的影响之前,我们首先明确ChatGPT所提供的回答内容与知识的关系。长期以来,知识一直是哲学认识论领域中的重要概念。在古典西方哲学中,柏拉图将知识定义为得到确证的真信念(Justified True Belief,JTB),亚里士多德则认为知识是从具体事物中归纳出的普遍原理[2]。随着科学方法和现代哲学的发展,学界对知识定义的研究变得更加深入和系统,但至今仍未达成共识。美国社会学家彼得·伯格(Peter Burke)认为信息经过处理、分类、批判和系统化后形成了知识[3]。结合他的论述,知识可以理解为信息理解、内化和应用的结果,是个体或群体对现实世界的认知,包括可感知的经验知识和经过抽象的理论知识,知识既可以被表达和传播,也可以作为默会的实践经验独立存在[4]

从知识的定义出发,ChatGPT提供的回答并不完全属于知识。ChatGPT生成的内容是基于“概率”的自然语言处理内容和基于“反馈”机制的自然语言训练成果[5]。其训练语料来源广泛,其中一部分是互联网海量的信息文本。例如:论坛帖子、新闻文章、社交媒体中的内容,但这部分内容是否能被看作知识还存在争议。同时,ChatGPT提供的部分信息是混杂的,存在噪音和谬误。在Open AI发布的报告中显示,GPT模型所生成的内容可能存在“Hallucinations”。Hallucinations在朗文当代高级英语辞典中的解释为幻觉,由幻觉产生的形象,是对非客观存在事物的主观感知体验。有学者将其概括为“臆造”,即凭意想编造[6]。有研究通过认知反思测试发现大模型LLMs有可能产生微妙的错误,这些错误很难被发现并且可以流畅地融入到对话中[7]。当然,ChatGPT对知识生产具有一定的能动性。例如:在自然语言处理(Natural Language Processing,NLP)领域,GPT-3已经展现出令人惊讶的创作能力,基于深度学习创作诗歌、编写文章,甚至生成代码,而这些都没有在它的原始训练数据或程序中被明确指定。一些期刊和出版商已经将ChatGPT视为合法的作者。抛开AI作者身份所涉及的责任和伦理问题,AI在知识生产领域确实开始扮演生产者的角色。可以确定的是,ChatGPT作为应用工具,不仅帮助了更多的用户获取知识,也提高了知识边界拓展的可能性,是当前技术背景下新的知识生产工具,参与到知识生产当中。

知识生产秩序是一套完整的规则,主要由教育系统和评价系统构成,用于引导和约束知识的产生、传播和应用,知识生产秩序的存在确保了知识的可靠性和持续性,也促进了知识的共享、突破与创新,同时对人类社会的其他秩序产生支撑作用[8]。随着ChatGPT逐步参与知识生产,现有的知识生产秩序也随之产生一定的变动。

ChatGPT对知识秩序产生的影响主要在于去中心化和去权威性。ChatGPT为用户提供了新的获取知识的方式,减少了人们对传统知识获取途径的依赖程度,丰富了知识获取的途径。平民化的知识分享降低了知识获取的门槛,用户无需具备专业背景或付费获取资源,仅通过与模型对话便可获得知识,个体和非权威的声音得到了更广泛的传播。ChatGPT对原有知识生产秩序中以专家和学者为中心的模式发起了挑战,一定程度上解构了现有的知识权力结构,知识不再受限于传统权威的框架,同时也减少了信息的过滤和选择的中介环节。

2 作为社会建构的力量:ChatGPT与知识权力

知识对社会结构、价值观念和行为模式具有塑造和影响的能力。从知识权力的视角出发,ChatGPT的应用打破了一些现有的知识秩序,但也强化了知识权力的负面效应。一方面,ChatGPT通过去中心化的方式,让更多人参与到知识的获取和生产中;另一方面,ChatGPT通过价值对齐进一步强化了已有的主流知识,是生产性权力的再表达。基于大数据的语言模型不仅阻碍了地方性知识的传播,也存在使知识泛化和泡沫化的风险。

2.1 知识权力的再配置:“知识资本”的垄断与消解

ChatGPT作为人工智能语言模型,既是技术进步和社会变革的产物,也是知识生产的辅助工具,尽管在现代的技术背景下,人们通常会认为代表科学的知识是中立、客观且权威的。但从知识史的视角出发,知识之间并不平等,知识存在于秩序和权力当中。讨论知识生产秩序的议题绕不开对知识权力的理解和分析。

知识与权力关系的普遍化反思源于福柯(Michel Foucault),他曾断言:权力的运作不断地制造出知识,反过来知识又引发权力,产生新的效用[9-10]。即知识可以理解为一种权力关系的产物。在传统的知识生产中,有一些个人、团体或机构(如教会、国家和大学等)是知识生产的核心,他们拥有将某些知识权威化或拒斥某些知识的能力,他们定义了哪些思想是正统或异端、有用或无用,定义了什么才算得上知识或科学[11]。正如福柯所言,“每一个社会都有自己的一套‘真理的制度”,并将其定义为“知识的秩序”[10]。知识的秩序往往将知识分为主流知识和非主流知识,后者常被视为不入流的异端。这类知识间的歧视和压制随着社会的发展不再成为主流的论调,但依然存在。ChatGPT在此情境中的确打破了原有的壁垒,掌握着某些特定领域知识的专门人士,无不希望保留自己的“知识资本”,试图将某些特定知识限制在成员圈子之内,以巩固自身的权威性,ChatGPT的出现对他们而言无疑是巨大的冲击。在此过程中,ChatGPT作为AI时代的工具代表,较之传统互联网搜索引擎,实现了进一步的迭代更新。它提供了更为个性化和交互性的知识服务,将单向的问答变为双向的对话互动,更高效地辅助用户实现知识的吸收和创造,甚至可以作为用户的灵感来源,提供个性化的创意思路,更快速地打破原有的知识壁垒。

尽管自然科学家往往声称知识具有普遍性,但获得知识的却只是少数人。在现实社会中知识的获取与应用对权力的分布维持发挥着重要作用,ChatGPT在知识生产方面的作用可以被视作知识权力的再配置,打破了传统的集中式权力结构,一定程度解构了现有的知识生产秩序。知识是一种社会建构的力量,具有知识的人或组织可以通过向他人提供知识来影响和塑造他人的思想、行为和决策。ChatGPT通过开放和高效的知识表达,赋予了更多人获取和生产知识的能力,一定程度上打破了知识的垄断,促进知识的民主化和多样化。

此外,ChatGPT也间接推动了知识权力的多元与平衡。拉图尔(Bruno Latour)提出的代理人网络(Actor-Network Theory,ANT)理论中强调所有的实体,无论是人、技术还是物体都可以视作网络中的“代理人”[12]。ChatGPT在此理论背景下可以被视作知识生产的代理人,接收用户提问并产生回应,作为代理人节点的ChatGPT也与其他代理人(如学者、教师、作家等)存在直接的互动。根据ANT观点,知识权力并非单一个体所拥有,而是在互动中不断加强形成的,在ChatGPT产生互动的过程中,它们共同构成了一个复杂的代理人网络,其中用户的选择和批判性质疑对ChatGPT的回答进行了评估和补充,避免了对单一、权威观点的依赖,间接参与了知识权力的塑造,减少了知识权力的集中效应。从上述内容中不难看出,作为技术工具参与到知识生产过程中的ChatGPT有解构当下知识生产秩序的能力,并在此过程中发挥了一定的作用。

2.2 隐匿的知识强化:对齐功能下的权力渗透

ChatGPT在不加干预的理想状态中的确重构了知识生产秩序,打破了知识垄断的困境,但在实际运用中,大语言模型为了规避可能出现的社会伦理风险,会提前进行人工智能对齐(AI Alignment)。对齐功能的存在是为了避免超过人类知识水平的AI代理形成自己的价值和目标,对人类权利和生存造成危害。具体而言,现在构建的智能产品不是纯粹的智能,而是与人类价值对齐的智能,AI对齐对内指系统内自我优化,保证内容的生产与用户意图和上下文相匹配和协调;对外指AI要匹配设计者根据人类价值设计的训练目标。而对齐功能的产生和运用与知识权力也有着密不可分的关系,对齐了人类价值观的AI同样可以规范、塑造和控制个体。

正如福柯的权力谱系学中所强调的[10],当代社会的权力施展不再是压制性的,而是生产性的,这种权力通过社会机制、规范和知识的传播和应用,塑造了个体的行为和思维方式,潜移默化地将个体引导至符合社会期望和社会规范的行为规范当中,个体在被规训的过程中实现了权力的效果。在规范化个体的行为和认知方面,经过对齐的ChatGPT成为权力渗透的一部分。福柯认为权力不仅存在于政治制度和权威当中,也贯穿于社会的各个层面和关系,权力在个体之间建立了复杂的微观权力网络。ChatGPT被训练和塑造为符合人类价值观的语言模型,有助于维护社会的权威性和稳定性。如此,ChatGPT是生产性权力发挥作用的一条新路径,进一步加强了知识权力的渗透。知识是主客观的综合体,难以独立于现实存在,ChatGPT作为科技公司推出的AI产品,训练数据难以做到完全、全面、客观,而是在与人类价值观匹配过程中进行对峙和选择,并通过提供信息和知识规范塑造用户的认知。

Langdon Winner曾批判技术决策的中立性观点,认为技术的设计和适应都受到隐藏的价值观和权力结构的影响,技术嵌入了社会结构和权力关系,并强调技术决策的制定者和受用者之间也存在权力的不平等[13]。因此,ChatGPT的开发者、使用者和受益者之间也存在权力的博弈和权衡,尤其是在大语言模型中数据集和训练算法的选择很可能存在着创作者的偏见和意识形态问题,对于使用者来说,模型对话和输出的过程类似于黑箱,并不能完全了解,缺乏可控性。同时,Winner也在书中提到,某些技术一旦拥有自主性,随着它们摆脱人类的直接控制会产生深远的政治后果,技术失控会造成不可预估的风险,技术决策在此过程中发挥着重要的作用。由此可见,无论是对ChatGPT的对齐调试,还是对其功能进行的限制都是必不可少的环节。至于其中涉及的技术与权力的关系及批判性思考,随着技术的进一步更新迭代,未来学界还需要针对此进行更深入的研究探讨。

2.3 知识的不平等与泡沫化:以人为尺度的知识隐忧

在知识史的视角下,对知识的研究应置于“语境”之中。曼海姆(Karl Mannheim)将知识描述为与日常生活紧密联系,并处于特定的时间、地域和环境当中。而后的学者对“情境”的研究又进一步扩充,并研究知识产生的场所,培根(Bacon)将其称之为知识的“坐席”。此外,学者斯科特(James C. Scott)在《国家的视角》一书中探讨了国家权力和社会知识之间的关系,对普遍的“非语境化知识”提出批判,非语境化知识是一种剥离了具体和实践情境的抽象知识。斯科特认为这种所谓的普遍知识会让视野愈发狭隘,这些经过批量标准化处理的知识,往往显得过于抽象和简化,忽略了个体和地方的复杂性,他主张人们应更多地关注非正式知识、民间智慧和地方性实践知识[3]。得到广泛关注的普遍知识通常被权威机构定义和认可,通过教育体系、大众媒体、科研机构等方式传播,具有较高的传播力和影响力,逐渐成为主流;而地方性、非正式知识等却因受众和渠道的限制被边缘化,知识间存在不平等。具体而言,并非所有知识都能被ChatGPT学习和呈现,在ChatGPT的语料库中,接入互联网地区的地方性知识远多于未接入互联网地区的地方性知识。尤其是在全球化日益推进的今天,地方性的知识面临着新的危机,例如许多地方性语言随着通用语言的普及被迫消亡。

ChatGPT虽然可以提供广泛的信息和知识,但在特定领域的情景知识方面存在一定的缺陷,尤其是基于海量文本训练的大语言模型,在对一些问题做出回答时更倾向给出基于平均化的答案,同时,它也可能无法完全理解问题的上下文和特殊语境,以至于无法更清楚地给出可应用的情景知识,产生过于泛化和抽象的回答。对ChatGPT关于情景知识的隐忧一方面来源于经过模型输出的信息可能会使用户对知识的理解愈发抽象化、概念化,地方性知识进一步消弭;另一方面,ChatGPT目前无法直接表达来源于实践的、隐性的和经验性的知识,那些没有用语言表达出来的知识很难被记录,在知识研究中时常容易被忽略,ChatGPT缺乏学习此类信息知识的渠道。随着AI的进一步普及,这类知识会显得愈加沉默。

此外,在ChatGPT带来知识革命的同时,我们也被迫陷入了一个知识泡沫的时代。ChatGPT加速了人类知识生产的进程,快速而丰富的知识生产不仅会造成知识膨胀,也会引发用户的知识焦虑。人类的历史可视作“集体性知识”的历史,人类文明演进的过程得益于知识的传承与演化。从胜利主义的视角出发,人类随着历史的发展掌握了越来越多的信息、知识和理论,在知识渐进的过程中,知识传播的范围也愈发广泛。然而,知识的增长是有代价的,AI技术的进步可以使大量的信息和数据快速生成、储存和传播,但信息的泛化会让用户更难有效地处理和应用信息,大量未加工信息的积累速度远快于被处理并转化为知识的速度,造成了主体信息过载的困扰。从历史发展的脉络来看,今天的人类在总体上相较于过去,拥有、掌握着更加丰富的知识;但就个体而言,人的记忆和学习水平并没有出现跨越式的增长,是否掌握了更多的知识这一点还有待商榷,而知识过载也让人们在获取、处理和记忆有效信息时变得更加困惑甚至成为负担,信息的有效利用和深入理解变得更加困难。

3 知识化生存:AI时代的挑战与策略

ChatGPT及更多AI代理人的出现势必会对知识的现有秩序产生冲击,正如知识的秩序在历史的发展中随着语言、文字、广播、新媒体的变迁而逐渐转型。媒介之间依然存在竞争,媒介技术学派的英尼斯(Innis)认为:每一种传播的媒介都试图建立知识的垄断,但构成平衡的是,这种垄断在与其他新媒介产生的竞争中不堪一击,人类的知识与精神在时间的沉淀下不断突破创新[14]。因此,在某个地域和历史阶段中,知识的秩序由占主流地位的传播方式决定,任何一种新媒介的产生也非直接代替原有的媒介形式,而是在长时期内共存和博弈。ChatGPT作为语言模型也是一种新的媒介形式,不少学者曾预言AI将成为一种终极媒体,ChatGPT是基于AI的媒介,具体能发挥什么作用,对社会产生何种影响与伦理隐私问题,还需要进一步探讨和分析。在面对这场由ChatGPT掀起的新的知识革命时,无论是个体还是社会,都应以积极的心态应对这场变革。

3.1 个人视角:以批判性思维立足时代

ChatGPT作为一个高效的知识工具,提供了用户所需的信息和答案,从知识获取和知识生产的角度来看,ChatGPT等AI产品的出现从形式上进一步打破了知识垄断,实际上却对用户的批判性思维和知识储备量提出了更高的要求。用户可以通过工具来获取可以解决未知问题的信息,但无法通过工具让自己知道“自己还不知道什么”的问题。关于技术工具带来的发展和困境,个体可以考虑从以下几个方面应对:

首先,用户对ChatGPT给出的回答应保持一定的批判性,ChatGPT囿于自身的算法会产生一些看似真实但实则错误的信息内容,它的训练依赖于大量数据,一旦训练数据中存在系统性的偏见和错误,模型将会学习并持续输出这些问题。ChatGPT拥有强大的自然语言处理能力,但它目前不完全具备验证生成内容准确性的能力,还是需要人类的监督和审查,不断对系统进行调试修正。因此,用户对ChatGPT提供的内容还是应该保持质疑和警惕,意识到其并非完全客观、准确的知识源,应保持独立思考的能力,对回答进行验证评估而非轻易盲从。

其次,用户需加强信息素养,全面了解数据安全。在AI时代,个体不仅需要了解人工智能的基本概念、工作原理和技术局限性,以此来评估信息来源和可靠性。同时也需要学会验证和提问,尝试用不同的问题和角度来测试回答的一致性和合理性。

此外,在社会建构主义的视角中,ChatGPT在与用户交互的过程中相互建构对信息的理解,并与其他个体共同生产和分享知识。在分享互动的过程中,个体不仅要充分认识到生成内容来源受多种因素影响,也要积极参与到信息的补充和验证当中,丰富知识的社会化生产。

另外,加强自身的信息素养,能够提升用户自主评估和选择接收信息的能力,是反抗知识权力支配的具体方式。用户也要注意保护数据隐私安全,ChatGPT通过数据样本进行学习,用户向其输入信息时要注意避免透露敏感信息,以防信息外泄。

3.2 社会层面:鼓励发展与监督治理并行

在社会层面上,ChatGPT的出现带来了许多机会和挑战。在用户和模型交互的过程中,传统的知识生产秩序和知识传播模式受到了不小的挑战,ChatGPT的出现一定程度上意味着知识生产的权力逐渐向技术和算法倾斜。什么样的信息可以被生产和传递?知识的挖掘和表达皆由算法模型决定,知识权力形式上的分散难以掩盖可能出现的权力强化和知识控制。ChatGPT的出现改变了知识生产和权力的现有格局,需要综合性的政策、法律和教育措施来应对这些变革,以确保它能对社会产生更积极的影响。

一方面,在技术方面要推进AI的透明性和可解释性,ChatGPT的训练过程涉及数百亿个参数的调整,这些参数在模型的多层网络中相互作用,最终形成输出的内容。虽然用户可以看到模型的输入和输出,但不能直接看到或理解这个过程中发生的具体计算,以至于在使用的过程中产生质疑和担忧。因此,在确保训练模型多样化的同时,也要推动模型的透明度,使更多的用户能够理解模型的运作模式。

另一方面,要加强对AI的监管和问责机制。由于法律的制度存在一定的滞后性,相关机构务必加强对新兴技术可能带来风险的监管。制定严格的数据隐私政策,从法律层面规范信息数据的使用尺度,政府和监管机构要确保ChatGPT的使用遵循道德准则和规范,建立包括政府、学界、业界和公民社会在内的多元化治理机构,共同参与监督和治理,注重提升公众的信息素养,加强他们对信息鉴别的能力。

此外,ChatGPT的出现可能会进一步加深数字鸿沟,各地区数字资源不平等和媒介素养参差不齐是实现知识均衡分配的巨大阻力。具体而言,ChatGPT作为一种在线的工具模型,存在一定的使用壁垒。ChatGPT的使用建立在接入互联网和使用合适的技术基础上,并非人人都能有机会感受到技术的应用革新。同时,ChatGPT在不同的语言和文化中表现会有所不同,某些群体可能无法获得同等的信息和资源。解决这些困境和压力,不仅需要ChatGPT的技术端考虑到全球不同的文化背景和社会需求,还需要政府相关部门和国际组织加强资源的投入,保证数字资源的覆盖应用,并制定相应的政策和措施,促进知识生产的多样性和包容性,尽可能弥合智能时代的新数字鸿沟。

4 结语

在AI时代,知识作为历久弥新的议题变得更加重要和复杂,知识的产生、传播和应用模式随着AI技术的快速发展而发生变革。知识的价值不仅在于创造和积累,还在于如何将其与人工智能相结合,使其发挥更大的作用。ChatGPT的诞生与应用在知识领域引发了新的探索和机遇,也带来了意想不到的风险与冲击。如何利用ChatGPT获得更多的知识,并使其作为辅助工具,帮助人们创造新的知识,促进跨学科和跨领域的创新,是未来值得深入讨论的方向。

在知识权力的分配和知识生产秩序的塑造中,新技术也实现了一定程度的解构和重建。但从知识权力的视角出发,无论是现有的知识权威和知识垄断,还是由于技术算法所导致的数据偏见,ChatGPT目前都无法有效规避。在知识生产和推广的过程中,ChatGPT作为一个技术工具,在背后对齐功能的影响下,进一步加深了知识渗透,尽管它从形式上解构了现有的知识生产秩序,但实际上可能继续强化现有的生产性知识权力。面对这些问题时,个人和社会都要发挥创新和积极的策略来应对这场由技术发展带来的知识革命,正视ChatGPT带来的机遇和困境,提升个人的批判性思维,学会思考和甄别,同时在社会层面也要继续推动模型的发展迭代,加强与AI相关的教育和培训,使ChatGPT真正成为人类的知识发展的推动力量,促进知识社会的可持续发展。

作者简介

王婷瑜,女,中国社会科学院大学新闻传播学院硕士研究生,中国社会科学院大学新媒体研究中心研究助理。研究方向:知识传播。

张新俏,女,中国社会科学院大学新闻传播学院硕士研究生,中国社会科学院大学新媒体研究中心研究助理。研究方向:知识传播。

杜智涛,男,博士,中国社会科学院大学新闻传播学院教授,中国社会科学院大学新媒体研究中心执行主任。研究方向:知识传播。

参考文献

[1]朱光辉,王喜文.ChatGPT的运行模式、关键技术及未来图景[J].新疆师范大学学报(哲学社会科学版),2023,44(4):113-122.

[2]撒穆尔·伊诺克·斯通普夫,詹姆斯·菲泽.西方哲学史[M].邓晓芒,匡宏,等译.北京:北京联合出版公司,2019:48-49,74.

[3]彼得·伯克.什么是知识史[M].章可,译.北京:北京大学出版社,2023:8-10,51,157.

[4]赵如涵.媒介演进中的知识重构与认识论变革[J].新闻与写作,2023,(10):12-22.

[5]邓建国.概率与反馈:ChatGPT的智能原理与人机内容共创[J].南京社会科学,2023(3):86-94,142.

[6]WAYNE XIN Z, KUN Z, JUNYI L,et al. A survey of large language models[J].arXiv, 2023(3):18223.

[7]HAGENDORFF T,FABI S,KOSINSKI M.Thinking fast and slow in large language models[J]. Nature Computational Science, 2023,3(10): 833-838.

[8]高奇琦.知识革命还是知识堕化:ChatGPT与知识生成秩序[J].中国社会科学评价,2023(2):8-13.

[9]夏益群,蒋天平.权力的力量:福柯思想的解构之维[J].求索,2009(5):96-98.

[10]MICHEL F. Power/Knowledge:Selected interviews and other writings 1972-1977[M]. New York: Pantheon Books,1980:52,194-228.

[11]PETER B. A social history of knowledge: Volume 2[M]. London: Cambridge University Press,2012:151-159.

[12]王前,陈佳.“行动者网络理论”的机体哲学解读[J].东北大学学报(社会科学版),2019,(1):1-7.

[13]WINNER L. The whale and the reactor: A search for limits in an age of high technology[M]. Illinois: The University of Chicago Press,1980.

[14]哈罗德·英尼斯.帝国与传播[M].何道宽,译.北京:中国大百科全书出版社,2021:129-135.

Deconstruction and Reinforcement of Power: ChatGPT Rebuilding the Order of Knowledge Production

WANG Tingyu1,2, ZHANG Xinqiao1,2, DU Zhitao1,2

1. School of Journalism and Communication,  University of Chinese Academy of Social Sciences, 102448, Beijing, China; 2. New Media Research Centre, University of Chinese Academy of Social Sciences, 102401, Beijing, China

Abstract: Generative AI represented by ChatGPT has challenged traditional knowledge production order, triggering a realistic questioning of the order and boundaries of knowledge production in the era of intelligent communication and a rethinking of hidden knowledge power. On this basis, it is necessary to further clarify the knowledge production logic of generative AI oriented to data and algorithms. As a knowledge production agent participating in social construction, ChatGPT broke the monopoly trend of “knowledge capital” through decentralized knowledge supply, and indirectly promoted the richness and balance of knowledge power. At the same time, the value alignment of ChatGPT may be influenced by hidden values and existing power structures, thus further strengthening the productive power of technology platforms. In addition, universal knowledge produced by large language models put local knowledge at risk and increased the risk of knowledge generalization and bubbling. Individuals and societies should adopt proactive coping strategies in the face of this knowledge revolution and make use of ChatGPT to achieve breakthroughs in knowledge production.

Keywords: ChatGPT; Knowledge power; Knowledge production; Artificial intelligence; Knowledge revolution

*基金项目:国家社会科学基金国家应急管理体系建设研究专项“重大突发事件中知识传播对社会共识的作用机制研究”(项目编号:20VYJ014)阶段性成果。

猜你喜欢
知识生产人工智能
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
ERP管理咨询人才培养的知识生产实践
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
知识的革命
现代出版(2015年5期)2016-02-22 23:16:49
基于协同创新的高校内部治理变革
高教探索(2015年4期)2015-04-29 03:31:37