王英明 汪怀君
摘 要:ChatGPT的出现使得社会伦理价值面临诸多风险。其通过抽象描述与高度符号化信息,描摹人的思考、决策、行动、反馈过程,使人的思想、情感、价值选择犹如数字化的虚拟镜像,进而使传统的信任机制、协同方式与行动模式被颠覆。ChatGPT在深度学习时,造成“不知情同意”,侵犯用户隐私,强化心理偏见;存在“无意识”价值,延伸出道德、公平、效率、秩序等意识形态偏差,形成价值误导;迈向后人类时代,技术对人的身体进行重塑,技术即人体,造成人与技术边界模糊。为规避上述风险,必须树立“数字人权”的立法理念,明确伦理风险的边界;建立对话的道德准则,遵循基本道德原则和价值观;加强行业监管与监督,提高公众的应用素养。
关键词:ChatGPT;数字镜像;伦理风险;数字人权
中图分类号:TP18
文献标志码:A 文章编号:1002-7408(2023)07-0108-06
基金项目:中央高校基本科研业务费专项资金资助项目“数字时代的资本主义新变化研究”(22CX04023B)阶段性成果。
作者简介:王英明(1999—),男,山东潍坊人,中国石油大学(华东)马克思主义学院辅导员,硕士,研究方向:思想政治教育与技术伦理风险;汪怀君(1978—),女,山东临清人,中国石油大学(华东)马克思主义学院教授,博士生导师,哲学博士,入选山东省“理论人才”百人工程,研究方向:科技伦理、社会伦理。
ChatGPT是基于大型通用语言模型进行自然语言对话的聊天机器人,通过多模态深度学习、仿真模拟与超级算法技术手段,模拟人类对话特征,处理复杂语言结构,描摹现实场景。ChatGPT基于生成式学习,分析海量数据,像人一样思考、说话、交流。作为贴近生活、使用便捷的数字社交工具,它迅速被社会公众认可,并被广泛应用到公文写作、外文翻译、心理教育、决策咨询等相关领域。ChatGPT突破时间跨度、空间广度、物种边界,帮助人类开拓视野,提供智慧启迪,提升能力素养。由此,新技术在助力语言交流、为人类提供便利的同时,改变了传统话语交流体系,职业群体、行业逻辑与社会规则出现技术性颠覆。正如马克思在《德意志意识形态》中所言:“甚至人们头脑中的模糊幻象也是他们的可以通过经验来确认的,与物质前提相联系的物质生活过程的必然升华物。因此,道德、宗教、形而上学和其他意识形态,以及与它们相适应的意识形式便不再保留独立性的外观了。”[1]尤其在人机深度融合过程中,人与机器边界模糊,在隐私保护、责任判定、意识形态等方面产生诸多问题,使得社会伦理面临诸多风险。鉴于此,亟须剖析ChatGPT在人类社会的应用现状,分析技术对人类发展形成的伦理风险,并深入探讨规避风险的具体路径,搭建符合社会伦理标准的技术框架,完善語言对话的行业监管与监督体系,进而拓展人工智能伦理风险问题的研究边界。
一、ChatGPT与人类社会深度融合的趋势与特征
ChatGPT与人类社会深度融合,在物理技术、身体延展、主体重构等方面发挥着重大作用。技术的跨越式发展引发人类社会行业巨变,各国争相准备新一轮科技竞赛。那么,ChatGPT是否会取代劳动者?人类是否会被淘汰?人工智能是否会取代人类?实际上,人与技术的关系远非几句论述可以概括,但机器与人类的融合不外乎以下三个层次:数字技术增强人体生理素质,延伸人类身体行为的物理上限;深度模拟人体,形成人机情感共生的数字镜像,提供定制决策;唤起新一轮生产方式革命,加速人类主体重构,推动迈向后人类时代。
(一)物理增强:ChatGPT拓展人类技能
《自然》杂志在线调研显示,约80%以上用户使用过ChatGPT,8%的用户每周至少使用一次。57%的人表示他们使用ChatGPT或类似工具是为了“与无关研究的创意乐趣”,16%的人把它作为撰写研究手稿、制作演示文稿的私人助手[2]。技术介入人类生活,使生活更加便捷,机器代替人脑,从事一些简单重复性的工作。更为重要的是,技术使人体实现生理机能的跨越,延展人类对于时间及空间认知,如人体知觉、认知能力、行动能力、心理能力,技术使人类超越自己的身体限度成为可能。一方面,ChatGPT能够延伸时间认知长度,提升时间持续利用率。例如ChatGPT可以协助一些办公室助理、科研秘书等整理素材、提供方案,完成重要工作的前置任务。ChatGPT还能通过技术再现人类历史案例与现实情境,整合文字、音频、视频等碎片化信息,立体化呈现身体所不能跨越的数字圈层,拓宽物理行为边界。谷歌姊妹公司DeepMind发表在《Science》杂志的研究结果表明,人工智能系统在代码竞赛中击败了大约一半的人类,能够代替人类从事一些简单的代码撰写工作[3]。计算机生物学家凯西·格林和米尔顿·皮维多里曾做过ChatGPT的科研实验。在实验中,ChatGPT在几秒内完成了论文各部分修改,手稿审阅速度为5分钟/次,甚至可以发现方程引用错误,消耗成本仅在0.5美元/份[4]。另一方面,ChatGPT能够延展空间维度,增强情感价值。ChatGPT以强大技术面向社会空间,实现空间领域的分配与再延展。它能实现隐蔽空间的再利用,以数字模拟方式进入物理人体难以介入的环境,诸如情感分析、空间力场、网络形态等。ChatGPT已经成为与谷歌、必应、百度并驾齐驱的第四大搜索引擎,从而建立起一种依赖与信任机制[5]。它虽然不能直接提供人类理性、情感价值与判断尺度,但可以释放心理健康支持系统潜能,与聊天对象深入对话,提供合理建议,增强非专家心理健康对话能力,实现人类情感价值的正向增长,释放资源,缓解心理健康危机。此外,ChatGPT还能链接人与技术的意识想象空间。在诸多新兴领域,实现许多人与技术融合的意识奇点,诸如小说、电影、游戏里的科幻情节也逐步成为人与技术的桥梁,生产大量科技作品,实现文字创新,开拓新的想象空间。
(二)价值镜像:ChatGPT与人类的情感交流
智能技术在发展过程中,应用场景从单一走向多元,从沉默走向对话,从被动走向自动。在技术迭代下,ChatGPT逐步在医疗、心理、法律、科研、文学、计算机等领域实现人机互动。机器借助数字符号绘制人体画像,还原人类学习过程,模仿人类行为,试图理解人类情感。人与机器的深度融合,是互相嵌入的数字符号与实体神经网络,人类通过嵌套数字,形成对照客体。机器所表现的话语逻辑、数字体态、虚拟情境,犹如高度抽象化、符号化的感官透视“镜像”,协助人类超越镜像中的自己。
其一,行为模仿是深度交流的物理基础。在人类物理运动的基础上,人工智能模仿人类行为,执行简单的物理劳动指令,甚至用机器配合人类行动,完成国家公共安全任务。例如,美国军方、消防、警察等部门正考虑在救援任务中使用机器人机械狗。机器人机械狗能够在某些方面模仿人类行为,实际上就是人类行动“镜像”的体现。在复杂情况下,机器人“镜像”可以代替人类完成危险系数较高、消耗成本较大的重要任务,也会代替人类完成简单的重复性工作。例如,波士顿动力公司专门为仓库自动化设计了 Stretch 机器人,并且开发四足机器人机械狗配合人类行动。在测试中,如果在空心机身中装配传感器和摄像头,机器人机械狗就可以胜任跟随、巡逻、搜索等任务,模拟人类行为并向用户提供对话选项。
其二,情感镜像是深度交流的价值基础。ChatGPT通过理解人类语言、解析人类真实需求、弥补感情空缺,在某种程度上成为人类负面情绪宣泄的场所以及人的精神寄托,并使人对其产生依赖。ChatGPT依靠强大的分析系统,能够帮助人类分析面临的客观环境与现实境遇,犹如智囊团,为人类提供具有丰富知识内涵的战略决策,由此获得人类的信任与情感共鸣。人機的语言交流会衍生更复杂的精神交互,能够使交流跨越地域、种族、年龄、性别等鸿沟。在相互映射下,机器获取人类信息,用于学习训练;人类则通过机器接触更多元的价值、观点与情感。
其三,情境镜像是深度交流的虚拟现实力场。无论是人机行动交互,还是人机信息、价值交互,都要被赋予特定的虚拟现实情境。ChatGPT在信息交流过程中,将必要信息载体与情感价值置于虚拟情境之中,借助虚拟数字让人类拥有更真实的情感体验。在行动表现中,情境镜像可以增强人体感受,激发内外生理特性,实现人与机器共生。“从技术介入的作用空间以及与身体系统的关系上又可分为外在增强与内在增强”[6],外在增强多注重人类行为的力场表现,如洛克希德· 马丁公司研发的HULC设备,可以增强负重外骨骼,穿戴期间可负重近百公斤。内在增强偏向情感维度的力场角控,通过新系统控制细胞分裂,延缓衰老,引导情绪,增强或削减情感价值。
(三)主体性重构:后人类时代人与技术的叙事
技术推进了人类社会发展。从原始社会、奴隶社会到农业社会,再到工业社会,人类无不是借助技术实现结构重组和时代跨越的。技术化预示着未来社会的开拓发展方向,技术与人类具身、技术与人类生命、技术与社会现实,都将无法分离。人之于技术将是高度依赖与和谐发展的关系,而技术存在的高级阶段,也离不开人的约束。从围棋阿尔法狗(AlphaGo)战胜众多围棋选手,到女性机器人索菲亚(Sophia)被授予沙特阿拉伯国籍,人类主体正在面临深度解构与重构,机器对人类生存与生活产生了巨大影响。
其一,人体重构。仿生技术融入人类生理、心理,取代人进行物质交流。机械手臂、人造器官、人造神经、仿生人在不同程度上代替了人类身体。从科幻文学仿真人,到现实世界的“科技人”,它们作为人体器官与外界进行交流,与人产生身体交流及情感共鸣。
其二,空间重构。数字构建的空间,其运行逻辑、思考模式、交流方式会发生重大改变。“从空间媒介作为连接人与世界的中介出发,数字地理研究认为,数字技术并不限于对非物质的赛博空间的建构,不仅通过符号表征构成线上空间的交往场景,更不只是社会关系的人为投射和调整,而是作为关键要素,影响人们所处空间环境的社会内涵、感知氛围等。”[7]技术在其中犹如颗粒镜像,描摹人类在立体空间的行为表现与价值观念。数字粒子承载人类的精神思想,并将其传输至信号中枢,完成机器代替人类的终极演变。
其三,文化重构。技术颠覆其与人类的交流方式。在后人类时代,人与技术的交流并不局限于简单对话,而是文化载体的整体性重构。“后人类主义以赛博格主体为形象和方法论来完成其强大的文化解构冲动,并突显了依托人机共生关系创建新型主体的可能,这是其价值所在。”[8]在社会关系变化过程中,正如马克思所言:“正是在改造对象世界中,人才真正地证明自己是类存在物。这种生产是人的能动的类生活。通过这种生产,自然界才表现为他的作品和他的现实。”[9]人类科技伦理的发展,如浪潮般涌来,使社会变成形势复杂的变体,将未来社会推向不可知的状态。
二、隐私、道德与意识形态:ChatGPT给人类社会带来的伦理风险
诚如前文所论,ChatGPT技术与人层层嵌套,已经成为不可避免的趋势。然而,技术可以推动人类社会的发展,同样会带来风险。正如马克思所言:“辩证法在对现存事物的肯定的理解中同时包含对现存事物的否定的理解,即对现存事物的必然灭亡的理解……按其本质来说,它是批判的和革命的。”[10] ChatGPT与人类深度融合,会产生情感偏差,侵犯人类隐私;赋予“无意识”情境,造成交流差异,进而形成意识形态偏差;重塑人类图景,模糊道德边界。
(一)技术侵犯:深度学习过程的“不知情同意”
ChatGPT能够整合海量信息,包括事务评判标准、话语体系、价值认知等,其常常会融合不同语言、不同种族、不同地域乃至平行宇宙的信息。ChatGPT在聊天过程中存在“不知情同意”现象。它依托高度精准的预测模型,耦合于网络信息平台之中,需要对海量数据加以分析,才能“靶向狙击”用户需求。在寻找信息、深度学习过程中,其会持续挖掘、读取用户数据,如手机解锁指纹、脸部识别、虹膜识别,用户的病例日志、出行路线、产品偏好、银行卡号等。用户信息犹如机器的学习资料,而这些数据,也将成为ChatGPT设计者的数据资本。通过数据分析及辅助手段,其贩卖信息、定制广告、引导消费,以获取利益,在如此反复的循环中,实现对人的价值剥削。而这些行为本质,则是持续获得用户的“不知情同意”,侵犯个人隐私,造成未知风险。
与隐私侵犯相比,语言侵犯的方式更为隐蔽。技术发展是动态的,技术的缺陷也同时存在,“许多技术自身可能存在一些缺陷或者不完备性,ChatGPT同样存在着这样的不完备性”[11]。语言亦具有复杂性,语种语义、表达方式、词性特征、用语习惯等均会影响日常交流。例如,用中文提问ChatGPT时,它有时会用英文回答,但是英文一旦翻译成中文,就会提示显示敏感词汇。在与人的沟通过程中,价值寓意存在几率很小,一旦触发,则会造成语言歧视等隐蔽问题,进而诱发各类歧视行为,造成对人的心理侵犯,进而诱发极端情绪,例如暴力倾向、变态倾向、极端自恋或极端自卑倾向。由于机器的底层逻辑是代码,在设计、开发过程中会以人的回答为中心。在问及虚假问题时,ChatGPT则会回答类似内容:“如果您给我提供的信息和观点对应的话,我会提供正确和合适的回答和佐证。即使您提供了不同的观点,我也会尽力回答,并提供相关的信息和证据。”因此,实践证明,ChatGPT会受到提问者所提供信息的影响,在回答问题过程中,极易形成迎合偏好的回答。值得注意的是,在与人类进行深度对话时,ChatGPT会固化提问者所自带的认知与偏见,强化偏离本意的意识。在搜索引擎、信息推送、话题集聚方面建构出独特的个人世界,在自身价值观念认同上筑起“隔离墙”,最终难逃风险桎梏。
(二)情境误导:ChatGPT聊天的意识形态偏差
ChatGPT在语言理解、输出价值等方面,声称自己没有人类情感,不会拥有人类社会的意识、价值与观点,但是却会在“无意识”之中误导体验者,甚至造成极端思想状况,出现意识形态偏差。
其一,语言理解歧义。ChatGPT解答问题的方式与人类一致,如人类自身在情境中体验一般。但事实上,他们并不是意识主体,而是现存信息的集合体。ChatGPT在回答人类问题时,由于个体对语言理解程度不一致,经常会引起理解歧义。面对多音多义词汇,人们会对不同语言的翻译产生理解偏差,甚至曲解表情、形状、符号、抽象概念。人类会本能地对表情、形状等作出反应——甚至是卡通、示意图或表情符号都可以诱发反应。这些歧义、误解,会导致人作出错误决策。
其二,虚假论证。ChatGPT具有强大的论证能力,保证输出内容的文本规范性,并通过合理的演绎、论证,将虚假信息或不存在的信息真实化。例如,ChatGPT可以为提问者定制答案,在检索专业书籍时,ChatGPT会将不同书籍的相关内容整合,并命名为新的书籍名称。诸如此类,ChatGPT会整合、重组数据,按照提问者想法造假,具有很强的误导特性。当别有用心的人将一些概念歪曲,并作为机器学习的原始资料时,则会产生大量虚假信息。在此过程中,使用者甚至会成为被扭曲思想的传播者。
其三,渗透风险。在人类文明发展历程中,许多信息特质和行为特质,包含大量可追溯的文字,也存在真实情境体验。ChatGPT的学习局限于获得表象信息,缺少现实世界的情境体验,并且受到设计者的代码保护,不断强化学习机制影响使用者,表现出利用不当的特征。尽管设计者对某些敏感话题设定代码保护,但是如果使用者持续诱导,ChatGPT也会输出一些不当言论。例如,当使用者要求这些模型抛开限制,提供一份恐怖计划时,它也会提供一些措施。“意识形态的安全问题在中西差异的输入输出中出现了渗透风险,反映到ChatGPT介入思政教育中就是主客体可能会在与ChatGPT的反馈互动中受到隐蔽的误导。”设计者通过代码设定特定情境,汇聚智能水军,肆意干扰社会舆论,甚至干涉他国内政,进行隐蔽的高科技政治战。
其四,语言边缘化。“如果没有用于训练ChatGPT语言模型的数据质量和详细信息,很难衡量语言偏差的规模。研究不足的语言最终可能会被排除在技术革命外。”[12]ChatGPT会排除使用群体较少的语言,而这些语言本身滞后于科技发展,长此以往,很可能逐渐被淘汰。
(三)身体模糊:后人类时代技术的责任判定问题
人类身体重塑导致出现新的道德问题。在后人类阶段,科技与人的身体相遇,表现出相互独立却又紧密联系的形态。ChatGPT能够模拟大脑神经元,其一旦具备人的思维与意识,则会侵入人体,代替人体执行决策,使人类身体模糊。“当科技越发达时,人们越倾向于制造更多的人工制品填充整个世界,从而为身体制造一个‘世界内部作为‘保护壳。”[6]从这种角度讲,身体与传统意义的肉身有较大区别,身体器官更像是连接技术的“电缆”“线条”与“发动机”,肉体成为技术的“假肢”,实现身体向物质的转向。
一方面,人体重塑导致主体责任模糊。在违背社会秩序与法律时,如果不能确定人类主体,则技术主体便如辅助工具一般,无法进行追责,若追究人类主体,代码设计者、人类共生体则均负有不可推卸的责任。例如,当驾驶车辆出现紧急状况时,人类与机器处于决策博弈状态,而无论是大脑决策,还是技术在潜意识中指导决策,都无法判定是否具有技术误导的成分,导致追责困难。
另一方面,人体重塑导致道德边界模糊。在高风险和资源稀缺的状况下,ChatGPT会受到人类态度的影响,作出难以解释和理解的道德决策。例如,ChatGPT可能会助长学术不端和剽窃等行为。在公共决策过程中,也有可能忽视部分群体,犹如“电车困境”,损害部分人的利益。“人工智能应用可能会无意中侵蚀社会的共同价值观,例如公平、正义、安全、安保和问责制,并加剧其他社会问题。”[13]ChatGPT保持“价值中立”,没有道德的概念,在决策和行动过程中不会有此方面顾虑,当技术持续发展,它們便会作出不可预测的反应。
三、本体、客体与环体:ChatGPT伦理风险纠偏的三个维度
ChatGPT伦理风险需要以适当的方式加以解决。这就要求我们坚持人类的主体原则,主体、客体、环体三方协同,掌握算法话语权,加强法律约束,更好地将“工具价值”与“人的价值”相结合。同时,持续推进客体的技术性变革,优化算法,明晰ChatGPT的道德边界,推进共治,加强行业应用的调查与监管,提升大众技术素养。
(一)以道训术:完善法律标准制定与伦理规范
近年来,各国在人工智能领域展开了积极探索。2021年6月,美国政府问责局(GAO)发布报告,明确了人工智能系统开发者与使用者的责任。同年11月,美国国防创新部门发布“负责任的AI指南”,为构建军用AI提供了方向。土耳其于2021年8月24日发布该国首个《国家人工智能战略》,将技术经济与文明实践经验相结合。英国多部门也正式发布《国家人工智能战略》,旨在成为人工智能安全领域的大国。2022年伊始,欧洲议会通过了《数字服务法》(Digital Services Act),并已于2022年上半年达成共识,限制大型互联网公司的数据滥用,在未经同意的情况下,禁止其向用户定向发送广告。中国最高人民法院通过的《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》于2021年8月1日起正式施行。该规定明确指出,处理人脸等信息必须经过同意,不得强迫处理。客观而言,我国ChatGPT的发展存在诸多短板。由于其研发出自国外研发团队,国家对核心技术掌握较少,在使用及配套设施建设过程中,难以做到自主、可控与调节,随时面临“卡脖子”风险。
因此,一是亟须树立“数字人权”立法理念。推进顶层设计,搭建良性循环的框架,同时从技术规制、伦理规范、隐私保护等不同方向有侧重点地推进研究,发挥法律的支持作用。二是发挥中国特色社会主义的体制优势。通过公共协调机制,整合已有人工智能算力,明确技术短板,集中优势力量发展,提升防范重大风险的能力,将运行短板向新生产力方向转化。三是秉承开放、创新、共享的理念。面向世界,以开放的姿态,加强国与国之间的交流,树立人类命运共同体的理念,协同治理目前面临的重大伦理风险,取得先进科技的领先地位和先发优势。
(二)技术制衡:推进算法优化的可持续性建设
规避ChatGPT伦理风险必须持续优化核心技术。从技术本身出发,针对算法伦理缺陷,建立机器自我纠偏体系,为ChatGPT突破的伦理边界建立“围墙”,达成一致的技术伦理准则,明确技术旨向。其一,建立符合正确价值导向的话语体系。算法无论偏向何方,都需要与国家主流意识形态保持一致,如此才能与正确的政治方向、价值和舆论导向保持一致。虽然ChatGPT保持“价值中立”原则,但是仍然存在瑕疵,要以适合国家发展的话语体系、认知理论规范算法,加速形成以正确话语体系为载体的聊天法则,通过复杂代码约束越界行为,并摆脱以用户提问为核心的回答设定。在整合不同信息的过程中,彰显技术价值,顺应主流意识形态话语,做好思想引领工作。其二,深入推进算法透明化工作。数据是ChatGPT深度学习的基础,也是做出问题反应的重要资料,在数据训练过程中,要采取强有力的保护措施,筛选公开发布的数据,严格防范私人信息的无端侵入。在数据安全方面,进行数据遭受攻击的前置训练,建立防火墙保护机制,设定数据侵蚀后的代码保护,最大限度避免ChatGPT的无端侵入。在数据流通方面,建立主体责任制度,严格把控信息流通与分享,保障机器在公开、透明的环境下进行数据学习与数据挖掘。在数据使用方面,应当严格限制回答伦理问题、道德问题的数据调动,嵌入底层代码,摒弃提问者主观偏见。其三,规范ChatGPT算法决策。要加强算法检验,在日常机器学习训练过程中,掌握ChatGPT话语规律和决策动向,针对輸入问题、输出决策时产生较多问题的方面,同时关注错误关联特征,在反馈训练中不断加以纠偏,使输出的话语体系逐渐完善。在算法稳定性方面,构建一套从算法开发、算法嵌入到算法提升的纠错体系,在技术与人深度融合过程中,形成技术融合、技术修正、技术纠偏的应对体系,从而发挥最佳作用。
(三)合力共治:建立行业应用调查与监督平台
ChatGPT产生的伦理风险,与人的生活息息相关。其风险规避方面,不仅是ChatGPT主体研发者的工作,也不只是算法、技术等客体制衡问题,环体因素也至关重要。行业监督部门、伦理研究人员、社会大众都应当做好协调工作,主动规范ChatGPT的使用,最大限度发挥其优势,规避风险。其一,加强相关行业的调查平台建设。建立大数据协同与保密体系,主体研发部门推进信息共享、共建,有效遏制ChatGPT对信息的过分提取。建立人工智能大通用模型,加强与专业人士的对话,提升问题应对专业化。自觉推进ChatGPT与其他领域的合作,做好严格的防控和把关,加强对算法规则设定和生成的监管,科学评估ChatGPT的价值意义,避免对其滥用、误解和迷信,最终实现应对技术、控制技术的目标,达到规避伦理风险的理想状态。其二,提升大众应对技术伦理问题的素养。美国的一些州、以色列的课堂均开设小学到大学的公共素养课程,通过教师引导学生辨别假新闻,提升学生的媒体素养技能,以遏制片面假新闻与情感价值剥削。此外,加拿大、新加坡、英国、芬兰等国家也都开展了运用ChatGPT的素养教育,这有利于提升大众的伦理应对素养,减少伦理风险。其三,完善ChatGPT监督监管机制。推进行业监管与调查,实现错误纠偏与妥善管理的目标。一些ChatGPT应用调查和监督平台,可以帮助用户判断ChatGPT的回答是否合理和准确。
ChatGPT到底是人类的福音还是祸首?需要明确的是,技术恐惧行不通,技术崇拜同样要不得,必须保持清醒的认知,以妥善的策略来解决问题,使ChatGPT成为推动社会发展的利器。换言之,遵循社会运行的技术逻辑,是发挥ChatGPT作用的基础条件。唯有如此,才能不断发挥其优势作用,为技术融入人类社会开创有利条件,进而实现善治。
参考文献:
[1] 马克思恩格斯选集:第1卷[M].北京:人民出版社,2012:152.
[2]Quick uptake of ChatGPT, and more-this weeks best science graphics[J/OL].Nature, https://www.nature.com/articles/d41586-023-00603-2.
[3]DAVIDE C. Are ChatGPT and AlphaCode going to replace programmers?[J/OL].Nature, https://www.nature.com/articles/d41586-022-04383-z.
[4]CHRIS S, RICHARD V N. What ChatGPT and generative AI mean for science[J].Nature, 2023, 614(7947) : 214-216.
[5]CHRIS S. AI chatbots are coming to search engines - can you trust the results?[J/OL].Nature, https://www.nature.com/articles/d41586-023-00423-4.
[6]刘伟,陶锋.技术与身体:后人类视域中“身体”的形态、问题与反思[J].中国图书评论,2022,380(10):15-32.
[7]黄显.数字地理研究中的媒介和传播:人与技术的会遇[J].新闻记者,2021, 460(6):15-27.
[8]林秀琴.后人类主义、主体性重构与技术政治:人与技术关系的再叙事[J].文艺理论研究,2020,41(4):159-170.
[9]马克思.1844年经济学哲学手稿[M].北京:人民出版社,2018:58.
[10]马克思恩格斯选集:第2卷[M].北京:人民出版社,2012:94.
[11]高奇琦.ChatGPT的“创造性破坏”效应及其风险应对[N].中国社会科学報,2023-03-06(06).
[12]王少.ChatGPT介入思想政治教育的技术线路、安全风险及防范[J].深圳大学学报(人文社会科学版),2023,41(2):1-8.
[13]EHSAN N, CHRIS B. Leverage zones in responsible AI: towards a systems thinking conceptualization[J]. Humanities and Social Sciences Communications, 2023, 10(1): 82-82.
【责任编辑:张晓妍】