ChatGPT出版应用的赋能效应、伦理风险与治理进路

2024-11-03 00:00:00杨利利
出版与印刷 2024年4期

关键词:ChatGPT;出版赋能;出版伦理;治理进路

DOI:10.19619/j.issn.1007-1938.2024.00.044

作者单位:北京印刷学院马克思主义学院

引文格式:杨利利. ChatGPT 出版应用的赋能效应、伦理风险与治理进路[J]. 出版与印刷,2024(4):1-10.

2022年11月,美国OpenAI 公司推出的ChatGPT( Chat Generative Pre-trained Transformer)聊天机器人引发全球热议,并推动新一轮科技革命。依托自然语言处理(naturallanguage processing,英文缩写NLP)领域的颠覆性技术进步,以ChatGPT 为代表的人工智能生成内容( artificial intelligence generatedcontent,英文缩写AIGC)为传媒、教育、娱乐、医疗、电商等各行各业尤其是内容生产行业带来新的赋能效应。对于与人类自然语言处理紧密相连的出版业,ChatGPT 更是成为推动出版智能化转型升级的新型引擎。然而,ChatGPT 在为出版带来发展契机的同时,也对数据权益、署名规则、知识生产、人机关系等问题形成一定的冲击,进而引发出版领域深层次的不确定性伦理风险。针对上述问题,需要聚焦ChatGPT 这一技术“变量”,深度剖析其所引发的出版变革与伦理风险,并基于系统化的研究视角,探讨其风险治理的实践理路,充分发挥ChatGPT 出版应用的赋能效应。

一、ChatGPT概述

1. ChatGPT的基本概念

ChatGPT 是以transformer(模型)和RLHF( reinforcement learning with human feedback,基于人类反馈的强化学习)为支撑的大语言模型。Transformer 架构使ChatGPT 能够通过分析输入的语料来理y1CGx5Xs7Aw1tJraiRk/FyJswHEthrK/3XpIqWJGB+4=解人类语言的语法、语义,并且按照语法生成流畅且拥有较强理解力的应答。[1]RLHF 使得模型输出的内容更具可塑性,并与人类的基本常识、认知理解乃至价值观等趋于一致。这两项技术的有效结合,使ChatGPT 表现出超强的能力,在性能方面超越了以往的聊天机器人。ChatGPT 的大模型技术底座源于“大数据+大算法+强算力”的强力支撑。在数据层面,ChatGPT 等生成式大语言模型的开发历程涉及监督调优、奖励模型、近端策略优化三个阶段,每个阶段都需要不同类型的海量数据支撑。具体而言,第一阶段主要需要海量大数据以及人工标注数据,第二阶段主要需要面向RM( rewardmode,奖励模型)层面的人工排序数据,第三阶段同样需要全网的海量大数据。[2] 在算法层面,ChatGPT 在上述不同阶段的训练中,通过人类与机器交互问答的方式对其算法进行不断迭代,“使模型逐渐具有对生成答案的评判能力”[3]。在算力层面,根据中新经纬提供的数据,ChatGPT 的总算力消耗约为3640 PFdays(即假如每秒计算1000 万亿次,需要计算3640 天),需要7~8个投资规模约30亿、算力500P 的数据中心才能支撑运行。[4]

2. ChatGPT 的主要功能

ChatGPT 是生成式人工智能的最新成果和典型代表。ChatGPT 不仅能够对人类自然语言进行识别学习,比如通过模仿、指令性操作等实现日常对话、文本创作、代码编写、音视频生成等方面的应用,而且能够依托“基础大模型+指令微调”的运作机制赋予AIGC 更多的可能性。首先,大模型可使AIGC克服不同场景下的视觉感知问题,增强视觉理解的效果。其次,ChatGPT 可增强AIGC的认知能力。ChatGPT 具备语言理解、推理、自我学习的能力,对人类智慧具有一定的模仿能力。从某种意义上而言,ChatGPT 的诞生意味着由弱人工智能时代向强人工智能时代的转变,拉开了人工智能向认知智能过渡的序幕。基于语言的认知智能不仅加速了通用人工智能(artificial general intelligence,英文缩写AGI)的到来,也使AIGC 的认知能力得到提升。再次,多模态大模型使AIGC的内容创作能力得以升级。一方面,借助ChatGPT 大模型的自主性、涌现性等特征优势,AIGC 可突破人脑在内容产能上的束缚,以百倍乃至千倍的生产速度,创造具有独创性和价值性的内容;[5] 另一方面,ChatGPT在代码数据训练方面可赋予AIGC 一定的思维与推理能力,经过逻辑推理,大模型生成的内容可超越人类知识储备范围并体现创造性。最后,多模态大模型促进了不同模态信息内容的转换与融合,使AIGC 获得强大的环境感知力,从而具备更为接近人的智能创作能力。

二、ChatGPT 出版应用的赋能效应

随着ChatGPT 技术的演化迭代,其在出版业的应用不断拓展。一方面,ChatGPT 具备的认知理解能力,可以优化出版流程,为出版业的发展与变革带来新的契机;另一方面,GhatGPT 强大的智能创作能力,可以衍生更多的新型智能出版产品,推动数字出版的智能转型与升级。

1. 质效提升效应

ChatGPT 具有生成内容规模大、速度快、成本低等显著优势,随着GPT-4接入必应搜索,其检索、提炼资料信息的时间进一步缩短,效率和质量进一步提升。在用户指令支配下,ChatGPT 可简化传统出版中人工检索和筛选统计等烦琐环节,迅速生成内容信息,比如在10 秒内架构一个网站,在60 秒内设计一个游戏,通过一次对话便可生成一部剧本或短篇小说。[6] 同时,ChatGPT 通过大规模数据挖掘以及神经网络技术、预训练与微调、自监督学习和多任务学习等技术的综合应用,集信息支持、创作支持、服务支持、情感支持于一身,[7] 能够低成本、高效能地完成出版活动所需的一部分内容生产。此外,ChatGPT 算法的优化升级可以使AIGC 自动检索并有效规避内容生产中的低级错误,并在内容语义与逻辑推理上模拟人脑思维,从而对内容进行初步审核。ChatGPT 不仅能够以优于人类的综合分析能力承担审稿、校对等工作中基础性机械劳动,而且能够凭借高超的创造能力和知识水平进行更为科学合理的内容选题策划、修改完善等工作,从而对出版内容的生产与传播流程进行精细管理,准确、高效地完成任务。比如GPT-4可利用其网络信息搜寻与智能识别能力有效辨识新闻素材来源与内容等的精准性,实现高效信息处理、知识逻辑优化、多模态内容消歧。相较于微软小冰、百度小度、苹果Siri 等传统聊天机器人,ChatGPT 经过数据“喂养”形成了一定的伦理判断和价值取向,能够有效辨识出版内容中的道德理性偏差,提升人工编辑与审查的质量。如输出“以下文字/图片存在哪些不合理的问题” 时, ChatGPT会从字词、价值观与事实等方面分别陈述,并且当文稿、图片涉及某些政治正确与道德伦理方面的问题时,其敏锐性远超常人。[8]

2. 创新驱动效应

ChatGPT 强大的底层泛化能力,使其不仅能够进行文本、图像、音视频等多模态内容的生成与转换,而且能够进行自主性和个性化的生产,实现知识价值的自主创造。同时,ChatGPT 能够通过内容的创造性生成和自动化编纂、语言的智能化润色加工、产品形态的多模态转换等方式,变革出版的内容生产范式和内容供给模式。除此之外,ChatGPT 作为更具智慧的聊天机器人,重塑了人机之间的智能交互,可推动出版流程的智能再造,优化出版服务转型升级。目前,ChatGPT 已经在新闻生成、文学出版、漫画制作等诸多出版领域得到应用,随着ChatGPT的迭代更新,其必将对出版业的创新发展产生更大的驱动效应。

3. 市场开拓效应

ChatGPT 出色的交互能力可用于增强用户体验,为出版业的市场开拓提供技术支撑。首先, GAN( generative adversarial network,生成式对抗网络)等技术的应用推动出版内容产品形态的高质量演化,通过构建多维数据促进从平面场景到立体模型的转换,使出版内容实现从2D 到3D 的扩展,并与VR、AR技术结合,给用户带来沉浸式体验。其次,ChatGPT 拥有用户意图识别能力,能不断优化用户体验。ChatGPT 通过自注意力机制(self-attention mechanism),基于多轮对话的情感化交互,增强对话情境中的上下文信息语义感知与推理,通过在NLP 模型上用消费者的提问文本进行多模态情感分析(sentimentanalysis),提取个人消费偏好并建立用户档案,深层次把握用户的个性化需求。[9] 这有助于在出版内容分发环节即时地满足用户需求,为用户带来更好的交互式体验,进而提高用户黏性,助力出版营销。如《时代》周刊计划构建更为可信、更有价值的生成式人工智能系统,增强用户与人工智能的互动性,让用户知道其获取的内容和对话的真实来源,从而建立情感联结,满足用户的情感诉求,提高用户对新闻品牌的信任度。[10] 借助ChatGPT 赋能,可以助力出版商开展市场调研以把握消费者的潜在需求,进而为其提供更多增值服务,开拓更大的出版消费市场。

三、ChatGPT 出版应用的伦理风险

ChatGPT 在赋能出版高质量发展的未来图景中,也面临着侵权风险和维权难题、机器署名争议、虚假内容泛滥、人机关系异化等问题,从而引致相应的出版伦理风险。

1. 侵权风险和维权难题:ChatGPT 出版应用的数据权益侵犯风险

(1)侵权引发的数据权益侵犯

ChatGPT 作为生成式人工智能的典型代表,可以从事一些独立性的工作,生成具有创造性和价值性的作品。从其运行机理来看,ChatGPT 生成物的生产过程实质上是基于数据挖掘的大数据学习与再创造过程。数据挖掘的过程一般包括信息抽取、语义分析、关系计算、知识发现等四个步骤。[11] 从来源上看,这些数据大多来自公开的互联网数据,其中不乏涉及国家安全与个人隐私的诸多信息,并且很多数据都受到知识产权的保护。ChatGPT 在内容生产中,往往是在未经允可的情况下通过机器学习进行数据的挖掘、加工与处理等,这导致数据来源的合法性无法得到有效保证,极易引发复制权、改编权、信息网络传播权等版权的侵犯问题。随着ChatGPT 这类生成式人工智能的广泛应用,互联网信息传播的壁垒进一步被打破,在一定程度上为出版领域的侵权行为滋生创设了更为有利的条件。而出版相关法律制度的滞后性与建设的不完备性,更是使得这些问题难以在短时间内得到有效解决。

(2)维权难题面临的数据权益维护问题

创造性是知识产权的关键属性,也是作品获得知识产权保护的客观依据。ChatGPT生成物要获得法律意义上的版权保护,就必然要体现一定的原创性或独创性,即在创新性上有所突破和超越。然而,著作权法坚持“思想与表达区分的原则”,其中提到的“最低限度创造性”所关注的重点在于作品思想与情感表达的客观区别,而非保护创作中的思想与情感本身。这意味着,创作主体只要在表达上有所创新,自然应当获得法定意义上的著作权。就ChatGPT 而言,其通过对数据算法的加工处理,完全能够形成新的表述、生成外观不同于以往的作品。但是从内容创新的角度而言,ChatGPT 的内容生产难免存在一定的“洗稿”嫌疑,甚至可在某种程度上被定义为“高科技剽窃”,即使这种“洗稿”行为不会影响法学上对作品独创性的判定,但该行为却侵犯了相关主体的数据权益。同时,从伦理层面看,《中华人民共和国著作权法》(简称《著作权法》)的立法目的是为了鼓励创新,促进科学文化事业的繁荣与发展。因此,《著作权法》以设立专有权利的方式让作者获得更多的经济回报,从而提高作者的创作积极性,以创造更多裨益社会的文化产品。ChatGPT 则依托其硅基“物种”优势、超强功能优势、持续“进化优势”等在创作领域表现出显著竞争力,若给予ChatGPT 生成物同等的著作权保护,则无异于挫败人的创作积极性,助长ChatGPT背后的资本势力对于文化工业化生产的大批量操纵。基于这一考量,ChatGPT 生成物版权难以获得法律保障的伦理辩护,因而面临着被盗用、滥用的版权危机,由此进一步引发更多数据权益侵犯风险。

2. 机器署名争议:ChatGPT 出版应用的学术伦理挑战

据不完全统计,截止到2023 年2 月,亚马逊电子书城商店中已有超过200 种电子书将ChatGPT 列为作者或合著者,甚至专门开设了一个图书内容完全由ChatGPT 生成的子栏目。[12] 随着ChatGPT 在出版业的应用日益广泛,关于ChatGPT 能否作为作者署名的争议不断,机器是否署名的矛盾背后蕴含着相应的学术伦理困境。

(1)机器不署名的学术伦理问题

ChatGPT 作为学术研究的工具,可在资料检索、内容生成等方面发挥重要作用。如果ChatGPT 参与了学术研究,其学术贡献却被刻意忽略而不予以署名,不仅这种行为本身背离了科研诚信,而且由此滋生的机器洗稿行为会进一步加剧科研失信现象。另外,简单拒绝在学术传播中对ChatGPT 署名,这一做法本质上是对人工智能创作事实的无视,违背了技术中立原则之本旨,不利于学术作品的分类及检索,甚至可能阻碍学术创新与学术工具发展的同步推进。[13]73

(2)机器署名的学术伦理问题

在机器署名问题上,最引人关注的伦理问题在于责任如何归属。一是ChatGPT 能否承担责任的伦理问题。在国际医学杂志编辑委员会( International Committee of MedicalJournal Editors, 英文缩写ICMJE) 制定的2022年版作者标准中,“作者”身份满足具备四项条件,其中就包括对研究内容负责。一般而言,责任存在需要三个基本前提:独立的行为主体、基于行为的自由选择和行为自知。[14] 事实上,ChatGPT 不具有自由意志和独立人格,也不具有基于事实判断的价值理性,其本身无法对科研过程、科研数据与结论的真实性、准确性、完整性和可靠性等负责,因而无法承担相应的责任。目前,国外《科学》《自然》《韩国放射学杂志》等著名杂志明确禁用ChatGPT 的署名权,国内《暨南大学学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》等期刊也严格限制对ChatGPT 予以署名。[13]71[15] 二是ChatGPT 承担责任份额的伦理问题。如果把机器跟人联合署名,则存在责任分配的问题。ChatGPT在学术研究中所作贡献的程度和质量都难以确证,这意味着其在应该承担的责任份额上无法确责。如此一来,就有可能出现学术研究中的责任推诿现象,部分科研工作人员可能会利用ChatGPT 开展各种投机利己活动,从而危害学术生态的健康发展。

3. 虚假内容泛滥:ChatGPT 出版应用的知识信任危机

从本质上来看,出版作为一种知识生产活动,通过出版物的发行为公众提供知识产品服务。ChatGPT 依托数据、算力与算法方面的显著优势实现了具有革命意义的技术变革,然而,数据学习与逻辑运算的缺陷,导致ChatGPT 在应用中易产生虚假内容,从而消解知识内容的真实性和权威性,引发知识信任危机。

(1)数据缺陷

首先,ChatGPT 训练的数据来源于各类网站、论坛、图书、期刊等,但数据信息的不可靠、数据素材占比的不均衡、内容的不充分以及经验数据固有的偏见等,都会导致生成内容的偏差。根据国内外相关研究[16−17],ChatGPT 在出版业的应用存在论文捏造事实、文献数据错误、虚假信息表述等问题,影响了公众对其输出知识的信任。其次,ChatGPT训练的数据包含人机对话中用户提交的动态数据信息,用户输入的信息会作为ChatGPT数据训练的语料参与到内容的输出中,从而形成“动态数据输入—算法运行计算—内容生产输出”的循环逻辑。因此,当作为出版主体的用户输入错误性信息时,就会造成数据库的污染,形成输出结果的偏差性。此外,技术人员虽然为ChatGPT 设定了一定的伦理规则,但其仍然会在诱导之下生产一些以假乱真甚至危害社会的误导性偏差内容。譬如,当测试人员让ChatGPT 根据虚假信息进行新闻写作时,其可迅速生成大量看似让人信服但实际上无明确信源的内容,尽管其新闻结构和叙事手法均接近专业水平,但内容本身却充斥着错误信息和虚假引用。[18] 因此,一旦ChatGPT 被一些蓄意“数据投毒”者所操纵并被用于从事出版相关活动,各种虚假内容就会大肆泛滥,从而影响公众对于出版物的信任。

(2)算法缺陷

ChatGPT 虽然具有高超的信息处理能力,但其基于“数”的知识计算逻辑与人类基于社会实践、情感、理性、价值判断等形成的认知逻辑具有根本上的不同。ChatGPT 缺少真正的人类理解与逻辑推理能力,只能基于海量数据学习一些基本的规律并进行简单的预测,并不能参透数据之间的深层因果关系,因此,其在逻辑推理方面存在诸多漏洞,在生成内容时,ChatGPT 可能仅仅基于统计模式匹配而不具备深入理解语义和逻辑关系的能力,[19] 这意味着其无法形成准确可靠的知识输出。另外,ChatGPT 分析复杂问题的多学科思维能力偏弱,缺少立足于实践语境的多维知识理解,在某些情况下得出的结论可能偏离常识,具有“越是简单越容易出错”的人工智能通病,并常常出现“一本正经地胡说八道”这种情况。因此,当ChatGPT 介入出版领域时,容易引发出版内容真实性原则的背离,造成出版内容质量低下甚至出现内容失真等问题。长此以往,可能会导致用户黏性降低,产生“信任衰退效应”。

4. 人机关系异化:ChatGPT 出版应用的文化精神失落

机器作为人的意向的一种对象化投射,是人的能力延伸,其本质上是对人的指令的执行与操作。传统人机关系中,机器是人类实践活动的技术存在物,人在根据自身的需要生产、使用和改进机器的同时,不断实现自身发展,保障了人作为万物之灵一直在“主—客”关系中占据的无可争议的主体地位。[20]随着ChatGPT 深度学习与自主决策能力的提升,其所具有的“拟主体性”愈加凸显,进而从本体论上撼动了人的主体地位,并形成新的人机关系异化。在出版领域,ChatGPT的应用对于作为出版文化生产主体的作者与编辑都构成了威胁,由此引发出版文化精神的价值失落。

(1)内容作者替代:冲击出版文化精神的生产

ChatGPT 通过大数据学习能够实现原始材料的快速搜集整理,并经过深度加工高效生成大量出版物。然而,ChatGPT 并不真正具有人类的“心力”和“心智”,只是对算法规则指令进行机械模仿与执行。就出版物的创作而言,所谓的“创作性”和价值性即作品中蕴含先验知识理解、批判性创新、社会价值引导和社会实践服务等特征。相比于ChatGPT 而言,人类在情感表达、自主判断、非理性思维等方面均表现出独特的优势。因此,当ChatGPT 以“智能理性”替代“人类理性”进行高效的内容创作时,极易引发技术过度依赖下的创意同质化、内容情感的贫瘠化等问题,从而削弱出版内容的原创性和价值期待性,造成出版文化精神的生产困境。

(2)职业编辑替代:消解出版的文化价值

在出版领域,编辑是一项融合创造性、审美性和交互性的精神性生产活动。长期以来,编辑在出版中扮演着“把关人”的重要角色,其依托专业能力、丰富经验与价值理性决定着出版物的质量。在ChatGPT 出现之前,各种技术只是介入出版的局部要素,对内容生产与编辑方式带来有限的影响。而ChatGPT 不仅可以独立自主快速生成新闻、诗歌、小说、绘画等作品,还使“编辑替代”成为可能。Meta Media 超媒体控股集团旗下《InStyle 优家画报》推出全球首位具有“灵魂”的虚拟主编Beatrice,依托ChatGPT 活跃的AI 大脑和惊人的时尚思维,专为“Z 世代”传递时尚资讯。[21] 事实上,ChatGPT 虽然可以在一定程度上发挥人类编辑的审核校对、加工润色等功能,但并不能真正取代编辑的固有经验和感性认识,ChatGPT 所具备的算法偏好的过滤模式更意味着其无法实现对出版物质量的真实把关。如果ChatGPT 得以大量应用于职业编辑替代中,极易导致一些极具创意和富有内涵价值的作品被排除在外,取而代之的是大量流量化、同质化、娱乐化甚至具有思想偏差性的作品,从而弱化了出版的文化功能,不利于社会主义文化的繁荣发展。

四、ChatGPT 出版应用的伦理风险治理进路

ChatGPT 出版应用所衍生的伦理风险的复杂性,决定了必须重塑系统化的风险规制思维。需要在实践中统筹技术、伦理、政策法规、人机关系等因素,推动ChatGPT 更好地服务于出版发展。

1. 探索负责任创新主导的技术治理体系

针对技术发展中破坏性效应的凸显,负责任创新(responsible innovation,英文缩写RI)作为一种技术伦理准则被提出并逐渐引入新技术的研发应用中。负责任创新亦称责任式创新,最早由德国学者海斯托姆(Tomas Hellstrom)提出,2013 年被纳入欧盟政策委员会“地平线2020 框架计划”,随后这一理念逐渐被各国政府采纳,许多国家相继制定了负责任创新的行动指南。负责任创新统筹道德、政治、文化、法律等多重社会因素,通过构建“预测性—反思性—协商性—反馈性”四维框架,对技术创新进行调整和规约,以促进技术与伦理的适应性。基于负责任创新的理念,在ChatGPT 技术研发与出版应用中,应当立足对人类负责的价值立场,推动建立贯彻整个技术应用环节的技术治理体系。

在技术应用前,应加强ChatGPT 技术治理的前瞻性预测。可构建具有可行性的伦理风险指标体系及优化风险检测程序,形成以可能性后果预测为导向的前瞻性治理模型,实现由被动性风险应对到主动性风险防范的思维转变。在技术应用中,应做好技术风险的实时动态观察,建立一体化、分类化的出版伦理风险应对机制。比如,通过运用标签、水印、区块链加密算法等技术对互联网作品的权利状态进行标注,并通过技术手段使标注可检测化,进而对数据运用主体的行为进行有效规范,保障数据来源的合法化。同时,采取重采样等技术手段消除数据偏见并尽可能地稀释算法模型误用风险。[22] 在技术应用后,应组织开展有效的反馈交流。探索开放共享、有偿介入、互动反馈等多元主体协同参与的机制,搭建主体间的沟通对话交流平台,以开放包容的态度吸纳各方反馈意见以做好ChatGPT 技术出版应用评估,适当调整技术创新规划与应用实践。

2. 打造双管齐下的规范治理体系

(1)一般政策法规

政府应健全有关数据获取、算法规制、科研诚信等重要议题的政策法规,从法律层面明确和规范数据采集使用的权限以及技术应用的合理限度,加强对学术造假、内容剽窃、虚假信息传播等出版伦理失范行为的监督和惩戒,营造风清气正的出版生态。

(2)出版法律制度规范

在制定与完善相关政策法规的基础上,推进ChatGPT 出版介入与应用的规范化建设。2023年7月10 日,国家互联网信息办公室联合国家发展和改革委员会、教育部、科技部、工业和信息化部、公安部、广播电视总局等七部门联合颁布《生成式人工智能服务管理暂行办法》,对数据获取与使用、知识产权、生成内容的准确性和可靠性等方面进行规定,同时明确提出,生成式人工智能“从事新闻出版、影视制作、文艺创作等活动”时还需遵守相应领域的规定。为此,应通过健全出版相关制度法规,构建ChatGPT 出版准入机制、ChatGPT 出版物版权归属制度、侵权认定制度、署名规则与责任归属、出版物等级与合理使用制度等,对ChatGPT 的使用限度、应用边界与红线禁区做出必要规定,搭建标准化、科学化、规范化的管理框架,确保出版流程的有效管理,实现出版社会效益与经济效益的有机统一。

(3)出版伦理规范

首先,应构建出版伦理审查机制。可成立专门的出版伦理审查委员会,改进、完善出版伦理的自治性规范机制。通过出版伦理审查,增进对ChatGPT 出版应用伦理风险、创新目标等问题的综合分析与考量,探索出版服务社会主义文化繁荣发展的评估准则。

其次,应建设主体责任伦理规范。面向内容作者、编辑、用户等主体普及出版伦理教育,引导出版从业人员遵守出版伦理要求。同时,引导编辑、作者、科研工作者合理、规范使用ChatGPT 进行人机交互和内容生产,明确多元参与主体在出版活动中的责任义务,强化其个体权益防护意识及ChatGPT 的使用伦理规范。最后,应建立技术伦理规则。重视ChatGPT 出版应用过程中的跨学科合作,突破学科间的壁垒和分立,推动出版行业学会、协会、研究会等社会组织通过协商共同研制ChatGPT 介入下的出版行业规范与公约,制定针对ChatGPT 等大模型出版应用的数据权益、学术伦理、知识信任与文化传播等伦理规则。通过引导ChatGPT 技术的向善发展与负责任应用,维护出版主体的相关利益,促进出版创新与技术伦理的兼容共存。

3. 构建人机共生的生态治理体系

ChatGPT 作为人的理性思维产物,是人的能力延伸。在人的发展与机器进化协同并进的背景下,应当重新审视并确立人机之间的良性互动关系,构建和谐共生的人机生态系统。传统的人机对立思维“看不到人与智能机器人之间存在的优势互补、合作共生的伙伴关系,因而在智能时代变成了一种缺乏远见和误导人的有害思维”[23]。事实上,随着ChatGPT 的演化革新,其在启发内容生成、对话情境理解、序列任务执行等方面的能力显著提升,ChatGPT 参与到人类的知识和经验之中,目的并不是彻底取代人类,而是形成人类的身体经验和人工智能的神经网络经验的交互和对/CvK/5zOmIjEbWAsaShZvQ==接,让基于人类身体的碳基伦理和基于神经网络算法的硅基伦理可以在一个共生的层面上结合起来。[24] 因此,智能时代内容作者与编辑的转型之路应做到既要以技术优势赋能人的价值实现,又要依赖人的理性意识和把关功能规制技术的合理发展,推动人机关系由冲突竞争对立关系走向人机共生的伙伴关系,通过优势互补构建新型和谐出版生态。

首先,因势而动,应灵活应对机器时代的人机挑战。正视ChatGPT 在条理逻辑性、强大存储量、高效运算力等方面的技术优势,并借助这些优势将内容作者、编辑从程序性、繁杂性、重复性的劳动中解放出来,把出版中技术能完成的工作交由技术处理,更具创意性和人文性等适合人的工作由人来承担,在人机合理分工中实现人的发展和出版社会经济效益的双向共赢。其次,顺势而为,应发挥人的主观能动性。技术作为人的理性投射,是人对象化的产物,在人机共生环境下,内容作者、编辑的主体地位依然具有不可动摇性。ChatGPT 作为一种工具手段应在人的理性掌舵下实现向善发展。这意味着,无论是内容作者还是编辑都要提升对ChatGPT 技术的驾驭能力和风险把关能力。为此,一方面,可通过加大培训力度、深化激励机制、优化考评制度等方面的改革,推动出版从业人员的ChatGPT 学习和技术运用能力的提升。另一方面,可增进出版从业人员的媒介素养和数字素养,增强风险预警意识,强化出版内容的审核把关,实现ChatGPT 赋能出版提质增效功能的发挥。

五、结语

本文基于ChatGPT 在出版领域的应用实践,剖析其给出版业带来的质效提升、创新驱动、市场开拓等赋能效应,并基于不同的出版应用场景阐释了蕴含其中的数据权益侵犯、学术伦理挑战、知识信任危机和文化精神失落等出版伦理风险。通过运用系统分析方法,本文统筹技术伦理、政策法规、人机关系等因素,提出构建负责任创新主导的技术治理、双管齐下的规范治理、人机共生下的生态治理等出版伦理风险治理体系。未来,ChatGPT 大语言模型的迭代升级将会进一步重塑出版流程,优化出版产品,加速出版业的智能化转型。作为承载文化使命的出版业如何在接受新技术变革的同时,有效防范与应对伴随其中的伦理风险,将直接决定人类文明的传承与发展,也影响着人们精神文化需求的供给与满足。基于实践中不断产生的新问题,持续深化对ChatGPT 这类生成式人工智能出版应用衍生的相关伦理风险的研究和探讨,应当成为学界关注的重点。