基于ChatGPT在学术期刊出版中的应用分析

2023-07-20 11:46蒋雪颖刘欣许静
出版广角 2023年11期
关键词:学术期刊学术人工智能

蒋雪颖?刘欣?许静

【摘要】2022年底,以ChatGPT为代表的GAI被迅速应用于学术生产中,重塑学术出版流程的同时带来一系列失范问题。聚焦以ChatGPT为代表的GAI技术在学术期刊出版中的应用现状、存在的风险与挑战,并以此为基点探寻技术的应用与失范之间的可能通路,能够降低问题发生的风险。未来,我国学术期刊应借鉴国外学术期刊的案例,贯彻协同重构的对策,在微观层面采用AIGC检测工具、NFT源码和数字水印,在中观层面建立人工智能出版伦理原则,在宏观上加强全球治理格局下的跨国合作监管及合作建设数字基础设施。

【关  键  词】GAI;ChatGPT;学术期刊;出版生态

【作者单位】蒋雪颖,北京大学新闻与传播学院;刘欣,北京大学新闻与传播学院;许静,北京大学新闻与传播学院。

【基金项目】国家社科基金重大项目“构建人类卫生健康共同体研究与数据库建设”(21ZDA130)。

【中图分类号】G230.7【文献标识码】A【DOI】10.16491/j.cnki.cn45-1216/g2.2023.11.007

出版的发展史可以被看作是技术创新在出版领域中的应用史,从手抄本的出现到印刷术的普及,再到互联网掀起的数字出版浪潮,无不彰显技术变迁对出版场域产生的巨大影响。在出版场域中,受技术重构影响较大的是约翰·B. 汤普森口中以“知识的离散成果”为内容的学术期刊出版。2022年底,以ChatGPT为代表的GAI(Generative Artificial Intelligence)被应用于学术生产中,它不仅能够基于机器学习和语料构建研究假设,自动生成论文摘要、关键词、文献综述等文本,还可以辅助同行评议审稿,但其带来的失范问题也引发学术界热议。

国内学术界对GAI介入学术出版的研究尚处于起步阶段。陆小华从知识维度分析ChatGPT在知识萃取、知识生产、知識传播方面给新闻出版业带来的影响[1]。张重毅等学者采用ChatGPT的实际使用结果来分析其对学术出版的影响[2]。沈卫星从环境把关、主体把关及实践把关三个角度探讨ChatGPT与编辑业务融合发展路径[3]。但现有文献存在两个问题:一是大多数论文侧重于在理论层面讨论ChatGPT对学术期刊出版的影响,往往忽视应对策略,也没有分析国外学术期刊出版机构的具体案例;二是大多数论文在分析ChatGPT对学术出版的影响时,对各个环节的讨论是割裂和分散的,但学术期刊的出版链是全生命周期过程的。当下学者对GAI如何从根本上塑造整个学术出版链的探索有限,缺乏全过程的视角和系统性的论述。

基于此,本文以ChatGPT为例,首先从出版链视角勾勒技术迭代背景下学术期刊出版链变迁进程,描绘和分析GAI在学术期刊出版中的应用现状,其次从学术共同体技术失范风险、学术生态环境伦理失范风险,以及新一轮人工智能革命背景下数字基础设施改造的可行性问题方面分析GAI在学术期刊出版中的争议和风险,最后借鉴国外学术期刊的案例提出协同重构的对策,即在微观层面采用AIGC(Artifical Intelligence Generated Content)检测工具、NFT源码和数字水印来应对技术失范,在中观层面建立人工智能出版伦理原则应对伦理失范,在宏观上加强全球治理格局下的跨国合作监管及合作建设数字基础设施。

一、GAI引发的学术期刊出版链变革

1.学术期刊出版链技术迭代进程

出版链是社会学家约翰·B. 汤普森在《数字时代的图书》中提出的概念,他认为出版链既是供应链又是价值链,能够体现出版场域内的运行结构,本质上是出版场域的生产模式[4]。研究新技术如何作用于出版链是揭示出版场域生产模式正在以何种方式被重构的关键。学术期刊出版不仅是学术生产系统中的重要环节,也是维护和保持学术生态系统良性发展的重要机制。学术期刊的出版链变迁可以划分为三个阶段。一是印刷技术主导下,以单一线性出版链为特征的传统期刊出版阶段。这一阶段的期刊出版链主要由选题策划、收稿、三审、编辑加工、排版、三校、印刷和发行等环节组成,封闭性强、边界明显[5],呈现从作者到学术出版机构再到读者的单一线性出版链形态。二是计算机和互联网技术主导下,以数字化、系统化为主要特征的数字期刊出版阶段。三是大数据、人工智能、区块链等数字智能技术主导下,以数据化、智能化、开源性为主要特征的智能学术期刊出版平台阶段。

2.GAI在学术期刊出版中的应用现状

GAI技术重塑了学术期刊出版的全流程。GAI可以在选题策划、同行评议、审查校对、印刷出版、知识共享等方面发挥协助作用。在选题策划方面,机器学习算法可以分析大量数据,包括引文网络、作者模式和读者趋势,以确定有影响力的研究话题和文章。通过人工智能驱动的算法,期刊编辑部可以就期刊内容和数据作相关决定,确保所选文章与特定学术期刊的选题范围和目标保持一致。在同行评议方面,GAI不仅可以通过算法匹配与稿件主题具有相关性的专家,实现稿件在审稿阶段的快速分发,还可以将审稿专家的快速笔记或简单评论转化为规范合理的审稿意见,实现同行评审过程的优化和自动化,减少评审员的主观偏见。在审查校对方面,GAI可以识别常见错误,如排版错误或格式错误,减轻编辑负担,协助编辑提出修改意见,提高论文的可读性。已有学者基于ChatGPT的API接口开发了论文修订平台Manubot。该平台可以根据论文的不同部分自动生成修订建议,比如它能根据全文自动总结摘要,在研究方法部分根据论文类型提供数学公式和方程式等,在研究结论部分提供清晰的论证和总结[6]。在印刷出版方面,GAI可以分析内容结构、图像和格式要求,实现排版过程的自动化,提高速度和准确性,从而优化印刷生产流程,确保高效的版面设计。在知识共享方面,GAI能在对海量数据进行较为精准的深度标引与分析的基础上形成一系列知识成果,从而构建知识库,提高学术成果的可见性、易访问性和参与度,实现更广泛的知识传播,促成更多的合作。

总之,GAI不仅可以提升学术传播的效率,还能减少主观偏向,推动出版流程各个环节之间的数据传递和支持,从而在选题策划便捷化、编辑出版自动化、印刷出版按需化、营销发行精准化及知识服务智能化等方面重构学术出版链。

二、GAI引发的学术期刊出版失范风险

虽然以ChatGPT为代表的GAI为学术期刊出版的未来带来了无限的想象与可能性,但我们还是应审慎考虑技术可能引发的一系列失范问题,认清我国学术期刊发展所处的阶段,将两者相结合,找到数智时代学术期刊出版融合发展的未来道路。

1.学术共同体的技术失范风险

学术期刊出版的争议焦点之一是GAI是否可以被列为作者,这关乎人机协作模式下知识生产主体的合法性问题。爱思唯尔、施普林格·自然等多家出版商均更新了出版政策,不允许GAI被列为论文作者,这意味着作者只能由人类来担任,AI无法承担作者应该承担的责任。

在教育领域,ChatGPT引发了高校、科研院所等学术机构对学术抄袭、剽窃、作弊等问题的担忧。著名语言学家、哲学家艾弗拉姆·诺姆·乔姆斯基认为ChatGPT是一种“高科技抄袭”工具[7]。一项针对上千名斯坦福大学学生的调查表明,有许多学生已经在期末考试和作业中使用了ChatGPT[8],诸多研究也证明了ChatGPT具备一定的参与不同学科考试和撰写相关论文的能力,因此其具有成为作弊工具的可能性。但维拉诺瓦大学学术诚信项目主席爱丽丝·戴利认为,使用AIGC的学生与那些在没有标注来源的情况下,从维基百科上拷贝或粘贴一段文字的学生并无二致[9]。在学术和技术领域发生根本性变化的过程中,我们需要重新考虑学术诚信的定义,以合理地反映社会环境。

在版权领域,ChatGPT引发了两个主要的版权问题:版权归属和侵权争议。GAI与版权之间的联系是一个复杂的问题。一方面,GAI可以通过帮助创作者保护自己的权利来促进内容的发现和使用。另一方面,当内容在没有通知创作者的情况下被复制或更改时,GAI也可能侵犯版权。德国版权法规定,版权是关于人类个人智力创作的作品,否則会造成无端侵犯版权、版权归属的混淆、损害创作自由的不良后果[10],难以确定哪个人或组织有权发布和展示AIGC。美国人工智能研究公司OpenAI声明,公司不对任何可能发生的知识产权侵权行为承担法律责任,它还声明将输出的所有权利,包括所有权和利益“转让”给用户。然而,这些条款没有具体说明转让的细节,详细信息必须包括转让期限、地区、特许权使用费百分比和应付对价[11]。

2.学术生态环境的伦理失范风险

数据偏见是指用于开发人工智能模型的训练数据中存在的既有偏见所导致的不公平或歧视性的结果。当作者在论文写作环节使用GAI时,基于现有数据材料进行训练的人工智能模型可能会延续这些文本中存在的偏见,如文化偏见或性别偏见。乔姆斯基指出,由于ChatGPT缺乏根据道德原则进行推理的能力,程序员简单粗暴地限制其在有争议的讨论中提供任何新颖的观点,使得它拒绝在任何事情上表明立场,表现某种类似汉娜·阿伦特笔下“平庸的恶”:剽窃、冷漠和回避[12]。而且,ChatGPT难以解释清楚其解答过程和预测过程,用户也很难理解和解释其模型的内部工作原理,让人怀疑其模型预测的客观性。

此外,ChatGPT同样存在人类的认知偏差,例如:无法很好地理解图形的美学特征;缺乏对多语言和多模态数据的理解;专业知识储备不足,缺乏最新前沿科研知识。法学领域的相关研究发现,ChatGPT会毫无意识地引用错误的法规,而这些错误可能触发职业规范问题,甚至导致违法行为发生。

用GAI辅助的论文写作工具需要输入个人敏感信息,这引起用户对隐私泄露的担忧。如果用户经常向人工智能系统提供他们的写作提示、草稿和研究材料,可能会暴露他们的个人数据,导致知识产权受到侵害。意外的数据泄露、安全漏洞或对用户数据的未经授权访问会侵害个人隐私。当使用GAI审查未发表的手稿时,GAI可能会将数据或想法纳入其训练数据,或者在匿名评审中作出暴露作者身份的回复。

3.数字基础设施改造的可行性问题

国际跨国公司争先恐后地投资GAI,已经引发了技术的“军备竞赛”。微软在OpenAI及ChatGPT上投资了100亿美元,亚马逊也宣布投资100亿美元用于“GAI计划”,埃森哲咨询公司计划针对数据和AI业务投资30亿美元[13]。而国外与学术期刊出版直接相关的部分技术服务机构,早已将数据挖掘、人工智能、自然语言处理、协同推荐等技术应用到学术出版的各个环节,覆盖学术出版的全过程。这些机构大多成立于欧美地区,规模庞大。爱思唯尔、霍尔茨布林克出版集团等机构也拥有人工智能专家团队,其管理层已经与GAI技术专家共同商讨战略规划。一些学者指出我国学术出版系统可以借鉴国际学术期刊出版集团人工智能出版技术产品的应用,以实现学术期刊出版全流程的自动化、高效化和智能化,从低层次传播向高层次服务转型。但是这些观点忽略了我国出版生态与国际出版生态的差异。

国外出版机构依托的数字基础设施具备以下鲜明特征:一是海量的元数据;二是采用高级算法处理数据;三是决定数字出版界面的内容呈现;四是控制外部应用界面的介入和接入。我国千余家学术期刊并未形成集团化经营模式,难以承担高昂的GAI技术产品成本。我国主要的学术出版技术服务机构如勤云、仁和、三才、北大方正等规模较小,业务范围局限在国内,资金体量较小,受到技术环境和发展水平的制约。而且我国学术期刊出版机构对GAI技术的应用和数字基础设施改造,更偏向于社会层面的公益性,并不以获取利润和回报作为核心目标。

三、 基于GAI的学术期刊出版协同重构

1.应对技术失范:AIGC检测工具、NFT源码和数字水印

目前已有多种方法和多个检测工具能够检测ChatGPT引发的学术抄袭、剽窃、作弊等学术不端的行为。OpenAI专门针对ChatGPT发布了AI classifier,能够检测文本是否由人工智能生成。还有学者提出CowClip算法和DyStyle算法等,这些算法使用动态神经网络进行多属性条件样式编辑,并且可以检测出AIGC。国外已经有10多种检测AIGC的工具,如Winston AI、Copyleaks、ZeroGPT、GPTKit等。其中,GPTRadar可以列出文本的困惑度,即模型预测单词的能力,还提供令牌概率和分布信息。

有學者指出,出版机构可以采用非同质化代币(NFT)技术来防止AIGC的科学剽窃和版权侵权[14]。NFT是一项基于区块链的技术,能够向任何数字对象(图像、文本或视频)添加不可替代功能,使其具有不可替代性和唯一性。因此,出版机构可以通过赋予AIGC特定的NFT代码来增加文本的不可替代性,从而有效避免抄袭和版权侵权。数字水印也是当前可行性较高且受多方看好的技术,能确保GAI公司支付使用受版权保护内容的许可费[15]。OpenAI表示考虑在ChatGPT中添加数字水印,以降低模型被滥用带来的负面影响;谷歌表示将确保公司的每一张AI生成图片都内嵌水印,该水印无法以肉眼识别,但谷歌

搜索引擎等软件可读取并显示标签,以提示用户该图片由AI生成;Shutterstock、Midjourney等AI应用也

将支持这种新的标记方法[16]。

2.应对伦理失范:建立人工智能出版伦理原则

我们需要在诉诸共识的基础上实现GAI技术的有序向善发展,推动各国政府、互联网企业和用户达成一套完整而具有操作性的原则。爱思唯尔的母公司励讯集团制定了五条原则:第一,考虑解决方案的实际影响;第二,防止产生或加强偏见;第三,确保方案的可解释性;第四,建立问责制;第五,尊重隐私并倡导强有力的数据管理[17]。美国哈佛大学法学院讲师杰西卡·菲耶尔德等人组成的团队对倡导共同研究公正性的《蒙特利尔宣言》和包括日本在内的36个国家和地区的AI指导方针进行分析,得出了如下八个共同原则:“个人隐私”“说明责任”“安全性和(抵御第三方侵害的)安全性”“透明性与可解释性”“公平性与无歧视”“人类控制”“专家责任”“促进人类价值” [18]。

GAI逐渐成为学术期刊出版领域的重要利益攸关方。我国出版期刊界需要尽快建立GAI出版原则。首先,GAI的企业和开发人员应该遵循人类社会的道德框架和准则,并对其系统输出承担道德和法律责任。其次,GAI必须尊重内容创作者对的权利,出版机构有权就其知识产权的使用进行谈判并获得公平的补偿,版权法保护内容创作者免受未经许可使用其内容的影响。最后,GAI系统应该保障公平性、安全性和隐私性,管理部门须建立公共部门的问责制度。

3.全球治理格局下的数字基础设施

GAI作为一种人类共同面对的新技术,其可能引发的技术伦理失范问题应从全球治理格局下审视,它需要政府间跨国、跨地区合作监管。当下,许多国家和地区开始探索人工智能科技伦理与立法的道路,为未来共同建构GAI的全球监管奠定基础。2023年4月11日,国家互联网信息办公室起草了《GAI服务管理办法(征求意见稿)》,对GAI服务商的准入、算法设计、训练数据选择、模型、内容,以及用户实名和个人隐私、商业秘密等方面提出了相关要求。学术出版机构可以根据管理办法来制定相应的使用规范,及早进行风险管理。

各企业、机构需要合作研发建设GAI数字基础设施。当前,全球人工智能发展进入新一轮跃升期,中国正在积极布局GAI新赛道,谋求在国际数字出版领域实现弯道超车。目前,国内互联网公司已开发相应产品,如“文心一言”“通义千问”“360智脑”等,已有100多家主流媒体宣布与“文心一言”开展AIGC合作。我国独立自主的GAI数字基础设施研发需由政府牵头,由出版机构、高校、研究机构和互联网企业等多元主体协同参与。各企业单位应做好公共学术数据库的把关人,以维护我国的学术和文化安全,抓住新一轮出版深度融合发展的机遇。

|参考文献|

[1]陆小华. ChatGPT等智能内容生成与新闻出版业面临的智能变革[J]. 中国出版,2023(5):8-15.

[2]张重毅,牛欣悦,孙君艳,等. ChatGPT探析:AI大型语言模型下学术出版的机遇与挑战[J]. 中国科技期刊研究,2023(4):446-453.

[3]沈卫星,刘宇轩. ChatGPT介入新闻出版:功能、伦理风险及编辑把关[J]. 中国编辑,2023(5):123-128.

[4]约翰·B. 汤普森. 数字时代的图书[M]. 张志强,等,译. 南京:译林出版社,2014.

[5]周彩珍. 基于出版产业链视角探索学术期刊融合发展之路[J]. 编辑学刊,2023(1):73-78.

[6] HUANG J,TAN M.  The role of ChatGPT in scientific communication: writing better scientific review articles[J]. American Journal of Cancer Research,2023(4):1148-1154.

[7]语言学家认为:ChatGPT本质是高科技剽窃[EB/OL]. (2023-02-11)[2023-06-17]. https://new.qq.com/rain/a/20230211A04LZP00?no-redirect=1.

[8]“人人都在作弊”:为什么这位老师采用了开放的 ChatGPT政策[EB/OL].  (2023-01-27)[2023-

06-17]. https://baijiahao.baidu.com/s?id=1756146644677854851&wfr=spider&for=pc.

[9]ChatGPT Is Making Universities Rethink Plagiarism[EB/OL]. (2023-01-30)[2023-06-17]. https://www.wired.com/story/chatgpt-college-university-plagiarism/.

[10]ChatGPT Copyright: Everything you need to know[EB/OL]. (2023-02-21)[2023-06-17].  https://neuroflash. com/blog/chatgpt-copyright-everything-you-need-to-know/.

[11]ChatGPT and Copyright Issues[EB/OL].

(2023-04-20)[2023-06-17]. https://www.theipmatters.com/post/chatgpt-and-copyright-issues.

[12]乔姆斯基:追捧ChatGPT是浪费资源[EB/OL]. (2023-03-27)[2023-06-17]. https://www.163.com/dy/article/I0S9I4UR0553XUSL.html.

[13]埃森哲计划在三年内向AI领域投资30亿美元[EB/OL].  (2023-06-15)[2023-06-17]. https://baijiahao.baidu.com/s?id=1768739577546368863&wfr=spider&for=pc.

[14]SAEIDNIA H. Open AI,ChatGPT:To Be,or Not to Be,That Is the Question[J]. Information Matters,2023(6):1-4.

[15]“AI孙燕姿”火遍全网!数字水印应用场景广阔,这些公司有布局[EB/OL]. (2023-05-12)[2023-

06-17]. https://www.sohu.com/a/675056738_119666.

[16]AI“作恶”案件频发 潘多拉魔盒已打开 数字水印会是那顶紧箍吗?[EB/OL]. (2023-05-27)

[2023-06-17]. https://www.163.com/dy/article/I5O7S

7KQ05198CJN.html.

[17]10 ways Elsevier is using data to drive inclusion[EB/OL].  (2022-12-15)[2023-06-17]. https://www.elsevier.com/connect/10-ways-elsevier-is-using-data-to-drive-inclusion.

[18]外媒:AI研發和使用应遵循哪些原则[EB/OL]. (2023-05-31)[2023-06-17]. https://www.sohu.com/a/680759400_114911.

猜你喜欢
学术期刊学术人工智能
学术期刊引证指标
学术期刊引证指标
如何理解“Curator”:一个由翻译引发的学术思考
人工智能与就业
河海大学学术期刊创办百年
学术
虚假学术期刊累及一线作家
创新需要学术争鸣