生成式人工智能驱动下的学术成果版权规范探讨

2024-10-15 00:00:00郑海山
理论导刊 2024年10期

摘 要:生成式人工智能对学术科研领域的介入,在极大提升科研效率的同时,也对现有的版权制度形成了不小的冲击,造成了知识原创性流失风险、学术成果著作权认定模糊以及知识产权侵权问责困难等在内的版权问题。为此,要从著作权主体认定、责任规范体系建立、AI透明机制建设以及学术监管体系改革四个层面完善学术领域的版权规范,促进生成式人工智能与学术科研的良性互动与共同发展。

关键词:生成式AI;AI学术参与;版权规范;学术监管

中图分类号:D92

文献标志码:A 文章编号:1002-7408(2024)10-0077-05

随着2022年12月生成式人工智能(Generated Artificial Intelligence,以下简称生成式AI)应用ChatGPT3.0的发布,生成式AI逐渐在科研学术领域展现出其强大的创造能力,世界范围各领域使用ChatGPT进行学术科研的实践层出不穷。尽管通过ChatGPT生成的学术论文、报告等成果大多都具有一定的学术价值,但是诸多科研机构与高等院校均对其采取了限制的措施,明令禁止科研人员使用包括且不限于ChatGPT在内的各种生成式AI应用进行学术成果的产出,如有特殊需要必须进行标注。著名语言学家Chomsky对此行为也持抵制态度,认为ChatGPT是一种“高科技的剽窃”[1]。然而,也有部分持积极态度的学者认为ChatGPT能够提高学术研究的效率与质量,甚至有更加激进的观点认为ChatGPT将在未来接管整个科研领域[2]。无论学界对此的观点存在何种程度的差异,至少生成式AI对学术成果版权的冲击已成不争的事实。因此,为保护学术领域的版权利益,塑造良性的科研环境,及时发现并分析生成式AI应用于学术研究的相关版权问题,构建行之有效的规制体系,是推动生成式AI与学术科研共同实现高质量发展的必行之路。

一、生成式AI融入科研学术领域引发的生态变革

学术科研的产出本质上属于内容创造的过程,生成式AI的出现无疑会对其造成影响。《2023年AIGC发展趋势报告》提出:“AIGC(人工智能生成内容)是具备生成创造能力的AI技术,其可以自主生成创造新的文本、图像等内容和数据。”[3]从学术创新的角度来看,生成式AI对科研的帮助无疑是巨大的,但是同时也不可避免地会引发整个学术生态的变革。

(一)生成式AI创新传统科研方式

“学术生产是学术生态的基础环节,其在学术发展中处于基础性地位。”[4]生成式AI凭借其大数据、算法以及大语言模型的加持,对学术生产中的文献的搜集与梳理、观点的评述与总结以及论文的写作与修缮等环节均能起到显著的作用。在文献的搜集与梳理上,生成式AI仅需与学者进行自然语言的简单交流,就能够提炼出关键词并提供相关的权威文献的汇总与梳理分析;在观点的评述与总结上,生成式AI可以轻松突破学科的壁垒,对不同领域、学科以及理论的学术观点进行评论分析,大幅提升学术观点总结归纳的效率;在论文的写作与修缮上,生成式AI不仅能够以简明清晰的方式进行逻辑论证,也能根据不同的语言习惯优化篇章布局,充分减少学者在言语组织与语法句式上投入的精力。概而言之,生成式AI对传统的科研方式进行了极大的创新,对学术生产力的发展具有巨大的促进作用。

(二)生成式AI冲击学术问责机制

学术研究的良性发展离不开严格的学术问责机制,所谓学术责任是指“一种内生性的学术契约精神,是学者必须坚守的学术底线和自律精神”[5],学术问责机制意在要求学者在学术研究的过程中严格遵守学术行为规范,自觉履行相关的学术义务,承担包括学术抄袭、剽窃等学术不端行为造成的后果。当下的学术问责机制是以人为学术主体而建立的,然而生成式AI的出现使得诸多学术成果的创造主体逐渐从人转向“人机”共同体,这势必会对目前学术问责机制造成冲击。生成式AI的加入,不仅会造成责任主体认定的模糊,还会影响责任的分配以及惩戒方式的选择与执行。因此,当未来生成式AI深度参与到学术研究过程中时,学术问责机制的更新迭代也将在所难免。“倘若学术共同体缺少完善的学术责任来约束实践活动时,教育实践就会衍生出诸多伦理失范现象。”[6]

二、生成式AI应用于学术研究领域引发的版权问题

有研究机构预测,至2025年,AIGC将占据网络内容的30%[7]。如此庞大的数量对于现有版权保护体系将是一场前所未有的挑战,由此引发的版权问题也将层出不穷。就目前生成式AI在学术领域的使用情况来看,已经暴露以及明显潜在的版权问题主要有以下三方面。

(一)知识原创性存在流失风险

学术研究本质上属于知识的创造、归纳和总结,并非简单地对现有文字与符号的重新排列组合。学者Bender认为以大语言模型为核心的生成式人工智能如同“随机鹦鹉”[8](stochastic parrots),它既不理解知识也不创造知识,只是根据痕迹数据(data shadow)组合文本,作为一个知识搬运工的角色存在。过度使用生成式AI无疑会降低人类自身的知识原创性,并对学术成果的质量造成负面影响。诸多学者在使用ChatGPT的过程中发现,ChatGPT会生成部分不符合学术规范的内容,甚至会自行编造莫须有的参考文献[9]。如果学者不对文献进行主动筛选与阅读,而直接应用AI生成的内容,不但会使其成果的学术价值与真实性受到质疑,也会极大打击其他学者的原创积极性,最终导致学术研究领域知识原创性的大面积流失。

(二)学术成果著作权归属模糊

“权利归属是著作权法的核心,其可以明确成果究竟归属于谁,以及谁可以对所创作的作品享有权利并承担责任。”[10]传统的著作权规则体系,由于生成式AI的介入而受到巨大的挑战。一直以来,著作权的立法目的都是“通过赋予权利人对作品的法定专有权来激励作品创作和传播”[11];同理,学术作品著作权的归属问题也主要围绕着人类主体而展开。生成式AI的学术参与使传统学术成果的生成规律与模式发生了变革,原本单一的学术主体逐渐向多元的学术参与主体转变。在不考虑生成式AI法律主体性的前提下,生成式AI的研发者、所有者以及使用者都具有成为著作权主体的可能性,显然现有的著作权归属机制难以应对这一难题。此外,随着AIGC学术成果的日益增多,愈来愈多“孤儿作品”(完全由生成式AI创作的学术作品)的出现,势必将引发大量的著作权法律争议,对原有的学术版权保护体系形成一定冲击。

(三)知识产权侵权问责困难

生成式AI能够参与学术研究的原理在于其内部AI算法能够对海量学术相关数据进行“爬取”“挖掘”以及“深度学习”等操作。然而,目前我国著作权法并未对上述行为进行定性,这也导致生成式AI对现有成果的“大规模学习、模仿、组合和转化可能对原著作权人享有的权利造成侵权”[12]。换言之,通过向生成式AI输入未经授权许可的版权保护作品,大概率会侵犯版权所有者的权利。并且,在生成式AI参与的学术著作主体认定存在争议的情况下,一旦出现知识产权侵权行为,责任主体的认定同样模糊不清。尽管诸如OpenAI等高科技公司均发表声明,不为任何使用旗下生成式AI应用产生的知识产权侵权问题承担法律责任,但由于生成式AI运行特性的存在,其不可能单纯通过“技术中立”的理由规避责任。

三、生成式AI驱动下学术论文版权规范之道

尽管在学术出版领域,诸多权威期刊均对生成式AI持担忧与谨慎的态度,如Science期刊就明确规定学者不得将AI列为共同作者,并且必须披露使用AI的详细信息[13],但是生成式AI融入学术研究领域的趋势似乎无法避免。因而,当下亟须思考的应当是如何厘清生成式AI于学术创作中的地位与作用,以及如何应对其所带来的系列问题。

(一)明确“人”的学术著作权主体地位

随着人类社会从工业时代迈入信息时代,社会生产力得到了极大的提升,人类也逐渐步入“以人为本”的人本主义时代。人本主义时代重视人类自身的价值,注重以人为中心的发展。AIGC学术论文的规范应当顺应这一历史潮流,努力将人本主义渗透于版权保护的各个环节当中。“人类的智能是人类自身在漫长的进化过程中千锤百炼积累起来的智慧能力,而高级人工智能说到底也只是人类自身智慧的某种模拟和复制。”[14]“在法律上把版权归属于一部机器是不可想象的,不管这部机器多么完美。”[15]易言之,生成式AI本质上是人类智慧的产物,无论其功能如何强大,也终究无法超越作为物的社会工具范畴。并且从理性与意识的角度出发,现有乃至未来很长一段时间内的人工智能体都无法具备人类特有的自我意识与理性,这是人类能够处于支配与主导地位的关键因素。德国法学家拉伦茨认为,没有理性的东西只能作为手段,而具有理性的人不能作为手段来使用[16]。显然,生成式AI作为由算法模型驱动的机器,即便具有独立意识与理性,也是源于算法计算的结果,均在设计者的掌控范围之内,给予其法律主体地位并无必要。

另外,一旦赋予生成式AI著作权主体的法律地位,那么生成式AI将被提升至与人类平等的法律地位,原本人与物的从属关系也将被打破,从而产生更多的版权、伦理以及社会问题。当不具备独立意识的生成式AI成为著作权主体时,“人工智能本身即能够成为隔绝不利法律后果的绝佳工具”[17],这为身处生成式AI背后的侵权主体创造了极为合适的违法犯罪环境。学术研究源于人类对知识的探索,其成果权利的享有与责任的承担也理应回归于人类本身。生成式AI的介入并不需要为其量身定造全新的法律制度,更重要的是坚持以人为本的观念,恪守谦抑性原则——“如无必要,勿增实体”,避免陷入算法主义的窠臼当中。因此,坚持人类主体资格的立法观,明确人的学术著作权主体地位,不仅“是对旨在将‘思想’赋予‘表达’的作者权利的重要保护”[18],同时也是对AIGC学术论文潜在风险的防控与规避。

(二)建立相应的AIGC学术责任规范体系

在生成式AI参与学术研究的浪潮不可避免的情形下,相应的学术责任规范体系亟须建立,在学术研究过程中使用生成式AI的学者应当为其成果承担相应法律责任。AIGC学术责任规范体系的设计主要需要注意以下两方面内容。

一方面,明确生成式AI在学术研究中的参与程度。根据目前生成式AI的技术发展,其几乎可以在学术研究中的各领域发挥作用,从文献搜寻与观点梳理到案例分析与论文写作,生成式AI几乎对学术创作形成全方位覆盖。这不仅会给学术不端行为的认定造成阻碍,同时也容易造成学术责任的分散化。因此,AIGC责任规范体系应当就生成式AI可使用的范畴作出规定,如哪些学术研究步骤允许使用生成式AI辅助,哪些问题允许使用生成式AI进行讨论,明晰学术不端与生成式AI使用的边界关系,以及规范生成式AI生成的案例与数据使用的问题等等。由于生成式AI发展迭代的速度迅猛,通过自下而上的罗列式规定难免会加重法律的滞后性问题,故而应采用自上而下的概念式规定以适应科技的发展。加之,AIGC“都属于‘从1到n’或‘有中生有’的生成,而不是‘从0到1’或‘无中生有’的生成”[19],唯有人类才能实现后者的创新生成。在此,基于对学术创新性的保护考量,笔者认为,AIGC责任规范体系应当明确生成式AI仅限于提供已有文献与观点的罗列与阐述,而不参与新的观点与理论的创造。

另一方面,明确著作权主体与责任主体的关系。法律的生命在于执行,明确侵权责任主体是AIGC责任规范体系最关键的一环。根据前文所述,AIGC论文的著作权主体的认定应当坚持以人为本位,在学术责任的承担上遵循人本思想,由相应的学术作者承担学术不端的后果。然而,生成式AI的内容侵权问题也不能完全转移至作者身上。“算法偏见和算法歧视等技术伦理失范问题一直贯穿于AIGC技术创新与应用的始终。”[12]AIGC的本质是人类思想的表达,所有者负有确保其内容合理合法的义务。一旦明确生成式AI于学术研究中的合法地位,其所有者也应为其虚假、歧视或偏见内容承担相应责任。

(三)推进AI参与学术研究透明机制建设

在AI的规制研究中,算法透明一直是重点研究领域之一。在AI参与学术研究的领域中,倡导作者以负责、透明的方式使用生成式AI,对论文中AIGC部分进行显著标注是规范AIGC学术论文的有效途径之一。我国《生成式人工智能服务管理暂行办法》明确规定对于AIGC应当进行显著标识,但在具体的标准上并未有详细说明。目前,生成式AI的使用形式主要有语言辅助、事实发现以及思想生成三类。因此,AI参与学术研究透明化主要可以从参与内容、参与方式、参与程度以及AI的详细信息等方面进行规定。譬如,在AI作为语言辅助工具使用时,由于“生成模型被用于转述或润色作者的原始内容,而不是建议新的内容时——他们类似语法拼音检查器、字典和同义词工具等工具”[20],可以不要求使用者履行释明义务;在AI作为事实发现工具使用时,使用者应当承担涉及内容的披露义务和内容审查义务;而当生成式AI被作为思想生成工具使用时,使用者不仅要履行披露和审查义务,更“应当说明使用AI辅助写作的理由以及自身对与科研成果的贡献和创新性”[21]。

此外,当前的生成式AI已经嵌入网络社会的方方面面,诸多搜索引擎、办公软件以及编程工具等均在不同程度上存在生成式AI的参与,这导致生成式AI参与学术研究的程度认定模糊不清,作者自身也难以对AIGC部分进行充分标注。该技术性问题通过人工的方式解决无异于杯水车薪,技术性问题还需用技术的手段加以规制,采用AI检测系统是识别和规制AIGC学术论文的重要手段。目前,市面已经出现部分能够识别AIGC的AI检测系统,主要用于对AI写作内容的检测。然而,随着生成式AI技术的发展,识别难度也将随之加大,并且错误识别的风险也无法完全避免。故而,可将AI检测系统的研发任务分配给生成式AI开发者,由其设计相应的检测系统,提高识别准确率。当然,AI检测系统仅仅只是针对学术论文的AIGC部分进行识别检测,论文的创新性与核心观点还需由人自身来进行评判。

(四)加快AIGC学术监管体系改革

传统的学术监管主体主要由高校、科研机构以及学术出版机构组成。然而,在当前生成式AI介入程度越来越深的形势下,面对庞大资本支撑的AI应用冲击,单单依靠原有学术监管主体的力量已然无法招架。我国政府部门完全可以牵头引导组织高校、企业、科研机构以及学术出版机构等相关主体共同研发设计AI学术检测系统,形成多元化学术监管体系。由政府部门完成监管体系的顶层设计,高校、科研机构以及学术出版机构对具体的监管方案进行构思,再由企业进行相应监管系统的底层技术搭建,“从而最大限度地减少偏见、剽窃、版权侵权等问题”[22]。

此外,生成式AI的出现为学术科研领域提供了强大的助推力,但同时也是一种“破坏性创新”[23]。放任生成式AI在学术领域的发展,不对现有监管体系进行改革完善,将不可避免地对学者学术创新的积极性造成毁灭性打击。换言之,AIGC学术监管需要合理把握法律规制与科技创新之间的平衡点。面对生成式AI所带来的“破坏性创新”,“试验性监管”模式不失为一种合适的监管模式。“试验性监管强调监管方式的柔性和灵活性,开辟制度的‘缓冲带’,引导新技术、新商业模式在经过实验并确定其最适宜的监管强度后施以最合适的监管政策。”[24]政府部门作为引导者应当以前瞻性的视角构思监管体系的设计,要在充分释放新技术红利的同时,保持学术领域创造创新的持续活力。综上,AIGC学术监管策略应当秉持包容审慎的态度,既对生成式AI于学术领域的发展持包容态度,同时也持续观察其发展趋势与具体情况,严格坚守法律底线,对学术不端、侵犯版权等行为及时采取严厉打击措施。

结语

从AlphaGo战胜人类最顶尖的围棋选手柯洁,宣告对人类最复杂领域的占领到ChatGPT4.0的发布仅仅过去了6年时间。或许未来的生成式AI能够达到接管学术领域的程度,但就目前而言,坚持人类主体地位,明确生成式AI的地位与使用规范,预防其对学术研究领域的伦理冲击与版权侵犯才是有效之举。应通过对生成式AI负面影响的消除,使其在学术领域发挥更好的辅助作用,为人类智慧的进步提供持续动力。

参考文献:

[1] MASHALL C. Noam Chomsky on ChatGPT: it’s “basically high-tech plagiarism” and “a way of avoiding learning”[EB/OL].(2023-02-10)[2023-12-01].https://www.openculture.com/2023/02/noam-chomsky-on-chatgpt.html.

[2][JP3]GORDIJN B, HAVE H T. ChatGPT: evolution or revolution?[J]. Med Health Care and Philos, 2023(26):1-2.

[3]腾讯研究院.AIGC 发展趋势报告2023:迎接人工智能的下一个时代[EB/OL].(2023- 02-16)[2023-12-03]. http://www.199it.com/archives/1558601.html.

[4]骆飞,马雨璇.人工智能生成内容对学术生态的影响与应对:基于ChatGPT的讨论与分析[J].现代教育技术,2023,33(6):15-25.

[5]陈亮.新时代大学教师的学术责任精神及其培育[J].湖南师范大学教育科学学报,2021,20(2):16-25.

[6]陈伟.论中国学术职业的伦理缺失及诊治[J].现代大学教育,2009(4):22-27.

[7]詹新惠.AIGC意味着什么[J].青年记者,2022(24):125.

[8]BENDER E M,GEBRU T,MCMILLAN-MAJOR A,et al. On the dangers of stochastic parrots:can language models be too big?[C]//Proceedings of the 2021 ACM Con-ference on Fairness,Accountability,and Transparency,2021:610-623.

[9]BLANCO-GONZALEZ A , CABEZON A , SECO-GONZALEZ A ,et al.The Role of AI in drug discovery: challenges, opportunities, and strategies[J].arXiv e-prints, 2022.DOI:10.48550/arXiv.2212.08104.

[10]刘云.论人工智能的法律人格制度需求与多层应对[J].东方法学,2021(1):61-73.

[11]熊琦.人工智能生成内容的著作权认定[J].知识产权,2017(3):3-8.

[12]方卿,丁靖佳.人工智能生成内容(AIGC)的三个出版学议题[J].出版科学,2023,31(2):5-10.

[13]Science. Editorial policies[EB/OL].(2023-11-16)[2023-12-08].https:// www.scien-ce.org/content/blog-post/change-policy-use-generative-ai-and-large-language-models.

[14]钟义信.高等人工智能原理:观念·方法·模型·理论[M].北京:科学出版社,2014:206.

[15]弗洛朗斯-马里·皮里乌,陆象淦.作者享有知识产权的合法性[J].第欧根尼,2005(1): 50-74.

[16]卡尔·拉伦茨.德国民法通论:上册[M].王晓晔,邵建东,等译.北京:法律出版社,2013:46.

[17]朱艺浩.人工智能法律人格论批判及理性应对[J].法学杂志,2020,41(3):132-140.

[18]周澎.“机器写者”法律地位认定与著作权主体的困惑疏解[J].中国出版,2023(10):60-64.

[19]肖峰.生成式人工智能介入知识生产的功用探析:借助ChatGPT和“文心一言”探究数字劳动的体验[J].重庆邮电大学学报(社会科学版),2023,35(4):1-10.

[20]ACL 2023 policy on AI writing assistance[EB/OL].(2023-01-10)[2023-12-13]. https://2023.aclweb.org/blog/ACL-2023-policy/.

[21]游俊哲.ChatGPT类生成式人工智能在科研场景中的应用风险与控制措施[J].情报理论与实践,2023,46(6):24-32.

[22]蒋雪颖,刘欣.生成式人工智能技术下的学术生产与出版:变革、失范与路径[J].数字图书馆论坛,2023,19(5):64-71.

[23]BOWER J L, CHRISTENSEN C M. Disruptive technologies: catching the wave[J].Harvard Business Review 1995(43):43-53.

[24]毕文轩.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角[J].比较法研究,2023(3):155-172.

【责任编辑:未央】

基金项目:国家社会科学基金一般项目“数字治理背景下新型政商关系规制研究”(23BZZ086);共青团中央“青少年发展研究”课题项目“算法社会中青年群体的权益侵害风险与法律保障机制研究”(22XT107)。

作者简介:郑海山(1997—),男,福建泉州人,浙江工商大学法学院博士研究生,研究方向:法学理论。