王楠
规范使用GenAI,保障学术研究的质量和诚信,还学术界一片晴朗蓝天。
生成式人工智能技术(generative artificial intelligence,GenAI)是指具有文本、图片、音频、视频、数据、代码、模式等内容生成能力的模型及相关技术。自从ChatGPT暴火,不少人都将其作为论文写作的重要工具,引发了一系列涉及原创性、学术诚信、伦理、法律等方面的争议和讨论。
不久前,中华医学会杂志社发布《关于在论文写作和评审过程中使用生成人工智能技术的有关规定》(以下简称《规定》),其中明确,由于GenAI不具备作者的基本属性,且不能承担署名作者的相应责任,因此GenAI及其产品、团队不能作为论文的作者进行署名。而且,GenAI不能用于整篇论文或论文重要部分的撰写(如研究方法、结果和对结果的解释分析等)。作者应对论文的所有内容负有全部责任,包括GenAI辅助完成的部分。《规定》有利于规避期刊出现内容缺陷,甚至是凭空捏造的虚假研究。
事实上,这并不是学术界第一次针对GenAI论文造假進行规范。近一年来,全球数以千计的期刊更新了编辑声明,对投稿人在论文写作过程中的各种GenAI使用途径加以限制或完全禁止。在国内,2023年2月10日,《暨南学报》曾发布《关于使用人工智能写作工具的说明》,称暂不接受任何大型语言模型工具单独或联合署名的文章,如果在论文创作中使用过相关工具,需单独提出,如有隐瞒使用情况,将对文章直接退稿或撤稿处理。2023年9月20日,中国科学技术信息研究所发布《学术出版中AIGC使用边界指南》,建议研究人员使用生成式人工智能直接生成的稿件文字等资料(AIGC)必须提供明确的披露和声明,否则将构成学术不端行为。2023年12月21日,科技部监督司发布《负责任研究行为规范指引(2023)》,对医疗机构等科研主体提出了科学道德准则和学术研究规范,明确在研究项目申报环节,不得抄袭、买卖、代写申报材料,不得使用生成式人工智能直接生成申报材料。
科技日新月异的时代,人们对新事物的认知必然要经历从摸索到了解的过程。面对GenAI,学术界一方面逐渐看到其潜在的风险,另一方面也并未否认其实际价值,《规定》也十分注重引导合法、合理使用新技术,提到“对GenAI在论文写作中的应用予以审慎推荐,应严格在约定边界内使用”。比如,认可GenAI可用于研究过程所需要的文献检索、选题思路、关键词推荐等启发式探索用途;可用于论文的语言润色,不同语种的翻译,提升论文的可读性;可用于推荐合适的统计图表类型,辅助制图;可用于参考文献格式的规范化检查、参考文献与正文对应的自动化排序、自动引用生成等方面。但也特别指出,建议作者将GenAI辅助完成的部分(文本、图表、程序等)作为补充材料提交、存档,以便审稿人和编辑对论文的原创性进行评判。另外,一经研判认为作者在论文写作中存在违反GenAI使用规定的情形,将直接退稿或撤稿;情节严重者,将列入作者学术失信名单,两年内禁止作者向中华医学会系列杂志投稿;如作者是期刊审稿人,同时禁止其参与审稿工作。
建立科学合理的制度指引,不做“一刀切”,作者秉持诚信态度、遵循规范,对造假者有严厉的惩罚措施。这样的多维度“出击”,才能让虚假研究无所遁形,保障学术研究的质量和诚信,还学术界一片晴朗蓝天。
(作者系厦门南洋职业学院讲师)