王 少
(同济大学 马克思主义学院,上海200092)
2022年末,可以说“人话”的聊天机器人(Chatbot)ChatGPT横空出世,这一公共领域有史以来最好的人工智能聊天机器人[1]不仅可以流畅地与人类对话,还可以生成文本、代码,甚至可以帮助人们处理和分析数据,排查和发现程序故障。ChatGPT基于大型语言模型(Large Language Model, LLM)进行理解和训练,可以快速实现信息获取,在一种称为反馈强化学习(Reinforcement Learning from Human Feedback)的技术支持下,ChatGPT经过训练后可以理解和生成自然语言。ChatGPT是GPT(Generative Pre-Training Transformer)的迭代产品,GPT是拥有超过1 750亿参数的最先进的神经网络架构,其主要新颖之处在于自我注意机制,这使得模型能够更好地理解输入的不同元素之间的关系[2]。GPT模型使用自我监督的学习方法,先从大量未经过滤和注释的数据中学习,提高自身的可扩展性(Diffusion),再基于特定任务进行规定数据集训练,从而实现广度和精度的统一。
ChatGPT的爆火带动了一系列人工智能内容生产(AI Generative Content, AIGC)系统的开发,其竞品Bard、Wit.AI、New Bing、文心一言等都具有相似的深度学习机制和内容生产方式,对于推动创意完善、实现重复内容大规模制造具有极大价值,在加深人与人工智能交互的同时,也给包括学术研究在内的各种知识生产和应用工作带来新的发展机遇。然而,与学术研究如影随形的学术不端问题也出现在ChatGPT与学术研究结合的领域。作为一项颠覆性智能技术,ChatGPT对学术不端治理的冲击和影响值得探究。
ChatGPT在提示下完成的论文尽管还存在错误和科学性问题,但其语言理解和文字运用已经达到较高水平。ChatGPT通过较高的参与性、协作性和可访问性在一定程度上将科研人员从一些重复劳动中释放出来,同时其对网络数据的肆意使用和组合又带来一系列学术不端问题。ChatGPT的长期使用必然改变人们对学术研究的认知和态度,进而产生学术伦理反馈,这种反馈将直接体现在学术不端概念上,因为概念是学术不端问题的起点,只有被概念涵括的行为才是人们指涉的学术不端行为。内涵和外延是概念的基本组成单位,学术不端的现有概念既存在内涵上的逻辑不严密问题,也不断遭受新出现外延和对外延扩大解释的冲击[3]。ChatGPT进一步加剧了对概念的冲击。
学术不端的内涵是其真理性的意义体现,包括中国在内的大多数国家均以全称命题的方式描述学术不端的概念内涵,如通过否定谓词不符合、违反或违背连接研究伦理、科研诚信、负责任研究行为准则,或者以误导、妨碍、侵犯等负性谓词连接科研界、科学交流、知识产权等。大多数关于学术不端内涵的界定都具有逻辑不周延问题,有的缺少种差,有的滥用种差或者过度扩大属。本文仅从ChatGPT的应用出发,讨论现有内涵可能被突破的点。
尽管ChatGPT将自身定位为没有情感、意识或个性,只是一个回答问题的工具,但由于反馈强化学习机制的加持,其与使用者之间的互动超越了以往人工智能的能力范畴。虽然不能将其认定为有情感或意识,但其理解语言和及时调整输出的能力却具有相当大的共情价值,因此不能以普通智能辅助工具(如作图软件)视之,其对学术不端概念的冲击超越了过去的学术伦理认知。具体而言,ChatGPT主要在3个层次上冲击学术不端的概念内涵。
(1)ChatGPT的原创问题。不可否认,ChatGPT产出的科学论文仍然只是高度集成产品,其内容和观点通常来自他人作品,虽然在组合中模糊了模仿和抄袭边界,但非原创的本质未变。如果ChatGPT不具有法律人格,那么因非原创产生的剽窃责任就必须由使用者直接承担,而由于ChatGPT在转码过程中隐藏了抄袭的事实,使用者通常难以分辨哪些内容需要进一步甄别是否存在抄袭,这导致剽窃呈现出无意识特征。与此前学术不端的内涵相比,这一结果令人震惊,因为无论是违背还是误导,这些谓词事实上都隐含故意或过失的主观意识。如果ChatGPT具有法律人格,那么其应当承担相应责任,但同时应当享有产出作品的著作权,这显然不符合现行法律规定,因为法律上的作者只能是自然人、法人或其它非法人组织。将非原创作品用于学术发表当然违背学术伦理,但对于ChatGPT而言,由于不能成为作者,也就不具备学术伦理主体性,那么其生产的论文应当被看作是对什么的违背呢?如果将ChatGPT高度集成的作品在一定程度上视为原创,那么对作品的使用是否构成剽窃?《Science》杂志给出了肯定答案:“对于《Science》杂志来说,其系列期刊的作者都签署了一份许可证,证明该作品是原创的,而原创一词足以表明ChatGPT撰写的文本是不可接受的[4]。”一个更难解决的问题是,ChatGPT利用反馈学习获得用户思想内容后,再面向其他用户进行二次创作,是否也涉嫌剽窃先前使用者的思想?不具备学术主体性的ChatGPT通过原创问题极大冲击了学术不端中违背学术伦理的概念内涵。
(2)ChatGPT的错误问题。ChatGPT的错误主要来自于对信源的真伪区分能力不够。在学习训练时,ChatGPT缺少分辨可信与不可信来源的技能,那些导致人类误入歧途的偏见在ChatGPT中可能被进一步放大。并且,ChatGPT为了让自己的回答令人信服,有时甚至主动编造并输出错误文本,这些文本中的错误既有事实错误,也有数据错误和陈述错误,ChatGPT的使用者很可能因此被误导,进而产生妨碍科学交流的学术不端行为。在固有的学术不端内涵中,学术不端与学术不当(questionable research practice)之间有着不太清晰但容易理解的界限,也即一些难以避免、对于学术研究和创新是必要的错误和瑕疵(如在记录或统计数据时发生遗漏、剔除干扰数据时出现失误等)通常被纳入学术不当的范畴,学术不当虽然也可能违反学术道德,但往往不被视为学术不端,因为在学术不端概念中,科研人员违反学术道德的行为是不必要的和可以避免的(比如捏造、篡改、剽窃等)。当错误和瑕疵是由ChatGPT的技术缺陷所造成时,是否仍然适用学术不当的内涵范畴?使用者明知存在技术缺陷而包容错误或瑕疵是学术不当还是学术不端?毕竟,在反馈强化学习机制下,输入输出之间的互动与使用者的行动密不可分,ChatGPT创造的错误既可能是为了迎合使用者,也可能是接受了使用者反馈的暗示。
(3)ChatGPT的公平问题。ChatGPT能为使用者提供更丰富和易获取的创作学习资源,使学术研究和论文撰写变得高效便捷,成为生成式智能劳动,进一步节省科研人员时间。但是,ChatGPT的使用会导致显而易见的公平问题,如最基础的公平获取服务问题。尽管目前ChatGPT是免费的,但OpenAI已经宣布推出每月20美元的订阅服务,承诺更快的响应时间和优先访问新功能[5],即使免费试用版可以一直使用,收费版本显然具有更强大的功能,当ChatGPT变成一种不可或缺的内容生产工具后,财富不公平问题便会渗入其中。最麻烦的公平问题出现在成果鉴定中,无论是审稿还是作业批改,ChatGPT均使之超越一般意义上的能力评判,而实质上变成技术评判——评判人工智能内容生产技术的成熟度和科学性。特别是当ChatGPT的能力达到中等科研水平后,那些选择不使用ChatGPT的科研人员大多会陷入极不公平的竞争环境——输给人工智能技术,而技术背后的使用者可能并不具备通过ChatGPT所表现出来的科研能力。误导科研界的现象将一再发生,尤其在人们隐瞒自己使用ChatGPT,而评审者又无法分辨评审对象是否使用ChatGPT时,在没有专门针对ChatGPT作品的鉴定标准之前(这种标准还需要对照旧有鉴定标准进行标准化处理),误导科研界的行为将会一直持续并越来越普遍。
学术不端概念的外延体现为学术不端的表现形式,最为经典的外延是FFP(捏造、伪造、剽窃),近年来这一外延被不断突破,包括不当署名、违背伦理的出版行为、有问题的同行评审、利益冲突管理不善、实验记录保存不当、违反人体及动物伦理等。内涵与外延之间必须具有对应的逻辑关系,才能构成内部和谐的概念,如果内涵受到冲击,外延必然不能幸免。ChatGPT对学术不端概念外延的冲击主要表现在3个方面。
(1)ChatGPT的质变问题。ChatGPT本身是否具有创造力存在争议,但其可以作为磨砺创意的工具已达成共识,也即在一系列问答中不断提高使用者对问题的理解程度以及帮助使用者产生超越问题本身的抽象思维是可能的。ChatGPT可以仿照某种写作风格进行创造,这种创造建立在大量数据搜集、分析和训练的基础上,本质上是一种量变过程,但经其磨砺后产生的创意却是建立在数据分析基础上的质变结果,该结果既可能发生在使用者头脑中,也可能发生在ChatGPT基于使用者反馈作出的回答中。质变产生的创意是创造力或创新能力的体现,其不能等同于剽窃。然而,质变的产生虽然以ChatGPT使用者提问、提示和反馈为基础,但其前提却是人工智能自身的算法和算力。由此,对学术不端外延中的不当署名形成冲击:一方面,使用者通过ChatGPT产生的质变究竟在多大程度上归结于使用者本人显然难以分清,成果发表时的署名是否应当附带ChatGPT以及将ChatGPT署为作者还是非作者贡献者,均是不当署名概念所要考虑的问题;另一方面,如果使用者要求ChatGPT完全基于某一位或几位学术人的作品进行风格模仿,此时产生的质变能否看作是特定学术人思想的延伸?上述现象使不当署名问题变得更加复杂。
(2)ChatGPT的重复问题。国外已有研究表明,目前剽窃检测器(如Turnitin)无法检测人工智能生成的文章[6]。在当前国内主要依赖查重软件判断论文、申报书等是否存在剽窃问题的情况下,ChatGPT基于大量网络数据集生成的看似独到,实际是“改头换面”的文章同样很难被检测出来,这使得以重复为核心的剽窃概念受到极大冲击。剽窃不只是重复,但重复无疑是剽窃最典型的表现,放弃重复的标准不切实际,但主要依靠重复确定剽窃必然不合理。ChatGPT的重复还给思想剽窃的认定带来新难题。此前,思想剽窃主要发生在会议报告、学术谈话之后,现在由于超级算力支撑,ChatGPT等人工智能内容生产系统甚至可以从大量过往研究中推演出作者可能产生的新思想,毕竟大多数情况下,学者的研究思想总是一脉相承的。显然,ChatGPT对学术不端概念中的剽窃这一外延产生了极大冲击。
(3)ChatGPT的批判问题。ChatGPT确实能够展现批判性思维能力[7],当其使用者是初学者或学生时,可能很难判别ChatGPT的批判思维正确与否,由此导致有问题的研究流向学术领域,给同行评审带来新的挑战。在一些实验中,人们发现ChatGPT会对一些需要深度了解文献内涵的问题和任务产生错误理解,并产出虚假和具有误导性的文本,这些文本建立在对科学知识理解不深的基础上,其批判性或许完全是一种偏见。当评审专家面对这些文本时,可能出现两种态度,这两种态度都会触发有问题的同行评审:如果评审专家本身即有偏见,那么带有偏见的批判性文本则“正中下怀”,在看似公正的评审中掩藏评审专家的私心;虽然评审专家排斥偏见,但若不能识别出这些批判性文本的荒谬之处,那么错误将被带到公众领域。
ChatGPT对学术不端外延的冲击显然不只上述几种,限于篇幅,本文不可能一一列举,但必须说明的是,剽窃绝对是受到冲击最大的外延。由于ChatGPT在引用原始文献时经常会直接复制文本,或者转置后复制,然后在生成的输出文本中以ChatGPT自己的想法对外呈现,使用者可能在无意中抄袭大量文本,剽窃行为会在不知不觉中发生。同时,使用ChatGPT时的提问和反馈会被ChatGPT纳入语言模型中,ChatGPT一般会在不展示(可能也无法展示)这些思想和观点原始来源的情况下向他人提供相关信息,这会导致使用者的思想泄露,出现思想被他人剽窃的情形。最为抽象的剽窃问题仍然来自ChatGPT的法律人格问题,由于ChatGPT不被视为作者,其生产的各种文本在使用时通常很难被界定为剽窃,但其输出的文本显然有很大一部分由自身算力产出,而不仅仅是使用者的思想转码。因此,使用这些文本确实可能构成对人工智能的抄袭。
由于ChatGPT具有促进科研生产力提高的作用,其自然能够在学术研究中得到普及化应用,现有学术不端治理体系必然要随之调整。无论如何定义学术不端治理,其在本质上都是由特定主体依照一定标准、遵循规范程序对客体行为进行规制和约束的活动。因此,主体、客体、标准和程序是构筑学术不端治理体系的基本质料。ChatGPT较以往语言模型优越的最关键之处在于其能够更好地理解给定问题和反馈背后的含义,甚至使用者的意图,这使得其可以借助大规模获取数据和精准提取信息的能力回答那些不能直接通过搜索引擎获得答案的问题。在这一过程中,学术不端主客体均发生变化,固有程序和标准也变得不再适应。
治理至少包括预防和追责两层含义,由此生发两类学术不端治理主体:第一类通过教育方式实现预防,主要包括高校教师、研究生导师、课题组负责人等;第二类专司追责,由于直接涉及到惩戒措施,此类主体一般由机构担任,通常包括高校和科研院所学术委员会、教育和科技行政主管部门及其内设机构等。一般而言,两类主体虽然具有隶属关系,但功能相对独立,第一类主体通常不可能行追责之权,第二类主体也很少直接开展面向特定个体的教育活动。
ChatGPT的介入将打乱学术不端主体之间的平衡。第一类主体能够教育科研人员遵循学术伦理规范,但无法教育ChatGPT等AIGC系统;第二类主体可以惩戒在使用ChatGPT时发生学术不端行为的科研人员,但无法防范其使用ChatGPT。两类主体的功能必须竞合才能更好地应对ChatGPT的挑战,同时还要引入新的主体防范和规范ChatGPT的行为。不仅检测软件难以检测出ChatGPT产出的文本,即使是人工评审也难以发现ChatGPT的学术不端行为,比如在最近的一项研究中,学术评审人员对ChatGPT创建的摘要只发现了63%的造假[4]。只要这种造假或者剽窃可以在一定程度上归结于ChatGPT或者认为ChatGPT加剧了造假和剽窃风险,那么技术开发、监督机构和人员就需要承担一定学术不端治理责任。由此,学术不端治理主体的范畴被扩展到技术领域。这表明国家新一代人工智能治理专业委员会要履行一定学术不端治理主体责任,其余涉及到AIGC系统开发的机构、人员也从广义上被纳入治理主体中,这些主体或可称为第三类主体。
ChatGPT使学术不端治理的预防和追责渗入智能技术因素,第一类和第二类主体在功能竞合后还需与代表智能技术方的第三类主体进行合作,而第三类主体不可能将学术不端治理作为主要任务之一。因此,顶层设计至关重要,需要从国家层面联合第三类和第二类主体,并致力于让第三类主体承担更多预防责任。一个必然的要求是,学术研究的原创性和科普性需要加以区分,那些以原创为目的的学术研究规则不能被ChatGPT破坏,如果被破坏,技术开发者和使用者可能都要在一个共同框架中承担各自责任。这是第三类主体成为学术不端治理主体的前提,也是界定其功能的基础。
虽然ChatGPT看似向通用人工智能(Artificial general intelligence,AGI)迈出了一大步,但其仍然没有自我意识,也就不存在自由意志,这是阻挡其拥有法律人格的最大障碍。不具有法律人格的ChatGPT显然不能成为作者,这已迅速形成共识,如英国科研诚信办公室就明确规定ChatGPT不能视为合著者[8]。不过,学术不端不以作者为唯一治理客体,其客体内涵丰富,包括出版者、评审者和居间交易者都可能成为学术不端治理客体(也可以看作治理对象,而将其行为视作治理客体)。因此,ChatGPT仍然具有成为学术不端治理客体的可能。在固有客体结构中,作者对其成果负责,评审者对其评审行为负责,出版者则对其出版活动负责,但这些各司其职的规定在智能技术应用中被迫发生变化。因此,ChatGPT即使不能成为治理客体,也会在客观上重构治理客体的责任结构。
从ChatGPT产出文本的效果看,虽然其不具有制造高质量论文的能力,但其效率和合格率却远远高于人力,在科研压力下,不可避免会有相当多科研人员选择使用ChatGPT完成学术写作的主要工作。这将使LLM系统成为谎言发动机,人们会直接将ChatGPT产出的文本当作自己的文本用于出版或线上展出,这是典型的学术不端行为。尽管ChatGPT最终可能因不具备法律人格而不用承担学术不端责任,但学术不端行为的大部分确实由其完成。进一步分析ChatGPT的文本生成,发现其技术局限性成为加重使用者客体责任的根源:文本生成质量取决于使用者提问和反馈质量;生成文本使用的数据可能是过时(当前ChatGPT的训练数据截至2021年)、错误或虚构的,而文本使用的选择权在使用者;生产文本的价值观、偏见和合法性均要由使用者把关。由于使用者、评审者和出版者的不慎导致ChatGPT生产的问题文本进入出版或公共领域,使用者被加重的责任会显而易见地向评审者、出版者渗透。由于ChatGPT无法承担学术不端责任,很可能摆脱学术不端治理客体身份,但其所导致的学术不端行为却可以在一定程度上指向开发者和数据集提供者,客体范围的扩大也使原有客体结构发生事实性变化。
客体内部责任结构划分主要根据各自对学术不端行为所负责任的大小确定,具体到作者,通常以各合作者对论文的贡献度确定。一种确定作者贡献度的新颖方式在ChatGPT流行后逐渐出现,即通过对合作者向ChatGPT输入文本的关键词影响力进行计算,在量化每个关键词贡献度的基础上,可以推算出每位合作者在生成文本中发挥的作用。在这个意义上,ChatGPT能为更加科学合理地确定学术不端内部责任提供便利,其不仅重构了学术不端不同客体之间的责任结构,也重构了同类学术不端客体的内部责任结构。
从ChatGPT的智能性看,由于其不具备甄别虚假信息和拒绝书写学术论文的能力,无形中增加了学术不端治理难度,这最终会反映到学术不端治理程序中。学术不端治理程序是学术不端治理活动对外呈现的主要载体,是治理活动得以发生和进行的根基。学术不端治理程序通常包括启动、调查和处理3个环节[9]。其中,启动包括举报后受理和治理主体主动发起两种,前者是当前学术不端治理程序启动的主流,但ChatGPT使举报者获取证据的难度增大,治理主体需要在主动发起上发挥更大作用。调查不再局限于事实调查,而要根据客体使用ChatGPT的输入输出情况进行技术判断,同时还要结合行为后果分析不端行为是否具有侵权性质。最难的是处理环节,对学术不端行为的处理以避免特定客体类似行为再次发生和警醒其他客体为目的,但针对ChatGPT造成的学术不端行为,不可能产生禁止所有科研人员使用ChatGPT的处理结果,使用者本人也只会在今后更加谨慎小心地使用ChatGPT,而不会主动放弃使用。对于其他科研人员而言,这种处理更多的是警醒其避免被他人发现自己使用ChatGPT,这与处理目的背道而驰。
除提高学术不端治理程序环节的复杂性外,ChatGPT也会在事实上增加程序环节。在启动之后可能需要增加一个临时禁用环节,防止未被处理的客体继续使用ChatGPT生产文本;在调查环节可能会增加一个并行检测环节,检测客体是否使用ChatGPT以及其学术不端行为是否与ChatGPT有关,由于这一环节的技术性极高,一般的事实调查人员不能胜任,因而具有独立于调查环节的价值;在处理环节后可能会增加反馈环节,即向第三类主体反馈ChatGPT存在未被发现导致学术不端的技术问题,以帮助第三类主体更好地做好预防工作。
虽然从理想角度看,ChatGPT与学术研究并行不悖,但对于出版物而言,由于缺乏必要的技术手段、充足的时间和人力进行人工审查,因而很可能直接禁止作者使用ChatGPT(已有多家国内外期刊发表类似声明)。这使得学术不端治理程序中的调查环节难度增大,发表在此类期刊上的论文是否可以直接认定为没有使用ChatGPT?还是要增加一个期刊保证环节,以确保调查得以完成?无论如何,ChatGPT的横空出世确实给学术不端治理程序带来巨大挑战,程序改革势在必行。
作为生成式人工智能的重要应用领域,ChatGPT专注于利用系统数据集进行训练,以创造独特内容,独特性使其成为再塑学术不端治理标准的关键因素。学术不端治理标准通常在启动环节的初审和调查环节的认定中发挥作用,初审判断违反学术伦理一般要求的行为是否发生,在调查中再仔细分析该行为是否具备学术不端基本特征。可见,学术不端治理标准至少包括两项内容:学术伦理的一般要求和学术不端基本特征。以剽窃和不当署名两种典型学术不端行为为例,前者作为最为经典的学术不端行为,早已规定在学术伦理的负面清单中,因而属于违背学术伦理一般要求的行为,而判断一种行为是否算作剽窃则需要更为详细的标准,实践中一般对剽窃的认定简化为重复率,由此出现一系列以重复率分析为内核的剽窃检测软件,同时还有不标明出处的引用和思想剽窃等标准。不当署名的认定比较复杂,虽然很多学术不端治理政策明确将其纳入学术不端行为,但标准尚未统一,从形式上看,主要有挂名、冒名、赠送署名和剥夺署名几种,如果深入其本质,则可将其认定标准表述为不符合署名权行使和保护要求的行为[10]。因此,所谓治理标准,其实最终要落到各类学术不端行为的内涵界定中。
ChatGPT具有非常强的鲁棒性(Robustness),在外部输入与训练输入存在不同时,仍然能够保证执行中系统性能的稳定性,这是其创造独特性内容的重要支撑。由于ChatGPT创造内容的独特性,剽窃的认定往往很难通过重复率确定,而这种独特性不能等同于原创性,仍然存在观点和思想剽窃的可能。使用者需要对剽窃ChatGPT创造独特文本的行为负责,这一观点需要深入分析:ChatGPT不具备法律人格,因此不能对剽窃行为主张权利,但这并不能为剽窃者免责,因为在现实中,即使被剽窃者不追究剽窃者责任,也不能认为剽窃行为没有发生,进而绕过学术不端治理程序。对ChatGPT与此种情形下的现实被剽窃者进行比较,发现两者的区别只在于前者不能主张权利,而后者不想主张权利,事实行为的发生与认定不能以被侵权者的放弃或受阻为要件,因而“不能”和“不想”在这个意义上并没有本质差异。此外,独特性同样导致不当署名认定标准内涵的更新。不当署名与署名权行使息息相关,ChatGPT不能视为作者,也就无法行使署名权,但其创造内容的独特性至少在科普性学术研究中具有署名价值,而这种署名价值及可能产生的利益却被使用者一并攫取,显然对于使用者而言,其实际上破坏了署名权行使规则,发生了过度或不当行使署名权的行为,这种破坏署名权行使规则的行为表征前所未有,形式上的突破致使内涵陷入无法涵括外延的尴尬境地中。
ChatGPT生成的文本与人类生成的文本几乎无法区分,这一独特能力极易使文本被不当使用,从而导致学术不端行为。无法归责于ChatGPT,使得学术不端治理标准改革只能关注标准内涵而不能涉及标准的应用,再塑学术不端标准内涵是完善学术不端治理活动的根本前提,因为所有学术不端治理活动都从某种事实是否发生、该事实是否属于学术不端开始,这两个问题的答案只存在于学术不端治理标准中。
一直以来,学术不端治理主体通过制定、修改和执行学术诚信政策,开展学术伦理教育以及使用查重软件等技术手段治理学术不端行为。虽然这些策略的联合使用确实能在一定程度上降低学术不端发生概率,但在应对智能技术导致的学术不端方面逐渐显得力不从心,当一部分学术研究转战到ChatGPT的对话框中,治理策略必须从智能入手,充分考虑网络影响,进而作出新的调整。ChatGPT的出现使学术不端变得更加隐秘和难以捉摸,如果学术不端治理不能及时跟上,那么公众对学术和学术研究的信任度就会一再降低。因此,治理主体的治理活动不仅在于打击学术不端,还在于重振人们对学术界的信心。基于上文分析,本文首先从学术不端治理的4种基本质料出发,分析可采取的策略,然后尝试构建一个流动式治理框架,以防止不断发展的智能技术化身为学术不端的“伥鬼”。
以ChatGPT为代表的人工智能内容生产系统将在未来对学术论文的撰写和审查产生不可估量的影响,撰写、审查分属治理客体和主体行为,主客体行为的相互作用一直是学术不端治理的起点。因此,治理主体与客体必须通力合作,以应对ChatGPT带来的新风险。以降低复杂性为特征的人工智能输入输出技术,在ChatGPT中开始拥有批判性思维,极少的输入也能生成丰富而真实的文本,这进一步简化了复杂的学术研究,甚至使作弊行为变得简单,学术公平性被技术销蚀得支离破碎。大多数学术研究人员都不愿意在一个不公平的环境中开展学术活动,这是学术不端治理主客体合作的前提。
大学生能够利用ChatGPT完成作业(特别是在线考试),研究生在ChatGPT帮助下撰写可以发表的课程论文,由于ChatGPT输出内容的类人化特征,高校在审查学术不端方面的重要性更加凸显。研究人员使用ChatGPT生成文章的例子在国外已经出现,期刊必须考虑人工智能被滥用的可能性,更加审慎地开展审稿工作。高校和期刊都是学术不端治理的重要主体,二者间的合作往往体现在事后的通知上,而且合作通常是单向的,也即期刊发现学术不端行为,进而向高校反馈,高校作出处理决定。这种合作模式亟需改变,新闻出版、教育、科技行政主管部门以及网络监管部门等要在顶层联合的基础上要求高校、期刊等具体处理学术不端行为的机构进行双向合作,以应对ChatGPT时代更加隐蔽的学术不端行为。当高校教师同时具备期刊审稿人或编辑身份时,双向合作框架能发挥更大作用。因此,高校要与期刊一道对教师审稿人或编辑进行培训和监督,将期刊问责程序与高校问责程序相结合,使双向合作发挥实效。
ChatGPT具有创意完善功能和简化重复耗时工作的能力,其通过减少人们撰写学术论文所需时间使科研人员释放出更多精力专注于创新创造,因而对于科研人员来说,拒绝使用ChatGPT显然是不明智的做法。然而,ChatGPT必然受到训练数据的影响,甚至可能受到设计者偏见的影响,这一缺陷不仅会增加课程教师、审稿人和期刊编辑的压力,也可能导致使用者陷入无法准确完成创新过程的境地。错误和缺漏会损害学术研究的科学性、合理性,进而反噬学术研究者的声誉,正如新加坡国立大学在《学术工作中使用人工智能工具指南》中指出:“你本人而不是人工智能工具对你所提交的成果质量和完整性负责[12]。”作为可能的学术不端治理客体,学术研究人员必须在假设ChatGPT输出内容不正确、不准确的前提下仔细检查和核对输出文本,直到文本的可靠性得到确认为止。
拥有良好的学术论文写作技能是学生和青年科研人员成长为优秀学术工作者的关键。避免人们在使用ChatGPT中丧失追求更强写作能力的动力,不仅是学术不端治理主体的责任,也是所有学术工作者维护学术环境公平性的重要抓手。毕竟,大多数学术工作者都希望自己是在与人类同行而不是与人工智能竞争,况且,目前ChatGPT只是实现了独特性,而远没有达到原创性,与之竞争并不能促进知识的新进步。因此,学术不端治理主客体应当积极合作,客体向主体主动披露使用ChatGPT的情况,主体指导客体学习正确使用方法和措施,双方在审稿、批改试卷等工作中实现高质量互动,以使ChatGPT最大程度发挥出辅助工具的作用,而绝不产生主导作用或者欺骗等副作用。同时,人工智能法规和相关指导准则必须制定特别规范,以规制学术人员对ChatGPT等人工智能内容生产系统的使用。总之,防止学术研究陷入智能化导致的潜在不端陷阱中,既要靠主体的教育引导,也要靠客体的自觉自律,双方需要在一个可行的合作框架中展开行动。
学术不端程序治理的更新已箭在弦上,而程序通常围绕标准建立,两者不可分离。ChatGPT在高级分析和综合应用各类数据集方面较以往的人工智能具有显著优势,能够分辨出人类语言中的细微差别并比较准确地推断出语言表达背后的复杂心态,正因如此,ChatGPT在学术研究中呈现出类人化特点。当前学术不端治理程序和标准(主要表现为认定标准)的确立建立在人的行为基础上,一种类似于人甚至在某些方面超越人的类人化系统及其不可归责性特征,使现有学术不端治理程序和标准遭遇极大挑战。
“如果我们在教给强大的智能机器基本伦理标准之前,在某些标准上达成共识,那一切就会变得更好”[11]。学术不端认定标准的重新确立需要掀起一轮新的共识磋商,在共识达成之后,将该标准融入ChatGPT等人工智能内容生产软件的学习模型中,可以有效防止其协助使用者作出学术不端行为。如果使用者通过巧妙设计绕过已经习得认定标准的ChatGPT继续使之生产导致学术不端的文本,那么责任就可以完全归咎于使用者,原有治理程序便会继续发挥作用,ChatGPT的不可归责性便不再是令人头疼的问题。标准的更新至少应包括5项内容:一是人工智能不得将来自于他人研究论文中的基本观点整合成看似独特的新文本;二是人工智能不得完全基于某一人及其经常合作者的研究成果生成独特内容;三是人工智能生成学术内容时不得隐去被引用的文献;四是人工智能在判断出使用者有意利用其创造原创性学术论文时必须发出警告,包括但不限于“独特不等于原创”“仔细检查生成文本的引用情况”“不得直接用于出版”等;五是人工智能必须提醒使用者在将输出文本用于科普时添加人工智能生成或提供帮助的声明。
尽管在标准达成共识并用于ChatGPT等软件的训练模型后,原有程序变得继续适用,但由于人工智能在标准执行中可能存在偏差或错误,程序更新仍然有必要。程序中需要增加的环节包括启动后的禁用环节、调查时的检测环节以及处理后的反馈环节。需要注意的是,治理程序中的禁用并不是禁止ChatGPT的应用,而是在启动后、程序未完结时暂时禁止学术不端嫌疑人使用ChatGPT。无论是禁用、检测还是反馈,均需要技术支持,这要求将技术方纳入学术不端治理主体,或至少从顶层设计角度使治理主体与技术方保持良好合作关系。标准的执行与程序的实施密切关联,使用者要在原有学术不端治理标准的基础上,以新的标准规范自身学术研究。比如,如果使用者没有检查ChatGPT输出文本中的引用情况,而在治理程序的检测环节发现ChatGPT并没有遗漏这种提醒,那么使用者就必须承担全部责任。
为保证使用者的满意率,ChatGPT会不断响应使用者的反馈,在使用者的提示下一再更改自身的输出结果,甚至发明出奇怪的术语,这会进一步加剧自然语言处理模型中的“幻觉效应”(hallucination effect)[13]。ChatGPT与使用者的交互也因此呈现为一种“指示—执行”模式,而不是人与人之间的平等交流模式,ChatGPT倾向于假设用户想要什么样的结果,而不是否定用户的问题。这种交流模式能够极大提升使用者的体验感,满意率上升的同时,使用率也会随之提高。在智能技术突飞猛进的时代,人工智能不仅能够推测出用户的用意(有时相当准确),还能创新交互模式,未来还会衍生出不同变种,进而通过不断重构人与人工智能的交互方式改变现实中人与人的交互方式。这是一个相当大的话题,但本文仅从学术不端治理角度分析这一问题,进而尝试构建流动式治理框架,以应对日新月异的智能技术。
我国《新一代人工智能伦理规范》要求将伦理道德融入人工智能研发和应用的全生命周期。人工智能应当具备一定建立在人类道德基础上的伦理计算力,这已在科技界和伦理界达成共识,然而技术上仍然存在诸多困难,在将形而上的道德原则转码成算法程序以及算法指导人工智能对外呈现伦理选择行为的过程中,总是存在很多不确定性,无人驾驶汽车面对“电车难题”时的选择困境就是明证。因此,一方面要以伦理算力为底层基石,另一方面还要构建一个可以流动的框架,以应对现实变化。本文以作弊为例,描述流动式治理框架的构建。针对学生利用ChatGPT作弊的行为,教师可以更多地布置需要评价作业本身过程的反思性作业,要求学生在作业中反思作业内容的产生过程(反思性作业仍然是当前ChatGPT的盲区之一,其很难了解不在网络中的作业内容生产过程,这不属于ChatGPT的训练数据),同时辅以面对面布置和当场提交作业的形式规避学生使用ChatGPT的可能。反思性作业加线下即时提交的方式构成治理作弊的流动式框架,在ChatGPT尚未迭代到可以在临时性数据训练中获得与大量数据集训练相同能力的情况下,治理框架向反思性作业倾斜,而当ChatGPT具备上述能力后,治理框架向线下即时提交倾斜,直到找出更好的针对技术发展的新策略为止。因此,流动式框架具备两大特点:一是治理学术不端的伦理原则是框架的核心,组成框架的各边必须与核心相连;二是框架的各边是可以移动的,当技术可控时,框架在可控措施下同时保障技术的使用,以发挥技术功效,当技术难以控制时,框架通过禁绝技术使用的临时性管控办法规避风险,一直到再次获得可控性为止。
在流动式框架中,判断倾斜时机至关重要,治理主体必须时刻保持技术敏锐性,在与技术方建立经常性互动反馈的基础上提高研判能力。同时,要确立几个简易的判断标准,比如在学生作业中设立规范性预警风险点,当发现学生对自己提交的作业内容不理解、多人提交的作业存在相同写作风格、作业内容与学生一贯观点不一致时,治理主体就要及时记录并与技术方沟通。在现实中,还可以建立学生、学术人员使用人工智能工具的反馈渠道,也即当其不能确定是否可以将ChatGPT用于特定作业或研究时,可以与治理主体联系,以获得建议。
正如《自然》杂志对ChatGPT的评论:“使用这项技术是不可避免的,因此,禁止它是行不通的[14]。”本文所有讨论都建立在不可能完全禁用ChatGPT等人工智能生产系统的前提下,即使为了避免更大危害出现而采取防止或禁止特定人员使用ChatGPT的措施也都是临时性的。因此,必须积极面对ChatGPT及其一系列竞品,并对进入新的学术不端可控期抱有希望。
ChatGPT确实有可能彻底改变学术研究模式,因为越来越多的科研人员正在使用ChatGPT开展学术研究,而与学术研究相伴而生的学术不端治理必然不能滞后于智能技术的迅猛发展。本文正是基于这一理念,从以ChatGPT为代表的人工智能内容生产技术对学术不端概念、治理的冲击与影响出发,探索学术不端治理中ChatGPT应用的风险应对策略。可以预见的是,不久的将来,ChatGPT等技术将从论文写作发展到实验设计、同行评审和帮助编辑审查稿件的程度。因此,需要降低人对自动化的依赖,永远强调人的自主性和主动性,这在人工智能时代至关重要。学术研究的最终目的是造福人类,学术不端治理始终是人类防止学术研究双刃剑的坚固盾牌。