ChatGPT类生成式人工智能归责论析

2024-11-02 00:00:00芮然

摘 要:以ChatGPT为标志,智能生成特征更为显著、互动性更强、通用性更好的生成式人工智能正快速介入人类生产生活,与此同时,其所带来的不确定性和致损风险也相伴而生。但是,生成式人工智能法律地位不明确、归责方式不清晰,给损害发生时的民事、刑事责任承担带来极大阻碍,也影响了对生成式人工智能的有效监管。基于此,有必要从意志能力、行为能力、拟制主体适格性的角度重新认识ChatGPT类生成式人工智能的责任能力,在承认其责任有限的基础上,结合不同情形和形态,厘清由制造者、控制者、监管者及生成式人工智能自身等多主体负责的责任分担体系和归责方式,促进人工智能持续、健康、负责任、可控制地发展。

关键词:生成式人工智能;责任能力;有限责任;归责方式

一、引言:生成式人工智能何以归责

人工智能(Artificial Intelligence,AI)自20世纪50年代在达特茅斯会议上提出后,一直是学术研究和技术推进的重点,也取得了非凡的成就。到2022年11月,OpenAI公司推出以“ChatGPT”命名的生成式人工智能①,更是将人工智能的发展推上了一个新高度,短短两个月便风靡世界,月活跃用户突破1亿。一定程度上说,其重要性可能不亚于当年个人电脑的诞生,一样具备划时代的革命性进步。如比尔·盖茨所言,ChatGPT与互联网和个人电脑的诞生同等重要,是具有划时代的革命性技术进步[1]。特别是2023年3月又发布了多模态大模型的GPT-4,能够更好地支持多模态,增强了对自然语言文字的多层面处理能力,更大程度地提升了安全性[2]。ChatGPT的面世及其在众多场景的应用,对各行各业都造成了不同程度的影响和冲击,相比于以往的人工智能,其给人类社会带来的潜在风险更加紧迫真实[3]。即便是研究人工智能前沿领域的科学家和行业专家,依然担心其对人类带来的不可预估的风险损害[4]。

变革已经到来,ChatGPT类生成式人工智能广泛应用于思考型对话、多媒体内容生成、办公智能化等领域,以及翻译、绘图、剪辑、配音等日常生活,全面替代人类的趋向似乎在走向现实。但与此同时,其应用过程中的各类风险现实存在且不断加剧,在数据准备阶段有数据安全和合规风险,在使用过程中有算法偏见和算法滥用风险,在生成内容上有知识产权和内容滥用风险[5]。鉴于此,一些国家侧重于从风险预防的角度出发,将风险控制在合理限度内,通过风险分级、安全评估、行政许可、算法审查等措施,尽量将风险控制在合理范围内。但是,必须认识到,这些前置性或者事中控制的措施,终究只能控制风险,而无法完全消除风险,因“算法黑箱”和不确定性因素的存在,即使生成式人工智能服务提供商采取措施满足监管需求,仍然会对第三方或相关主体造成难以防范或不可预测的损害[6]。在2023年6月5日,OpenAI公司就在美国佐治亚州因ChatGPT使用被提起名誉权纠纷诉讼②。可以预见的是,生成式人工智能造成的现实损害问题现实且紧迫,值得深入研究和关注。

面对这种风险和损害,诸多国家立法和政策均提出发展“负责任的人工智能”,但是当智能生成特征更为显著、互动性更强、通用性更好的生成式人工智能迅速介入人类生产生活时,一个更大的问题就摆在我们面前。ChatGPT类生成式人工智能是否能为自身的决策负责,怎么归责,其责任能力如何,又如何负责?厘清这个问题,是完善生成式人工智能规制体系的基础性一环,也是保障可能受生成式人工智能侵害的相关主体切身权益的应有之义。

二、新场景下生成式人工智能归责的现实困境

需要关注的是,ChatGPT类生成式人工智能除了在社交文娱、交互办公、电商营销等与内容生成联系比较紧密的领域“大有作为”之外,还进一步拓展到生产生活的多个环节,企业对其的应用也已经从初始的API接入发展到基于多元场景需求的二次开发,从简单的对话生成升级成与语音、图像形成多模态多终端的复杂交互,形成了诸多线上线下商业化应用新场景[7]。与此同时,这种规模化、商业化的推广应用,也不可避免会产生诸多不确定性和公众权利保护隐忧,其强大的技术能力形成了原社会形态下的新生风险,冲击着权利利益的保护秩序,也造成以权利义务能力为基础的责任规制的适用困境。

一方面,生成式人工智能法律地位仍不明晰。可以说,生成式人工智能一定程度上已经实现了对人类创造性劳动的替代,产出了真实的劳动成果,可以说颠覆性地提升了生产力。OpenAI公司曾针对美国1000多种职业进行调研,在职业工作中如果使用生成式人工智能工具,其完成同样工作耗费的时间将少一半以上,以此推论,8成以上人的工作将受到影响,而作家、记者等职业尤为突出[8]。人工智能对社会劳动社会形态的部分替代,并造成部分人机会成本的损失,如果没有合适的机制设计,就可能会损害人类的发展权,冲击现代国家的基础秩序[9]。因此,当生成式人工智能在某种程度上能代替“人”的时候,也要面临一个迫切的问题,如何判定其法律地位,并完善适合的规训机制,以对冲其对社会秩序和制度的冲击。

现实中,法律地位不明所带来的问题已经显现。生成式人工智能最大的特点就是高效、实用的内容生成,相应地也对知识产权领域秩序产生了极大的冲击和挑战。《生成式人工智能服务管理暂行办法》中多次提及尊重知识产权、防止侵害知识产权等内容,凸显出对可能发生的知识产权权益损害的重视,也体现了一定的前瞻性和务实性。ChatGPT相较于之前的分析式人工智能,具备更强的数据分析和处理能力,能自动化编纂内容、加工润色、多模态转换和创造性生产,对知识产权的供给模式和生产范式都有颠覆性的改变。在亚马逊网站上,已有超过200本由ChatGPT署名的作品上架,甚至为ChatGPT开设专栏[10]。由此,即有一个现实问题摆在面前,ChatGPT生成内容能否赋权、如何赋权,是否为著作权意义上的“作品”[11]?生成式人工智能可否成为法律意义上的“作者”?“作品”归属生成式人工智能自身、操作者抑或多主体共有?如果可以成为法律意义上的“作者”,其是否具备责任能力,侵权时如何归责或救济。这些问题都需在生成式人工智能法律地位确定过程中一一厘清。

另一方面,刑事归责问题亟待廓清。生成式人工智能除了对民事权利责任体系有影响外,也对刑事法律体系有一定冲击。一定主体通过利用生成式人工智能实施犯罪,主体、生成式人工智能或者开发者如何归责,对传统刑法理论中的犯罪主体及刑事责任体系均需要进一步分析研究。针对这一问题,有观点认为, 生成式人工智能在犯罪实施中,本质上仅能充当犯罪工具,查询犯罪方法、进行网络诈骗或敲诈勒索,不具备成为教唆犯或帮助犯的主体资格,其犯罪后果应由利用者承担,仍可在刑法体系内予以妥善应对[12]。但在实际情况中,该观点仍有待商榷。ChatGPT是以海量的数据挖掘作为答案生成的基础,如果样本数量足够多,通过设置一定的关键搜索词,是可以实现对他人的隐私权侵犯乃至侮辱诽谤。甚至说,如果利用ChatGPT自身的思考逻辑、算法逻辑隐秘实施犯罪,现行体系下是否能够证明是实施者的故意,还是机器自身的故意。比如,有人搜索自杀挑战时,若生成式人工智能输出了不恰当的搜索内容最终对自杀后果产生了较大影响,责任又该如何承担。再如,生成式人工智能能够辅助编程或者搭建网站,若操作者利用这一便利进行编程并实施网络犯罪,生成式人工智能是否需要自主决定拒绝犯罪预备的请求;若没拒绝,犯罪后果产生后,责任是否需要承担。上述情况中,生成式人工智能是否能够分辨自身输出内容的能力与作用,如何成立刑事责任、如何归责,是在新的技术特点和情形下,需要考虑的现实问题。

三、生成式人工智能归责基础:基于责任能力的分析

风险与责任相伴而生,特别是当社会出现人造不确定性或者非外部不确定性影响时,对责任的探讨就会越发迫切和深入。生成式人工智能引致风险的不确定性和现实性,呼唤一种逻辑自洽又符合发展需求的归责模式,来澄清生成式人工智能自身责任、在何种程度上承担责任。而生成式人工智能归责的基础在于分析其责任能力,考察生成式人工智能是否具备承担责任的资格。

责任能力一般指主体对其实施的不法行为承担责任的资格或能力,包括民事和刑事责任能力[13]。责任能力往往与行为能力密切关联,在民事方面,无行为能力或者限制行为能力人具备经济能力,若造成他人财产损失,也应当承担损害赔偿责任;在刑事方面,无责任能力人不承担其行为的刑事责任。具体到生成式人工智能来说,结合其所具备的行为能力和意志表征,赋予其相应的责任能力,有一定空间和可能。下面从三个方面加以分析。

第一,关于是否具备意志能力。一般来说,责任产生的前提是具备基本认知理解的能力和实施具体行为时的控制力及意志力。比如,从犯罪论意义上讲,实施犯罪行为就是人意志的直接体现,没有意志能力不构成犯罪,也就不能课以刑罚[14]。相应可以说,只有具备了相应意志能力的理性人工智能,且能够把自身同其他主体区分开来,才有承担责任的可能[15]。具体分析:首先,生成式人工智能有较强的认知能力。人类的认知过程从大脑接受外部信息开始,进而分析处理,再转换为心理活动,最终支配人的行为。这一过程和人工智能收集信息、算法处理、形成决策的逻辑非常相似。传统人工智能可以搜集用户喜好,进行算法推荐和决策,具备了一定认知特征。而生成式人工智能这种特征更为明显,其强大的内容生成能力,具备典型的自然语言学习和处理能力,不论是相对独立的文章写作还是智能化办公,这种实践所能达到的智能样态,很难否认其具备相当程度的认知能力。其次,生成式人工智能有理性分析的能力。ChatGPT-4可以通过给出的文字或者图片等信息,形成符合人类常识和逻辑的推理判断,能够认识规律性事物并具备逻辑推理能力。在实践层面,美国有高校法学院尝试利用ChatGPT来参加考试作答,考试完毕后发现其平均成绩已经达到学生的课程结业要求,特别是在案例分析论述方面,已经能够适用法学理论和法律规则及形成观点和论证[16]。再次,生成式人工智能能够做一定的价值判断。当然,一般观点认为,人工智能技术无法替代价值判断,尤其是司法中的价值判断。“司法技术永远无法完全取代司法判断,尤其是司法中的价值判断。”[17]但是情况不是一成不变的,随着技术的进步、算法的进化,生成式人工智能已经有被应用在司法裁判中的案例。2023年1月,美国哥伦比亚一法官就利用ChatGPT实施辅助裁判,并表示实现了更为高效的预测和裁判[18]。在价值判断的过程中,通过人工智能代替法官裁判并非不可能[19]。综上,可以看出,生成式人工智能是可以、至少是有很大可能成为满足意志能力的理性人工智能,显现出类人类意志的突出特征。

第二,关于是否具备行为能力。 人工智能的行为能力一直是理论和实践中关注的重点问题,也是无法绕开的问题。对于传统人工智能来说,一般观点仍以“代理说”为主,即人工智能的行为被人类所控制,其行为的后果由被代理的主体承担。有学者认为,自动化系统难以识别和有效理解人类的自然语言,也就难以具备行为能力[20]。但是,生成式人工智能的发展却使情况更为复杂化。ChatGPT提供者或者控制者固然能够提供相应的系统运行服务和支持,但其用户数量多、使用者范围广,不同用户也有不同用途,用以实施的行为也多种多样,个性化服务也越来越多。当技术更为复杂、应用更为广泛时,完全继续沿用“代理说”由提供者承担责任,既不合理,也不一定经济。比如,当具备强大算力和大模型的生成式人工智能同无人驾驶结合,在无人驾驶汽车行驶过程中发生交通事故时,即使产品提供者履行算法“可解释”义务,但是其中的因果关系、举证、责任承担仍是一个复杂且值得深究的问题,并不是单纯由提供者承担责任所能解决和涵盖的[21]。所以,在考虑责任承担时,有必要脱离“代理说”的窠臼,而思考生成式人工智能是否在一定条件和一定程度上具备相应的行为能力,进而实现更为公平和经济的归责。

第三,关于能否作为拟制主体。纵向来看,法律意义上的“人”的概念,在不同历史时期、不同阶段,其概念和范畴是不尽相同的,呈现出与当时经济社会发展相适应的特征和表现。奴隶制和封建社会阶段,自然人并非天然具有权利能力和行为能力,哪怕是在资本主义阶段早期,不具备足够财产的自然人相关权利也受到法律的限制。至于将公司等主体拟制为法律上的法人,则是大航海时代为了风险分担和鼓励资本发展的产物。客观上,这一法律制度的演变也为推动人类财富增长起到积极推动作用,促进了社会的进步与发展。实际上,从意志能力来看,法人这种拟制主体主要基于经济性的现实需要,使之以财产集合来作为法律后果的承担主体,实质上并不天然具备人类意志属性,由此也产生了有限责任[22]。遵从这个维度,在人工智能时代,为顺应新的技术和社会发展趋势,人工智能也应当且必然会获得相应的法律资格和法律承认[23]。比如,俄罗斯的隔离神法案中就提出,允许人工智能类推使用国家统一法人登记簿制度[24]。某主体成为“法律上的人”,终归是基于人类的需求,当人类需要它成为法律主体时,它便可以成为[25]。法人生成过程中,也是先产生实体,后被法律确认。以此推论,当生成式人工智能因不可归责于其他主体的行为造成他人损害时,也是可以基于现实或实际的需要,赋予其自身承担责任的资格。当然,其中又会产生一个关键问题,如何使生成式人工智能享有责任财产,并奠定其作为特殊财产性法律主体的基础。

四、生成式人工智能归责的可能展开

马克思指出,不是人为法律而存在,而是法律为人而存在[26]。法律需要顺应时代需求、满足人类发展实际,在人工智能时代,法律是引导和保障人工智能科技向善、负责任发展的主要抓手和关键要素。习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。”[27]是否需要承认或者在何种程度上承认生成式人工智能的责任能力,将对人工智能的发展产生深远乃至决定性的影响,并会反过来影响未来法律发展的走向。因此,当前需要继续巩固我国在人工治理方面的优势和有益经验,进一步探索对生成式人工智能的监管逻辑和监管技术,实现可控制、能负责的生成式人工智能发展模式。

(一)基于平衡考量的有限责任

针对新兴技术或科技的发展,一般来说法律需要在谦抑理念下鼓励创新和安全理念下从严规制的两个维度间寻找平衡。关键之一就是要明确主体为人工智能主体承担相适应的责任,涉及其中的主体可能是控制者、操作者、研发者、生产者,特别是针对生成式人工智能这类强人工智能,在一定条件和情况下,责任承担主体也可能是生成式人工智能自身。上文已经提到,ChatGPT-4在意志能力上已经具备了相当的逻辑推理和表达意思的能力,通过算法系统的精确设定和学习实现接近于操作者的思维期待。就行为能力来说,实践中也在逐步对“代理说”进行一定的调整因应,以适应更为迅捷、智能度更高的发展趋势。就拟制人格来说,基于实践考量和符合发展需求的期待,可以参考法人等拟制主体模式,赋予生成式人工智能特定的法律主体地位,对归责原则和责任能力逐步明确,进而促进风险的控制和技术的发展。

需要进一步明确的是,生成式人工智能能够赋予法律人格,但是这种法律人格必然是有限的,所能承担的责任也是有限的。本质上,人工智能是被制造研发服务于人类的智慧工具,有一个基本准则就是人的权能必然优位于机器的权能,也决定其被赋予的法律人格一定是有限的[28]。生成式人工智能尽管具备一定的意志能力,但客观上仍是机器和算法系统,从伦理上人类所具有的婚姻、生育、投票等权能不能也不应赋权,但结合其能生成有价值的内容或者作品,可以考虑赋予其知识产权等利益性权能。比如,前文所述的ChatGPT形成的作品,当其他人使用或利用该作品时,就会产生一定的收益,这种收益不归研发者或者控制者所有,这就可以由生成式人工智能所有;或者在全部收益中,固定抽取一部分收益作为生成式人工智能的强制责任基金。当生成式人工智能实施不可归咎于控制者的行为,比如侵权、数据滥用或者歧视等行为,对其他主体造成侵害时,就可利用这部分积累收益实施赔偿,形成承担的有限责任的财产基础。

还需要强调的一点,生成式人工智能的意志能力毕竟是源于大规模数据深度学习后形成的底层逻辑,与人类个体的意志无论是深度、广度还是灵活性上都有较大的区别。这也是有限责任的根源,在有限责任之外,穿透技术背后,更加广泛的责任仍然需要追溯到研发者、控制者或者操作者身上。生成式人工智能的有限责任主要用于解决无人驾驶、部分知识产权等现实问题,是制度体系对技术发展和现实作出的适当调整;而最终的、完全的、情感伦理上的责任仍然需要由人类负责,这也是警惕人类被机器替代的必要防御。

(二)基于不同情形的归责思路

在阐述生成式人工智能责任有限的基础上,再进一步考量生成式人工智能的归责原则和责任能力范围。具体来说,生成式人工智能的责任能力范围要结合在具体行为时机器所受控制程度不同等情况综合考量,并深入分析机器在决策时的人机互动来重构归责中的因果关系。

结合生成式人工智能致损时的原因和具体情形,可以分类甄别:若致损行为完全由生成式人工智能79b57094ad1f05e179d354389105592c224b0e9a031a80607007d26a6b811302自身代码混乱或程序逻辑错误导致的,可由生成式人工智能在相应的责任财产范围内承担有限责任,背后的研发者和控制者在证明其研发控制合规合理的基础上,承担补充责任;否则,研发者和控制者应承担严格责任。若致损行为主要由操作者操作不当或恶意操作造成的,主要追究操作者的侵权责任;如果无法追查到操作者身份,且控制者能够证明生成式人工智能可控时,可由生成式人工智能自身承担一定的限制责任。若致损原因不明或无法查清由何种原因引起的,可考虑由控制者、研发者和生成式人工智能自身联合起来承担公平责任,其中责任承担比例、方式和赔偿范围,则需要更为精细化的配套归责予以明确。另外,还有可能是由监管者监管不当或者疏忽产生致损行为,则主要由监管者担责,生成式人工智能自身可课以补充责任。

所以,在承认生成式人工智能有限的责任能力的基础上,在责任承担上还需要适用“刺破机器面纱”的归责原则,根据不同情形和因果关系,进一步挖掘机器背后的实际主体,构建多主体负责的链式责任分配机制。毕竟,在技术发展越发复杂、风险越发多元的现实中,让单一主体承担主要或全部责任,既不公平,也会因主体承担过重责任而阻碍对人工智能的持续研发和投入,导致法律规制的负外部性。因此,研发者、控制者、监管者及生成式人工智能自身等不同主体,均应在“权责一致”的基础上、公平责任的补强下,根据不同情形和具体风险,搭建完整、配套的责任分担体系和分担链条,更为准确、系统、高效地确定厘定责任承担的主体、方式和范围等事项,进而有效促进人工智能持续、健康、负责任、可控制地发展。

注 释:

① 本文所称生成式人工智能,依据《生成式人工智能服务管理暂行办法》规定,是指“具有文本、图片、音频、视频等内容生成能力的模型及相关技术”。

② 美国的一位电台主持人Walters向佐治亚州的一家高等法院提起诉讼,状告OpenAI公司侵犯其名誉权,起因是美国的一位新闻记者Riehl在与ChatGPT的对话过程中,ChatGPT声称Walters曾被指控从一家非营利公司骗取和盗用资金,而Walters称其从未受到过此类指控并认为该信息纯属ChatGPT捏造。See The Complaint of Mark Walters v. OpenAI L.L.C.,The Superior Court of Gwinnett County,State of Georgia,Civil Action No. 23-A-04860-2。

参考文献:

[1] 比尔·盖茨.ChatGPT是1980年以来最革命性的技术进步[EB/OL].[2023-9-3].https://tech.ifeng.com/c/8OLwGZFl2pI.

[2] 张学博,王涵睿.生成式人工智能的法律规制——以ChatGPT为例[J].上海法学研究,2023(6):253-261.

[3] 刘艳红.生成式人工智能的三大安全风险及法律规制——以ChatGPT为例[J].东方法学,2023(4):29-43.

[4] 《马斯克等千名科技人士发公开信:暂停训练比GPT-4更强大的AI系统》[EB/OL].[2023-9-3].https://www.thepaper.cn/newsDetail_forward_22490961.

[5] 毕文轩.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角[J].比较法研究,2023(3):55-172.

[6] 周学峰.生成式人工智能侵权责任探析[J].比较法研究,2023(4):117-131.

[7] ChatGPT杀进15个商业应用,让AI替你打工[EB/OL].[2023-9-5].https://www.thepaper.cn/newsDetail_forward_23023803.

[8] T. ELOUNDOU,S. MANNING,ET AL.GPTs are GPTs,An Early Look at the Labor Market Impact Potential of Large Language Models,arXiv [EB/OL].[ 2023-3-27].https://doi.org/10.48550/arXiv.2303.10130.

[9] 韩大元.当代科技发展的宪法界限[J].法治现代化研究,2018(5):1-12.

[10] 已经有人靠ChatGPT出书赚稿酬了[EB/OL].[2023-9-13].https://www.thepaper.cn/newsDetail_forward_22043420.

[11] 方卿,丁靖佳.人工智能生成内容(AIGC)的三个出版学议题[J].出版科学,2023(2):5-10.

[12] 邓建鹏,朱怿成.ChatGPT模型的法律风险及应对之策[J].新疆师范大学学报(哲学社会科学版),2023(5):91-101.

[13] 刘保玉,秦伟.论自然人的民事责任能力[J].法学研究,2001(2):77-88.

[14] 黑格尔:法哲学导论[M].范扬、张启泰译,北京:商务印书馆,1996:103.

[15] 周靖.论意识条件和主体条件的区分——对人工智能体道德身份论题的一个澄清[J].上海交通大学学报(哲学社会科学版),2023(2):121-129.

[16] JONATHAN H. ChOI ET AL. ChatGPT Goes to Law School [EB/OL].[2023-3-13].http://dx.doi.org/10.2139/ssrn.4335905.

[17] 雷磊.司法人工智能能否实现司法公正?[J].政法论丛,2022(4):72-82.

[18] Judge Used ChatGPT to Make a Court Decision[EB/OL].[2023-5-16].https://metanews.com/judge-used-chatgpt-to-make-a-court-decision/.

[19] 申卫星、刘云.法学研究新范式:计算法学的内涵、范畴与方法[J].法学研究,2020(3):3-23.

[20] JOSHUA FAIRFIELD,NILOUFER SELVADURAI.Governing the Interface Between Natural and Formal Language in Smart Contracts[J].UCLA Journal of Law & Technology,2022(2):79.

[21] 袁曾.无人驾驶汽车侵权责任的链式分配机制——以算法应用为切入点[J].东方法学,2019(5):28-39.

[22] 尹志强.人工智能何以为“人”——人工智能时代之民法因应[J].社会科学研究,2023(1):60-70.

[23] 尤瓦尔·赫拉利:《未来简史——从智人到神人》[M].林俊宏译.中信出版集团,2017:96.

[24] 张建文.格里申法案的贡献与局限——俄罗斯首部机器人法草案述评[J].华东政法大学学报,2018(2):32-41.

[25] 汉斯·哈腾鲍尔.民法上的人[J].孙宪忠译.环球法律评论,2001(4):23-33.

[26] 中共中央马克思恩格斯列宁斯大林著作编译局.《马克思恩格斯全集》(第三卷)[M].北京:人民出版社,2002:40.

[27] 习近平.加强领导做好规划明确任务夯实基础推动我国新一代人工智能健康发展[N].人民日报,2018-11-1(1).

[28] 袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):50-57.

基金项目:国家社科基金重大项目“适应新时代市场监管需要的权力配置研究”(20&ZD194)

作者简介:芮然(1995— ),男,江苏溧阳人,江苏省溧阳市人民法院法官助理,硕士,研究方向为刑法学。