摘 要:《中华人民共和国人工智能法(学者建议稿)》第九十五条规定了免费开源的人工智能不适用该法,意味着将其排除在“人工智能法”的规范之外。虽然免除其法律义务客观上能推动人工智能技术的发展,但将其完全排除在法律适用的范围外,将使该条款缺乏立法的合目的性和合规律性,在真正面临问题时也缺乏操作性,这将为法律的稳定埋下隐患。欧盟《人工智能法案》虽然同样采取了大范围免除免费开源的人工智能的义务的措施,但是在特定领域依旧保持对其适用法律规范的可能。将免费开源的人工智能纳入“人工智能法”的规范对象之中,采取除外条款的方式进行规范,并置于第一章内或许更具备科学性。
关键词:免费开源的人工智能 人工智能法 立法 风险
中图分类号:F062.6
文献标识码:A
文章编号:1004-4914(2024)12-076-03
人工智能领域的快速发展需要开源人工智能的助推,尤其是免费开源的人工智能。同时,这也意味着中国人工智能的发展迫切需要一部规范性的法律,这不仅是面向现实的需要,也是响应时代的号召。美国已经在人工智能领域进行了一系列的立法,但始终未直接对免费开源的人工智能加以规范。2024年1月19日,欧盟委员会、欧洲议会和欧盟理事会共同完成了《人工智能法案》的定稿,该法案明确对免费开源的人工智能予以了规范。中国也做出相应的立法尝试,《中华人民共和国人工智能法(学者建议稿)》(以下简称“建议稿”)于2024年3月16日发布,迈出了中国人工智能立法的重要一步。在建议稿的第九十五条,将免费开源的人工智能排除在“人工智能法”规范之外,人工智能如今本身依旧存在诸多问题,即便免费开源的人工智能具有透明度更高、风险更小的特点,但在其他法律应对人工智能均存在空白的情况下,不能轻易地放弃对其进行法律规范。
一、免费开源的人工智能的风险考量
(一)免费开源的人工智能的现实风险
免费开源的人工智能(Open Source AI)是指那些源代码公开、可供任何人自由查看、使用、修改和分发的人工智能技术或工具。相比于一般的人工智能模型,免费开源的人工智能的源代码是公开的,任何人都可以查看、修改和使用这些代码。这意味着开发者可以根据自己的需求进行定制和优化,并且它可以建立社区支持与协作,开发者可以在社区中交流经验、解决问题,并共享自己的改进和优化,从而推动人工智能领域的发展。
2024年3月18日,马斯克宣布将Grok-1免费开源,这意味着Grok-1成为了一款典型的免费开源的人工智能模型,但是Grok-1的智能性和安全性是有待商榷的。首先,该人工智能具有偏好性和情绪化的表达,这意味着此款人工智能模型带有显著的体现其开发人员意识形态和价值取向的倾向性,从而隐含着被操纵或成为舆论工具的风险;其次,人工智能存在传授犯罪方法的风险。虽然它的回答尚不具体,但已经表现出潜在的传授犯罪方法的风险;此外,Grok-1还存在输出内容不真实的情况,有学者表示“人们把注意力集中于它似乎具有了自我意识,而忽视了它大量的虚假回答的情况”,还有研究表明,AI生成的回答不仅有虚假的部分,甚至经常带有欺骗性。这充分说明了免费开源的人工智能需要法律规范。
(二)免费开源的人工智能具有潜在风险
建议稿在第二条明确了适用范围为“在中华人民共和国境内从事人工智能开发、提供、使用活动及其监督管理,适用本法。在中华人民共和国境外开展人工智能开发、提供、使用活动,可能影响中华人民共和国国家安全、公共利益或者个人、组织合法权益的,适用本法。”在第九十五条中写到“免费开源的人工智能不适用本法”。这说明了在中国境内的人工智能相关活动原则上适用人工智能法,而在中国境外的人工智能相关活动在影响国家安全、公共利益或个人、组织合法权益这样严重情形下适用人工智能法。但即使免费开源的人工智能导致了严重的社会问题,也不对其适用人工智能法进行规范和惩戒,这样似乎略显武断,也为治理免费开源的人工智能留下了隐患。
免费开源的人工智能处于动态发展过程,通过法律进行规范存在必要性。开源人工智能致力于构建一个协作社区,召集社会人士共同推进人工智能的研究和发展,这意味着该人工智能依旧处于从研发走向成熟的阶段,这必然是动态发展的过程,即使是免费允许多主体合作进行开发和使用,亦要注意在法律规范下进行并遵守人工智能开发者与提供者的义务规范,接受监督管理,并在违法时相关人员承担法律责任。
(三)自动化下人工智能风险的扩张
人工智能不仅当前存在现实风险,在未来亦具有潜在隐患,较之以往呈现新的法律问题。免费开源的人工智能中包含了大量的生成式人工智能,其风险超越了过往的判别式人工智能。生成式AI可以整合生产流程中的多个步骤,直接越过人类决策输出结果,大大提高了自动化的过程。人工智能的自动化发展将在消费端和产业端产生变革式的影响,势必会引起不可回避的问题。
生成式人工智能加剧了数据隐私与安全问题。该问题集中体现于那些需要大量数据进行训练的模型,可能会面临更高的数据隐私泄露风险。由于这些模型需要学习并生成与原始数据相似的新数据,如果这些数据包含个人隐私信息,那么这些信息可能会在模型的使用过程中被不当地暴露。独立的信息记录系统风险较弱,但是一旦通过自动化技术相互整合和链接,便对公民的个人隐私和安全带来极大的威胁,并且可能导致科技企业滥用数据信息并在信息领域造成一定垄断。
生成式人工智能模型具有不透明性并且可解释性相对难以实现。深度学习模型往往具有高度的复杂性和不透明性,这使得理解和解释模型的决策过程变得困难,增加了误用和滥用的风险。例如,模型可能生成一些看似合理但实际上错误或误导性的结果。同时,人工智能在免费开源后并不意味着业界人士和监管人员都可以顺利解读其模型和算法,这也就意味着免费开源的人工智能并非是无害且算法透明的状态。
二、欧盟立法中的免费开源的人工智能
(一)欧盟立法的优点
欧盟《人工智能法案》并未使免费开源的人工智能免于监管,而是为免费开源的人工智能划定红线。此种立法规定同现有的建议稿中“免费开源的人工智能不适用本法”具有明显的区别。如果开源人工智能项目涉及高风险应用或违反相关法规,关联方仍可能面临法律责任。
欧盟对免费开源的人工智能的立法采取审慎态度,并尝试划定边界。欧盟并未因免费开源的人工智能在惯常情况下风险较小而乐观,也承认其对社会发展的助推作用并设立特别的法律规定来免除相应的义务。同时,将免费开源的人工智能的相关规定放置于第一编,并在符合所列举情况时适用后文规定,使法律条文环环相扣,并且不显得冗长。
欧盟《人工智能法案》采用基于风险的分级动态监管模式,清晰明确。欧盟按照风险级别制定相应的监管规则,这种监管模式有助于确保对高风险人工智能系统的严格监管,同时给予低风险系统更大的创新空间,实现了监管与创新的平衡。但可以看出,欧盟并未将免费开源的人工智能归入低风险人工智能,而是在条文中明确表示了,若某款免费开源的人工智能属于高风险人工智能,则将适用法律对其进行规范,不再免除其相关的义务。
欧盟立法具有全面性和综合性。《人工智能法案》适用于所有非军事用途的人工智能系统,涵盖了人工智能技术的开发、部署、使用等各个环节,具有明显的综合性、全面性特征。这种全面性使欧盟不轻易放弃对某单一领域适用法律的可能性,即使是免费开源的人工智能,从而保证法律的有效覆盖和社会问题的解决。这有助于从整体上规范人工智能技术的发展,确保其符合欧盟的价值观和利益。
(二)欧盟立法的不足
欧盟立法存在过于自信地划定边界以及所划定的边界不明确的问题。《人工智能法案》明确规定了在符合特定情况下,免费开源的人工智能依旧要适用第二三四编的规定。这说明了免费开源的人工智能的法律边界的划定依赖于此三编内容的明确性和科学性,但是该三编所规定的内容本身具有不明确性。例如,高风险人工智能的讨论广泛而持久,虽然已经存在具有一定信服力的结论,但新问题和新情况依旧不断涌现,且还存在很大的讨论空间。若高风险人工智能的范围不能进行合理划定,免费开源的人工智能便不能得到有效的规范,在风险层面亦没有明确的范围。
免费开源的人工智能的潜在问题并不一定与三编的法律规定相契合。符合法定条件的人工智能并不一定和该三编所规定的人工智能存在同样或者相似的问题,“免费”和“开源”意味着此人工智能和其他人工智能存在着明显的差异性,而武断地采用同样的法律规范进行约束不具备科学性。同时,在免费开源的人工智能适用三编法条时,此三编所规定的内容或许并不能完全覆盖人工智能法所可能存在的问题,因为人工智能法是动态发展的,而欧盟立法所预留可解释空间太过狭窄,将使法律存在明显的僵硬性。
三、免费开源的人工智能的立法构思
(一)继续采用除外条款的模式
或可将“免费开源的人工智能”从第九十五条中删除,设立独立条款对其进行规范,但依旧保持除外条款的模式。除外条款在立法中是一种重要的方式,通常用于明确界定在特定情况下,某些行为、活动或损失不被纳入法律责任的范畴。由于人工智能技术的快速发展和广泛应用以及免费开源的人工智能的特殊性,不可避免地会产生一些新的法律问题和挑战。通过设立除外条款,可以在一定程度上减轻技术创新者的法律压力,鼓励其更加积极地投入研发和创新活动。除外条款有助于明确法律责任的边界,既预防了对免费开源的人工智能过度地干预和限制,也留下了具体化和针对性立法的空间。
免费开源的人工智能因其法律风险较小的特点,更加适合除外条款的立法方式。在使用除外条款时,内容可以更加简单且靠近原则,因为立法的本意是不放弃对此类人工智能采取法律手段进行规范,而不是通过建立规则来约束其发展。欧盟的《人工智能法案》对其采取的是负面清单模式,通过大量列举不免责的情形来对其进行规范,本质上是更加具体地划定法律规范的范围,而面临的问题是随着技术的发展,新的问题容易导致立法列举的负面清单无法适应新的问题。因此,在对免费开源的人工智能进行规范时可以采取规定了原则性内容的除外条款进行规范,并在今后面对问题时可以通过法律解释进行负面清单式的列举,这样既不会破坏法律的稳定性,也能合理地适应技术的发展。
(二)条款内容的构思与建议
条款的内容应该包含“支持免费开源的人工智能发展”和“警惕免费开源的人工智能侵害法益”这两方面的内容。前者要求了法条的内容不应该明显增加免费开源的人工智能的义务,保证其较为宽松的发展环境。后者则应体现底线思维,保障国家和社会的整体利益。
或可以将“免费开源的人工智能”从第九十五条删去后,增加条款“免费开源的人工智能不承担本法所规定的义务,但是可能严重影响中华人民共和国国家安全、公共利益或者个人、组织合法权益的除外。”修改后的法条依旧保留了免费开源的人工智能激发活力,促进人工智能行业发展的作用,但是保留了在必要时适用法律对其规范的可能。人工智能具有不可估量的潜力,所能适用的领域无法估计,做出原则性和概括性的规定,有助于未来下位法的出台,在相关领域作进一步的规定。在必要时,亦可以通过法律解释来及时应对问题。
法条限制行为的危害程度为“严重”,赋予免费开源的人工智能较大的自由空间。面对已经出现的人工智能引起的问题,大多并不具有严重的危害性。例如,有学者提出,既然人工智能不能保证其输出内容的真实性,那么其输出内容就不当作事实内容,而仅作为一种算法结果。这意味着人工智能本就可以在很大范围内不必为其输出内容的真实性负法律责任,免费开源的人工智能则可以在更广阔的范围内免除法律责任。
(三)条款位置的适当调整
关于免费开源的人工智能的条款或可归属于第一章。免费开源的人工智能属于规范的对象,虽然具有自身的特殊性,但应属于总则的内容。法律的总则通常规定了法律的基本原则、基本制度以及基本规范等内容,是整部法律的纲领,对整部法律具有指导意义。免费开源的人工智能,属于特殊的人工智能主体,若不放弃对其适用人工智能法,则其便成为法律规范的对象,处于总则部分更为适合。
免费开源的人工智能涉及多个方面,对其进行规范的法条适合放于总则之中。免费开源的人工智能强调的是其免费开放源代码,并未限制其应用领域。事实上,其可能涉及知识产权、数据保护、算法责任与透明度、非歧视与公平性、安全性与隐私、出口管制与贸易、公共政策和伦理准则等多个领域,放在任何一编之中均有失偏颇。将法条置于总则之中,将使法律逻辑严谨,体系明确。
四、结语
人工智能领域的立法是世界诸国目前面临的共同问题。免费开源的人工智能具有强大的激发能力和创造能力,为人工智能的发展起到助推作用。利用免费开源的资源并不是放任其发展,适当的法律规范可以使其走在法治轨道上。欧盟《人工智能法案》亦提供了参考,学习其中的合理内容并结合中国具体国情,加以创造性转化有利于探索出中国人工智能的法治发展道路。中国的人工智能发展情况正在呼唤一部属于中国的“人工智能法”,希望我国的相关法律早日问世。
参考文献:
[1] 左卫民.数字司法的中国图景[M].北京:法律出版社,2023:163-198.
[2] 姜伟,龙卫球,主编.数字法学原理[M].北京:人民法院出版社,2023:395-403.
[3] 刘宪权.生成式人工智能对数据法益刑法保护体系的影响[J].中国刑事法杂志,2023(04):20-34.
[4] 裴炜.共建共治共享理念下数字社会治理的多主体协同.数字法治,2023(02)
[5] 赵精武,王鑫,李大伟,等.ChatGPT:挑战、发展与治理[J].北京航空航天大学学报(社会科学版),2023,36(02):188-192.
[6] 陈永伟.超越ChatGPT:生成式AI的机遇、风险与挑战[J].山东大学学报(哲学社会科学版),2023(03):127-143.
[7] 胡敏洁.自动化行政的法律控制[J].行政法学研究,2019(02):56-66.
[8] 孙建丽.算法自动化决策风险的法律规制研究[J].法治研究,2019(04):108-117.
[9] 陈凤仙,连雨璐,王娜.欧美人工智能监管模式及政策启示[J].中国行政管理,2024(01):77-88.
[10] 宋华健.论生成式人工智能的法律风险与治理路径.北京理工大学学报(社会科学版),2023(12)
[11] Derek E. Bambauer & Mihai Surdeanu. Authorbots. Journal of Free Speech Law,2023,3(02): 375-388.
[12] Jon M. Garon, An ai's picture paints thousand lies: designating responsibility for visual libel. Journal of Free Speech Law, 2023,3(02):425-454.
[13] Eugene Volokh, Large libel models? liability for ai output. Journal of Free Speech Law, 2023,3(02):489-558.