生成式人工智能失范性风险的法律因应
——以凯尔森规范性理论为视角

2024-01-18 15:22:51陈佳星
关键词:伦理规范人工智能

罗 艺,陈佳星

(甘肃政法大学 环境法学院,甘肃 兰州 730030)

2022年11月30日,以美国人工智能研究实验室OpenAI开发的ChatGPT为代表的生成式人工智能迅速成为全世界关注的焦点。随后,谷歌也在2023年第一季度发布了LaMDA(Language Model for Dialogue Applications)的聊天机器人Bard;同年3月20日,我国也推出了国产版的ChatGPT——“文心一言”,以及由此诞生的众多提供接口服务的镜像网站。生成式人工智能既是科技巨头争相抢占的领域,又是学术研究的热点,就连比尔盖茨也称赞道:“这种人工智能技术出现的重大历史意义,不亚于互联网和个人电脑的诞生”(1)盖茨表示,2023年人工智能将成为最受人们关注的热点板块,他个人认为这种现象是非常合理的。参见新浪财经:比尔·盖茨.ChatGPT表明人工智能历史意义不亚于“PC或互联网诞生”[EB/OL].(2023-02-03)[2023-08-12].https://baijiahao.baidu.com/s?id=1756766207179811763&wfr=spider&for=pc。。种种迹象似乎昭示着通用人工智能是人类技术发展的未来。以ChatGPT为代表的生成式人工智能综合运用基于人类反馈的强化学习、深度学习、数据挖掘、自然语言处理等新兴技术,最新版本的ChatGPT4甚至可以实现跨模态转换和增加插件功能。生成式人工智能带来一系列颠覆性技术变革的同时,其“技术性”的“疯魔”表现亦引发了一系列的社会现实困境,技术的“负面性”也伴生了伦理与法律的失范性风险,对现有的伦理规则和法律制度提出了前所未有的挑战。面对新兴技术带来的社会风险,法律制度和伦理规则都应当积极回应。如何回应这些挑战?引入凯尔森规范性理论,深刻地反思科学技术逻辑可能对法律本体的影响,借鉴“旧”理论应对“新”问题,不失为一种“旧瓶装新酒”的研究尝试。

一、生成式人工智能失范性风险的现实表现

(一)生成式人工智能的法律认知

生成式人工智能(Generative Artificial Intelligence,简称生成式AI)是一种基于机器学习和人工智能技术的范畴,其目标是让计算机系统能够自主地生成各种类型的数据,如文本、图像、音频等,而不仅仅是对已有数据的模仿或分类(2)生成式人工智能的核心能力在于创造新的内容,而不仅仅是对已知模式的重复应用。生成式人工智能模型是生成式人工智能的重要组成部分,而 ChatGPT 就是其中的一种代表性模型。生成式人工智能的原理基于深度学习,特别是神经网络技术,它可以通过分析大量的训练数据来学习数据的分布和模式,然后利用这些学习到的模式来生成新的数据。。

目前对“生成式人工智能”的法律界定,还存在认知偏差。2023年4月,中央网络安全和信息化委员会办公室发布的《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)将“生成式人工智能”定义为“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”[1],该定义与《互联网信息服务深度合成管理规定》中对“深度合成技术”(3)《互联网信息服务深度合成管理规定》第二章第六条第二款:“深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。”概念的界定有交叉和重叠,易混淆,且算法、模型、规则这些概念本身就不是平行的,例如:模型的构成就是基于部分算法。而欧盟《人工智能法案(AI Act)》,将生成式人工智能视作“基础模型”,即“使用在人工智能系统中以不同程度的自主权,专门用于生成复杂文字、图像、音频或视频等内容”。这种基础模型其实就是ChatGPT等生成式人工智能所使用的模型[2]。

随着《生成式人工智能服务管理暂行办法》的公布实施,“生成式人工智能”概念在法律层面拥有了比较权威的释义:“生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术”。相较于此前的《征求意见稿》,其明显修正了对生成式人工智能基础架构认识偏差带来的适用混淆问题,这种较为“实用性”的规定,也是基于在生成式人工智能技术发展初期不宜对其规定过窄的考量。

(二)生成式人工智能“失范”的典型表现

“失范”是一个社会学概念,“失范”(anomie或anomy)一词来自希腊文,在16世纪的神学中指不守法尤其是亵渎神。“怀特海(A.Whitehead)把它引入到了学术领域和政治领域里,并被法国社会学家涂尔干(Emile Durkheim)再次引入到社会学的研究中来。”[3]显然,失范的外延在不断地发展变化。塔尔科特·帕森斯(Talcott Parsons)认为“失范”(anomie)是“少数几个真正的社会学概念之一。”[4]涂尔干认为:“我们所要揭示的失范状态,它造成了经济世界中极端悲惨的景象、各种各样的冲突和混乱频繁产生出来。”[5]因而,笔者这里使用“失范”一词,主要是指生成式人工智能存在的违法或者违背现有伦理规则的情况。

关于生成式人工智能的“失范”表现,主要是产生了诸多的社会风险。关于生成式人工智能产生的“失范”风险,学者们也有不同的认识。刘艳红认为,生成式人工智能存在三大安全风险,即“准备阶段中的数据安全风险、运算阶段中算法偏见风险、在生成阶段的知识产权风险。”[6]姚志伟认为,人工智能生成内容的主要风险包括:“对国家安全和公共安全带来的风险、侵犯个人名誉和人身安全的风险、侵犯企业权益的风险。”[7]崔小燕则认为,“生成式人工智能诱发的三重风险样态:技术依赖风险、技术霸权风险、加剧制度失灵风险等。”[8]毕文轩认为,“生成式人工智能引发的潜在法律风险包括:数据合规风险、生成内容滥用风险、算法滥用风险、隐私保护风险、导致数字鸿沟加剧。”[9]郭春镇指出,“生成式人工智能存在技术局限性,生成式大语言模型应用会带来个人信息泄露风险、商业秘密泄露风险、数据安全、网络安全、算法等一系列风险,带来治理新挑战:生成性造成劣质信息泛滥、初始性信源污染、通用性伦理风险。”[10]对于生成式人工智能的失范性风险认知,可谓是“仁者见仁,智者见智”。其实在《生成式人工智能服务管理暂行办法》中已对失范性风险做出了总结,涉及到意识形态风险、算法歧视、知识产权侵害、个人信息泄露以及生成内容虚假等风险,可以从这些方面剖析生成式人工智能的“失范”表现,具体如下:

1.生成不当内容

《生成式人工智能服务管理暂行办法》第四条第一款对生成式人工智能的生成内容提出了明确的禁止性要求,包括了不得生成涉及侵害国家权益、影响社会秩序、违反社会道德以及虚假有害的违法内容(4)第四条 提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:(一)坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容。。例如,网上广泛流传“林黛玉倒拔垂杨柳”这类匪夷所思的事例。这种过度创造,生成虚构或不符合实际的内容,有可能误导读者、产生混淆或对真实世界的理解产生困惑。深层次的原因在于,生成式人工智能缺乏人类的道德判断和伦理意识,可能无法区分对错和道德边界。这导致生成的内容违背伦理准则或造成伦理失范问题。

生成式人工智能的工作逻辑可分为两个阶段:首先是收集大量数据用以训练模型;然后是基于用户的需求,利用模型和其它技术生成内容。因此,生成式人工智能生成的内容(简称为“AIGC”)主要取决于训练数据与用户需求。“以ChatGPT为例,普林斯顿大学的研究结果显示:受语言模型中的社会偏见影响,ChatGPT对特定种族表现出了较大的敌意。”[11]由于生成的内容只是与用户输入的资料具有语义上的关联,但未必正确,因此容易产生误导性的虚假信息。如果用户诱导模型生成违法不良信息,可能会导致人工智能违背预设准则而输出不良导向的内容。“在此背景下,一旦生成式人工智能技术被不法分子利用,可能被用于伪造各种文本、视频和图片,甚至是诈骗、恐吓、诽谤。”[12]例如,江苏公安网安部门就依法查处了一名利用人工智能技术编造谣言网民(5)2023年4月10日,盐城市公安局网安支队接到上级通报称,该市一网民发布“浙江温州一名女大学生在晚归途中遭持刀袭击并强奸”的虚假信息。经审查发现,该网民为了博取眼球、吸引流量,以获取平台给予的创作者奖金,他利用了这款时下流行的ChatGPT人工智能软件杜撰了该谣言。。

2.算法歧视

依据《生成式人工智能服务管理暂行办法》第四条(6)第四条 (二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。,算法歧视问题几乎存在于生成式人工智能从设计到运行的全过程:“算法设计、训练数据选择、模型生成和优化、提供服务算法设计”等。例如,数据筛选都可能包含设计者的价值判断偏差,这可能导致生成内容存在种族、性别、宗教、社会地位等偏见。“生成式人工智能的运行离不开算法和数据,面对ChatGPT这样高度智能化的生成式人工智能,如何妥善地运用并处理数据,成为衡量此类新兴技术是否安全并规范其后续应用的重要指标。”[9]157在以ChatGPT为代表的生成式人工智能的运行过程中,“语言学习+人工标注”是其算法运行的核心内容,这种方式能够提高生成式人工智能的智慧化和准确性,但算法作为生成式人工智能的核心内容,也会导致算法偏见的法律风险成倍提升,而人工标注所带来的使用者偏见不止加大算法的复杂和困难程度,更增加了算法偏见的风险。

3.数据安全

生成式人工智能可能会收集用户的个人信息,并在生成内容中使用这些信息,这可能会侵犯用户的隐私权。例如,“ChatGPT的开源库曾出现重大漏洞:用户的姓名、付款地址、信用卡卡号后四位、用户与ChatGPT的聊天记录等信息均被泄漏,严重损害了用户的个人安全、财产权等合法权益。又如,三星公司的工程师利用ChatGPT来修复源代码,反而导致新程序的源代码本体、与硬件相关的内部会议记录等机密数据均被ChatGPT掌握,成为ChatGPT的‘数据养料’。”[11]生成式人工智能也可能会泄露用户的个人信息和敏感数据。例如,一些语音助手或智能聊天机器人可能会记录用户的对话,并在未经用户同意的情况下共享这些数据。同时,生成式人工智能也会危害个人的数据信息安全。以ChatGPT为代表的生成式人工智能,在收集和获取信息时,有可能违背最小范围原则,违规获取使用人未输入的个人信息和数据,并对个人的信息和数据进行过分深入的研究分析,导致在深度和广度上均违规收集和使用个人信息和数据,造成对个人隐私的侵害。此外,生成式人工智能通过对个人的数据收集并分析产生的结果,可能存在虚构事实或违规传播的风险。例如,通过生成式人工智能合成受害者的头像,伪造受害者的个人信息,使其上当受骗产生错误认识,财产被人骗取的新型诈骗方式。

4.知识产权保护

生成式人工智能的发展带来诸多知识产权保护的问题:“首先是训练数据的来源是否存在对著作权保护的侵害风险,其次是生成的内容是否具有著作权”[13]。生成式人工智能可能会侵犯他人的知识产权,如抄袭他人的文章、图片、音乐等作品。在《生成式人工智能服务管理办法(征求意见稿)》中多次提及“尊重知识产权”“防止侵害知识产权”以及“不含有侵犯知识产权的内容”,体现规范层面对于生成式人工智能可能造成的知识产权侵害风险以及法益损害后果的理性认知。生成式人工智能生成内容的知识产权归属在学术界引起众多讨论,著作权的归属不明也是“失范”的一种表现。

此外,生成式人工智能的失范性表现,会因不同的生成模型、数据集和训练方式而异,因而风险存在变异、变形的可能,这也给法律规制和伦理约束带来了巨大的挑战。

(三)生成式人工智能失范性的制度反思

1.针对生成式人工智能引发的风险问题,伦理与法律尚难有效回应

生成式人工智能虽然是个新兴事物,但其发展速度和对社会的影响却是空前巨大的。“人工智能系统引发了新型伦理问题,包括但不限于其对决策、就业和劳动、社交、卫生保健、教育、媒体、信息获取、数字鸿沟、个人数据和消费者保护、环境、民主、法治、安全和治安、双重用途、人权和基本自由(包括表达自由、隐私和非歧视)的影响。此外,人工智能算法可能复制和加深现有的偏见,从而加剧已有的各种形式歧视、偏见和成见,由此产生新的伦理挑战。”[14]然而,对于生成式人工智能而言,由于其本身存在着不断变异的可能,这就对现有的法律规则和伦理规范提出了全新的挑战。目前,美国、欧盟以及我国对于人工智能可能存在的风险,积极通过制度规范进行调整。但是,面对生成式人工智能的迅猛发展,当前和未来可能映射出的不特定风险,还没有构建起完整的体系性制度框架应对,更多地是具有“试验”性质的立法,如我国的《生成式人工智能服务管理暂行办法》或者指向更加宏观的“人工智能领域”的立法。“试验性”立法属于“摸着石头过河”,而更加宏观领域的人工智能立法对于生成式人工智能的规范可能“鞭长莫及”,无论是欧盟《人工智能法案》还是我国正在准备制定的“人工智能法”实质上更具宣誓性立法的特性。“我们评价一个制度无论如何不能以个别事件的实质性对错为标准,而要做出总体上的利害权衡,而这种权衡是公众在历史中进行的。这也表明,社会在任何时候都不可能只依赖某一个制度,而需要的是一套相互制约和补充的制度”[15]。

目前的伦理规则是基于对生成式人工智能的基础认知,而生成式人工智能的迭代转换异常迅速,因而不可避免的出现认知盲区或是对风险以及可能的失范性行为无法预估。虽然我国目前正尝试在制度上强化科技伦理的作用,例如:《人工智能示范法1.1(专家建议稿)》第三十九条专门强调“人工智能研发者、提供者应当按照国家有关规定开展科技伦理审查。”[16]可是现有的科技伦理规范是否能够应对生成式人工智能这种新兴事物,存在疑问。因而,针对生成式人工智能的伦理规则和法律制度目前尚处于理论准备和先期试验阶段,对于生成式人工智能的失范性规制问题,现有的伦理规则和法律制度均体现出“规范失能”的窘迫现状。正因如此,借鉴凯尔森规范性理论,根据其“我们应当关注实际问题”的要求。不同于某些学者所强调要用精神、原则指引其发展,我们更应该理性着眼于生成式人工智能的具体伦理规则与法律制度的研究,做出实体规范的体系化应对。

2.现有的伦理规则和法律制度的“规范性”不足

针对人工智能的伦理规则未能形成体系化的框架,各国的认知仍然存在分歧,主要是基于各国对技术发展和个人利益保护的不同侧重。现有的法律未能构建起生成式人工智能的具体风险规制规则,确实归因于对该新事物的了解不深,对其运作模式和风险类型认识不够,更勿论在关键性理论问题上仍存在意见分歧。例如,针对生成式人工智能主体资格的讨论仍未达成一致。“规范性”不足的问题集中表现为:已有法律对生成式人工智能的规定缺乏技术性理解,且技术性措施鲜有被应用到行政监管和司法环节。例如,王竹教授建议《征求意见稿》第三条规定的“算法、框架等基础技术”修改为“相关基础技术”“软件、工具、计算和数据资源”修改为“硬件、软件和数据资源”[17]。制度设计者面对生成式人工智能的认知偏差,导致无法圆满解决这一棘手问题,即“人工智能逻辑”如何嵌入法律规范。要解决此类问题,可能需要吸纳更多具备人工智能、数据、计算机科学与技术等相关领域知识的专家学者参与到相关立法中来,以期更好地因应生成式人工智能的技术性法律问题。

值得注意的是,“人工智能逻辑”本身也是自然科学的逻辑。“将法学体系建构成数学式的严密逻辑系统,凭这种高度形式化从其它社会科学中胜出正是凯尔森‘纯粹法学’的目的”[18]134。只是不同于凯尔森当时面对的“自然科学的逻辑范式”,现如今的人工智能早已发展成为新一代的“代码逻辑”,即“Law is code”。凯尔森规范性理论运用逻辑的、分析的和批判的方法使法学形式化、准确化,因而也可以从凯尔森规范性理论出发,剖析面对生成式人工智能时,制度的规范性演化问题。

二、凯尔森规范性理论对生成式人工智能失范性的学理回应

(一)凯尔森的规范性理论

“在二十世纪三四十年代,自然科学的发展及其上升至认识论的模式使人们相信科学的方法应该推广到包括法学在内的人文科学的所有领域,并规范它们的内容。”[18]136不同于当时自然法理论的研究,凯尔森力求排除政治、道德等因素对法的纯粹性影响,坚持法与道德相分离。凯尔森因提出“规范性理论”而名声大噪,一度被认为是二十世纪最重要的法律实证主义者。凯尔森认为,要坚持分析实在法的方向,即“法律科学所提出的每一论断必须建立在一个实在法律秩序或对几个法律秩序内容加以比较的基础上。只有将法学局限于对实在法的结构分析上才能将法律科学与正义哲学以及法律社会学区分开来。”[19]126

1.凯尔森的“法的规范性”是指向“法律自身的”

之所以强调“法的规范性”是法律自身的、法律内部的,是因为凯尔森将目光专注于实在法的内部,主张从结构上来分析实在法,而不是从内心和经济上解释它的条件或从道德上抑或政治上对它的目的进行评价。研究对象为实在法的结构、法律规范的效力以及法律秩序等内容,他将法的一般理论的主题界定为“法律规范及其要素和相互关系、作为一个整体的法律秩序及其机构、不同法律秩序之间的关系,以及法在多数实在法律秩序中的统一”,认为“法律规范就是意志行为的客观意义”[19]1。在笔者看来,凯尔森把道德、政治等因素排除在法律之外,并不是说法律规范中要排除道德、政治的内容,而是法需要规范化、逻辑化的形式。

2.凯尔森的“法的规范性”呈现体系化

基础规范理论和法律动态体系理论很好地说明了法的这种“规范性”是成体系的。基础规范理论认为,基础规范是一个法律体系中所有规范得以有效的终极渊源,一个规范的效力理由始终是另一个规范。基础规范是被假设的,也是整个法律体系效力解释的根基,使整个法律体系成为具有效力的规范体系。建立在基础规范之上的法律动态体系,其效力最终可以追溯到基础规范,通过各级规范的层层委托,形成一个自上而下的法律体系。

3.凯尔森所主张的法律规范性借鉴了自然科学的逻辑

自近代科学产生之始,以数理逻辑为工具迅速成为主流学科的分析形式,人文学科也可以通过对事实和材料的观察与分析成为科学,或者具有科学性。同样,凯尔森也看到了不能简单地将法学等同于自然科学,其在研究材料和方法上存在根本区别。在凯尔森的努力下,试图将法学建成类似于数学那样有着严密逻辑体系、形式紧凑的系统。事实也如此,凯尔森专注于基本概念问题的研究,对法与国家、权利义务等论述丰富了法的实体内容,厘清了相关概念的关系。针对数理逻辑中的因果关系也并非简单的引用,而是结合法律规范的特点有所调整。

(二)规范性理论对生成式人工智能失范性风险的理性回应

1.生成式人工智能引发伦理问题的“人本”回应

针对生成式人工智能的法律治理,可以进行“规范化”理论研究。但是,针对生成式人工智能的伦理规范,由于其本身并不是法,更谈不上法的规范化。对生成式人工智能进行伦理回应何以引用凯尔森的规范性理论?这里的规范化指的并不是直接将伦理当成法进行规范,而是将伦理规范化,包括增强其约束性、可执行力,整理其内部层级关系,形成伦理治理体系等。针对人工智能的伦理研究一直是学界关注的重点,更不用说像ChatGPT4这种基于数据和算法构建的“超智能”大模型。国内外的学者提出了不同层面的伦理规则,然而伦理规范之间层级不明、内在冲突问题却不能得到很好的解决。伦理性规则缺乏规范性的后果是约束力不足,应当对伦理概念做进一步的阐释,使得伦理规则符合规范化要求。

从全世界范围内来看,尽管各国主张的伦理原则不同,但是“以人为本”是各国公认的人工智能发展的核心价值。2021年11月,联合国教科文组织发布了《人工智能伦理问题建议书》提出“因此,尊重、保护和促进包括国际人权法在内的国际法确立的人的尊严和权利,在人工智能系统的整个生命周期内都至关重要。”[14]2019年欧盟委员会人工智能高级专家组发布的《欧盟可信人工智能的伦理指南》(7)欧盟《可信AI的伦理指南》主要分为三个章节:第一章通过阐述应遵循的基本权利、原则和价值观,确定AI的伦理目标;第二章为实现可信AI提供指导,列举可信AI的要求,并概述可用于其实施的技术和非技术方法,同时兼顾伦理准则和技术健壮性;第三章提供了可信AI的评测清单。参见欧盟委员会人工智能高级专家组:《可信AI伦理指南》。确立了三项AI道德原则,“即遵守所有适用的法律法规、尊重道德原则和价值观、技术和社会效应的稳定”[20]。我国于2021年9月发布的《新一代人工智能管理规范》提出“增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养”等六项基本伦理要求[21]。构建人工智能技术系统内部伦理规范,应以“以人为本”为最高位阶的价值,针对具体伦理的差异要求,可以结合我国国情赋予伦理规范以实际内容,做可行性的解释。作为人工智能子领域的生成式人工智能应围绕“人本主义”来发展,将生成式人工智能未来发展的目标导向人的生存本身的需要和人的全面自由发展本身的追求。此外,可以尝试在人工智能系统内部设置基础性的“底线式道德义务”,将使用用户的隐私保护纳入人工智能系统的“底线式”规范之中[22]。

2.生成式人工智能引发法律风险的制度因应

基于“法的规范性”,法律需要对生成式人工智能做出两个方面的回应:一是法律规范的内容应更加数理化;二是在数字化时代背景下,出现了“代码逻辑”。

(1)法律规范的内容应更加数理化

不同于凯尔森所处时代面临的初代的数理逻辑,目前的生成式人工智能阶段,数理程度更深。数理化逻辑不再是简单的直线型、单向性,更多的是复杂推理的多线性、放射型,并且数理化涵盖的内容更多。在人工智能时代,出现了很多衍生概念,概念的复合性使其难以理解,更难以进行逻辑演进。法律需要对依照数理逻辑运行的模型予以规定,因此对其数理逻辑的理解应当体现在法律规定之中。

(2)数字化时代背景下,出现了“代码逻辑”

数字化网络时代,借助于大数据、云计算、物联网等技术的发展,万事万物似乎都被转化成了数据,通过代码对各种数据进行储存、加工和利用。“The Code is law”形容的就是数字时代的“代码法”,一串串的代码构成了人工智能运行的“规则”。人工智能的运行离不开“算法”,算法是由代码构成的,只有将算法程序转换成代码这一机器可以理解的“语言”,才能被机器学习和应用。法律(或者说立法者)对利用代码的各项技术、活动进行规制首先需要理解代码,将代码转化为行为语言。代码逻辑本质也是数理逻辑,其表现形式为代码,有一套自己的逻辑运行规则。若期待法律制度对人工智能的规制起到积极的效果,那么以生成式人工智能为对象,以其运行过程风险规制为内容的法律应进一步“规范化”,对代码逻辑下的“运行模式”作认知后的规定。仍应注意的是,在传统法律中,我们通过对人的行为类型解构进行分类规制,也就是“假定条件+行为模式=行为后果”的法律规则的逻辑结构,但是针对生成式人工智能,法律却不能简单地依照此逻辑进行规定,最关键性的区别在于:此时的行为主体不再是人的行为,即使技术提供者对“智能体”设定了算法逻辑和禁区空间,但是成型后的“智能体”可以自主的学习和运行,对“算法黑箱”的无法解释就说明了人不能完全的把握控制和解释人工智能的全部行为,尤其是智能模型运行的中间环节。现实中的做法是我们仍然只对技术支持者、服务提供者、用户的行为进行法律上的规定,至于技术性标准和方案则更多的采用行业标准或协会的技术性规范替代。在高位阶的规范上,我们虽无法直接对生成式人工智能运行做出具体责任规定,但是我们可以在事前准备和事后结果上设计具体制度,比如:事前算法备案审查、风险评估、紧急应对措施、定期排查隐患、重大风险说明、用户反馈机制等。最终形成“重两头,轻中间”的治理模式,中间运行环节依据平台和用户之间签订协议来规范。此外,如果法律仅对生成式人工智能的“代码指导下的行为”做出规定则是不全面的,大型的生成式人工智能模型具有“涌现能力”,还要在制度上预留出衍生行为的规制空间。

三、基于伦理与法律协同构建生成式人工智能的规范性体系

(一)伦理规则的“规范化”发展

针对生成式人工智能发展引发的风险挑战,伦理性回应一直处于理论探讨的前沿,这也与人工智能的发展始终伴随着伦理危机有关。相较于法律规制的滞后性,伦理规则因其自身的特点可以及时做出回应:伦理应先行,在前期发挥重要引导作用。如前所述,伦理回应的规范化构建,要将伦理规则进一步形成系统化的伦理规范。

1.伦理规则内涵的阐释

(1)以人为本原则

以人为本原则是人工智能发展的核心原则,其内容涵盖:尊重个人权利、对人负责、保障个人权益、保障人类自主性等突出人的中心地位的原则和价值理念。法治中的“以人为本”更多的是强调人文精神,以人的根本利益为根据,以人为最高的价值,尊重每个人的权利,人人平等对待,实现人的全面发展[23]。“人工智能的真正价值不是取代人,而是以人为本、造福于人。人工智能技术和伦理之间的关系,也不是此消彼长或者你强我弱的关系,而是相辅相成的。”[24]与“以人为本”的法治观不同,人工智能领域所强调的“以人文本”伦理原则是指人工智能须“以人类为中心”,人工智能不能僭越“人”的地位和权利[25]。例如,《人工智能示范法1.1(专家建议稿)》(8)中国社会科学院国情调研重大项目、《我国人工智能伦理审查和监管制度建设状况调研》课题组发布,《人工智能示范法1.1(专家建议稿)》主要由六章构成:总则,人工智能支持与促进,人工智能管理制度,人工智能研发者、提供者义务,人工智能综合治理机制,法律责任等。中国社会科学院国情调研重大项目、《我国人工智能伦理审查和监管制度建设状况调研》课题组发布,《人工智能示范法1.1(专家建议稿)》主要由六章构成:总则,人工智能支持与促进,人工智能管理制度,人工智能研发者、提供者义务,人工智能综合治理机制,法律责任等。第四条就确立了“以人为本”原则:从事人工智能研发、提供和使用活动应当以人为本、智能向善,确保人类能够始终监督和控制人工智能,始终以促进人类福祉为最终目标[16]。以人为本的伦理指引本身就是原则性规定,为了尽可能不限缩其适用的范围,不宜将其过于明确化解释,但“以人文本”原则仍要明确其核心特点及背后的价值取向。新技术的出现带来人类的尊严危机,数据偏颇和算法瑕疵都可能导致人格尊严受损,人格尊严等以人为本的理念不能作为空洞的原则性指引要求,而应当积极融入法律制度的构建之中[26]。

(2)尊重价值多元

关于人工智能背后的技术价值问题学界讨论已久,存在“技术中立”和“技术偏见”两种争论。事实上,我们希冀“智能人”坚持“技术中立”是一种渴望,“技术”也许是中立的,但是技术背后的人在设计之初就会带有一定的主观色彩,“智能人”在之后的深度学习和预训练过程中,可能因为数据本身的不全面而导致偏见,“以Instruct GPT为例,其微调指令中超过96%为英语,仅包含20种少量的以西班牙语、法语、德语等为代表的其他语言”[14]。生成式人工智能本身也不是中立的,与其争论其是否中立,不如把关注点放到如何保证价值多元上。价值多元本身既是尊重人权、尊重地区多样性的体现,对防止偏见和歧视也能起到一定的牵制作用。在生成式人工智能的算法中,不应设定统一的价值判断标准,应促进多元价值判断体系的形成,尤其是不能形成单一的价值立场,防止有些国家潜移默化地进行文化输出,它的应用应当是客观的陈述,需要尊重不同人群的国家、地区、民族、性别、宗教等元素。

(3)坚持反歧视、反差别对待

在算法治理领域,解决算法的歧视和差别对待是治理中的重点,生成式人工智能基于算法和数据生成结果,算法和数据的歧视与偏见是迫切需要规制的。坚决反歧视、反差别对待,就是坚决反对一切算法设计的偏见、反对训练数据的片面性。关于反歧视、反差别对待的相关要求,在最新的《人工智能示范法1.1(专家建议稿)》中有明确的体现,其中,第三十六条(公平性义务)规定,“人工智能研发者应当在训练数据处理和标注、算法模型设计研发和验证测试过程中,采取必要措施,有效防范有害的偏见和歧视。人工智能提供者应当在提供产品、服务过程中,加强对输入数据、输出数据的管理,有效防范有害的偏见和歧视。”第三十四条(公开透明性义务)中规定,“人工智能提供者应当综合考虑产品、服务的场景、性质、受众和行业技术发展水平等因素,充分保障未成年人、老年人、残障人士等特殊群体可以理解上述信息。”[16]

2.伦理准则的体系化构建

针对生成式人工智能的伦理准则应当是体系化的,伦理准则之间是相互关联的,并且有位阶高低之分。目前来看,“以人为本”是生成式人工智能发展的核心规则,是指引整个人工智能发展的“元规则”,具有最高的地位,是第一位阶的原则。尊重价值多元和反歧视、反差别对待原则是第二位阶的原则,价值多元是生成式人工智能发展很重要的一个原则,直接关系到整个人工智能发展的生境,尤其是大型人工智能平台的服务范围遍及世界各国,自然要尊重价值标准的多元性,必要时生成式人工智能需要生成多个答案或者避免回答敏感问题,其本质上是对人类文化多样性、价值多元性的尊重。反歧视、反差别对待原则包含了反算法歧视及差别对待、反数据歧视及差别对待和反对互动性歧视及差别对待三个方面,三者分别对应了算法技术设计阶段、数据训练及深度学习阶段、应用中的互动阶段,其虽不似“以人为本”原则那样是整个伦理准则体系的根本遵循和出发点,然而“以人为本”在生成式人工智能伦理准则体系中最主要的特征,约束着下位伦理准则。第三层次的伦理准则是诸如:内容真实性、保护个人隐私、非著作权人保护、维护国家安全等具体的伦理指引,是针对伴生性伦理风险的回应,也是具体化的准则,位于整个伦理准则体系的最下层,受到第一、第二位阶伦理准则的约束,其规范性直接关系到伦理准则的指引效果,与现实风险联系紧密,实际效果明显。具体化的伦理准则会随着生成式人工智能的发展有所变化,甚至出现上述伦理准则约束之外的伦理要求,但在以“以人为本”为核心伦理准则的凝聚下,整个伦理准则体系不会发生太大的变化,要注重第一位阶、第二位阶、具体伦理准则的层级关系,不同位阶伦理准则的相关影响,实现伦理准则体系的整体性、规范性。

(二)法律规制的“规范化”建构

法律规制的规范化回应是生成式人工智能失范性风险规制的关键所在,相比伦理性指引,法律的规范性约束更具紧迫性和现实意义。应对生成式人工智能的发展,法律的进一步规范化应从法律的“科学化”和法律的“体系化”两方面进行:

1.法律的“科学化”

如前所述,生成式人工智能带来的科学性变化表现为:内容上的进一步数理化和形式上的代码化。基于凯尔森规范性理论进行分析,法律的规范内容应体现这种高度数理化的逻辑。对生成式人工智能的运作机理不清楚,是因为我们不理解其数理化的运作逻辑。算法层面的研究相对已经成熟,算法是人工智能运行的基础,针对算法歧视与偏见问题,多数学者主张将算法公开,从保障相对人知情权的角度出发,服务提供者应主动公开、报备相关算法方案,并就相关算法进行解释。显而易见,基于服务提供者和技术开发者的优势地位,理应被要求承担更多的责任。关于数据方面的法律规制也呈现出规范化趋势,以欧盟的《通用数据保护条例》为标志,代表着数据保护进入法律规范化阶段。我国数据保护(广义)方面的法律有《个人信息保护法》《网络安全法》以及《中华人民共和国民法典》中的个人信息保护相关内容等。生成式人工智能虽然是以数据和算法为核心,算法和数据相关法律规范也可以通过扩充法律解释对生成式人工智能进行规范,但其在数据和算法方面侧重点有所不同,既有的数据、算法相关法律规范没有涉及生成式人工智能的内容真实性、预训练数据来源非法等问题。在“生成性”特征的影响下,其生成的内容是否具备成为著作权法上的作品等问题也没有得到明确认定。

正如数据和算法相关立法的发展样态,针对生成式人工智能的法律也应尽快出台,国家互联网信息办公室发布的关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见过程中,很多专家学者提出关于“科学化”“规范化”的意见。在生成式人工智能的“规范化”专门立法中应当关注以下几点(9)第一,要理解生成式人工智能的含义和运行流程,只有在此基础上才能分环节的对生成式人工智能进行规定;第二,要明晰生成式人工智能与相关技术概念的关系,如其与深度合成技术的关系,为进一步的规制奠定基础;第三,生成式人工智能专门立法千万不要忽视原则性的规定,人工智能以人为本、可信性、透明度、反歧视和偏见等等是生成式人工智能发展的价值性指引;第四,也是之前立法很少涉及到的一点,法律的规范性要求包括技术性的规定;第五,法律条文不可避免的会运用大量的技术语言,对技术语言进行合理地界定事关法条的解释问题。。生成式人工智能本身就是依托大数据、算法、自然语言处理等技术搭建的智能平台,打败“魔法”的只有“魔法”,因此在立法中应加强技术性监管的内容规定。总之,针对生成式人工智能,法律的规范化要求法律“科学化”。

2.法律的体系化

当前,关于生成式人工智能的法律已经“有法可依”,但还谈不上体系化。随着《生成式人工智能服务管理暂行办法》的出台,让我们看到了立法的方向。

目前对生成式人工智能的规制主要有这几方面:训练数据的合法性问题、个人隐私侵犯、数据安全、算法歧视和偏见、生成式人工智能的主体资格、生成式人工智能生成的内容是否可以是作品、生成式人工智能可否独立承担法律责任等,通过梳理这些问题我们可以发现对生成式人工智能的规制尚未有效回应现实需求。《生成式人工智能服务管理暂行办法》通过强制要求提供者与注册其服务的生成式人工智能服务使用者签订服务协议来进行规制,给予服务者自主性的同时并未规定对使用者的权利救济。

目前看来,随着生成式人工智能专项法规的出台,生成式人工智能的法律体系是以《生成式人工智能服务管理暂行办法》进行性规定,数据、算法相关法律对涉及到的相关进行附属性规定。数据方面的立法有《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国网络安全法》等;算法方面的规范有《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《互联网弹窗信息推送服务管理规定》;此外,《互联网信息服务深度合成管理规定》对深度合成技术进行规定,上述规范之间存在规范内容的交叉。我们可以认为《生成式人工智能服务管理暂行办法》是数据、算法、深度合成技术等相关领域的特殊法。值得欣慰的是,《国务院2023年度立法工作计划》中包含了《人工智能法》。我们期待《人工智能法》能够为整个人工智能法律体系奠定基础,能够“对人工智能技术的开发和应用以及行业发展确定基本的法律原则和监管框架,就算法、数据、安全、个人信息保护、知识产权等现有法律法规在人工智能领域的协调衔接和具体适用做出明确规定”[28]。总而言之,对生成式人工智能进行法律回应,法律需要进一步“科学化”,法律规范更要体系化、系统化。

四、结语

生成式人工智能潜在的失范性风险,基于凯尔森规范性理论从伦理和法律两个方面进行“规范性”回应。应当注意的是,“规范性”本身也是存在程度之分的,尽管我们尝试构建应对生成式人工智能的伦理准则和法律规范体系,但是伦理概念的具体表达、法律内容的数理化表达等都受到生成式人工智能现实发展情况的制约。也许数年之后,科学技术领域的名词就转变为日常用语被规定在法律之中,大众普遍认知的技术原理也可以被立法机关在法律中直接规定,随着科学知识的普及,伦理和法律也需要适时地变化,但是伦理和法律的“进一步规范化”的趋势是不变的。

猜你喜欢
伦理规范人工智能
《心之死》的趣味与伦理焦虑
来稿规范
来稿规范
PDCA法在除颤仪规范操作中的应用
来稿规范
护生眼中的伦理修养
活力(2019年19期)2020-01-06 07:37:00
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29