欧盟生成式人工智能立法实践及镜鉴

2024-11-30 00:00陈亮张翔
法治研究 2024年6期

摘 要:生成式人工智能利用海量未标记数据和合成数据进行持续训练,依赖深度神经网络等机器学习技术逐渐形成自主的行为能力,输出新颖结果、应用日趋广泛,正深刻改变着人际间的互动方式,其模型开发的资源密集型特性也促使复杂价值链条形成。生成式人工智能在运行节点的技术跃迁,引发了版权侵权、数据偏见、能耗过大、风险难测、虚假信息传播以及损害认定困难等监管挑战。欧盟人工智能法作出紧急回应,以“通用人工智能模型”为概念中枢,经由“通用人工智能系统”过渡,将生成式人工智能纳入“人工智能系统”范畴;输入端从数据数量和数据质量双管齐下设置合规义务,处理端引入“高影响能力”的自主性程度判断标准,并将“具有系统性风险的人工智能”嵌入风险分类分级制度,输出端则设计“检测、披露和透明度”等义务来规制虚假信息传播,部署端也专门设计价值链上的责任分配专条。虽然欧盟立法为应对生成式人工智能风险作出了努力,但在“抽象定义的确定性”“衡量数据训练效果的方法”“高级模型与小型模型之区分”“系统性损害的确定”以及“API 接口和开源模式对价值分配的影响”等方面仍有继续完善的空间。

关键词:欧盟人工智能法 生成式人工智能 定义范畴 系统性风险

人工智能治理是一项复杂的系统性工程,欧盟在世界范围内率先尝试以正式立法推动人工智能法律规制进程。然而,随着GAN、CLIP、Transformer、Diffusion、预训练模型、多模态技术、生成算法等人工智能技术集成应用和迭代升级,催生了以ChatGPT、DALL-E 和Sora 等为代表的生成式人工智能(ArtificialIntelligence Generated Content,简称AIGC)大爆发,对人工智能规制形成新挑战——立足于传统人工智能的欧盟立法是否还能有效应对此种具有通用属性的新类型人工智能?与我国针对生成式人工智能开展专门立法不同,欧盟制定的是一般法意义上的“人工智能法”,即2021 年4 月欧盟委员会正式公布的“欧洲议会和理事会关于制定人工智能统一规则(《人工智能法案》)和修订某些欧盟立法法案的提案”(以下简称“2021 人工智能法提案”)便是欧盟“人工智能法”的雏形。自2022 年底出现人工智能技术拐点(以OpenAI 推出ChatGPT 为标志)之后,欧盟立法在“2021 人工智能法提案”基础上历经数次修订,以应对生成式人工智能带来的监管挑战,其中较为关键的立法修订程序主要包括2022 年12 月欧盟理事会通过的“一般立场”(以下简称“2022 人工智能法立场”)以及2023 年5 月欧盟有关机构通过的“关于报告草案的折衷修正案草案”(以下简称“2023 人工智能法草案”);最近的一次重要修订是欧洲议会在2024 年3 月13 日发布的“立法决议”(以下简称“2024 人工智能法”),该法案于2024 年7 月12 日在欧盟官方公报发布,2024 年8 月1 日正式生效。

综观欧盟人工智能法的变迁过程,该部立法对生成式人工智能的监管态度和规制方式实际上经历了艰难的价值博弈。为清晰展现欧盟立法对生成式人工智能的规制思路,本文首先从人工智能现象谈起,在系统论指导下遵循“输入—处理—输出—部署”链条,相对客观地“白描”生成式人工智能较之于传统人工智能的技术变化;在此基础上,继续观察生成式人工智能在进入人类社会生活后因其技术跃迁引起的“社会风险变化”和“社会关系变化”,正是这些变化构成了欧盟“2024 人工智能法”修订内容的叙事背景;接着以欧盟立法史中变动的“人工智能法律定义范畴”为切口,初步揭示欧盟立法对生成式人工智能的规制模式,这也是人工智能立法应对监管挑战的逻辑前提;其后继续遵照系统论链条对欧盟“2024 人工智能法”中涉及生成式人工智能的相关具体条款进行体系解释,以期勾勒出欧盟立法应对监管挑战的基本方案;最后,反思欧盟生成式人工智能立法的利弊得失,以此作为未来中国人工智能立法之镜鉴。

一、生成式人工智能的技术跃迁

(一)输入端:海量的训练数据

生成式人工智能实现技术跃迁的关键步骤是“预训练转换模式”,以提前训练海量和多样的未标签文本为必要前提,而ChatGPT 要想实现通用智能,则需要以“少调整”甚至“不调整”参数为目标,这就意味着“未标记数据”和“合成数据”自然成为生成式人工智能为满足海量训练数据需求的基本选择。

传统人工智能以监督学习为基础,依赖具有预定义输入和输出的“大量标记(标注)数据”(为实现特定目的而精心策划的数据)进行训练,需要通过“人工注释”方式来准确学习并作出预测,以实现数据训练的高精度和高性能水平;相较之下,生成式人工智能允许系统从非结构化数据中学习,以找到数据集的潜在模式和结构特征,并在“没有明确人工指导”的情况下生成输出,这种生成新数据和新内容的能力使生成式人工智能在无监督环境中变得强大。

合成数据基于深度学习、生成对抗网络(GAN)、3D 渲染等方法形成,外观与原始数据样本相同,是一种映射真实世界模式的数据形态,其主要功能在于复制和替换原始数据,从而作为生成式人工智能的预训练数据以创建不同的机器学习模型。合成数据作为预训练数据的重要类型,其主要价值有四:一是数据库测试时“数据保真”,处理原始数据的合成版本,能够在不改变真实数据属性和成分的基础上获得相同结果;二是降低从真实世界收集原始数据的经济成本和时间成本;三是生成式人工智能可以通过生成新样本以增强数据集、提高基础模型的鲁棒性和泛化性;四是大型、多样化的数据集有利于强化自然语言处理和计算机视觉领域的性能。

(二)处理端:自主的行为能力

传统人工智能依赖于基于规则的方法,这些规则由人类专家根据他们对问题域的理解而设计,通过明确指令和预定义规则进行编程,使系统能够执行特定任务;生成式人工智能采用数据驱动的方法,模型不依赖于显式规则,而是使用深度神经网络等机器学习技术从大型数据集中捕获基础模式和结构关系来生成新内容。深度学习技术源于人脑的生物神经网络机制,能够模仿人脑自动对数据进行特征提取、识别、决策和生成,其中以“利用人类反馈强化学习”(Reinforcement Learning from Human Feedback)为训练方式的Transformer 模型是让人工智能进行自主深度学习的核心架构。譬如,将大量小说作品输入生成式人工智能模型,机器学习算法从输入的信息中学习情节、结构、人物、主题和其他叙事手段等元素,随着训练时间增加、生成数据增多,基础模型越来越复杂,其输出就越有说服力和人类特性。

生成式人工智能处理端的技术变化使其具备“自主的行为能力”,这种“自主性”特征体现在基础模型的运行目的、运行过程和运行结果的全流程。首先,基础模型的运行目的具有不可知性。基础模型对“少样本”“单样本”和“零样本”情形进行综合,在没有案例指引的情况下独立完成对任务的理解,这就类似于向人类下达同等任务,体现出高度自主性与问题应对的灵活性。其次,基础模型的运行过程具有不可确定性、不可理解性、不可控制性以及自我统摄性,其在大量未标记数据上训练,从中推断出模式而无需人工监督,使模型能够展示超出开发人员最初设想的“紧急能力”。最后,基础模型能够生成类似人类理性的运行结果,甚至可以作出远优于自然人的决策。一方面,生成式人工智能不仅仅是信息传播工具,其在一定程度上也是“信息生成者”,能够选择性设计信息内容、建构传播渠道,进而阻碍数据共享与完整传输,导致政策观念之间协商、修正的机会大大减少;另一方面,生成式人工智能具备迁移应用能力,与通常被训练为执行一项特定任务的非基础模型不同,基础模型能够将其在执行任务A 时获得的知识应用于任务B。虽然生成式人工智能在理解力、逻辑性和功能化等方面呈现出强人工智能(General AI)特性,并且在解除一定限制的情况下,GPT-4 能够自主使用各种工具完成工作,具备自我反思和迭代能力,能够实现从感知智能向自主认知智能跃迁,但ChatGPT 基于语料喂养和人类反馈强化学习所训练出来的认知能力仍然有限。在“是否可以脱离人类设计和编制的程序自主实施行为”标准下,生成式人工智能实际上处于弱智能机器人与强智能机器人的临界点。

(三)输出端:多样的输出结果

生成式人工智能的底层逻辑为“理解—创作”,它不是对既有内容进行简单拼接,而是对输入的数据进行演绎式创造,形成多样的输出结果。

其一,生成式人工智能的输出结果具有一定“新颖性”。传统人工智能基于数据中的历史模式来预测特定用例的结果,而生成式人工智能则是在“理解上下文”的基础上生成新颖的类人内容,其擅长创制艺术类、音乐类和设计类等新内容,特别是在传统素材稀缺的情况下提供独特解决方案。换言之,生成式人工智能通过辅助艺术家和创新者探索未知创意领域,将抽象概念转化为有形现实,突破传统创意的界限,推动行业向前发展,使其成为激励创新的基石。

其二,生成式人工智能的输出结果具有广泛的应用场景。传统人工智能适用于特定用例,例如检测欺诈、下棋、识别图像中的异常情形;而生成式人工智能适用于各种通用的用例和应用程序,例如回答复杂问题,创建全新的图像、音频和视频等。传统人工智能的特定用例中使用专用程序,例如BI 报告、仪表板、呼叫中心屏幕等;而生成式人工智能则有更多的人机交互界面,例如基于应用程序和Web 浏览器的聊天界面。

其三,生成式人工智能的输出结果能够改变人机互动方式。随着技术进步,传统人工智能和生成式人工智能将协同工作,生成式人工智能主要用于简化人机交互,并使用传统人工智能来创建应用程序,它们将串联使用而不是各自孤立使用,即生成式人工智能的“通用性”(泛在性)也是有限的,其只是工具箱中的另一个工具。进言之,以生成式人工智能为基础的聊天机器人可以改变企业与客户间的互动方式,具备提高效率、参与度和满意度的优势。譬如,嵌入生成式人工智能功能的聊天机器人不断从每次互动中学习和适应,确保它们随着时间推移而变得更加有效,这种持续改进的循环预示着未来集成式人工智能将提供更加个性化和高效的客户服务。

(四)部署端:复杂的价值链条

GPAI(General Purpose AI)模型的关键技术特征是其大尺寸(使用大量参数,即定义模型的数值)、不透明性(输出信息的计算机制难以解释),以及具有超出生产者预期的意外开发能力。并且,提供GPAI模型不仅需要大量数据和计算能力,还需要高水平的研究人员和技术工程师,这些都将耗费高昂的经济成本。GPAI 模型开发的“资源密集型”特性促使其提供商(上游)和面向终端用户的公司(下游)之间建立相互依赖关系,表征传统单一用途人工智能应用范式的转变。与必须从头开始构建一个人工智能系统来执行特定任务不同,尖端GPAI(如Meta、Microsoft 及其合作伙伴OpenAI 等)能够通过传统上技术含量较低的“后台”公司为下游公司构建多种面向用户的应用程序提供基础设施支持,各种参与者负责同一过程的不同组件,使GPAI 模型的生命周期变得复杂。进言之,上游和下游公司之间的这种牵连关系意味着不同参与者对GPAI 模型的控制水平会根据上游GPAI 提供商分发模型并将其投放市场的策略(目前大部分是开源软件或通过应用程序编程接口)而发生变化,即他们产生价值和将GPAI 模型市场化的方式更为复杂。

二、生成式人工智能引发监管挑战

海量未标记数据在提高生成式人工智能性能的同时,也会出现以下风险:一是知识产权侵权,大多数生成式人工智能系统的核心——基础模型(FM)和大型语言模型(LLM)——是在海量数据上训练的神经网络,这些数据往往直接从互联网爬取,不少内容实际上受版权法保护,但数据使用者却没有为此支付对价。二是数据偏见,用于训练生成式人工智能模型的数据中存在历史偏见和其他形式的偏见,这些模型复制了刻板印象并可能导致仇恨言论等危险输出。三是人工智能事件增加,斯坦福互联网天文台(SIO)的一项调查在一个开放数据集中发现了数百张儿童性虐待材料(CSAM)图像,而人工智能模型直接在容纳了数十亿张图像的公共数据集(LAION-5B)上进行训练,该数据集由机器在社交媒体网站、成人视频网站等直接抓取。此外,生成式人工智能在利用合成数据训练时,存在“异常值”问题。一方面,将罕见事件编程到数据分发系统中非常困难;另一方面,合成数据因复制了输入数据的部分统计特征而忽略某些不可预测的真实数据,所以变量数据质量很大程度上取决于输入数据质量,严格的质量控制对于避免产生问题数据样本而言至关重要。

生成式人工智能利用未标注数据和合成数据进行训练,除了存在侵权风险之外,还因消耗大量淡水来发电供能和冷却处理器而导致环境问题等负外部性。譬如,在美国爱荷华州的西得梅因,一个巨大的数据中心集群为OpenAI 最先进的模型GPT-4 提供服务,当地居民的诉讼显示,2022 年7 月,即OpenAI 完成模型训练的前一个月,该集群使用了整个地区约6% 的淡水;当谷歌和微软训练大型语言模型时,两家公司的用水量都出现了大幅飙升,环境评估报告显示其一年内分别增加了20% 和34% ;预计到2027 年,全球人工智能用水需求可能是英国的一半,Facebook 的人工智能研究人员将该行业追求规模所带来的环境影响称为“房间里的大象”。

从处理端的运行机理看,即便生成式人工智能以有限自主性塑造着人类社会,其仍然存在突破预先设计的临界点而走向失控的潜在风险。一是在风险来源方面,不仅识别和预见生成式人工智能使人类社会受益的方式具有困难,而且预测它们何时会造成伤害也更加困难。二是在风险内容方面,GPT 进行数据分析时可能故意利用少数群体和弱势群体,在隐蔽运行具有偏见的模型时,对数据进行监控与编辑,并在后续的编辑和处理中放大偏见效应,形成恶性循环。三是在风险后果方面,生成式人工智能使“自主学习类算法共谋”不再停留于理论可能性,各类算法模型也不再受控于经营者而实现自我学习和自主决策,在某些情况下可以部分承担甚至完全分摊对某个特定结果的因果力作用,助推经营者之间“无意识”地达成更加稳定且持久的价格共谋,最终导致消费者福利减损。

由于生成式人工智能输入数据的质量良莠不齐,其在人工智能“自主性”加持下,输出端极易滋生“虚假信息”风险。虚假信息是指制造者故意误导读者,并能够通过其它来源证实其结果为假的信息,通常具有故意性(Intent)和可证实性(Verifiability)特征;利用生成式人工智能输出的虚假信息主要包括“事实性虚假”和“幻觉性虚假”两种类型。随着ChatGPT、Midjourny 等生成式人工智能系统广泛部署应用,网络空间中虚假信息的炮制效率、传播速度、生成体量和辨识难度也因技术迭代而出现倍增效应,加之大语言模型更符合人类语言表达习惯,ChatGPT 极大缩短了传统人机交互之间的距离感,在人类个体与ChatGPT 之间形成相互强化偏见的共轭效应。这些虚假信息在网络空间中传播将引发极大风险,除了信息内容本身的非真实性引发信任衰退,带来持久性的社会信任危机,其对社会造成的危害还源于传播行为的负外部性,主要是扰乱社会秩序和为不法分子提供犯罪思路。譬如,利用AI 换脸和拟声技术实施电信诈骗、利用ChatGPT 生成虚假新闻牟利、利用深度伪造软件生成具有侮辱性和诽谤性的内容侵害人格权益、诱导ChatGPT“越狱”而引发网络暴力等,涉及金融、国防、反恐等领域的虚假信息传播还会直接威胁国家安全。

在生成式人工智能部署端,GPAI 开发公司和部署公司之间复杂的依赖关系、模型的多功能性,以及这两个因素与上游提供商发布策略之间的纠缠,对人工智能立法形成独特挑战。首先,从GPAI 上游提供商角度看,其通常在数据上研究、设计、开发和预训练模型,有时还会采用不可知的风险管理和质量控制模式,然后确定GPAI 模型的发行和定价结构。具言之,如果通过API 发布模型,意味着提供商能够分析下游使用情况并设置访问条件,应对下游滥用,不断改进其模型和商业策略,并且不会丧失知识产权;如果提供商将模型作为开源软件发布,其将失去对下游使用情况的控制而只能利用间接市场化方式,但提供商可以将开源环境中下游开发的新功能整合到原始模型。其次,从下游参与者角度看,其可以决定模型的具体用途和训练数据,通过微调GPAI 模型来生成更简单的人工智能应用程序,还可以选择在特定使用环境中提供风险和质量管理。如果通过API 访问模型,他们可能会在评估或重新训练模型功能时面临限制;相反,使用开源模型,他们可以直接检查提供者最初训练的参数值并更改数据。因此,GPAI 及其发布策略对人工智能立法形成挑战的根源在于上下游参与者之间“复杂的价值链条”。

三、欧盟立法应对监管挑战的前提

在人工智能立法时,调整对象界定、制度框架搭建以及具体规则设计,皆需科学、合理的人工智能法律定义充当识别社会关系、定性法律关系的第一道“滤网”。近三年来,欧盟人工智能法历经数次修订,几乎每个版本草案都涉及人工智能法律定义的内容变迁,特别是在生成式人工智能出现技术突破并广泛部署应用后,欧盟人工智能法也对最初版本的人工智能法律定义进行“彻底”重构以应对这种颠覆性技术变革。因此,梳理欧盟立法中人工智能法律定义的变动历程,可以据此窥见欧盟人工智能法对生成式人工智能的基本立场和规制模式。

“2021 人工智能法提案”在第3 条第(1)款界定人工智能的法律定义,认为人工智能是利用一种或多种技术和方法开发的“软件”,其在人类给定目标约束下输出“内容、预测、建议或决策”,影响与之交互的环境;并在附件1 中封闭式列举出“机器学习方法”“基于逻辑和知识的方法”以及“统计方法、贝叶斯估计、搜索和优化方法”共三种系统开发的技术和方法基础。可见,最初版本的欧盟人工智能法提案并没有在定义中刻意关注生成式人工智能并对其定性,只是概念的部分要素——譬如“输出内容”和“机器学习”等——涉及到生成式人工智能的某些特征而与之产生弱关联。

“2022 人工智能法立场”主要从四个方面修订了人工智能的法律定义:一是将人工智能的属概念从“软件”更新为“系统”;二是增加“自主性元素”作为种差特征;三是明确了输入端的内容是“机器或人类给定的数据”,将处理端的技术限定为“机器学习、基于逻辑和知识的方法”,运行目标不再强调“人类给定”,在输出端新增“系统生成的”限制性表述,并且单独列举“内容(生成式人工智能系统)”来突出该种输出类型;四是删除附件1,在背景条款中增添6a 和6b 两条新叙述来阐明“机器学习”以及“基于逻辑和知识的方法”的具体意涵。根据“2022 人工智能法立场”背景条款第(6)条,该定义基于人工智能的关键功能特征——例如学习、推理或建模能力——与更简单的软件系统和编程方法区分开来;虽然没有明确界定“生成式人工智能”的概念或者明示其与人工智能的关系,但背景条款叙述以“生成式人工智能”为例来揭示人工智能输出“内容”的特点,已经在法律定义层面间接表达出应当将生成式人工智能纳入“人工智能法”调整范畴的意图。

“2023 人工智能法草案”进一步将人工智能系统的定义范围缩小,使其与经合组织对人工智能的定义保持一致。该定义首先明确了人工智能系统运行的事实基础(载体)是“基于机器”;其次描述运行过程特征——具有“不同程度的自主性”,而运行目标既可以是“明确的”,也可以是“隐含的”;接着以“不完全列举+ 等”形式表明“预测、建议或决策”三种主要输出类型;最后指出输出所影响环境的特征——“物理或虚拟的”。较之于“2022 人工智能法立场”,该种人工智能定义的关键变化有二:一是删减“输入特征”“处理端的技术基础”以及“输出类型”;二是从“基础”“过程”和“目标”三个方面强化人工智能系统的运行特征,凸显其“自主性”。整体来看,“2023 人工智能法草案”对人工智能系统的定义更加抽象化,虽然在第3 条第(1)款的人工智能定义中剥离了其与“生成式人工智能”的间接牵连,但在第3 条新增第(1c)款“基础模型”和第(1d)款“通用人工智能系统”,意在通过定义性条款为规制生成式人工智能提供清晰依据。“基础模型”是在广泛数据上开展大规模训练的人工智能系统模型,专为输出的通用性而设计,并可以适应各种独特任务,背景条款60h 进一步要求,“欧盟委员会和人工智能办公室应当监测、定期评估这些模型的立法和治理框架,特别是基于基础模型的生成人工智能系统,可能会引发与违反欧盟法律、版权规则和潜在滥用的内容生成相关的重大问题”,由此形成对生成式人工智能监管的直接关切,而第28条第(b)款第4 项更是直接阐明了生成式人工智能的意涵——专门用于以不同程度的自主性生成复杂文本、图像、音频或视频等内容,并且明确了“将基础模型专门用于生成式人工智能系统”的提供商义务。至此可以认为,“2023 人工智能法草案”以“基础模型”为切入点,已初步形成对生成式人工智能的规制思路。值得注意的是,虽然第3 条第(1d)款给定了“通用人工智能系统”的定义,但其与人工智能、基础模型以及生成式人工智能之间存在何种关联,在这一立法阶段暂时难以形成确切判断。

“2024 人工智能法”,在第3 条第(1)款最终明确了人工智能系统的定义。较之于“2023 人工智能法草案”,该定义有以下变化:一是增加了人工智能系统“部署后”的状态叙述——“可能表现出适应性”,根据背景条款(12),这种适应性是指“自主学习能力”,即“允许系统在使用过程中发生变化”。二是恢复“输入端”和“处理端”要素特征描述,将人工智能系统的“输入—处理—输出”基本构造固定下来,其中处理端揭示出人工智能系统具有“推断”特性;背景条款(12)指出,该特征不仅是指其“获得输出的过程”,而且也指向“从输入/ 数据中推导出模型/ 算法的能力”,这种能力不局限于“基本的数据处理、学习、推理或建模”。三是将“内容”重新确定为输出类型之一,不过没有如同“2022 人工智能法立场”一样列举“生成式人工智能”,同时也删去了对“机器学习方法、基于逻辑和知识的方法”的专条阐释,将背景条款6a 和6b 简化处理后融入背景条款(12)。此外,“2024 人工智能法”在第3 条第(63)款以“通用人工智能模型”概念取代“基础模型”,并且在第3 条第(66)款重构了“通用人工智能系统”的意涵。具言之,“通用人工智能模型”通过增添特征,较之于“基础模型”而言,其范畴更窄:其一,增加了数据训练方式——“自我监督”;其二,增加“通用性”的外显化特征——“集成到各种下游系统或应用中”;其三,限制“通用性”特征的存在节点——“投放市场”,而“投放市场前用于研究、开发和原型设计活动的人工智能模型”则不属于通用人工智能模型之列。同时,“2024 人工智能法”也捋顺了“通用人工智能系统”与“通用人工智能模型”两个概念之间的内在牵连关系,即“通用人工智能系统是基于通用人工智能模型的人工智能系统”,该类人工智能系统的“通用性”特征表现为“能够服务于多种目的,既可以直接使用,也可以集成到其他人工智能系统之中”。需要注意的是,虽然“2024 人工智能法”没有直接明示生成式人工智能的概念,但可以结合背景条款97、99 和100 进行体系解释,即“生成式人工智能模型是通用人工智能模型的典型范例”,而“通用人工智能模型集成到一个人工智能系统中或成为其组件之一时,该系统应视为一个通用人工智能系统”,因此以生成式人工智能模型为基底的生成式人工智能系统,可以归为通用人工智能系统范畴。

四、欧盟立法应对监管挑战的方案

在欧盟“2024 人工智能法”明确将生成式人工智能归属于通用人工智能的前提下判断当前欧盟立法能否应对生成式人工智能的监管挑战,可以提取“2024 人工智能法”中涉及通用人工智能的相关条款并运用体系化方法重新规整,进而评估该部立法的系统性风险防范能力。

(一)输入端“数据训练”问题的欧盟立法应对

生成式人工智能语料体系的参数“数量”和“质量”,是影响数据训练效果、决定最终输出“答案”的基本因素。一是在“数据数量”方面,欧盟立法以“浮点运算”来衡量通用人工智能模型训练时所需的计算量。这是模型部署前旨在提高模型能力的各项活动和方法(如预训练、合成数据生成和微调)中所用计算量的累计,可以从“训练数据集的质量或规模”“业务和最终用户的数量”“输入和输出模态”“自主程度和可扩展性”以及“可使用的工具”等标准进行整体性评估(背景条款111)。如果通用人工智能模型达到高影响能力阈值,其应当被推定为具有系统性风险,所以通用人工智能模型训练之前需要进行大量规划,譬如计算资源的前期分配,以确保提供者能够在训练完成之前就知道其模型是否达到阈值,由此在程序上保障通用人工智能模型提供者的可预期性(背景条款112)。至于阈值判断的具体标准,附件13 在数据数量维度主要设计了“模型参数的数量”和“数据集的质量或大小”两项指标。二是在“数据质量”方面,欧盟立法首先宣示了提高数据质量的必要性。为避免“歧视或不公正”风险,如果人工智能系统没有经过高质量数据训练,在性能、准确性或稳健性上没有达到足够要求,或者在投放市场、以其他方式投入使用之前,没有经过适当设计和测试,这些系统可能会以歧视性或其他不正确、不公正的方式将人筛选出来(背景条款59)。因此,获取高质量数据在提供训练结构、确保人工智能系统性能等方面发挥着至关重要的作用,特别是在使用涉及模型训练的技术时,应当保障高风险人工智能系统按照预期安全运行,并且不会成为欧盟立法禁止的歧视来源(背景条款67)。在此基础上,欧盟立法进一步提出提高数据质量的一般性要求。具言之,用于训练、验证和测试的数据集(包括标签)应当具有相关性和足够代表性,在最大程度上确保没有错误,并且在系统预期目的检视下应当是完整的(背景条款67);欧盟委员会建立欧洲共同数据空间,以促进各方主体之间为了公共利益共享数据,为人工智能系统的训练、验证和测试提供可信、负责和非歧视性的高质量数据(背景条款68)。此外,数据训练还应当遵守欧盟数据保护法——如(EU)2016/679 号条例——对数据质量的要求,数据集应当具有适当的统计属性,注意减轻数据集中的偏差和歧视等(背景条款67)。三是进一步明确了“数据和数据治理”的具体规定。欧盟立法第10 条第1 款提出总体要求,使用数据训练模型技术的高风险人工智能系统,应当在使用“符合第2 款至第5 款所述质量标准的训练、验证和测试数据集”的基础上开发,同时该条第6 款明确了例外情形。

关于数据训练引发的知识产权侵权风险、形成的高昂环境成本,欧盟立法也作出回应。关于版权保护问题,欧盟立法首先采用“原则+ 例外+ 例外之例外”模式设计版权保护的一般要求。使用文本和数据挖掘技术检索、分析海量训练数据时,原则上应当尊重版权和相关权利,应当获得相关权利人授权,除非适用相关的版权例外和限制条款;欧盟指令(EU)2019/790 引入了例外规则,允许在某些条件下出于文本和数据挖掘目的来复制、摘录作品或其他客体,但权利人可以选择保留对其作品或其他客体的权利以防止文本和数据挖掘,除非出于科学研究目的(背景条款105)。其次,欧盟立法明确了版权保护程度——任何提供商都不应采用低于欧盟立法的版权标准在欧盟市场上获得竞争优势(背景条款106),目的在于确保通用人工智能模型提供商之间的公平竞争环境。最后,欧盟立法设置“数据透明”义务,旨在提高通用人工智能模型预训练和训练中使用的数据透明度,包括受版权法保护的文本和数据;该项义务要求模型提供者起草并公开用于训练通用模型的足够详细的内容摘要,该摘要范围应总体上全面而不是技术上详细,并且还需提供所使用的其他相关数据源的叙述性解释(背景条款107)。关于数据训练带来的高昂环境成本,虽然欧盟立法将环境保护作为立法目的之一,并在立法背景中提及十余次(譬如背景条款1、2、4、8、27、130、139、142、155、165、176 等),但“环境可持续性”要求更多是鼓励或宣示性规定;又如第95条第2 款规定的“评估和尽量减少人工智能系统对环境可持续性的影响,包括有效设计、培训和使用人工智能的节能规划和技术”,也只是作为人工智能办公室和成员国鼓励、促进制定“自愿适用具体要求”的行为守则,强制性不高。

(二)处理端“自主行为”问题的欧盟立法应对

人工智能系统在设计上具备不同程度的自主性,意味着它们的行动在一定程度上可以独立于人类,并且拥有在没有人类干预情况下自主运行的能力(背景条款12)。自主性是通用人工智能模型系统性风险的重要成因,这种风险随着模型能力和模型范围的增加而增加,可能在模型的整个生命周期中出现,并受到滥用条件、模型可靠性、模型公平性和模型安全性、模型自主性程度、获取工具的途径、新颖或组合模式、发布和传播策略、移除护栏的可能性以及其他因素的影响,特别是国际层面已经确定需要关注“模型复制自身”或“自我复制”或“训练其他模型”的风险(背景条款110)。

进言之,自主性程度也是判断应否将通用人工智能模型归为具有系统性风险的人工智能的标准。欧盟立法第51 条第1 款规定,“高影响能力”是衡量通用人工智能自主性程度的指标,需要结合附件13 所列标准进一步判定;而附件13 将“高影响力”细分为七个具体标准,其中“模型能力的基准和评价,包括考虑未经额外培训的任务数量,学习新的、不同任务的适应性、自主性和可扩展性程度,可以使用的工具”则是聚焦于自主性程度的关键标准之一。

此外,自主性程度还是人工智能分类分级监管的基本依据。一是关涉应当予以“禁止”的人工智能类型,譬如欧盟立法第5 条第1 款所列的“采用超出个人意识的潜意识技术或有目的操纵、欺骗技术”的人工智能系统致害情形;二是关涉“高风险”的人工智能类型,譬如欧盟立法第7 条第2 款将“人工智能系统自主行动的程度,以及人类推翻可能导致潜在伤害的决定或建议的可能性”作为评估人工智能高风险性的标准之一;三是关涉人工智能的“人类监督”,譬如欧盟立法第14 条第3 款要求“监督措施应当与高风险人工智能系统的风险、自主程度和使用环境相称/ 成比例”。

(三)输出端“虚假信息”问题的欧盟立法应对

针对生成式人工智能输出端的“虚假信息”传播风险,欧盟立法从行为危害、技术基础、防治措施等维度展开制度设计。通用人工智能模型可能带来的系统性风险包括但不限于“非法、虚假或歧视性内容传播”(背景条款110)。各种人工智能系统可以生成大量合成内容,而人类越来越难以将这些内容与人类生成的真实内容区分开来。这些系统广泛可用,能力日益增强,对信息生态系统的完整性和信任度产生重大影响,引发大规模误导、操纵、欺诈、冒名顶替和欺骗消费者等新风险(背景条款133),而“深度伪造”技术便是引发风险的“罪魁祸首”之一。这种技术由人工智能生成或操纵图像、音频、视频内容,与现有人员、物体、地点和其他实体/ 事件相似,让人误以为具有实在性或真实性(第3 条第60 款)。

为防治利用人工智能生成虚假信息的风险,欧盟立法对提供者设置两类主要义务。一是检测和披露义务。特定的人工智能系统提供者、部署者有义务检测、披露系统的输出是否由人为生成或操纵,旨在促进(EU)2022/2065 条例有效实施;该项义务尤其适用于超大型在线平台或搜索引擎的提供者,即识别、降低因传播人为生成或操纵的内容而产生的系统性风险,特别是对民主进程、公民言论和选举进程产生实际或可预见负面影响的风险,包括虚假信息传播风险(背景条款136)。为确保连贯一致的执法,应授权欧盟委员会通过执行法案,实施关于人工生成或篡改内容的标识和检测规定,检测机制可以利用并促进价值链中其他行为者间合作,传播内容或检查信息的来源及真实性,使公众能够有效区分人工智能生成内容(背景条款135)。二是透明义务。某些旨在与自然人互动或生成内容的人工智能系统,无论其是否符合高风险条件,都可能引发假冒、欺骗等具体风险。因此,在特定情况下,使用这些系统应遵守具体的透明度义务,但该种义务不影响对高风险人工智能系统的监管和相关义务履行(背景条款61)。当生成内容属于明显具有创造性、讽刺性、艺术性或虚构性作品的一部分时,透明度义务不应被解释为使用该系统或其输出会妨碍《宪章》所保障的言论自由权、艺术与科学自由权,但需适当保障第三方权利和自由,此时深度伪造的透明度义务仅限于“以适当方式披露此类生成或篡改内容的存在,不得妨碍作品展示或欣赏,包括作品的正常开发和使用,同时保持作品的实用性和质量”;当然,对于人工智能生成或篡改的文本,如果其发布目的是向公众提供有关公共利益问题的信息,也应承担类似披露义务,除非人工智能生成内容经过人工审查或编辑控制,否则自然人或法人应对内容发布负有编辑责任(背景条款134)。此外,欧盟立法第50 条针对“某些人工智能系统提供者和用户的透明度义务”设计专项条款,进一步细化了透明度义务的具体要求。

(四)部署端“价值分配”问题的欧盟立法应对

欧盟人工智能法最初旨在规范投放欧盟市场的有形产品,此种叙事几乎不适用于GPAI 模型。事实上,在GPAI 的价值链条上,参与者数量、基于发布和访问策略的不同控制级别,以及模型在整个生命周期中的创新能力等诸多因素,导致监管职责分配和法律义务设计都比欧盟人工智能法一开始的设想要复杂的多。

在2023 年12 月9 日达成政治协议之前,是否对人工智能价值链上游的模型提供者进行监管,一直是欧洲议会、欧盟理事会和欧盟委员会三方谈判时最具争议的话题之一。基础模型通过引入新型服务,以应用程序编程接口直接促进模型开发人员和最终用户之间的交互,从而增加了人工智能价值链条的复杂性;换言之,生成式人工智能的出现扰乱了拟议人工智能法案的立法进展,迫使立法者重新评估模型开发人员、人工智能系统提供者和人工智能系统部署者(原始提案中称为用户)之间的关系认定和责任分配。事实上,特定情况下经营者可能会同时扮演多个角色,这就要求明确价值链上相关运营商的角色和具体义务,并且应当累计履行与这些角色相关的所有义务(背景条款83)。

鉴于此,欧盟立法对人工智能价值链上的牵连行为进行调整,试图平衡各方主体间复杂的利益关系。譬如欧盟立法设计出“基于人工智能系统集成性的信息共享义务”:多方主体在人工智能系统、工具、服务、组件或流程所集成的高风险人工智能系统供应商的价值链中发挥着重要作用,这些主体应当通过书面协议向该供应商提供必要的信息、能力、技术访问和其他基于公认技术水平的援助,以便供应商能够在不损害知识产权或商业秘密的情况下遵守法律义务(背景条款88)。又如欧盟立法设计的“免费和开放许可情况下的责任减免”:如果集成于人工智能系统的工具、服务、流程或组件能够在免费和开放许可情况下提供访问,则不应强制要求第三方遵守人工智能价值链上的责任要求;应当鼓励通用人工智能模型以外的免费和开源工具、服务、流程及人工智能组件的开发人员实施广泛采用的文档实践,例如模型卡和数据表,以此加速人工智能价值链上的信息共享(背景条款89)。诸如此类平衡人工智能价值链上各方主体利益的背景条款还有很多,而欧盟立法第25 条更是以“人工智能价值链上的责任”为条标,专门针对分销商、进口商、部署商、第三方主体等设计义务和分配责任。

五、欧盟生成式人工智能立法镜鉴

(一)欧盟生成式人工智能立法的反思

通用人工智能是欧盟“2024 人工智能法”的调整对象之一,生成式人工智能以“通用人工智能模型”为桥梁,能够被人工智能系统的法律定义顺利涵摄,这种立法模式不仅解决了生成式人工智能规制的紧迫现实问题,而且也为规制未来可能涌现的新类型人工智能预留了解释学空间。事实上,人工智能并不是某种单一技术,而是以数据、网络、算法和算力等核心要素为支撑、带有“输入—输出”和“目标—反馈”控制结构的有机系统,其中核心要素相互影响、相互作用,共同决定着发展什么样的人工智能。可见,欧盟“2024 人工智能法”对人工智能系统的重新界定虽然没有在定义中突出各要素之间的有机联系,但至少在定义构造上内嵌了系统论的基本原理,基本契合人工智能的“事物本质”。诚然,欧盟立法利用抽象程度较高的人工智能系统定义来增强“包容性”,并且能够借助“通用人工智能系统”来扩张立法规制范围,但问题在于,“通用性”概念本身具有极大的模糊性,很难找到实证(有现实证据支持的)基础来认可这项技术的广泛“通用性”。虽然对GPAI 领域未来的基准测试和计量工作可能会有帮助,但在其成熟完善之前,或许需要一个暂时性的行为准则以明确裁量尺度、确保法律规范的可预见性。

在数据训练实践中,OpenAI、DeepMind 和Anthropic 等基础模型提供商目前还未达到欧盟人工智能法预期的合规程度要求。斯坦福大学计算机科学博士候选人Rishi Bommasani 指出,这些提供商未达到标准的领域包括“提供用于训练模型的受版权保护数据的摘要”“能源使用不均衡”“风险缓解披露不充分”以及“缺乏评估标准或审计程序”等,其中采用开源方法的基础模型开发者往往在资源披露方面表现较好,而封闭或受限的访问模型在部署方面表现更好。Bommasani 进一步指出,法案没有充分考虑基础模型的使用问题,如果ChatGPT 应用于医疗或法律而不是娱乐目的,这会严重影响透明度评估;虽然法案考虑了基础模型的下游使用,但它没有考虑到供应链的其他方面,例如数据集构建和训练方法。还有研究表明,当前的大型语言模型(LLM)训练严重不足,这是它们专注于扩展语言模型同时保持训练数据量恒定的结果,当使用更广泛和更高质量的数据集进行训练时,较小的模型已经可以胜过具有更多参数的大型模型,因此法案确定的“浮点运算”方法具有不确定性,其阈值将随着时间推移而衰减;然而,HELM 项目(语言模型整体评估)指出,基准测试中还存在着“数据获取和成本”问题,这些基准之所以伴随着不确定性和批评,源于语言所固有的语境性,而人工智能研究却普遍对这种不确定的基准处于依赖状态。

欧盟立法以系统性风险制度来应对通用人工智能的自主性挑战也存在局限,其确定系统性风险时忽视了高级模型与小型模型的区分。欧盟立法层面的系统性风险是特定于GPAI 模型高影响能力的风险,可能对公共卫生、安全、基本权利和整个社会产生实际或合理可预见的大范围负面影响,在整个价值链条中大规模传播。如果只考虑高影响能力模型特有的风险,即使它们成为系统性风险,小型模型中许多已知风险是否会被排除在系统性风险的考虑之外?例如,从OpenAI 的GPT-4 系统卡发布中可以窥见GPT-4 特有的新兴风险,假设这些风险能够被阈值捕获,该卡列出了“幻觉、有害内容、代表性危害、分配和服务质量(即偏见)、虚假信息和行动影响、常规和非常规武器的扩散、隐私、网络安全、风险突发行为的可能性、与其他系统的互动、经济影响、加速和过度依赖”等风险,然而大多数风险已经在更小的(机器)前身中显现。在这些高级模型中新观察到的风险实际上是与其他系统交互作用的结果。通过将这些系统链接在一起,该模型能够找到风险替代模型本身所保护的系统。随着模型能力增强,其他风险仍然有待证实,只不过其尚未被发现(譬如自我复制)。进言之,当生成式人工智能自身已经进步到可以自主实现生产同类或其他类别人工智能技术的能力阶段时,通过“清单式管理”显然无法应对人工智能衍生的多样性与复杂性。

虽然欧盟立法针对输出端虚假信息传播风险为人工智能系统提供者、部署者设置了检测、披露和透明等义务,但人工智能系统输出结果所导致的损害往往难以衡量,进而适配何种程度的处罚或赔偿才符合比例原则,欧盟立法没有作出有效回应。传统人工智能系统的危害可能与特定预测的社会影响有关,而生成式人工智能的危害则无法轻易界定,当人工智能系统输出不准确信息时,受害者究竟是谁?如果这些信息是在长期的人机对话训练中产生的,那么危害何时发生?事实上,生成式人工智能致害并非微观问题而是宏观问题,由系统创建的任何特定输出——单个图像、文本或音频文件——产生的危害通常很小并且容易被忽视。虽然“概率系统”要为一个错误事实付出代价,但生成式人工智能系统最令人担忧的是随着时间推移而“累积”形成的危害;换言之,一个错误事实在技术上可能微不足道,但在社会层面,不准确信息会因传播效应而激增并产生严重后果,譬如从“单纯的错误信息”演变为“诋毁边缘化群体”。这些危害一旦累加起来,将会对整个社会产生巨大的负面影响。遗憾的是,即便人们意识到生成式人工智能会带来系统性风险,却不知道在哪里划清损害的界限,特别是评估生成式人工智能系统的具体危害时,“实际损害”以及“非法行为应当受到的处罚”的边界难以厘定。在隐私保护领域,损害赔偿评估也面临类似问题。例如,谷歌拍摄了宾夕法尼亚州一栋房子的照片,该房子由Boring 家族拥有,谷歌将照片用于谷歌地图上的“街景”功能,Boring 家族以侵犯隐私为由提起诉讼并胜诉,但只获得1 美元赔偿金。相较之下,计算生成式人工智能的损害赔偿问题更加困难,即便立法能够确定哪些类型的输出可能形成足够大的危害而构成违法行为,那么该种行为应该受到何种形式的处罚,以及在因果链条的哪个节点来施加这些处罚,当前的人工智能立法未能给出合理答案。

欧盟立法也试图在部署端的价值链条上进一步平衡各方主体间的权利义务,但该种努力没有充分凸显“提供API 接口”和“开源访问许可”之间的差异对利益分配方式的深刻影响。其一,“提供API 接口”和“开源访问许可”决定了不同参与者对模型的控制级别。在API 路线中,GPAI 模型由提供商开发并在其服务器上远程运行,通过持续交互,将输入和输出在下游用户之间在线传输,模型和源代码的控制权仍然主要掌握在提供者手中;与之相对,开源访问是在宽松的许可条款下公开发布模型或某些元素,并允许任何人下载、修改和分发,在这种情况下只需要GPAI 提供商和下游开发人员之间一次性交互。其二,计算能力在GPAI 模型构建的难易程度上发挥重要作用。API 访问通常与必要的计算基础设施访问相结合;使用开源GPAI 时,下游开发人员需要拥有此类基础设施的单独访问权限,但由于计算能力昂贵且稀缺,这反而成为修改和加载模型的障碍。其三,选择API 方式抑或是开源许可模式,对可访问性和问责制度有不同影响。API 介导的访问可以提供更多护栏来减少有害内容扩散,但其将GPAI 模型控制权集中在价值链上最强大的参与者手中;相反,开源版本被视为促使GPAI 模型访问和控制更加公平的手段,因为更加广泛的社区可以研究、调整或改进模型,然而开源版本中缺乏护栏,已经导致性别歧视和种族主义输出激增,也引发了大量版权保护诉讼。因此,生成式人工智能不同发布策略带来的复杂影响,映射出背后艰难的利益权衡,这在一定程度上也解释了某些领先的人工智能实验室将模型保密的原因。

(二)欧盟生成式人工智能立法的启示

欧盟并未针对生成式人工智能进行专门立法,而是将其作为通用人工智能系统的典型类型之一,为其适配人工智能监管的一般规则。这种总则式立法的优势在于保持法律体系的相对稳定性,即便未来新类型的人工智能层出不穷,也能够通过人工智能法的根本理念、基本原则、基础制度以及包容性的法律定义进行“应急”而不至于出现法律漏洞,从而为法律修订争取“应变”时间。比较而言,我国《生成式人工智能服务管理暂行办法》属于针对特定类型人工智能的专门立法,这种“短平快”的立法模式可以就实践中爆发的紧迫问题快速“出击”,也有利于为人工智能一般法出台积累立法经验,但仍然存在体系性不足、稳定性不强、效力层次低等局限。这就要求在“法律”层级适时制定一部兼具框架性和包容性的“人工智能法”,该法具有“总体性、保障性、边界性和统一性”特征,于“金字塔顶端”发挥基本法的统帅功能。

欧盟立法中法律定义的变迁过程折射出人工智能一般定义的界定并非易事,既要在物理层面彰显人工智能的技术特性,又要在事理层面兼容人工智能立法的价值导向。我国在2023 年4 月公布的《生成式人工智能服务管理办法(征求意见稿)》没有区分章节,而是在第2 条第2 款直接定义“生成式人工智能”;同年7 月,《生成式人工智能服务管理暂行办法》正式出台,该部规章将法律用语含义统一安排在第五章“附则”中阐释,但较之于征求意见稿,正式立法文本不再明确界定“生成式人工智能”的意涵,而是在第22 条第1 款第1 项新增“生成式人工智能技术”概念。对比来看,征求意见稿侧重描述生成式人工智能的“发生学特征”,而正式文本侧重叙述生成式人工智能的“功能性特征”。进言之,正式文本扩大了生成式人工智能的外延,而征求意见稿中的“模型”只是定位为生成式人工智能技术的某一要素,其并非独立的规制对象;正式立法重构了“模型”性质,认为“模型及相关技术”皆是生成式人工智能的技术类型,由此将“模型”纳入生成式人工智能立法的规制范畴。诚然,中国没有在《生成式人工智能服务管理暂行办法》中直接界定人工智能的意涵,而是在《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》和GB/T 41867—2022《信息技术 人工智能 术语》中予以阐明,其中《深圳经济特区人工智能产业促进条例》和《上海市促进人工智能产业发展条例》与欧盟立法的定义思路差异较大,GB/T 41867—2022《信息技术 人工智能 术语》则与欧盟立法的定义方式基本一致。未来,中国制定“人工智能法”时,应当在总则部分设计“人工智能”法律定义专条,而其他衍生概念,如“生成式人工智能”“决策式人工智能”“人工智能部署者”“通用人工智能模型”等,可以在附则中阐释。此种体例安排旨在凸显人工智能法律定义作为识别人工智能法律规范的第一道“滤网”之功能,同时确保法律定义与立法目的、基本原则等在体系上相互融贯,共同发挥对整部立法的统筹作用。

根据人工智能对用户和社会的潜在影响程度,欧盟立法建构以“风险分类分级”为核心的制度架构,重在调整人工智能系统在欧盟上市、部署和使用等人工智能生命周期后端的法律关系。事实上,人工智能具有多重意象,立法界定的法律定义只是初步勾勒出一种尚未牵涉到人际关系的客体形象,在这种抽象客体背后实际牵涉到人工智能技术、人工智能产业、人工智能产品和人工智能系统等不同具体对象之区分。并且,对人工智能的法律控制又可分为两种模式,一种是具体控制,关注控制方法的特殊性,主要依据系统运作的现实情况进行逐案分析;另一种是抽象控制,指向一般性范畴,例如风险控制、伦理控制和抽象权利(人权)保护等。当不同意象的人工智能与不同的控制方式“排列组合”后,具体客体之上便承载着性质迥异的法律关系,由此形成复杂的价值链条。诚然,风险只有在风险变现时才能被评估,风险评估也会受评估主体主观认知的影响,但这并不能否定对风险进行标准化立法的必要性,因为人工智能系统存在的巨大风险迫使立法者基于功利思想或者“成本—效益”分析,必须对其进行事前监管。无论是以“条件概率分布”为基底的决策式人工智能,还是以“联合概率分布”为核心的生成式人工智能,其基础逻辑都是“通过海量数据对算法函数进行训练以输出结果”。所以人工智能立法体系构建一方面应当遵从“研发—生产—部署—使用”全生命周期链条,另一方面也应当契合人工智能运行的基本逻辑,至少从“训练数据、算法处理和内容输出”三个节点进行类型化规整,即“生命周期链条”和“系统运行节点”纵横交错,共同编织出人工智能法律关系谱系图。鉴于此,欧盟“2024 人工智能法”和我国《生成式人工智能服务管理暂行办法》,其规范体系的完整性和内在脉络的融贯性仍有继续优化之空间。