内容提要:人工智能技术作为新一代科技革命的重要范式,在各国的科技竞赛中具有重要地位,然而“科技异化”始终如“达摩克利斯之剑”一般如影随形。在人工智能深度融入并影响我们生活的大背景下,从法律维度进行因应是新时代我国法治体系完善的重要环节。欧盟的《人工智能法案》作为世界上第一部人工智能专项规制文件,其建构思路具备一定的先进性与可借鉴性,从比较法视域探索其立法经验对我国的人工智能法律构建具有积极意义。目前我国人工智能立法非体系化特征明显,主体交叉、位阶较低,不能有效适配技术发展,结合域外立法经验建构“人工智能法总则”是解决当下碎片式、迭代式立法难以完美适配技术发展困境的有效手段。在人工智能法律总则框架的搭建过程中,要有意识地避免法律滞后性的固有弊端,保证客体概念之周延,秉持差异化、场景化理念,在规制的同时给技术发展以自由。借鉴欧盟分级分类思想及“全链条”监管模式对我国现有人工智能法律体系予以完善,在保证人工智能安全底线的同时实现其创新发展。
关键词:人工智能 《人工智能法案》 人工智能法总则 分级分类原则
一、引言
近些年人工智能热潮席卷全球,人工智能行业逐步具备了规模化、产业化的特征。参见康兰平:《人工智能法律研究的权利泛化挑战与场景化因应研究》,载《大连理工大学学报(社会科学版)》2021年第1期。有学者提出,人工智能可能是引领新一代科技革命的表征科技,参见龙卫球:《科技法迭代视角下的人工智能立法》,载《法商研究》2020年第1期。在未来迸发强大的经济价值与社会价值。人工智能的雏形最早可以追溯到图灵测试,艾伦·麦席森·图灵(A.M.Turing)是英国数学家、逻辑学家,被称为“计算机科学之父”。其于1950年发表文章《机器能思考吗?》,预言创造出具有真正智能的机器的可能性,并提出著名的“图灵测试”。为此,图灵被称为“人工智能之父”。See A.M..Turing,Computing Machinery and Intelligence,Mind,Vol.1950(49),pp.433-460.但限于当时的科技水平,人工智能技术并没有发挥过多的价值。如今人工智能技术已经脱胎换骨,世界经济论坛的创始人曾指出:从人工智能技术到生物科技技术,从高端材料到量子计算模式,这一系列的新兴强大技术给人类社会带来了风险与机遇,也在根本上改变了人类的生活方式。这一迭代过程可被称为“第四次工业革命”。[德]克劳斯·施瓦布、[澳]尼古拉斯·戴维斯:《第四次工业革命——行动路线图:打造创造型社会》,世界经济论坛北京代表处译,中信出版社2018年版,第3页。
然而,人工智能科技的突飞猛进带来了虚拟与现实的割裂、隐私侵权频发、人机关系复杂化等全新问题,参见邢鸿飞、吕汉东:《智能互联网的法律风险及其立法应对》,载《科技与法律(中英文)》2021年第1期。冲击着现有的社会秩序与立法体系,可能会成为新时代的“潘多拉”魔盒,对人工智能及其产业发展进行规训已是人工智能时代的一大命题。欧盟与美国、英国、日本等国已经就人工智能规制方案作出了不同的尝试,制定了具有各国特色的法律方案。如欧盟的《人工智能法案》、美国的《人工智能发展规划蓝图》、英国的《促进创新的人工智能监管方法》、日本的《实施人工智能原则的治理指南》、俄罗斯的《俄罗斯联邦数字创新领域试验性法律制度法》等。我国的《新一代人工智能发展规划》也提出:“到2025年初步建立人工智能法律法规,到2030年建成更加完善的人工智能法律法规。”参见《国务院关于印发新一代人工智能发展规划的通知》。2023年8月,中国社会科学院法学研究所等机构在共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会上提出了《人工智能法(示范法)1.0》(专家建议稿),体现了理论界对于实践诉求的积极回应。在政府层面,国务院已将制定“人工智能法”列入2023年度立法工作计划,预计在未来我国将出台一部人工智能领域的位阶较高的总则式法律。参见《国务院办公厅关于印发国务院2023年度立法工作计划的通知》,载中国政府网,https://www.gov.cn/zhengce/content/202306/content_6884925.htm.,2023年10月16日访问。第三届“一带一路”国际合作高峰论坛上,国家网信办发布《全球人工智能治理倡议》,其中也着重强调了要在世界范围内搭建具有共识性的治理框架,不断完善相关法律体系。参见《全球人工智能治理倡议发布》,载《光明日报》2023年10月19日,第11版。
不难看出,国家已经关注并逐步落实人工智能法律体系的建构,但从现实情况来看,我国人工智能立法非体系化特征明显、内容衔接不畅、法律位阶冲突、法律文件碎片化等问题仍较为凸显。立法机关需要及时调整现有人工智能法律结构,从顶层设计的维度进一步完善人工智能法律体系。此外,理论界也对人工智能立法进行了积极回应,产出了一系列极具价值的成果。但是,现有人工智能法学理论研究带有明显的部门法色彩,呈现具象化特征,如算法“黑箱”、大数据杀熟、人脸识别技术中的隐私保护等。参见郑志峰:《人工智能立法的一般范畴》,载《数字法治》2023年第6期。为了系统化推进人工智能立法,本文认为,应当在现有基础上整合相关法律文件,抽象其基本原则,概括规制具体进路,结合体系化立法要求,制定具备中国特色的“人工智能法”。从比较法视域看,欧美国家关于人工智能的立法已经走在世界前列,以欧盟《人工智能法案》为例,其中提到的“差别与场景化”规制路径对于我国现有人工智能领域监管力度不统一等弊端具备一定的借鉴意义;“横向立法规制”模式的经验有利于优化我国现有人工智能领域立法非体系化境况。此外,“监管沙盒”等技术治理方案应用于人工智能行业监管、坚持分级分类规制模式等操作也对我国人工智能立法有一定的参考价值。在此视角下,本文认为,可制定一般范畴语境下具有中国特色的“人工智能法总则”虽然中国目前还没确定是否应该制定该法,但是人工智能立法却已纳入立法议程。为论述方便,本文受《民法总则》制定的启发,将本文所主张的总则性的人工智能法律直接称为“人工智能法总则”。以协调统率散落于其他法律法规中的人工智能相关规范,并借此厘清人工智能法规制主体,明确人工智能领域普适化的规制理念,坚持场景化、差异化的立法模式,贯彻安全与发展并存的原则,实现人工智能立法的体系化,为人工智能产业平稳安全发展提供良好的法治环境。
二、我国人工智能立法现状评析:实践探索与理论争鸣
目前,我国的人工智能治理框架体现出一种从宏观到微观的治理模式,参见郑曦、朱溯蓉:《生成式人工智能的法律风险与规制》,载《长白学刊》2023年第6期。即原则型指引与专项型规制相配合,一同建设具有中国特色的人工智能法律治理框架。宏观上,主要有《网络安全法》《个人信息保护法》《数据安全法》等法律规范,分别对网络运营商和个人敏感信息以及数据处理的安全监管保护作了宏观规定。这些法律不仅效力层级较高,规定的内容也更具原则性,为实践适用中人工智能法律问题的规制提供了自由裁量的空间,不至于过分限制其发展自由。国务院发布的《新一代人工智能发展规划》、人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》、中央网信办发布的《全球人工智能治理倡议》等文件也为我国人工智能的治理进路提供了宏观指引和原则性的规制思路。微观上,国家根据社会发展情况陆续发布了《互联网信息服务算法推荐管理规定》《生成式人工智能服务暂行办法》等规范性文件,在原则性规范的基础上就算法推荐、生成式人工智能等热点问题进行专项规制。科技部出台了《科技伦理审查办法(试行)》,全国信息安全标准化技术委员会发布了《生成式人工智能服务安全基本要求》(征求意见稿)两部“实验性”法律文件,就当下公众广泛关注的科技伦理与生成式人工智能服务进行了总纲性的规定。地方政府也因地制宜,根据本地区社会发展与治理情况,创设了具有地方特色的人工智能治理方案,如《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》。
以上种种,皆可看出我国立法者以问题为导向的立法模式,在人工智能发展过程中出现亟待公权力介入调整的问题时立刻采取立法规制模式,在给予人工智能充分发展空间的同时,对难以预料的问题进行及时的法治因应。但我国目前在高位阶法律层面对人工智能的专项规制并没有明确规定,这或许会导致散落于各个现有法律规范性文件中的人工智能规范缺乏原则性指引,使执法者面对新问题时难以利用现有的法律规范及时予以调适,出现全新的人工智能治理危机时可能会面临治理方案缺失的困境。出于填补上述空白、进一步规范和细化人工智能治理体系的考虑,笔者认为,我国应考虑出台人工智能专项法律规范,适时颁布“人工智能法”。在当前阶段,颁布一部能覆盖所有领域、能够调整所有人工智能产业和行为规范的“人工智能法”并不现实。我国在借鉴域外人工智能立法的规制经验和原则的基础上,首要任务是制定一部能够统率人工智能相关法律规范的“人工智能法总则”,以确立人工智能法的基本原则和理念,协调“人工智能法”相关法律规范,坚持领域安全和产业发展并重的理念,为未来在时机成熟的基础上制定“人工智能法”提供立法经验。
目前欧美国家陆续针对人工智能领域的风险进行了横向立法的深入探索,我国理论界与实务界仍对是否就人工智能进行总则式的横向立法存在争议。事实上,我国并未针对人工智能技术进行专项立法,对人工智能领域的规制散见于《个人信息保护法》《网络安全法》等部门法,《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》等规范性法律文件,以及《新一代人工智能发展规划》《新一代人工智能治理原则——发展负责任的人工智能》等总纲性政策文件之中。
有学者认为,我国人工智能领域的立法目前呈现“小步快跑”的趋势;参见徐钢:《法律如何监管人工智能?》,载微信公众号“上海市法学会 东方法学”,2023年9月19日。也有实务专家认为,我国已经形成了法律与规章相结合的多层次人工智能合规体系。参见李志强、杨子安、欧龙:《人工智能合规建设初议》,载《中国法治》2023年第9期。虽未制定专项的人工智能法律文件,但是我国也针对人工智能的不同运用场景制定了专项法律文件:我国近年颁布了《网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》等专项法律文件,针对不同场景下的人工智能运用进行了风险预防规制。
关于是否进行人工智能领域的宏观立法,不同的学者存在不同的立场与观点:有学者认为,人工智能法律关系目前尚未成熟,法律不应当对一种在实践中没有定型的关系加以规制,应通过现有的法律相互配合来解决人工智能风险,参见汪庆华:《人工智能的法律规制路径:一个框架性讨论》,载《现代法学》2019年第2期。否则便会陷入“技术钳制立法”的结构性弊端,造成重复立法、过度立法的现象;有学者认为,现行法律体系中实质上已经存在具有科技法表征体系的法律部门,只需将其内蕴的原则进行抽象概括便可应用于人工智能的一般领域,辅之以少数特殊领域的专门规制即可应对当前人工智能领域的法律风险;参见龙卫球:《科技法迭代视角下的人工智能立法》,载《法商研究》,2020年第1期。有学者援引“技术标准”这一术语作为人工智能领域的“软法”,以此规制模式作为目前人工智能领域更新换代的标准化治理工具,期待技术标准治理能够成为当下无专项立法的一种替代性的原则规制措施。参见张欣:《我国人工智能技术标准的治理效能、路径反思与因应之道》,载《中国法律评论》2021年第5期。此外,“软法之治”理论中还有学者主张将科技伦理与算法伦理纳入现有的网络风险治理体系,以此形成全新的以算法安全原则为指引的规制框架。参见赵精武:《生成式人工智能应用风险治理的理论误区与路径转向》,载《荆楚法学》2023年第3期。
综合不同学者的观点可以看出,对人工智能技术采取一定的手段予以规制已经达成共识,只不过学者们从不同的研究角度出发,采用不同的分析方法予以论证,故而提出了不同的法律规制进路。总体而言,学界对于采用专门性的法律文件对人工智能采用宏观原则的规制与指引持赞同态度。人工智能技术具有特殊性,在通过现有法律制度予以特殊化场景规制的同时,也要认识到社会对于人工智能宏观指引规范的需求。在此背景下,不对其进行专项立法与精准管控可能会使我国人工智能行业落后于世界发展水平,丧失我国现有技术优势。参见张凌寒:《深度合成治理的逻辑更新与体系迭代——ChatGPT等生成型人工智能治理的中国路径》,载《法律科学(西北政法大学学报)》2023年第3期。
我国近期发布的《生成式人工智能服务管理暂行办法》从征求意见到实际落地仅用了数月,体现了立法机关对于热点领域的关注与因应。虽然这一规范性文件的效力目前仍处于较低的法律位阶,但也能从一定程度上反映我国已开始重视人工智能领域的总括式立法,以此来预防未来可能出现的法律风险。在后续的立法进程中,我国可以广泛借鉴域外的立法经验,设置“分级分类”“全链条监管”等契合人工智能领域的监管措施,引入“监管沙盒”等技术,采用“以技术规制技术”的策略,兼顾发展利益与安全监管,以此实现人工智能领域发展自由与法律秩序之间的有机统一。
三、欧盟人工智能立法模式之镜鉴
2021年4月,欧盟委员会出台《人工智能法案》(以下简称《法案》),主张以强监管立法模式对人工智能领域进行全链条、多阶段的监管。立法者基于风险预防的理念制定了一系列覆盖人工智能应用全过程的风险规制体系,《法案》成为全球首部针对人工智能风险的规制法案。其中诸多条款均体现了欧盟对于人工智能的审慎态度,主张采取强监管措施以防控人工智能在未来发展中可能产生的结构性风险;在风险防范措施上,主张引进风险划分政策,将人工智能的潜在风险加以分类,并对不同层级、不同场景的风险进行区别力度的专项规制。
早在《法案》之前,欧盟便在人工智能规制领域有过相关尝试。例如,欧盟《通用数据保护条例》中规定了数据影响评估制度等以规制自动化决策系统。2018年,欧盟委员会任命高水平专家进行人工智能伦理指引的研究,See Ethics Guidelines for Trustworthy AI,at https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.(Last Visited on April.24, 2023).并提出一系列可信任的人工智能的投资建议与政策指引。See Policy and Investment Recommendations for Trustworthy Artificial Intelligence,at https://digital-strategy.ec.europa.eu/en/library/policy-and-investment-recommendations-trustworthy-artificial-intelligence(Last visited on April.24, 2023).2020年,欧盟首次发布《人工智能白皮书》参见《人工智能——走向卓越与信任的欧洲路径》,载微信公众号“腾讯研究院”,2023年4月24日。,提出了以人类利益与福祉为目标的人工智能生态系统创设计划,其中提到的人权保障、安全责任制度等内容也贯穿了《法案》的讨论全流程。2021年4月,欧盟委员会发布了《人工智能法案》的提案,并在其中确立了“以横向监管为基础、风险规制为主要方式,同时兼顾监管与发展的动态平衡”的治理原则。这一法案与后续颁布的《数字服务法案》《数字市场法案》等核心法规一样,均是欧盟全球布局的数据战略的一部分,Mark MacCarthy and Kenneth Propp,The EU’S White Paper ojn AI: A Thoughtful and Balanced Way Forward,https://ai-regulation.com/the-eus-white-paper-on-ai-a-thoughtful-and-balanced-way-forward/.(Last Visited on April.24, 2023).也是欧盟决心在人工智能甚至是整个科技领域设定全球标准的体现。See Mark MacCarthy and Kenneth Propp,Machines Learn That Brussels Writes The Rules: The EU’S New AI Regulation,at https://ai-regulation.com/machines-learn-that-brussels-writes-the-rules-the-eus-new-ai-regulation/(Last Visited on October.16, 2023).欧盟委员会在其数字战略目标中明确指出,“欧洲现在必须加强其数字主权并制定标准,而不是遵循其他国家的标准,特别是要重点关注数据、技术和基础设施领域”See Hendrik Mildebrath and Guillaume Ragonnaud :A European Strategy for Data,at https://www.europarl.europa.eu/RegData/etudes/ATAG/2021/690527/EPRS_ATA(2021)690527_EN.pdf(Last Visited on October.16, 2023).。历经多次修改与表决,《法案》逐渐成为具备体系性的治理框架,下文将结合对我国立法具备借鉴意义的治理框架核心要点进行分析。
(一)基于风险的法律分级制度
早期的《法案》对人工智能的定义较为宽泛,且风险等级包含的范围较广。欧盟理事会认为,标注过于宽泛难以提供清晰的指引。因此,在后续的修改草案中对人工智能的定义进行了细化与限缩,将《法案》纳入规制的人工智能的范围定义为:“通过机器学习方法、逻辑和基于知识的方法开发的系统。”
此次《法案》制定伊始便确立了风险分级制度,将其分为四大风险类别。四大风险分别是:不可接受的风险(Unacceptable Risk)、高风险(High Risk)、有限风险(Limited Risk)以及最低风险(Minimal Risk)。《法案》对高风险人工智能系统的监管要求进行了多次明确和调整,以期强化其在技术层面的可行性,并结合人为干预规制模式。参见《路未央,花已遍芳——欧盟〈人工智能法案〉主要监管及激励措施评述》,载微信公众号“金杜研究院”,2023年8月3日。此外,针对前段时间爆火的类GPT模型,《法案》也进行了动态调整。其主要立法者提议,在没有人类监督的情况下生成复杂文本的人工智能系统应该是“高风险”名单的一部分,以阻止ChatGPT大规模生成虚假信息。See AI Act:All the Open Political Questions in The European Parliament,at https://www.euractiv.com/section/artificial-intelligence/news/ai-act-meps-extend-ban-on-social-scoring-reduce-ai-office-role/(Last Visited on October.16, 2023).委员会表示,后续还会结合社会实际需求针对类似的通用型人工智能制订详细的规制方案,以防止科技异化带来的社会伦理风险。
(二)“全链条”的法律监管措施
《法案》为高风险人工智能系统设计了“全链条”的监管制度。这种监管制度也被称为“从摇篮到坟墓”——自人工智能系统开发出来直至投放市场或投入使用前乃至整个存续期间都要接受有关部门的监管,以保证其遵守《法案》规定的风险环境模拟测试、强制性风险管理系统、严格的数据治理规定、技术文件和日志保存的规定以及上市后监测和事故报告的规定。与之相应,《法案》对高风险人工智能系统的提供者课以较重义务。具体而言,提供者应建立合理的质量管理系统,并以书面政策、程序和指令的形式系统、有序地载明该质量管理系统,确保合规程序的执行、相关文件的草拟以及强有力的售后监管制度的建立。
这种“全链条”监管模式借鉴了德国的“产品跟踪观察”制度。参见周友军:《论侵权法上的产品跟踪观察义务》,载《法律科学(西北政法大学学报)》2014年第4期。“产品跟踪观察制度”所规定的义务主要有两个维度:产品跟踪观察义务、反应义务。二者强调了生产者(在本文中的体现即人工智能系统实际控制者或者运营者)应当承担产品全过程的监管义务,包括持续观察、产品召回等。具体到《法案》的规制进路,也大体采用了此类义务的分析范式,将人工智能的“全链条”规制周期细分为四大阶段:系统研发阶段、风险评估阶段、CE标志(欧洲共同市场安全标志)阶段、售后监测阶段。
人工智能系统运营者在“事前”监管流程中要重视系统研发及风险评估流程。系统研发阶段首先应当保证系统训练数据库来源合法透明,并且对训练数据进行一定的筛选;其次,应当将系统研发的技术文件以及研发过程中的“日志”进行备案留存;最后,要保证人工智能系统的透明度、鲁棒性鲁棒是Robust的音译,也就是健壮和强壮的意思。它是在异常和危险情况下系统生存的能力。比如,计算机软件在输入错误、磁盘故障、网络过载或有意攻击情况下,能否不死机、不崩溃,就是该软件的鲁棒性。AI模型的鲁棒可以理解为模型对数据变化的容忍度。假设数据出现较小偏差,只对模型输出产生较小的影响,则称模型是鲁棒的。、网络安全性,让人工智能的输出更加契合人类需求并保证使用过程中的安全性。“事中”监管主要体现在CE标识阶段,各大人工智能运营者要在系统中标注CE标识,对其安全性进行公示,帮助使用者判断一个人工智能系统的安全性、准确性等标准是否符合法律规范性文件的规定。
“事后”监管主要是售后检测行为。此项措施重在强调使用数据的收集反馈与监测,在人工智能系统顺利入市并投入运营的阶段,研发者或实际控制者应当以技术文件中的入市后监测计划为基础建立统一的售后数据检测系统,分析运营过程中的潜在风险,并在必要时(如出现了重大安全事故或者发现了潜在的安全风险)向官方监管机构报备及进行产品的召回。
(三)实验性规制模式下“监管沙盒”制度的引入
从全球视角出发,针对日新月异的科技发展趋势所带来的随机性风险,各国逐渐使用实验性规制的模式来进行科技监管。See Dirk A.Zetzsche Ross P.Buckley,Janos N.Barberis,and Douglas W. Arner,Regulating A Revolution: from Regulatory Sandboxes to Smart Regulation,Fordham Journal of Corporate and Financial Law,Vol.2017(23),pp.31-104.实验性规制的实现进路是以质疑创新者的方式来测试全新规则,在不确定的环境中进行反复的风险测试与规则重构,以实现保障创新性的同时进行更有效率、更加科学监管的目的。See Sofia Ranchorddis,Innovation-friendly Regulation: The Sunset of Regulation,the Sunrise of Innovation,Jurimetrics,Vol.2015(55),pp.201-224.人工智能技术发展方兴未艾,对其监管举措暂无先例可循,监管的效果也难以预料,这就使相关的监管部门容易进行极端监管,即放任其发展或者进行过度干预。See Mark Fenwick,Wulf A.Kaal&Erik P.M.Vermeulen,Regulation Tomorrow: What Happens When Technology is Faster than the Law? American University Business Law Review,Vol.2017(6),pp.561-594.对于新兴行业,一味地事后规制有可能造成难以估量的恶劣后果。See Sofia Ranchorddis,Innovation-friendly Regulation: The Sunset of Regulation,the Sunrise of Innovation,Jurimetrics,Vol.2015(55),pp.201-224.所以,《法案》采用了“全链条”的监管模式,实验规制模式在这种全链条的监管模式中体现为“监管沙盒”制度。
“监管沙盒”(regulatory sandbox)制度由来已久,并非专门为人工智能规制而创设的监管模式。这一制度模式最早产生于计算机领域,是一个技术系统名词,即在一个隔离的环境测试新设计的算法,以观测其存在的漏洞,后来被金融领域广泛应用。金融领域因其行业特点而存在系统性风险,故要进行审慎监管。参见肖振宁:《略论互联网金融及其风险管控》,载《湖南社会科学》2018年第1期。传统的事后监管措施存在成本高、监管不适时等弊端,故而在其中使用“实验性规制”思想下的“监管沙盒”制度恰如其分。通过灵活的“沙盒”监管,体现了动态监管原则,能有效实现事中监管,最大限度地避免行业内的潜在风险。基于此理念,《法案》引入了“监管沙盒”机制,以此平衡人工智能领域监管与创新之间的冲突。
人工智能领域的“监管沙盒”是指由主管机构提供一个预先设计好的模拟环境以供人工智能系统在投入使用前进行测试,在规定的时间范围内按原计划运行人工智能程序,对其安全性与稳定性进行测试与验证。一旦在“沙盒”中发现预投用的人工智能系统存在虚假陈述、歧视性输出等威胁人类基本权利的“行为”,要及时对系统进行规制与调试,必要时应当延缓投入使用的计划,重新开发与编写一套安全的算法程序,以降低人工智能系统在“监管沙盒”模拟环境下出现的潜在风险。
四、“人工智能法总则”建构之必要:域内自省与域外借鉴
近年来,深度合成技术、生成式人工智能等技术逐渐成熟,人们对人工智能可能带来的收益和风险的认知日益深刻。但是,人工智能的跳跃式发展在给人类社会带来广阔发展前景的同时,也有可能侵犯人类的基本权利,这种风险的存在正是科技文明发展的结果,具有全球性、广泛性、时代性。参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学(西北政法大学学报)》2017年第5期。应当时刻警惕着科技发展带来的社会风险,因为这种人为风险丝毫不亚于人类曾面临的各种自然风险。参见刘志强、方琨:《论人工智能行为法律因果关系认定》,载《学术界》2018年第12期。如何从法律构造的维度规制人工智能产业、使其健康发展,是目前各国在人工智能产业发展过程中应当关注的首要问题。
承前所述,域外人工智能立法已经有相当长的一段探索历程,而我国的人工智能立法也不再限于理论层面的讨论与谨慎的试点性工程。法律是最低限度的兜底标准,没有法律的强制性规定而寄希望于自律机制是不够理性的,毕竟人类社会的生存和发展离不开法律的规制,参见刘练军:《法律起源的人性之问》,载《济南大学学报(社会科学版)》2023年第1期。以人类社会为基础搭建的各行各业自然也离不开法律的规制。目前我国对于人工智能立法的试点性工作已经有了充足的经验,但是碎片式、迭代式等非体系化特征明显,还需要立法者对其进行串联与调适。域外经验虽然充分,但是全盘接纳的思路必然不适应中国特色社会主义法治体系的完善。因此,对人工智能本土构造进行审视,并对域外经验加以“扬弃”,构建适应我国立法范式与产业发展状况的“人工智能总则”是解决当下种种困境的有益尝试。
(一)透视域外人工智能法律规制进路
目前国际上对于人工智能的立法模式主要有横向规制与纵向规制两种模式,《法案》便属于横向规制的典型,即由具有较高立法权限的机关牵头,制定一部适用于不同主体与场景的宏观法律文件。纵向规制模式为我国目前的主流治理手段,主要是立法者针对不同的适用场景进行专项立法,暂不设置宏观指引规范。See Matt O’Shaughnessy amp; Matt Sheehan,Lessons From the Worlds Two Experiments in AI Governance,at https://carnegieendowment.org/2023/02/14/lessons-from-world-s-two-experiments-in-ai-governance-pub-89035(Last visited on October.16, 2023).有观点称纵向规制模式可能引发条线治理以及降低监管合力、增加监管难度等问题。参见郑曦、朱溯蓉:《生成式人工智能的法律风险与规制》,载《长白学刊》2023年第6期。从国际视角来看,采用的碎片化监管措施极有可能阻碍人工智能产业的创新以及跨境人工智能市场的形成,甚至有可能威胁数字主权。参见柳建龙:《透视欧盟人工智能法草案》,载《光明日报》2023年3月16日,第14版。
不管是从意识形态领域还是社会发展实践领域来看,对人工智能技术采用相当的手段予以规制是适应时代发展的必由之路。科技发展观强调科技发展过程中应警惕“科技异化”,参见何士青:《现代科技发展的法伦理思考》,载《求索》2020年第2期。在科技发展的各个环节都要保持足够的警醒。社会发展日新月异,人工智能的进步速度令人咋舌,引领智能技术产品的全新革命。参见江怡、董化文:《论人工智能与人类智能的双向互动》载《自然辩证法通讯》2023年第11期。技术发展带动社会革新,而社会的革新又与法律改革息息相关,参见陈金钊:《法治与改革的关系及改革顶层设计》,载《法学》2014年第8期。人工智能技术的突破会带来社会不同领域的变革。我国目前针对人工智能领域主要采用“迭代立法模式”,当立法者发现现有法律规范并不能完美契合全新的社会发展关系时便起草另一法案来参与调适,Matt Sheehan, Chinas AI Regulations and How They Get Made.,at https://carnegieendowmentorg.translate.goog/2023/07/10/china-s-ai-regulations-and-how-they-get-made-pub-90117?_x_tr_sl=autoamp;_x_tr_tl=zh-CNamp;_x_tr_hl=zh-CNamp;_x_tr_pto=wapp.(Last visited on October.16, 2023).这一模式可能造成前后立法的冲突与抵牾,不利于协调型法律关系的建构,也有可能因为规定的重复而科以相关主体过重的义务。
诚然,现阶段人工智能发展具有不确定性,要求立法机关立刻出台专项法律加以规制是不符合人类理性与立法逻辑的,故而我们应当从“未来法学”的角度来审视人工智能领域的法律风险。参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学(西北政法大学学报)》2017年第5期。从1996年网络法诞生之初的“马法非法”观念,到如今各国争先设立人工智能法律规范,反映出人工智能技术发展的突飞猛进与立法者观念的迭代更新,也提醒我们要时刻保持发展的眼光来看待人工智能技术。从“马法之议”透视人工智能法律的建构,更提醒了我们在立法的时候要具备足够的前瞻性,给法律留有一定的解释空间,避免成文法固有的滞后性弊端,以适应未来科技的发展。
具体而言,立法者应当从现有法律法规及规范性法律文件中抽象出以往法治实践的原则、价值与经验,参见陈健滨:《回应型治理视阈下的法典化:模式选择与立法技术》,载《中共南昌市委党校学报》2023年第4期。尝试设立总纲性、框架性的法律文件来对现有各个规范性文件进行统领,并结合我国现有法律文件及参考域外人工智能法律规制的思路创设中国人工智能治理的法律原则,克服碎片化立法带来的“一事一议”之弊端,为解决潜在的、共同的法律风险提供可能。西方国家对于人工智能法律建构的探索肇始已久,但是至今未有定论,我国也不必急于一时。然而,不急于一时不代表原地踏步,以现有法律体系为基础,探索人工智能的全新规制路径并予以落实是我国未来在“人工智能战场”上大放异彩的基础性保障。
(二)完善立法构造之进路
通过审视域外经验与域内实践,可从以下几方面进行人工智能法总则原则的构造:首先,要立足算法监管,明确从源头抓起的基本出发点。引入公平性约束、算法可解释性等原则要求,规范算法监管的手段和范围,不得模糊监管范围,否则可能导致公权力的无序扩张等乱象,还有可能加重企业的合规负担,不利于人工智能企业的技术创新与发展。其次,确立可追溯性原则,将算法行为决策置于监管范畴。确保算法执行过程可还原回溯,对算法不当之处强制要求修正,形成一种全生命周期的监督体系,保障人工智能运行全流程的鲁棒性与网络安全性。最后,重点关注算法在人工智能系统中的设计、开发与部署。要求系统开发设计人员明晰算法在人工智能系统中的运用,最大限度地破除“算法黑箱”迷雾,让利益相关者能够了解算法运行的底层逻辑与技术架构,使其对输出结果有一定的合理预期,这样才能从根本上保护公民权益。
最重要的是,要实现横向立法与纵向立法的贯通。做好人工智能法律同现有法律规范的衔接,加快通用性法律规范的制定进程,构建全新的人工智能法律构造布局。人工智能作为一个广泛的上位概念,包含数据、算法、大模型等多个组成要素,我国现行法律已经对其中的部分要素予以专项规制。故而在起草人工智能法时要兼顾此类已有的法律规范,采用转介条款等立法技术予以衔接,参见朱虎:《规制性规范、侵权法和转介条款》,载《中共浙江省委党校学报》2014年第3期。避免人工智能在调试不同领域的法律关系时与本领域现有的法律规范相冲突,保证人工智能法律同现有法律体系的协调统一。在人工智能专项立法的构建领域,要坚持“一般+特殊”的治理理念,创设具有统领性、总纲性的人工智能法律总则,结合现有专项立法,共同治理野蛮生长的人工智能技术。搭建法律框架时要充分结合技术手段,科学评估相关风险防控措施的必要性与可行性,在比例原则的指引下设立契合我国实践发展的“人工智能法总则”。
五、“人工智能法总则”的建构原则和理念:分类思维与利益平衡
我国人工智能产业已进入规模化应用落地爆发期,算法争议和系统安全事件偶有发生。有关主管部门在制定人工智能相关规制措施时,应当提防过度重视公平性与风险管控而束缚产业创新活力。在针对人工智能领域进行专项规制时,要充分考虑新生事物的不确定性,不宜采用严苛标准加以限制这一治理思路。参见徐继敏:《生成式人工智能治理原则与法律策略》,载《理论与改革》2023年第5期。具体而言,我国在“人工智能法总则”构建中,应当秉持构建“平衡性”法律文件的理念,坚持规范与发展并行原则,寻求秩序与自由二元价值冲突之间的平衡,将人工智能领域的风险管控与未来发展有机统一。同时,把握经济利益与风险防控的平衡,遵循分级分类监管、监管与发展之平衡等原则,建构具有中国特色的“人工智能法总则”。
(一)加快制定分类分级风险防范措施:差别化与场景化策略
欧盟《法案》以风险分析为区分方法,以分级分类监管为主线,并对其采取不同层级义务规定的思路具有一定的创新性,甚至可以将其称为《法案》的灵魂。我国也有类似的“风险分级”管控制度:在《个人信息保护法》中,立法者便着重强调个人信息分级分类保护的思想,参见蔡蔚然:《去标识化个人信息分级处理的规则体系》,载《山东社会科学》2023年第2期。根据个人信息的敏感程度进行分级。参见王德政:《从分类到分级:我国公民个人信息的刑法保护》,载《湖南社会科学》2023年第5期。后续出台的《互联网信息服务算法推荐管理规定》与《生成式人工智能服务管理暂行办法》等规范性文件也沿用了类似的分级管控制度。客观来说,我国的深度合成技术、算法推荐等科技领域的规制均已走在世界前列,参见张凌寒:《深度合成治理的逻辑更新与体系迭代——ChatGPT等生成型人工智能治理的中国路径》,载《法律科学(西北政法大学学报)》2023年第3期。但是从《法案》的发展进路依旧能总结部分先进的人工智能治理思路,从而弥补我国人工智能立法领域的现存漏洞,以应对我国未来人工智能规制领域的潜在风险。域内外实践都表明,分级风险防范措施能有效实现监管目标,故而我国应在“人工智能法总则”构造过程中引进这一规制原则。具体而言可采用以下进路。
1.“人工智能”概念之厘清
在人工智能立法的进程中首先要厘清法律客体,应当对规制对象的法律概念予以足够清晰的描述与科学的范围界定。从法律逻辑学的角度来说,应当让不同规范性文件中对所规制的“人工智能”的描述是周延的,即不应当把法律概念简单地理解为制定法偶然形成或者任意维系的集合。参见朱虎:《萨维尼的法学方法论述评》,载《环球法律评论》2010年第1期。人工智能的法律概念应当与现有的人工智能立法领域既有的概念适配,丁磊:《生成式人工智能 AIGC 的逻辑与应用》,中信出版社2023年版,第6页。并进行一定程度的解构与重组,抽象出适合现有社会模式的基本概念以及底层逻辑。否则便有可能使人工智能所有者或运营者难以理解规制领域,无法根据法律规定进行实践操作。具体而言,在明确“人工智能”边界的基础上,还要结合人工智能三要素本身进行条文设置,对算法、算力、数据等人工智能发展过程中所必备的要素进行必要的阐述,以实现“人工智能法总则”的宏观规制与整合转介功能。在立法技术层面,可以采用“有限列举+兜底条款”的表述,确保法律概念在清晰稳定的基础上对未来技术变迁保持开放,即法律定义具有适当程度的包容性。See Jonas Schuett,Defining the Scope of AI Regulations,Forthcoming in Law, Innovation and Technology,Vol.2023(15), pp.1-23.清晰的法律概念是科学表达法律规范、正确认知法律内容、增强法律适用确定性的基本前提。参见陈亮、张翔:《人工智能立法背景下人工智能的法律定义》,载《云南社会科学》2023年第5期。逻辑上的宽泛与模糊有可能造成执法者的任意解读甚至误读,无序扩大执法权限,将极大地限制人工智能领域的发展。同时,数字时代,技术治理已经成为法治领域规制新兴产业的关键技术范式。参见张吉豫:《数字法理的基础概念与命题》,载《法制与社会发展》2022年第5期。因而立法者也要尽可能地在未来法律文件中融入一定的技术方案,用技术方案与法律语言共同界定作为规范客体的人工智能的具体内涵,将技术语言用法律概念进行再阐述,实现“技术—法律”的融贯型治理。参见郭春镇:《生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例》,载《现代法学》2023年第3期。
2.差异化的风险管控战略
实现发展与安全并重,最重要的就是要根据场景的变换采用差异化的风险防控措施。笔者认为,欧盟《法案》在立法方面采用的“全链条”监管原则值得我国借鉴:在事前阶段,采用算法备案以及风险预估制度从源头防范人工智能风险的产生。同时,将人工智能系统划分为四种风险等级,根据应用场景与风险等级的不同,制定相应规制措施,提高监管机构的执法效率,使其将更多精力放在高风险人工智能领域的监控上,也降低了低风险人工智能企业的负担,有利于其长远发展。在事中阶段,《法案》引入“监管沙盒”机制,创造一个虚拟环境让人工智能系统在其中按照既定算法正常运行,如果在不加干预的情况下人工智能自主演化出了威胁人类安全、损害基本权利的风险,应当立刻采取措施制止。另外,运用CE标识等手段对人工智能的现实运营进行动态监控。在事后阶段,《法案》规定高风险人工智能系统供应商应制定售后监测计划和售后监控系统,有义务及时将违规事件或严重故障系统上报国家监管机构。目前我国在人工智能风险管控措施方面还存在空白,可考虑借鉴《法案》框架及实施经验制定适用于我国的人工智能风险管控措施。
借鉴欧盟“全链条”监管的原则,我国在制定人工智能通用型法律规范时应实行对人工智能系统风险的“事前—事中—事后”监管措施。事实上,我国在事前阶段已经借鉴了欧盟的做法,秉持预防原则采用风险评估与算法备案等制度,参见《生成式人工智能服务管理暂行办法》第17条:“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。”贯彻预防治理思维,从源头降低人工智能的结构性风险,保障不同风险等级的人工智能系统在投入使用之前是风险可控的。在这一阶段的监管链条中,我国立法者应将眼光置于法律效力等级之上,构建具有通用性的事前监管制度。而事中阶段应当由相关机构持续跟进监管,通过产品召回制度、风险信息反馈与公示等措施来保障人工智能系统运行中的风险可控。事后阶段则应对人工智能系统的使用情况进行总结分析,建立健全企业报告制度,对风险产品进行有序召回,实现人工智能风险事故的数据共享和风险监测。
3.场景化的风险管控战略
要根据风险场景制定有层次、有梯度的风险等级管控机制,对被划分为同一风险场景中的人工智能系统进行统一的风险管控,落实风险评估等级制度,建立起场景明确、等级清晰自下而上限制逐步加深的“风险金字塔”模型的监管细则,不可模糊区分标准造成权力异化的现象。我国现有法律体系中已经结合比例原则有过分级分类制度的立法经验,《数据安全法》规定了数据分类分级保护制度,《互联网信息服务算法推荐管理规定》规定了算法分级分类安全管理制度,《深圳经济特区人工智能产业促进条例》则规定了人工智能应用分级分类监管办法。这一立法经验也应当在“人工智能法总则”的建构中予以传承。承前所述,欧盟目前采用的“四分法”在实质上有制约人工智能发展之嫌,美国等采用的负面清单制度本质上又是“二分法”的体现,可能会造成人工智能行业的野蛮生长与无序发展。基于此,笔者认为,我国宜采取“三分法”对人工智能风险领域进行分级分类,坚持比例原则,保证人工智能技术创新的同时又不至于因疏于监管而引发社会危机。同时,要在立法活动中体现惩罚性赔偿的思维。明确人工智能系统开发企业或独立开发者运用算法的风险防范红线,对于不同风险等级的人工智能系统越界行为进行区别性处罚,也可根据不同企业的营业额进行惩罚数额的界定,实现风险等级与监管处罚的精准适配,以此增强监管措施的强制约束性。
4.保持法律调适的灵活性
未来在“人工智能法总则”建构的过程中要保证立法具有足够的机动性。成文法的结构性弊端之一便是其明显的滞后性,参见徐国栋:《西方立法思想与立法史略(上)——以自由裁量与严格规则的消长为线索》,载《比较法研究》1992年第1期。且立法工作并非一朝一夕之功,从出台草案到一审稿、二审稿,再到最后的终稿,往往会经历数年之久。法律的滞后性便是法律稳定与社会更迭的冲突表现形式。参见徐伟功:《我国冲突法立法局限性之克服》,载《社会科学》2022年第3期。从法学原理的维度来看,解决法律滞后性弊端的有效方式是利用法律价值与法律原则来让法官进行自由裁量,但是法律的价值选择往往面临“二律背反”的风险弊端。参见徐国栋:《西方立法思想与立法史略(上)——以自由裁量与严格规则的消长为线索》,载《比较法研究》1992年第1期。所以一味地强调利用现有规范结合法律原则让司法裁判者进行权衡判断可能会造成实质正义的缺失,也有可能加重司法机关的负担。此时,创设一部回应社会现实需求的专项法律并赋予其较高级别的通用效力有利于缓解目前的法治困境,相关部门在立法时要关注社会动态,及时根据社会动态调整法案草稿,并坚持法律基本原则的指引,适应最新的社会现状,最大限度避免滞后性弊端。
(二)坚持安全监管与产业发展利益并重
欧盟《法案》对世界各国的人工智能立法均有借鉴价值,但是其中涉及了较多的超前监管措施会在一定程度上遏制企业的发展。以《数字服务法》颁布后的风险预测为例,布鲁塞尔智库欧洲国际政治经济中心(ECIPE)发布报告称:“基于2018年基准值,欧盟GDP将损失约850亿欧元。此外还将导致劳动人口减少0.9%。”参见《欧洲智库:欧盟科技行业监管新规或造成千亿美元经济损失》,载新浪科技网,http://finance.sina.com.cn/tech/2020-10-29/doc-iiznezxr8667695.shtml,2023年5月5日访问。
针对这一潜在风险,有学者提出我国应当采用“产业促进法+风险治理法”的技术范式分两条主线进行治理。参见龙卫球:《人工智能立法的“技术—社会+经济”范式——基于引领法律与科技新型关系的视角》,载《武汉大学学报(哲学社会科学版)》2020年第1期。但是,本文认为,在“人工智能法总则”的建构过程中宜采用一部法律宏观统率治理的思路。具体而言,我国应当在坚持比例原则、保证监管措施符合目的性与适当性的基础上,参见黄学贤:《行政法中的比例原则研究》,载《法律科学(西北政法大学学报)》2001年第1期。采取以下措施以实现人工智能安全监管以及企业发展创新的平衡。
一是采取包容审慎的原则,创新灵活监管手段。针对人工智能系统的应用场景和技术架构采取“监管沙盒”等创新监管手段,明确适用主体范围与资格准入标准,创新与监管同时推进,在“试验田”内摸索人工智能监管的边界和手段,在不突破监管底线的基础上给人工智能企业以充分、灵活的发展空间,发挥市场的自我调节作用,避免出现人工智能产业领域的“寒蝉效应”。See Jon Truby amp; Rafael Dean Brown,A Sandbox Approach to Regulating High-Risk Artificial Intelligence Applications,European Journal of Risk Regulation,Vol.2021(13),pp.270-294.同时,要迭代实验经验,并对“沙盒”环境进行定期监测与评估,形成制度化的监管措施。就实践来看,“监管沙盒”的思维在我国早有体现。改革开放以来,我国设置经济特区进行政策试点,探索中国特色社会主义的发展道路。未来,在人工智能的监管侧也可采用我国践行已久的试点策略,引进“监管沙盒”等与人工智能相兼容的科技手段,稳健、安全地发展人工智能。
二是推动监管技术与监管模式的深度融合。设立人工智能安全技术创新平台,推进人工智能安全核心技术攻关,坚持安全监管与产业创新融合发展。必要时设立专门的监管机构进行总括式的监管指导。《法案》中已经要求设立“欧洲人工智能委员会”来进行专项全局监管。但是,应看到这种全局性的机构无法深入人工智能赋能的每一个领域进行监管,故应当在设置统筹管理机构的基础上,具体划分不同部门的职责,分行业、分领域进行人工智能的精准监管。我国新发布的部门规章大多由国务院不同部门联合制定,也体现了这种在统一领导下对不同领域进行分级分类监管的监管模式。
三是发挥多元主体的协同治理功能。《人工智能法(示范法)1.0》(专家建议稿)第13条提到了“协同共治”的治理思路,《人工智能法(示范法)1.0》(专家建议稿)第13条指出:“国家建立和完善政府管理、企业履责、行业自治、社会监督、用户自律的人工智能治理机制,促进多元主体协同共治。”笔者认为,这一理念能够有效吸收社会各方力量参与人工智能治理,通过整合社会力量提高治理的效率和理性。人工智能立法进程与治理进路应以政府为主导,这一原则是实现人工智能安全发展以及社会价值目标的基本要求。除此之外,还应当从风险防控的视角引入社会各方主体参与规则的讨论与研究,沈向洋、[美]施博德编著:《计算未来:人工智能及其社会角色》,北京大学出版社2018年版,第49页。引导人工智能权威第三方行业机构和龙头企业牵头制定行业规范,广泛接纳诸如政府、学者等主体的观点,制定价值平衡的行业规范,在保障人工智能安全发展的同时又不至于因监管而丧失产业发展活力。此外,还应发挥中国人工智能协会等社会组织的引领作用,建立产业执业诚信体系,健全人工智能算法和系统行业自律规范,打造多元参与的监管治理生态格局,更好地发挥社会监督与协同治理作用。
六、余论
人工智能作为新时代科技的表象特征技术,对其进行合理规制具有极其重要的引导意义。目前各国多在进行人工智能法律规制模式的探索,这也可以看作各国人工智能竞赛中的重要一环,应当看到在技术突破的同时推动法律进步的必要性,任由人工智能技术野蛮生长并非长久之计。技术与法律从来都不是对立的,法律改革嵌套技术改革也从来都不是一个全新命题,在探索技术领域的法律规制进路时应充分考虑不同技术的特点与沿革模式。只有在完善的法律规制框架下进行技术的发展才是有意义的技术进步,反之则有可能产生科技异化损害各方主体权益。近年来,世界各国陆续进行人工智能专项立法,以期维持其在人工智能领域的先进地位,我国也未停下探索脚步,陆续制定了一系列法规政策探索人工智能技术的治理模式。
欧盟《法案》经过多次修订,已经探索出相对完善的人工智能法律规制进路,其中很多治理模式在我国也早有雏形,如“监管沙盒”制度、科技伦理治理模式等。目前我国的实践还不够成熟,许多规定尚停留在原则层面,并未有进一步的细化举措,且相关规定的效力等级较低、呈现明显的非体系化特征。笔者认为,可以借鉴域外治理经验,将不同境况下的人工智能系统进行风险等级分类,再对不同级别的人工智能系统进行框架性治理。此外,还应当重视安全发展与产业促进之间的关系,探索一套适合我国发展模式的治理标准,避免过度限制企业自由、抑制人工智能产业的发展。
Abstract:As an important paradigm of the new generation of scientific and technological revolution, artificial intelligence technology plays an important role in the scientific and technological competitions of various countries, but the alienation of science and technology has always been like the sword of Damocles. Under the background that artificial intelligence is deeply integrated into and affects our lives, responding from the legal dimension is an important part of the improvement of China’s legal system in the new era. As the first special regulatory document of artificial intelligence in the world, the European Union’s Artificial Intelligence Act has certain advanced and referential construction ideas. Exploring the EU legislative experience from the perspective of comparative law is of positive significance to the legal construction of artificial intelligence in China. At present, the legislation of artificial intelligence in China is characterized by non-systematization, overlapping subjects and low rank, which can not effectively adapt to the development of technology.The construction of “General Principles of Artificial Intelligence Law” combined with foreign legislative experience is an effective means to solve the dilemma that the current fragmentary and iterative legislation is difficult to perfectly adapt to the development of technology. In the process of building the framework of general principles of artificial intelligence law, we should consciously avoid the inherent drawbacks of legal lag, ensure the extension of the concept of object, and formulate “general principles of artificial intelligence law” with the concept of differentiation and scenario. At the same time, the regulation should give freedom to the development of technology, and improve the existing legal system of artificial intelligence in China by combining the EU classification idea and the “whole chain” regulatory model, so as to ensure the bottom line of artificial intelligence security and achieve its innovative development.
[责任编辑 郭 粹]