欧盟《人工智能法》监管沙盒制度及启示

2025-02-21 00:00:00周巧
科技创业月刊 2025年1期
关键词:人工智能

摘 要:人工智能已成为当前国际技术与规则竞争的关键领域,欧盟抢先发布了全球第一部人工智能法案——《人工智能法》,该法案特设专章规定了监管沙盒制度。作为一项创新监管的有效工具,监管沙盒已经在英国、法国等国家率先开展了人工智能监管沙盒实践。为了深入理解这一制度,有必要对其优势和局限性进行分析,发现该制度可以有效平衡监管与创新、促进规制学习和扶持中小型企业发展,但仍存在数据处理的规定不够完善以及沙盒监管引导措施有待加强等问题。目前我国对监管沙盒的理论和实践仍处在探索阶段,通过借鉴欧盟经验,提出加强个人数据保护、开展人工智能监管沙盒试点、创设灵活监管环境和构建完善的监管沙盒运行机制等建议,为推动构建中国特色人工智能监管沙盒提供参考。

关键词:人工智能;监管沙盒;《人工智能法》

中图分类号:D99

文献标识码:A

DOI:10.3969/j.issn.1672-2272.202411021

英文标题

The Regulatory Sandbox System of the EU Artificial Intelligence Act and Its Implications

Zhou Qiao

(Law School, Hunan Normal University, Changsha 410081, China)

英文摘要Abstract:Artificial intelligence has become a key area of international technology and rules competition, the European Union has preemptively issued the world’s first artificial intelligence law, the Artificial Intelligence Law, which has a special chapter on the regulatory sandbox system. As an effective tool for innovative regulation, the Regulatory Sandbox has taken the lead in implementing AI regulatory sandbox practices in the United Kingdom, France and other countries. In order to understand this system in depth, it is necessary to analyze its advantages and limitations, which can effectively balance regulation and innovation, promote regulatory learning and support the development of small and medium-sized enterprises, but there are still problems such as insufficient regulations on data processing and sandbox regulatory guidance measures need to be strengthened. At present, the theory and practice of China’s regulatory sandbox are still in the exploratory stage, and by learning from the experience of the European Union, we will promote the construction of an artificial intelligence regulatory sandbox with Chinese characteristics by strengthening personal data protection, carrying out AI regulatory sandbox pilots, creating a flexible regulatory environment, and building a sound regulatory sandbox operation mechanism.

英文关键词Key Words:Artificial Intelligence; Regulatory Sandbox; Artificial Intelligence Act

0 引言

随着数字技术的更新与迭代,人工智能在更多元的场景中得到运用,但传统的治理模式和理念显然不能适应日新月异的人工智能发展。在这场有关人工智能法律规制的争论中,欧盟立法者在推动人工智能监管法规的出台方面始终扮演着全球领路人的角色。2024年5月21日,欧盟理事会正式批准通过《人工智能法》(Artificial Intelligence Act)[1]。该法成为全球首部专门监管人工智能的综合性立法文件。值得一提的是,《人工智能法》在其第六章开创性地引入了新的人工智能监管工具——监管沙盒(Regulatory Sandbox),该章节专门详细阐述了这一制度,旨在避免因过度监管抑制人工智能技术的创新,并减少法律对产业发展可能产生的负面影响。这一举措标志着欧盟在人工智能监管方面从被动监管向预期监管的重要转变,不仅在全球范围内率先将监管沙盒制度纳入人工智能法律监管框架,还将产生重要的监管示范效应。

1 欧盟《人工智能法》监管沙盒制度设计

“沙盒”(Sandbox,又译为沙箱)原本为计算机专业术语,用于为运行中的程序提供隔离环境。沙盒能够为来源、意图不明或可能具有破坏性的程序提供隔离的测试环境,确保程序得以在测试环境中运行,而不会对计算机系统造成实际损害。后来管制部门将其运用于新兴技术的监管测试中,因而称之为“监管沙盒”。监管沙盒制度最早源于金融科技领域。2015年3月,英国金融行为监管局(Financial Conduct Authority,FCA)首次在法律上提出“监管沙盒”概念。2016年,英国在金融科技领域的实践中启动了“监管沙盒”计划。FCA被认为创造了第一个正式的监管沙盒,并在全球范围内传播这一概念。监管沙盒制度在英国首次提出后就风靡世界,据统计2017年有16个监管沙盒在运行[2],而到2020年,就记录了73个与金融科技相关的监管沙盒。

1.1 专章规定人工智能监管沙盒制度

欧盟委员会旨在通过引入监管法律沙盒,为人工智能开发者提供“喘息空间”,以防止创新受到限制,并进一步推动在欧洲建立一个繁荣的人工智能生态系统。《人工智能法》要求各成员国为人工智能监管沙盒提供一个可控的环境,为人工智能创新提供基础条件,使人工智能系统在投放市场或提供服务之前,能根据研发者和监管机构商定的具体沙盒计划,在有限的时间内进行开发、培训、测试和验证。沙盒的可控性让创新过程更有序,研发者在沙盒监督下,运用仿真的市场环境进行技术测试,有助于创新成果顺利落地。

《人工智能法》第六章详细阐述了监管沙盒规划。第六章包括第57条至第63条,这7条的重点是通过建立和运行人工智能监管沙盒来支持创新。第57条要求成员国在《人工智能法》生效后24个月内建立人工智能监管沙盒,旨在促进人工智能系统的开发、测试和验证,并为识别风险和确保合规性提供指导和支持。第58条授权委员会通过详细规定人工智能监管沙盒的运作模式,以确保沙盒能够成功建立和正常运行,避免成员国在实施监管沙盒时出现不一致的情况。第59条对“个人数据处理”进行了规定,允许在人工智能监管沙盒中处理个人数据,以便开发特定人工智能系统,服务于公共利益。第60条主要规定了在人工智能监管沙盒之外的真实环境中测试高风险人工智能系统的相关要求,只有在符合特定条件并获得市场监管机构的批准后,才能进行此类测试。第61条规定,在人工智能监管沙盒之外的真实世界条件下开展测试时,主管机关应在测试对象参加测试前获得其自由知情同意,确保受试者了解测试的性质、目的和条件等方面的内容。第62条规定了支持中小企业和初创企业的措施,包括优先使用沙盒、提高认识活动和按比例收取合格评定费用等。第63条规定了对特定运营者的豁免情况及相关要求,在确保高风险人工智能系统的保护和合规性不受影响的情况下,考虑到微型企业的具体需求,简化某些质量管理体系要素。

1.2 《人工智能法》设立监管沙盒的目标

根据《人工智能法》[1]的文本和解释性备忘录,人工智能监管沙盒致力于实现以下目标:

第一,提高法律确定性。立法者可以通过设立监管沙盒鼓励监管机构保持监管灵活性。同时,利用其现有的自由裁量权,为创新者提供最大程度的法律确定性,即提供一个清晰的法律框架,使人工智能系统的创新者能够明确了解如何在确保遵守欧盟《人工智能法》或其他适用于欧盟和成员国立法的监管法规的前提下开发和部署其技术。同时,监管机构通过沙盒能够更好地了解人工智能的影响,更清楚地识别潜在风险,并据此采取相应的预防和控制措施。

第二,促进人工智能创新。在人工智能产品开发和上市前的阶段,建立一个受控的实验和测试环境确保合规性至关重要,这不仅有助于促进人工智能创新,还能增强欧盟在全球人工智能领域的竞争力,并推动人工智能生态系统的持续发展。此举的一个主要优势在于,对新技术进行测试时,无需满足通常适用的所有监管要求。这对于难以适配现有法律框架的创新而言尤为重要,能有效解决创新过程中遇到的问题。

第三,通过消除障碍加速人工智能系统的市场准入。监管沙盒提供了一个简化的流程,帮助研发者更快地将人工智能产品和服务推向市场,这可以缩短创新进入市场的时间,并在市场中产生更广泛的溢出效应,从而促进企业的增长和扩张。从《人工智能法》的文本来看,立法者所指的障碍可能是实际障碍,例如研发者可能因缺乏相关技术和法律知识,而无法准确遵循法案要求。

此外,还包括一些可能与人工智能监管沙盒相关的可选择的、附加的目标:如创建有利于可信人工智能发展的学习环境;增加“循证监管学习”为未来的人工智能治理和监管提供信息;促进经济发展等等。

2 国内外人工智能监管沙盒实践

2.1 欧洲国家人工智能监管沙盒试点

“监管沙盒”作为一种有潜力的监管模式,已在欧洲国家迅速推广,西班牙、法国、挪威、英国等国家先后开始了人工智能监管沙盒项目的试点探索。目前,这些国家的创新治理举措逐渐展现出一定的国际影响力,并积累了一定的实践经验。

第一,西班牙。在欧盟成员国中,西班牙在创建人工智能监管沙盒方面所做出的努力值得特别提及,其在2022年6月成为第一个宣布创建人工智能沙盒的欧盟国家[3]。2023年8月,西班牙政府根据拟议《人工智能法》成立了西班牙人工智能监管机构(AESIA),成为欧盟成员国中首个成立人工智能监管机构的国家[4]。2023 年11月,作为欧盟理事会轮值主席国的西班牙,颁布了第817/2023皇家法令,为其人工智能沙盒提供了法律依据,为公共部门和私营企业提供了测试人工智能产品和服务的空间[5]。

第二,法国。法国数据保护监管机构国家信息与自由委员会(National Commission on Informatics and Liberty, CNIL)已成为欧洲人工智能沙盒监管领域的重要参与者。教育行业是法国沙盒试点的重点领域。从2021年开始,该机构每年围绕一个主题征集创新项目,并以“沙盒”方式提供法律和技术问题的支持。前三期的主题分别是健康数据、数字教育工具、改善公共服务的人工智能,前两期主题也均有人工智能项目入选[6]。

第三,挪威。挪威数据保护局(Data Protection Authority,DPA)在2016年为自动驾驶汽车创建了一个以人工智能为重点的沙盒,提供了与人工智能产品和服务相关的数据保护要求以及隐私影响的监管建议。2023年5月,挪威数据保护局发布了公共交通公司Ruter的人工智能监管沙盒项目最终建议方案。Ruter计划在其运营的应用中加入个性化出行推荐方式的人工智能算法,并对监管沙盒中潜在的风险进行评估,特别是在个人数据保护领域方面。

第四,英国。2024年5月,英国药品与保健产品管理局(Medicines and Healthcare Products Regulatory Agency,MHRA)推出“AI-Airlock”项目,这是一个针对医疗器械人工智能(AIaMD)的新监管沙盒[7]。该项目旨在识别AIaMD面临的监管挑战,协同监管机构、医院等多方相关者合作,以了解和尽可能降低未被发现的风险。MHRA计划开放4~6份申请作为应用试点,测试其在医疗服务中直接临床应用时可能产生的一系列监管问题,进而根据具体需求对AIaMD进行设置和定制,以灵活应对潜在问题,最终提升患者的体验。

2.2 中国运用监管沙盒制度的实践

在监管沙盒构建方面,我国紧随国际趋势,于2019年启动了金融科技创新领域的监管沙盒试点工作,以应对金融科技创新发展所带来的监管需求。在人工智能领域,2024年3月,为保障数据企业和人工智能大模型企业能够在北京人工智能数据训练基地进行安全、高效的合作,北京国际数字经济治理研究院承接了北京人工智能数据训练基地监管沙盒机制的建立工作,协同相关各主管机构进行沟通调研,并最终形成了“北京人工智能训练基地监管沙盒运行规则”。这是全国首例人工智能领域监管沙盒,开创国内人工智能产业创新机制先河[8]。同时,中国香港、台湾地区也已经引入“监管沙盒”制度,正处于深入探索阶段,为沙盒实施机制积累了宝贵经验。2024年8月,香港金融管理局与香港数码港管理有限公司在第二届FiNETech活动上,宣布推出新的生成式人工智能(Gen A.I.)沙盒。

此外,我国在智能汽车领域已经出台了相应的监管沙盒政策。2021年11月交通运输部发布了《关于组织开展自动驾驶和智能航运先导应用试点的通知》,2022年2月由国家市场监督管理总局等五部门联合发布的《关于试行汽车安全沙盒监管制度的通告》[9],标志着我国正式将监管沙盒制度引入汽车产业发展中。智能网联汽车作为人工智能和大数据在汽车产业中的融合应用代表,自然涉及了人工智能监管沙盒的相关内容,可以说汽车道路测试与示范应用就是一种“沙盒”模式。深圳市也结合地方产业实际,发布了《深圳经济特区智能网联汽车管理条例》和《深圳市智能网联汽车道路测试与示范应用管理实施细则》,进一步细化了与智能网联汽车相关的人工智能监管沙盒内容[10]。这充分体现了我国从中央到地方,各级政府通过不断完善立法文件来规范监管沙盒制度,推动以人工智能为代表的先进技术创新的发展思路。

3 欧盟《人工智能法》监管沙盒制度的优势与局限性

在《人工智能法》中,欧盟立法者对监管沙盒制度进行了明确规定,旨在实现人工智能立法与技术创新之间的协调,优化监管策略。可以看出,与传统的监管和治理方式相比,监管沙盒提供了许多机会,具有很多优势,但也不可避免会带来新的挑战。

3.1 人工智能监管沙盒制度的优势

3.1.1 平衡监管与创新

欧盟《人工智能法》面临的关键问题在于如何在推动创新、收获人工智能效益、控制人工智能风险和有效保护权利之间实现平衡[11]。监管沙盒的引入可被视为在“监管与创新”平衡过程中的一次飞跃。一方面,采取监管沙盒本身就体现了监管者促进和激励创新的意愿[12];另一方面,企业得以在沙盒内测试新技术,通过自我评估获悉实施风险,这既尊重了企业的创新诉求,又能够避免法案的直接干预[13]。作为一种创新友好型、面向未来且具有弹性的监管工具,监管沙盒为人工智能技术创新提供了在监管机构动态监督下进行微观层面测试的空间,以满足数字时代监管的开放性要求和日益增长的市场需求。

监管沙盒为人工智能系统进入市场之前建立了一道缓冲区,这道缓冲区既模拟了真实的市场环境,使得监管者能对人工智能系统的全貌进行了解,又能在风险发生之时及时止损,或在风险无法有效缓解时终止参与沙盒测试。欧盟境内的技术创新者也能借助沙盒,在受控环境中利用真实的市场数据测试开发人工智能产品和服务,这有助于在将新技术推向市场时,尽量消除产品安全缺陷,减轻法律风险[14]。可以说沙盒机制支撑着创新创业的“萌芽”阶段,并为创新者提供了庇护,使他们能够在不稳定的监管领域中打破僵局。

3.1.2 促进规制学习

“监管沙盒”的一个重要变革是从单向的权力投射转变到多元主体的权利平衡[15]。在监管沙盒运行过程中,创新者和监管机构之间的直接沟通有效地改善了市场基础设施中的信息不对称问题,降低了人工智能技术应用的复杂性,并为整个人工智能产业创造了一个学习型的监管环境。

具体而言,监管沙盒具有双重作用:一方面,支持监管学习。沙盒的一个补充目标是使监管机构更深入地学习和理解产品或服务。通过全流程监测人工智能技术在沙盒中的运行情况,可能有助于监管沙盒形成一种新的商业和监管学习方式,提升监管机构对新技术知识的理解,从而全面了解人工智能应用带来的风险和影响,预测市场发展新趋势。另一方面,促进商业学习。创新者能够与监管人员就技术和法律问题进行交流,共同协作开发值得社会公众信赖的人工智能产品或服务。监管机构需要借助创新者了解创新,创新者需要监管机构的支持和有效监管,以更好地促进创新[16]。因此,监管沙盒有助于监管机构与创新者之间建立良性互动,共同探索并建立一种良好有效的沟通方式和合作机制,双方互相收集交流信息,共同营造一个与真实世界相仿的技术运行环境。

3.1.3 对中小企业的监管扶持

中小企业和初创企业在这个以技术和创新为导向的社会中发挥着至关重要的作用,人工智能的监管程度对于中小企业在其创新生命周期中是否会遇到障碍具有决定性影响。为了鼓励中小企业发展、促进和培育欧盟内的人工智能创新,欧盟《人工智能法》特地放宽了中小企业进入沙盒的条件、减免中小企业参与测试评估的费用等,在诸多方面对中小型企业和初创企业设置了优惠和豁免措施,包括技术部署前的服务、接触其他数字单一市场倡议的机会和标准化文件、认证与咨询等增值服务。

考虑到中小企业的特殊需求,监管沙盒提供了简化后的监管流程和合规指南,使人工智能技术研发流程免于传统监管框架的束缚,为现有法律框架下的技术创新留出空间。例如,《人工智能法》规定主管机构设置的申请、选拔流程应当便于中小企业参与,包括初创企业在内的中小企业可免费进入人工智能监管沙盒,但不影响国家主管机关按要求征收特殊费用[1]。同时规定各成员国在确定合格性评估费用时,应特别考虑到中小企业和初创企业的具体利益和需求,并根据企业的规模、市场大小和其他相关指标按比例降低这些费用[1]。从防止垄断和促进人工智能技术创新的角度出发,以上费用减免措施减轻了中小企业和初创企业的财务负担,使其能够更容易地参与到人工智能监管沙盒中,同时满足监管要求。因此,不难看出,欧盟《人工智能法》很大程度上顾及了中小企业在市场中的弱势地位。

3.2 人工智能监管沙盒制度的局限性

虽然监管沙盒在管理新兴技术、促进企业创新方面展现了显著的优势,但其并不是“灵丹妙药”。必须在实践中不断探索和前进,了解其缺点和劣势也有助于监管机构制定更有力的政策。

3.2.1 数据处理的相关规定不够完善

欧盟对数据收集和人工智能系统进行全面监管的计划,标志着其在推动人工智能发展的正确方向上迈出了重要一步[17]。人工智能和数据是不可分割的概念,人工智能系统的创新需要数据作为强大的基础支撑。因此,数据安全风险也是人工智能所面临的巨大挑战。欧盟《人工智能法》第五十九条对“个人数据处理”进行了规定,只有在面临公共安全和公共卫生、环境保护、能源的可持续性、关键基础设施、公共行政和公共服务等重大公共利益时,并且数据是合法收集的前提下,才能对个人数据实施处理。但同时也允许在受控环境中使用个人数据用于人工智能系统的开发、培训和测试。这些条件确保了个人数据处理的合法性、正当性和特定目的性,但同时也赋予了创新者一定的自由裁量权,可能会增加个人数据保护的风险。即使能够明确“公共利益”的具体含义,但在监管沙盒中处理个人数据是否能在基于同意之外的合法性基础进行,即除了个人的明确同意之外是否还会有其他合法的理由来支持这种数据处理行为,也是各方在谈判中的争议焦点。

监管沙盒的设计旨在平衡技术创新与个人数据保护之间的关系,鼓励创新者在确保合规的前提下,探索和开发新的人工智能应用。同时,监管沙盒也为监管机构提供了一个平台,以便更深入地理解和评估人工智能技术可能带来的风险和挑战。当监管机构优先考虑创新而忽视公众权益保障措施时,将引发诸多风险,公众可能遭受隐私泄露、算法歧视等问题,导致个人信息被滥用。这种创新与数据保护之间平衡的实现,需要监管机构、创新者和数据保护机构等主体之间的密切合作与协调,确保监管沙盒在促进技术创新的同时,充分保障个人数据的安全和隐私权利。

3.2.2 沙盒监管引导措施有待加强

欧盟试图通过监管沙盒制度打造出一个安全可靠的空间,在这个特定的空间里,人工智能研发者能够通过积极参与沙盒测试,促进人工智能技术的创新,并对风险进行有效管控。然而,一个关键的问题摆在面前,那就是如何确保研发者自愿参与监管沙盒测试。很明显,其在很大程度上取决于沙盒测试的监管严格程度以及参与者通过参与沙盒测试所能获得的利益。倘若不具备足够的吸引力,人工智能研发者参与测试的积极性可能会受到影响。

反之,如果沙盒的准入标准界定过于松散,那么就可能会招致一些“不严肃”的初创公司,进而扭曲人工智能产业原本公平的竞争环境,再加上监管机构和研发者在获取前沿技术信息的能力方面存在着显著差异,极有可能诱发某些企业的监管套利行为。这些企业可能会利用监管沙盒提供的特殊监管环境,故意规避监管要求,最终破坏欧盟人工智能产业的发展秩序。例如,某些企业借助监管沙盒提供的技术创新测试空间,不合理地享受优惠待遇,从而获得不正当的竞争优势。这种行为不仅浪费了沙盒项目的时间与资源,而且与沙盒设立的初衷背道而驰。

4 欧盟《人工智能法》监管沙盒制度对中国的启示

欧盟《人工智能法》开创了人工智能领域法律规制之先河,以法律形式将监管沙盒应用于人工智能治理,这对我国人工智能监管沙盒制度建设具有重要的启示意义。

4.1 加强对个人数据的保护

欧盟提出的《人工智能法》《通用数据保护条例》和我国发布的《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》《生成式人工智能服务管理暂行办法》等法律规范均明确规定对个人信息和数据的处理必须遵循专门的保护法规要求。2024年7月26日,公安部、国家网信办等研究起草了《国家网络身份认证公共服务管理办法(征求意见稿)》,并向社会公开征求意见,该《办法》主要强调了数据安全和个人信息保护义务,并规定了相应的法律责任。在我国现行的法律框架下,研发者在处理个人数据前需获得信息主体的同意,除非是在法律允许的特定情况下,例如履行合同义务、法定职责或应对突发公共卫生事件等。但研发者在处理涉及个人信息的训练数据时确实可能面临一些挑战,实践中往往难以合法地广泛获取大量个人信息主体的同意。为了避免个人信息的滥用或泄露,采用匿名化处理个人信息作为解决方案是值得研发者考虑的。

参照欧盟法律的规定,首先,在数据收集阶段,研发者应尽量以个人同意为前提;其次,存储数据阶段应注意到个人隐私的泄露问题;再次,沙盒测试阶段应确保数据处理活动不能对个人的生活和工作产生直接的负面影响,也不能影响数据主体在各国个人数据保护法中规定的权利;最后,数据不能在沙盒外共享,在退出沙盒阶段以及数据处理结束后,应注意删除个人数据。

4.2 开展人工智能监管沙盒试点

试点并非对鲜为人知的新技术进行细致入微的测试,而是为成熟的市场提供一种将新技术整合到其现有业务活动中的手段[18]。借鉴欧盟的经验,中国可以开展人工智能监管沙盒试点工作,促进人工智能技术的规范发展和创新。从实践层面来看,“监管沙盒”的思维在我国早有体现。改革开放以来,我国设置经济特区进行政策试点,探索中国特色社会主义发展道路[19]。被称为中国版“监管沙盒”的金融科技创新监管试点已在多地展开,并取得了阶段性成效,为金融科技创新监管积累了宝贵经验[20]。因此,人工智能监管沙盒应采用我国践行已久的试点策略,避免“一管就死”的情况发生,待时机成熟时再将验证有效的监管方案进行推广使用。

通过借鉴我国在金融科技监管沙盒和汽车安全监管沙盒等领域的创新实践,监管部门可以探索人工智能产品与服务监管的试点机制。首先,监管机构应制定明确的监管沙盒试点规划和方案。其次,可以实行人工智能监管沙盒试点资格申请制,试点研发者应在人工智能监管部门的指导下执行试点方案,并与监管机构定期开展技术交流和治理经验共享。最后,监管机构在试点过程中应根据实际情况及时调整监管措施,为后续试点提供参考。与此同时,考虑到初创企业、小微企业等市场主体难以获得专用设施、缺乏财力人力,可以适当减轻或豁免其进入试点的条件[21]。

4.3 创设灵活监管环境

纵观我国相关立法,无论是在前端的许可程序,还是在后端的退出沙盒激励措施,抑或在终端的严格责任制度中,几乎看不到相对宽松的规定。这种审慎的立法态度可能与决策中的监管惯性和风险规避倾向有关。监管机关的主要关注点仍然是“维持秩序稳定”和“确保市场的稳健发展”,构建的是一种追求稳定性的监管模式。在缺少明确的立法激励机制的前提下,人工智能研发者的市场参与度可能无法达到监管沙盒立法所预期的效果。

为了刺激人工智能技术的创新和发展,监管沙盒的设计应注重保持监管的灵活性,这对于提升人工智能研发者参与沙盒的积极性至关重要。在监管方式上,监管者要打破传统的刚性管控、科层式监管、静态监管的束缚,转而运用柔性管控、实验性监管、动态监管应对人工智能所带来的新业态和新发展。在监管态度上,监管者应采取开放和包容的态度对待新兴技术,为人工智能的创新和发展提供必要的试错空间。监管机构可以给予沙盒参与者一定的责任豁免期,当研发者在沙盒环境中测试新技术和商业模式时,能够享有一定程度的监管宽容,不必担心因违反现行监管规定而受到处罚。这样的措施不仅减轻了企业的合规压力,还为他们开辟了新的成长机会,从而推动整个行业的健康发展。

4.4 构建完善的监管沙盒运行机制

人工智能监管沙盒的运行程序是监管沙盒制度真正落地的关键。目前我国监管沙盒机制的设计尚未形成统一且具备可操作的标准和程序,这在一定程度上制约了人工智能监管沙盒的治理效能。因此,立法应就人工智能监管沙盒的设立、开发和运行来确定基本要求,形成透明公开的入盒标准、合格标准、规范化的测试流程和清晰的退出机制,以确保人工智能研发者能在一个相对可控的环境内进行试验性开发、测试和验证。

首先,监管沙盒的准入应当将创新性作为核心评价标准。沙盒的建立和运作需要高昂的成本,因此设置严格的准入门槛可以让沙盒与目标群体完美契合,严格的准入门槛并不会使监管沙盒成为空中楼阁,相反,对创新性高标准的判断是促进创新型人工智能系统的安全开发、测试和验证的本质要求。其次,运行管理阶段的关键在于保障测试参与者能够有序、规范地进行测试。监管机构应给予企业较大的自我管理空间,否则会使得模拟环境偏离真实市场,进而影响到测试结果的可靠性。最后,退出机制是整个监管沙盒运行机制的关键环节,为测试人员退出监管沙盒建立标准,不仅可以防止参与者持续占用沙盒测试空间,还可以鼓励那些通过测试的人工智能技术得到商业化发展[22]。同时,通过分析测试结果有针对性地进行改进,推动人工智能技术健康发展。

5 结论与展望

人工智能已成为地缘政治、商业利益和安全问题十字路口的一个具有战略重要性的领域。欧盟理事会批准通过的《人工智能法》,填补了世界人工智能治理体系中法律规范的缺失,这无疑是一个里程碑式的事件。为了缓解新的监管措施所带来的压力,监管沙盒制度应运而生,其有望成为平衡规范性与创新性的重要工具。但值得注意的是,监管沙盒制度并不能解决创新过程中出现的所有问题,甚至它能否在人工智能领域发挥效用,仍有待进一步观察。我们应当辩证地看待欧盟《人工智能法》中的监管沙盒制度,对其进行借鉴与反思,结合我国人工智能实际发展和现有监管沙盒实践,构建具有中国特色的监管沙盒体系,促进人工智能技术的可持续发展。

监管沙盒提供了一个试验场,在监管机构的监督下,研发者可以在一个部门或领域内运用创新技术、产品、服务或方法进行虚拟或现实的实验,并根据具体情况行使一定程度的灵活性。它不仅为全球人工智能监管提供了新方向,还在激发产业创新活力、促进多主体协同发展等方面发挥着积极作用。监管机构能够在规制风险的同时鼓励创新,但也需要警惕其可能带来的数据保护和市场竞争问题,防止监管套利,确保沙盒的公平性和有效性。

中国作为负责任的人工智能大国,一直高度重视人工智能治理,目前已启动了自动驾驶系统监管沙盒,但该体系尚未完全系统化和成熟。鉴于此,我国应在参考借鉴国际前沿实践的基础上,重视人工智能监管沙盒的整体谋划,合理构建和完善我国人工智能监管沙盒体系,要加强对个人数据的保护,在不扭曲竞争的情况下促进人工智能创新,有效推动我国人工智能产业的可持续发展。

参考文献参考文献:

[1] OFFICIAL JOURNAL OF THE EUROPEAN UNION. Regulation (EU) 2024/1689 of the European Parliament and of the Council[EB/OL].(2024-07-12)[2024-10-18]. https://eur-lex.europa.eu/eli/reg/2024/1689/oj.

[2] ZETZSCHE D, BUCKLEY R, ARNER D W, et al. Regulating a revolution: from regulatory sandboxes to smart regulation[J].Fordham Journal of Corporate amp; Financial Law,2017, 23(1) :31-103.

[3] EUROPEAN COMMISSION. Launch event for the Spanish regulatory sandbox on artificial intelligence [EB/OL].(2022-06-26)[2024-10-18].https://futurium.ec.europa.eu/en/european-ai-alliance/events/launch-event-spanish-regulatory-sandbox-artificial-intelligence.

[4] PINSENT MASON. Spain legislates for first EU AI act regulatory sandbox[EB/OL]. (2024-11-13)[2024-10-18].https://www.pinsentmasons.com/out-law/news/spain-legislates-for-first-eu-ai-act-regulatory-sandbox.

[5] CSAR A. Royal decree 817/2023 on artificial intelligence[EB/OL]. (2023-11-16)[2024-10-18]. https://www.all-law.es/en/royal-decree-817-2023-on-artificial-intelligence/.

[6] 张苑,瞿晶晶,张晅昱.人工智能监管沙盒:概念界定、实践经验及对我国的启示[J/OL].世界科技研究与发展,1-9[2024-11-11].https://doi.org/10.16507/j.issn.1006-6055.2024.07.101.

[7] MHRA. MHRA launches AI airlock to address challenges for regulating medical devices that use artificial intelligence [EB/OL]. (2024-05-09)[2024-10-18]. https://www.gov.uk/government/news/mhra-launches-ai-airlock-to-address-challenges-for-regulating-medical-devices-that-use-artificial-intelligence.

[8] 贾骥业,朱彩云.“用魔法打败魔法”AI时代如何构建数据安全生态[N].中国青年报,2024-04-30(006).

[9] 徐磊.发展与安全并重:生成式人工智能风险的包容审慎监管[J].理论与改革,2024(4):67-83,176.

[10] 邓文娟,高圣平.论智能网联汽车监管的沙盒模式——兼评中国相关地方立法[J].江汉论坛,2023(4):125-128.

[11] 金玲.全球首部人工智能立法:创新和规范之间的艰难平衡[J].人民论坛,2022(4):44-47.

[11] 刘子婧.欧盟《人工智能法》:演进、规则与启示[J].德国研究,2024,39(3):101-128,151.

[13] 张辛鑫,冀瑜.论欧盟《人工智能法案》中的标准化模式及对我国启示[J].标准科学,2024(5):39-46.

[14] 张广伟.欧盟人工智能监管沙盒制度的功能、局限及其启示——基于欧盟《人工智能法》的解析[J].德国研究,2024,39(2):116-132,136.

[15] 易学文.论“监管沙盒”制度的实践哲学转向——以欧盟《人工智能法》为分析对象[J].南海法学,2023,7(4):11-19.

[16] 黄静怡.“分级分类”与“契约”风险治理并行的人工智能监管制度构建——以欧盟《人工智能法案》为分析对象[J].海南金融,2024(2):76-85.

[17] HILLMAN J. Smart regulation: lessons from the artificial intelligence act[J]. Emory International Law Review,2023,37(4):775-826.

[18] MCCARTHY J. From childish things: the evolving sandbox approach in the EU’s regulation of financial technology[J]. Law, Innovation and Technology, 2023,15(1):1-24.

[18] 董新义,梅贻哲.“人工智能法总则”建构原则与理念——欧盟立法经验之镜鉴[J].数字法治,2024(2):195-210.

[20] 周雷,朱奕,胡若兰.“监管沙盒”模式在我国金融科技创新监管试点中的应用研究[J].科技创业月刊,2022,35(1):24-29.

[21] 张凌寒.中国需要一部怎样的《人工智能法》?——中国人工智能立法的基本逻辑与制度架构[J].法律科学(西北政法大学学报),2024,42(3):3-17.

[22] 叶宣含.论人工智能治理的监管沙盒路径与机制(英文)[J].科技与法律(中英文),2024(5):136-148.

(责任编辑:周 媛)

猜你喜欢
人工智能
我校新增“人工智能”本科专业
用“小AI”解决人工智能的“大”烦恼
汽车零部件(2020年3期)2020-03-27 05:30:20
当人工智能遇见再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答问
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的电力系统自动化控制
人工智能,来了
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能来了
学与玩(2017年12期)2017-02-16 06:51:12