陈敬全
(科学技术部,北京 100862)
进入21 世纪以来,包括人工智能(AI)在内的新兴技术发展已成为国际竞争中的重要变量,也成为世界各主要经济体构建技术主权、促进经济繁荣和保障国家安全的重要基石。在人工智能发展方面,欧盟的主要优势在于充分发挥欧洲一体化市场的影响力,在全球树立人工智能技术监管和治理的高标准,以技术治理促进技术自主,其治理政策值得关注和研究。
当前,美国和中国在人工智能技术创新和产业发展方面具有显著优势,欧盟近年来则另辟蹊径,在人工智能治理方面持续发力,加快推进人工智能立法,旨在以高标准伦理监管的先发优势构建“监管壁垒”,塑造其在人工智能发展方面的全球影响力。
2016 年6 月发布的《欧盟外交和安全政策的全球战略》(EUGS)首次提出了战略自主(Strategic Autonomy)的目标。近年来,乌克兰危机、中美博弈等“黑天鹅”和“灰犀牛”事件重塑了欧盟的安全观和发展观。欧盟愈加强调战略自主,同时将强化在人工智能等重要领域的技术主权作为战略自主的重要支撑。欧盟认为,算力的提高、算法的进步和海量数据的积累,使人工智能成为21 世纪最具战略性的技术之一[1]。2019 年,欧盟委员会(以下简称“欧委会”)主席冯德莱恩将人工智能列为欧洲必须掌握和拥有的关键技术[2]。2020 年,欧盟发布的《欧洲人工智能白皮书》《欧洲数据战略》等文件均将人工智能视为强化欧盟“技术主权”(technological sovereignty)和“数字主权”(digital sovereignty)的关键领域。
根据欧委会联合研究中心(JRC)的人工智能观察报告,欧盟27 国进入人工智能领域的企业数量和创新机构(企业和研究机构)数量均居全球第3 位,并在机器人和人工智能服务领域具有较强的实力[3]。但就发展趋势而言,欧盟的发展速度与中国、美国均有较大差距。基于此,欧盟主要通过实施高强度监管和治理的模式参与竞争。欧盟的战略优势主要在于依托其一体化市场实施高标准规制的布鲁塞尔效应①“布鲁塞尔效应”指欧盟标准产生的全球影响,即跨国技术公司在欧洲遵循欧盟标准后,又常常将该标准应用到第三国,从而使欧盟标准成为事实上的全球标准。塑造全球影响力[4]。
数据是人工智能发展的重要基础。欧盟在数据保护和数字治理方面走在全球前列,也为其加强人工智能治理提供了重要法律和政策工具。例如,欧盟2018 年生效的《通用数据保护条例》在全球具有标杆意义。2022 年5 月、7 月和10 月欧盟理事会先后批准了《欧洲数据治理法》②《欧洲数据治理法》(European Data Governance Act),2022 年6 月23 日生效,2023 年9 月23 日适用(过渡期15 个月)。《数字市场法》③《数字市场法》(Digital Market Act),2022 年11 月1 日生效,2023 年5 月1 日适用(过渡期6 个月)。《数字服务法》④《数字服务法》(Digital Service Act),2022 年11 月16 日生效,2024 年2 月16 日适用(过渡期3 个月)。3 项立法,分别在促进公共数据共享和利用、防范大型网络平台公司垄断和保护消费者基本网络权利等方面强化治理,也为人工智能治理构筑了“护城河”。近年来欧盟大力倡导发展以人为本的可信人工智能并积极推广,以扩大其国际影响。
为应对人工智能广泛应用可能带来的社会问题和伦理风险,近年来欧盟出台了一系列战略、政策、法规、倡议和行动计划(见表1),不断强化人工智能治理。其治理政策与实践呈现如下特点和趋势。
表1 2016—2023 年欧盟出台的人工智能治理重要政策文件
欧盟关于人工智能的监管政策,从伦理倡议起步,在共识逐步形成后,着力推动成文法的制定,强化监管的约束力。早在2016 年,欧盟议会法律事务委员会(JURI)就要求欧委会对机器人和人工智能的影响开展评估并提出立法建议,同时指出在人工智能立法难以一蹴而就的情况下,可先采用“软法”的方式进行监管[5],具体形式包括行为准则倡议、欧盟与成员国的协调行动和公私伙伴关系等。随后,欧盟显著加快人工智能治理步伐。2018 年欧委会出台《欧洲人工智能》战略文件,2019 年又发布欧盟人工智能高级别专家组提出的《可信人工智能伦理准则》,明确“可信人工智能”的7 项基本准则(见表1),同时发布3 份指导性文件推动利益相关方共同加强监管。不过,此类监管仍有赖于人工智能企业基于自愿原则实施,不具有法律强制力。
为进一步强化监管,在上述政策的基础上,2021 年4 月,欧委会正式发布关于《人工智能法案》的立法建议[9],提出了详细的人工智能风险等级划分标准,制定了覆盖人工智能产品从研发到应用全过程的风险规制体系和“谁提供(产品或服务)谁负责”的责任划分原则。法案还提出设置专责机构,成立欧洲人工智能委员会,负责促进成员国监管部门落实法案。2022 年9 月,欧委会进一步提出了《人工智能责任指令》立法草案和《产品责任指令》修订草案,对因人工智能产品缺陷给消费者造成的损失做出明确规定。若法案如果最终通过,欧盟对人工智能的监管力度将显著加强,并与美国相对宽松、只倡导企业自愿遵守人工智能伦理的做法形成鲜明对比。
欧盟在数字治理领域已出台了一系列立法。2018 年5 月生效的《通用数据保护条例》除了对数据安全、隐私保护等问题做了规范,也涉及了自动化决策系统的规制(确保可解释性、保障对人工智能自主决策的反对权)。2022 年5 月、7 月和10 月先后发布的《欧盟数据治理法》《数字市场法》《数字服务法》3 项立法也为人工智能治理提供了重要支撑。尽管如此,鉴于人工智能的自主性、新颖性和复杂性,其广泛应用带来的不确定性和风险性需要进一步予以明确界定和规制。为此,欧盟正在制定中的《人工智能法案》将会在此方面予以明确。法案草案将人工智能系统分为不可接受的风险、高风险、有限风险和极小风险4 个类别,并就其全生命周期风险评估和控制提出要求。如果该法案通过,将成为全球首个人工智能治理立法。国际商业机器公司(IBM)认为,与《通用数据保护条例》类似,欧盟的《人工智能法案》可能会改变全球竞争规则[11]。
由于人工智能治理涉及广泛的利益群体,欧盟高度重视并听取各利益相关方和公众意见,凝聚共识,在此基础上积极开展人工智能的治理实践。欧盟并未等待《人工智能法案》出台才推进监管和治理,而是根据立法精神,对法案的一些重要部署和立法精神开展探索和实践。一是完善治理体系。依托现有的欧盟成员国人工智能和欧洲工业数字化工作组,履行法案拟推动成立的“欧洲人工智能委员会”职能,统筹欧洲的人工智能治理行动;2018 年6 月,欧委会任命人工智能高级别专家组(HLEG)并成立欧洲人工智能联盟,支撑欧洲人工智能战略的实施。二是制订人工智能协调计划[6],推动欧盟和成员国政府部门先试先行,具体行动包括构建公共采购数据空间、制订政府部门人工智能应用计划和探索人工智能监管沙盒等,并定期开展评估。三是推进人工智能治理技术平台建设。成立欧洲算法透明度中心(ECAT,2023 年1 月开始运作),负责监督和调查大型网络平台算法的合规性[12]。成立人工智能发展监测平台“AI Watch”,对欧盟人工智能创新和治理进展开展监测评估。
欧盟不仅加强欧洲人工智能的治理,也着力加强其治理规则的全球影响力,积极强化其全球话语权和主导权。一是扩大其人工智能治理的国际影响,积极在联合国、经济合作组织、七国集团等的全球治理机制中推广其人工智能的伦理准则并取得一定成效;通过《人工智能协调计划》推动成员国和第三国之间的治理合作。二是强化价值观导向力图主导人工智能发展的国际标准。欧委会2018 年发布的《欧洲人工智能》强调,要在欧盟现有价值观与《欧盟基本权利宪章》的基础上,确立合适的人工智能伦理与法律框架,包括人类尊严、隐私和民主等,明确要发展“以人为本”的可信人工智能[1]。同时,欧盟反复强调要与所谓“志同道合”的国际伙伴深化人工智能合作,共同制定人工智能发展的国际标准,力图将欧洲打造成所谓“人工智能灯塔”。三是在法律管辖范围方面,如果欧盟制定中的《人工智能法案》《人工智能责任指令》获得通过,将不仅适用于在欧盟设立的企业,而且适用于在欧盟市场提供人工智能服务的任何主体。
欧盟对人工智能等新兴技术的高标准治理是其技术发展水平、社会环境和文化以及市场竞争策略等多方面因素共同作用的结果。中国应对欧盟的人工智能治理政策及其影响进行综合研判,在认真学习借鉴的同时,立足国情探索科学合理的人工智能治理模式。
欧盟人工智能治理政策监管有余、创新支持不足。例如,美国国家人工智能委员会成员巴杰瑞塔里(Bajraktari)认为欧盟的监管步伐太快,几乎没有考虑对创新的影响[13]。对此欧盟显然也有所认识,因此最新版本的《人工智能法案(草案)》第12 章中专门设立第5 部分“支持创新的措施”,提出了“人工智能监管沙盒”等鼓励创新的监管举措。尽管如此,该法案对生物特征识别技术、利用算法进行信誉评级技术的严格限制仍被认为过于苛刻。这种做法是把“双刃剑”,在增强欧盟话语权的同时也不可避免遏制欧洲自身的创新。中国的人工智能治理既需要未雨绸缪、做好研究和政策储备,又要平衡发挥好政策的引导性和法律的强制性,保障人工智能技术和产业的快速健康发展。
欧盟在《人工智能法案》和其他数字治理法案制定过程中,重视开展公众咨询以及美国科技巨头的意见,为此欧盟专门在美国旧金山开设办事处,以加强与美国硅谷科技公司在人工智能等数字技术领域的对话。在欧盟人工智能相关法案的公众咨询中,谷歌、微软和Meta 等科技巨头均认真研究并正式向欧委会提交反馈意见,而中国的人工智能企业数量虽多,但对欧委会正式提交反馈意见的却很少。对此应通过适当方式,鼓励中国人工智能企业积极参与欧盟立法过程,这样有利于欧盟均衡考虑各方利益。同时,在中国与欧盟的数字高层对话、创新对话和信息技术、电信与信息化对话等机制中,可将人工智能治理列为重要议题,以增进相互的交流,凝聚共识,共同加强人工智能的国际治理。
欧盟《人工智能法案(草案)》强调要对人工智能系统进行详细的风险分级,并进行全生命周期的风险管理。对此一些美国与欧盟的人工智能专家认为,欧盟立法角度有失偏颇,没有考虑到人工智能模型开发、集成和部署应用中多主体参与的复杂过程。例如,人工智能系统的用户最接近系统应用所处的高风险场景,并做出可能对系统性能产生影响的决策,而欧盟《人工智能法案(草案)》没有适当考虑到这一点[14]。人工智能基础模型(其中一些是开源的)是具有高度延展性的组件,而不是最终产品,可能以多种不同方式应用于善意或恶意目的。供应商和用户之间的界限会变得非常模糊,因此合理的责任分配机制至关重要。人工智能监管需要更灵活的监管方式来适应新的技术范式,为此需要增进监管机构和开发人员之间的互动,并培养一批既懂技术又懂政策的人才。
美国与欧盟的人工智能监管政治化趋势明显。例如,2022 年12 月,欧美贸易与技术理事会(TTC)第三次会议发布了《关于可信人工智能和风险管理评估与测量工具的联合路线图》,强调要基于“共同的民主价值观”,推进与人工智能相关的国际标准机构的协作。对于美国与欧盟以所谓“民主价值观”划线将新兴技术发展政治化的倾向应坚决抵制,中国人工智能发展应坚持以人为本、人工智能治理应坚定去意识形态化和去政治化的立场。为此,应在联合国的多边框架下推动建设人工智能国际治理体系,积极加强人工智能治理交流的同时,重视加强与新兴国家和广大发展中国家的交流合作与共同发声,推动形成更加公平合理的人工智能国际治理体系。
人工智能技术在加速应用并广泛渗透到经济社会各领域的同时,也带来了深度伪造、算法歧视、隐私保护、就业冲击、社会公平乃至人工智能系统控制安全等问题和挑战。这些挑战是全球性的,需要各国共同合作予以应对。中国在加强人工智能基础理论研究、技术创新和产业应用的同时,应借鉴欧盟等国外经验,加快在理论、法律和政策层面对人工智能技术发展的监管问题进行深入研究,建立完善人工智能治理体系和治理机制,并积极参与人工智能全球治理体系建设,为人工智能造福全人类贡献中国智慧和中国方案。