人工智能技术在近年来加速发展,深度嵌入了社会的方方面面,对人类的经济生产、社会生活、军事技术等活动领域都产生了颠覆性的效应,被视为可能对人类社会结构具有根本影响的“基础建设”性技术。由于任何技术突破都可以迅速带来军事、安全设备和技术的升级,影响到一个国家的整体安全局势,因此人工智能技术正为世界各主要国家所密切关注,美国、中国、英国、欧盟、日本、韩国、印度等国家和区域纷纷根据各自的国情制定了人工智能发展计划,将该技术列入了“战略”技术的级别。
在2016~2018年,日本、中国、美国和印度分别将发展人工智能上升到国家战略层面,出台了一系列促进人工智能发展的战略性文件。相比之下,欧盟直到2018年才开始着手建立人工智能产业政策,在时间上相对较晚;而无论是人工智能突破性技术的数量,还是开发技术应用的企业数量,欧盟都要落后于美、中、英三国。同时,由于欧盟各国在上一轮互联网跨国公司的发展竞争中本就不占据优势,因此,总体而言,欧盟在人工智能行业发展上依然处于追赶其他先发国家的阶段。
然而,欧盟在2018年启动官方人工智能促进计划时,就对总体形势进行了较为准确的判断:一方面,通过对欧盟总体资源和政策的调度,推动欧洲各国人工智能行业加速发展;另一方面,积极筹划、制定行业规则和技术标准,以此形成先例,为占据、争夺行业规则的话语权做准备。在全球行业竞争版图中,欧盟的技术的确不占据优势,但它通过清晰的判断和立法活动,为自己争取到了一定程度的主动空间。在对人工智能技术伦理的关注上,欧盟也明显领先于其他地区,在监管立法上,它已经开始了积极的尝试,为提升自身行业地位和竞争力增加了一些筹码。
在当前全球竞争的大背景下,欧盟的人工智能政策具有更加包容和开放的特性,为行业交流和互通增加了空间,其在民用人工智能的社会伦理规范上的领先尝试也具有相当大的参考价值。
2018年5月,欧盟通过了《通用数据保护条例》(GDPR)。这一条例与美国数据保护《澄清境外数据合法使用法案》(CLOUD Act)通过时间基本一致,但在内容上比美国数据法案更倾向于保护。在欧、美两项法案通过之前,欧盟国家和美国之间曾因为美国跨国互联网公司在欧洲的数据、隐私问题上有过多起争议案件,随着大数据时代的到来,各国逐渐意识到数据的重要性和跨国数据在安全问题上的意义,在数据方面的竞争也显得愈发重要。某种程度上,《通用数据保护条例》可以看作是欧盟处于互联网数据领域的落后地位、面对强势美国的一种自我保护。并且,数据也是人工智能产业发展的基础。好的人工智能技术需要充足和优质的数据进行培养,欧盟对于数据的保护,其实也是对于人工智能发展基石的保护。
同年6月,欧盟人工智能高级别专家组(AI HLEG)成立,任命了52名来自学术、企业和民间社会代表的专家。专家组的任务包括:共同探讨关于人工智能中长期发展的挑战和机遇,为欧盟相关政策、法案提供思路和建议,以及编写人工智能道德准则的草案。同时,欧盟成立了欧洲人工智能联盟,该联盟是一个以在线平台为运行形式的人工智能利益相关者社区,鼓励所有有兴趣的人士在平台上公开讨论相关内容。
2018年12月,欧盟委员会出台了《人工智能协调计划》(Coordinated Plan on Artificial Intelligence),计划中提到,要加强可信赖人工智能的投资和美德建设,推动产业和各成员国之间的合作,进行存储和世界级实验平台等基础能力建设。文件列举了包括健康管理、自动驾驶、金融科技、前沿制造、天基应用、智能电网等十个领域,提出建立欧洲网络安全工业、技术和研究中心以及国家协调中心网络,加强行业相关的协调合作。同时,对人工智能的伦理、尊重基本人权、符合国际普世道德标准也进行了反复强调。
2019年6月,高级专家组提交了《可信赖人工智能政策和投资建议》,内容分为两大部分,一是关于人工智能产业的良好社会效应,二是政府推动人工智能发展的主要举措。两大部分共细分为八个章节,分别指向人权保护、私营部门、公共部门、科研发展、数据和基础设施、教育和人才培养、行业框架引导,以及资金募集和投入。《建议》强调了欧盟官方在人工智能伦理和行业发展制定框架上的作用,同时强调只有所有利益相关者都参与到推动行业发展中,才能实现欧盟在人工智能行业中的迅速发展。
2020年2月,欧盟委员会发布《人工智能白皮书——通往卓越和信任的欧洲路径》(下称“《白皮书》”)。文件重新梳理了欧盟建设人工智能生态环境的目标——抓住新一轮数据浪潮,建立卓越生态和可信赖生态。《白皮书》中对人工智能的可信赖生态,即监管做出了基本的导向性规范,提出将人工智能通过不同风险级别进行区别管理,同时提出了专家组对人工智能企业进行自我评估的指导性清单,清单中包括七项要求:(1)人力管理和监督;(2)技术稳健性和安全性;(3)隐私和数据治理;(4)透明度;(5)多样性、不歧视和公平性;(6)环境和社会福祉;(7)问责制,这七项要求基本总结了此前人工智能行业的伦理呼吁。同年7月,欧盟公布了对七项要求的细化文件——《可信赖人工智能评价清单》(ALTAI),对各项要求的定义、具体判断条件和标准进行了规定。同时,基于这七项基本要求,欧盟开始广泛征集意见,为制定人工智能相关道德和法律文件做准备。
2021年4月,欧盟委员会提交了《人工智能法案》(Artificial Intelligence Act)的草案,这是全球第一部关于人工智能的立法文件,欧盟希望在2024年前通过该法案,使其进入执行状态。这一文件对欧盟人工智能领域的政策制定和监督责任进行了全面规划,将主要监管目标设定为“高风险”人工智能,对技术、项目等的信息披露标准及方式、数据、沙盒,以及所有事项的监督管理机构等程序性问题进行了规定。这里的“高风险”指的是有可能对人的身体、精神造成伤害,或涉及生物信息识别,可能侵犯人的基本权利。
在《人工智能法案》广泛征询各界意见的同时,2022年9月,《人工智能责任法令》(AI Liability Directive)提案公布,主要规定了人工智能应用带来的无合同民事责任相关问题,明确了一些基本权利和责任归属原则,以确保合理的赔偿要求可以得到顺利满足,并进一步促进人工智能市场的自我规范化。
总体而言,欧盟的人工智能路径强调独立自主、社会效应和规范引导。在开始规划和推动的四年中,欧盟委员会迅速抓住了“可信赖”作为总体目标,并将行业规范化推进到了监管规则制定的阶段。虽然评估清单仍然属于总体框架,也只具有引导性的呼吁作用,两项法规草案规范的目标范围也相当克制,但在对人工智能伦理的关注方面,欧盟已经走在了世界前列。
作为全球一体化推进程度最高的国家联盟,欧盟在许多场合被作为一个整体来看待。但与真正的主权国家相比,联盟的特性又决定了它具有利益结构复杂、协调需求较高的特点。因此,欧盟的人工智能产业政策在内容上也体现出了与其性质、结构相匹配的鲜明特点。
首先,欧盟人工智能产业的资金投入总量相对不足。
欧盟委员会表示,未来将通过“地平线欧洲”和“数字欧洲”计划,每年在人工智能领域投入10亿欧元,并希望通过这项持续投入来撬动私营资本和成员国的更多投资,最终使目标投入达到每年200亿欧元。另外,欧盟“恢复和复原力”基金计划为数字领域发展提供1340亿欧元总量的资金,逐年筹集和拨付。
需要注意的是,这些资金中有相当部分用在了数字基础设施建设、推动公共部门使用人工智能系统、搭建平台以提高各界在人工智能领域的协同上。相比于美国动辄投入几亿、十几亿美元针对单个项目的研发投资,欧盟整体在人工智能上可以动用的资金相对并不充足。而即使资金充足,欧盟在数字行业发展中原本存在的问题依然没有明确的解决方案,即如何规避大型跨国公司(主要是美国公司)对欧盟新兴技术公司的收购。如果不解决这一问题,欧盟的人工智能行业发展依然会与其互联网发展走向类似的结果:可以保留应用能力,但不可能实现欧盟委员会所追求的独立自主,行业产生的经济收益也会被传统大型跨国公司所收割。因此,从这一角度看,虽然欧盟的产业计划强调“独立”的目标,但其前景却并不乐观。
其次,欧盟人工智能产业计划反复强调“协调”的重要性。
人工智能路径项目启动后,欧盟首先建立专家组,制定了《人工智能协调计划》,反复强调各国和各领域的共同参与,同时也搭建了各种帮助协调、讨论的机制与平台,以此来推动各国建立协调中心并形成网络。在欧盟相关文件和政策的推动下,欧洲大部分国家已经制定了各自的人工智能发展战略,加入了欧盟的总体计划。这种对协调的强调非常符合欧盟的政治现状,动用的也是欧盟较为成熟的机制和方法,它所追求的不只是行业、国家之间的协调,更是整个社会和国际的协调。
欧盟文件中明确了社会效益和平台公平的重要性。《白皮书》中规定了应当着重关注中小型公司,确保其能够获得技术和发展,并要求扶助公共部门获得人工智能技术。在国际方面,欧盟所有开放平台和伦理规则文件的咨询,面向的都是全世界的利益相关方。这些协调原则符合提高欧洲凝聚力的诉求,也有助于将欧盟人工智能行业推向更为开放、平等的平台方向,但同时也面临着一些不利因素的掣肘。
在一定程度上,这些原则与商业公司的逐利目的之间存在矛盾。而国家之间不平衡的技术差异也会导致各国有不同的政策倾向。种种矛盾和障碍,也可以从各类文件的进度上看到体现:在欧盟政策规划开始启动的几年内,各种不具强制力的呼吁性、引导性文件迅速出炉,而《人工智能法案》和《责任法令》的草案的咨询准备却耗时超过9个月,2020年就开始筹备的《法案》依然在征询意见和谈判的阶段。国际方面,美国非政府组织民主与技术中心(CDT)和商业协会消费者技术协会(CTA)等民间组织对《人工智能法案》进行了意见回应,但态度并不积极。
总体来看,欧盟若想要继续扩大平台特性,以“开放”和“协调”为导向吸纳和组织行业资源,依然需要在复杂的矛盾和障碍中艰难前进,然而,它已经搭建起的基础平台,以及长期在欧盟各成员国之间进行经济、政治协调的经验和机制技术,都具有不容忽视的价值。
最后,“规则”和“标准”是欧盟切入人工智能产业的主要抓手。
自从专家委员会建立起以来,“可信赖”和“道德”就是欧盟人工智能路径中最重要的关键词。“可信赖”最根本的要求在于可理解、可控制。对于更为保守、面对各种数字技术疑虑更多的欧洲社会,关注技术的伦理维度、强调技术的可靠性,是一种更适合欧洲的发展视角。
因此,欧盟委员会在建立协调机制、定立基本框架后,迅速走向了为人工智能监管立法的道路。《人工智能法案》非常强调各种技术和具体应用的透明度,通过运行日志、监管沙盒的设立要求保证信息的留存,《法案》也规定了在各种情形下智能服务的提供方应该承担怎样的信息披露义务,提供明显标识或将信息提交给相关管理机构。在信息透明化的基础上,保证了用户可以根据必要提示信息来自主选择是否使用人工智能的权利。
虽然欧盟在立法监管上表现出了相当程度上的克制,但在对人工智能技术和应用进行分级别监管,对无合同人工智能侵权责任的界定,以及与产品质量保护、数据信息保护等其他法案的结合等方面,欧盟正在建立一个初具模式的规范框架。这种规范技术路径无疑将会为后续其他国家和地区的对应法规提供参考,而它的出现本身也会引起整个人类社会的关注,提高对伦理规范的需求。从这一意义上讲,欧盟利用自身优势建立的影响地位,已经部分得到了实现。
欧盟人工智能路径是在吸取了前一轮数字行业发展经验教训的基础上提出的推动计划,表现出了欧盟及各国对掌握技术主权的决心。欧盟也较为清醒地判断了自身的优势和劣势,借用较成熟的法律技术手段,在规则和标准领域追求行业领先地位。
反对法案制定的意见认为,过早进行伦理规范会影响行业前沿的探索和突破,在技术竞争阶段消耗大量人力、物力用于法律的建设和推广也会分走本可以用于技术开发的资金。同时,欧盟在行业协调工作过程中的诸多博弈也必然会限制资源的分配效率和技术推进速度。
然而,从另一个角度看,当前人工智能的发展已经到达一个较为混沌的阶段,尤其是在全球一体化遇到挫折、产业和经济发展走向混乱竞争模式的时候,国家与技术部门、商业部门更有可能在快速发展上达成一致,而忽略了技术的社会伦理面向,导致伤害甚至灾难性后果。事实上,各界对人工智能技术的疑虑从未停止,但仅凭业内人员的道德呼吁,显然无法对快速运转的技术部门,尤其是为商业服务的技术部门形成有效制约。那么,建立对社会的保护就会成为规避重大风险、保护行业发展的重要一步。
另外,欧盟在客观条件限制和社会伦理追求的双重作用下,总体呈现出较为开放、透明的特点。在世界走向混乱竞争、其他区域可能主动形成闭锁的大环境下,这种“不得已”的平衡模式可能会使其成为作为交流平台的更好选择,为其技术发展提供更多机会。
因此,虽然欧盟在技术发展和资源整合能力上存在较为明显的短板,积累也落后于前沿国家,但其人工智能产业及相关战略政策的发展依然值得持续关注。(文/姜苏玲 北京建筑大学机电与车辆工程学院)