韩 昱
(上海社会科学院 信息研究所,上海 200235)
随着网络空间的不断发展,数据安全与国家安全日益紧密地联系在了一起,世界各国对隐私问题及数据安全的关注度持续提升。欧盟作为具有超国家性质的区域一体化组织,将面临更为严峻复杂的形势,需要在兼顾成员国不同发展背景及发展需求的前提下,推行统一的欧盟价值观,打造数字单一市场,建设欧盟的数字主权。
2020年2月19日,欧盟委员会发布了《塑造欧洲的数字未来》《欧洲数据战略》和《人工智能白皮书——通往卓越和信任的欧洲路径》(以下简称《人工智能白皮书》)三份文件,集中体现了欧洲的数字转型战略。2020年12月,欧盟又强调拟为“数字欧洲计划”拨款75亿欧元,其中21亿欧元用于人工智能,17亿欧元用于网络安全。该计划旨在自2021年至2027年,为欧洲数字转型提供支持,提高欧洲在全球数字经济中的竞争力并实现技术主权。在欧盟的数字转型中,人工智能一直是欧盟关注的重点问题,同时也是各国网络空间战略的重点议题。
欧盟2018年4月就发布了《欧盟人工智能战略》,2020年2月发布的《人工智能白皮书》则具体阐述了欧盟在人工智能方面的目标、策略与方式。根据EURACTIV在2020年1月17日的报道,欧盟委员会拟在2月正式发布的《人工智能白皮书》草案泄露,委员会正在考虑在未来3至5年内禁止在公共场所使用人脸识别技术[1]。据英国广播公司报道,欧盟推出该禁令是为了使监管者有时间来研究如何防止该技术被滥用。该禁令是在英国的政治家和竞选者呼吁停止警方使用实时面部识别进行公共监控的情况下提出的,该技术可以让闭路电视拍摄到的人脸与警方编制的观察名单进行实时核对。运动者声称,某些场所在没有告知公众的情况下使用了面部识别技术,该技术存在不准确性且具有侵入性,侵犯了个人的隐私权,并有可能加剧身份欺诈[2]。此禁令一度引发了广泛的关注和极大的争议,微软和谷歌两大业内巨头分别持有不同观点。Alphabet和谷歌的首席执行官Sundar Pichai表示,这一暂时禁令是可行的。微软首席法律官Brad Smith则认为不应进行这样的干预。据路透社报道,Pichai在一次会议上说:“也许在我们真正考虑如何使用它之前,可以有一个等待期”,并认为“政府和法律应尽快解决这一问题,并为此制定一个框架。”但Smith在一次采访中表示,这样的禁令无异于是“一刀切”,并非精准打击。“这是一项年轻的技术,它会变得更好。但是,使它变得更好的唯一方法就是继续开发它,而继续开发它的唯一方法就是让更多的人使用它。”[3]在不久后正式发布的《人工智能白皮书》中,欧盟最终删除了这一禁令,并鼓励各个成员国制定自己的人脸识别规范,同时建议由独立团体评估每一项拟议的公开使用该技术的情况。
尽管欧盟在正式发布的《人工智能白皮书》中删除了这一禁令,截至目前也没有任何正式的文件规定全面禁止公共场所的人脸识别。但是,从欧盟日常的监管动态来看,其对人脸识别技术的监管不断趋严,全面禁止公共场所人脸识别的呼声也日益高涨。2021年4月21日,欧盟委员会发布了旨在加强人工智能技术监管的法规草案,全面禁止大规模监控,对特定领域的“高风险”应用进行严格限制,并将所有远程生物识别系统都划分为“高风险”,原则上禁止在公共场所为执法目的使用。这一草案也被认为是《人工智能白皮书》的法律延伸,旨在为其提供一个法律框架。2021年6月21日,欧盟数据保护委员会(EDPB)和欧盟数据保护监督局(EDPS)又针对该草案发表了联合意见,进一步呼吁在公共场所禁止使用人工智能自动识别个人特征,包括人脸识别、步态、指纹、DNA、声音等生物或行为信号。2021年10月6日,欧洲议会投票通过决议,呼吁全面禁止在公共场所进行自动面部识别,并对警方使用AI进行预测性警务活动实施严格的限制措施。
欧盟对公共场所人脸识别的禁令,有两方面问题值得注意。首先,欧盟禁令的关注点集中于公共场所的人脸识别,而非所有的人脸识别技术。其次,欧盟官方的监管动态从未全面禁止所有的公共场所人脸识别应用,其禁止的重点始终都是大规模监控以及执法等,是针对特定目的的限制。虽然欧盟后续整体上对于人工智能的监管不断趋严,但此前《人工智能白皮书》这一正式发布的文件中最终还是删除了禁令,其背后的原因是值得考量与深思的。因此,本文将着重探讨公共场所人脸识别技术的特殊性,进一步探究欧盟拟发布该禁令的原因以及最终删除该禁令的考量。同时,结合欧盟人脸识别监管动向,对其未来公共场所人脸识别政策做出展望。
首先,《人工智能白皮书》中明确指出,鉴于人工智能可能对社会产生的重大影响,以及建立对人工智能信任的需要,建设基于欧盟价值观和基本权利(例如,人权和隐私保护)的欧洲人工智能变得至关重要。在欧盟的数字战略中,坚持并推广欧盟价值观一直是其突出的特点,正如GDPR使欧盟成为数据隐私领域的“裁判者”一样,在人工智能领域同样推行严格的监管法规,宣扬属于欧盟的人工智能价值观,也是欧盟维持其在伦理观念方面优势的体现。
其次,人脸识别数据具有特殊性。人脸识别属于生物识别技术,其所采集的面部数据等属于敏感的生物特征识别数据,包含种族等敏感信息,能识别人的身份,且能够轻易与其他信息相连,同时具有不可再生性,是永久且唯一的,一旦被采集将无法更改。欧盟《通用数据保护条例》(GDPR)第九条对特殊类型的数据处理中明确规定“禁止以识别自然人身份为目的的对个人基因数据、生物特征数据的处理”,特殊情况例如已获得数据主体明示同意等除外。
但是,公共场所人脸识别技术的特殊性违反了明示同意原则,也难以判定同意的有效性以及使用的必要性,由此对欧盟一直以来强调的个人隐私保护构成了重要挑战。人脸识别虽然是一种生物识别技术,但是与指纹识别、虹膜识别等生物识别技术又有所不同。指纹与虹膜识别技术无论在何种情景下都须由主体主动进行才能完成信息采集[4],属于强制性认证方式;人脸识别技术则分为两种情况:第一,某些公共场所以及除公共场所外的其他个人应用场景,如机场车站闸机人脸识别、人脸识别支付等同样属于强制性认证方式;第二,某些公共场所的人脸识别则属于非强制性的认证方式,可以在人完全不知情的情况下就完成信息的采集,例如视频监控等。欧盟官方的监管动态禁止的正是第二种非强制性认证的人脸识别。此外,公共场所的人脸识别即使在主体知道的情况下,也存在难以获得主体的明示同意,更难以认定同意的有效性等问题。公众的同意是否是出于独立意志做出的,远程监控这一方式是否必要都存在争议。欧盟拟推出禁令时也强调,监管者希望有时间来研究如何防止该技术被滥用。
欧洲对于第二次世界大战的历史有非常惨痛的记忆,使欧洲人对人脸识别进行的面容特征采集记录,以及公共场所区域个人活动轨迹的监控记录等问题尤为敏感。
欧盟的法律中明确强调禁止在个人数据处理中泄露个人信息。欧盟对于公共场所人脸识别技术的禁令不仅是防止人脸识别技术被应用于歧视,也是因为在该技术的应用中,已被质疑存在歧视等问题。有研究表明,人脸识别针对不同种族的准确率差异巨大。该研究选择了微软(Microsoft)、国际商业机器公司(IBM)和旷视(Face++)三家人脸识别API。在识别人物性别方面,识别男性人脸的表现优于女性人脸;在识别肤色方面,肤色较白人脸的表现优于肤色较深的人脸。识别肤色较深的女性表现最差[5]。美国国家标准与技术研究所(NIST)2019年发布的一篇报告表明,在一对一的匹配中,与识别白人面孔的准确度相比,许多算法在识别非白人面孔时存在10倍到100倍不等的错误率。在一对多的搜索中,大部分算法在识别某些特定人群时匹配错误的比率明显高于其他人群。一对一匹配的失败只会导致功能暂时无法使用,通常可以通过多次尝试来解决,但是一对多搜索的错误则会导致该群体被错误指控为可能犯罪群体的风险大大提高[6]。这有可能进一步加剧或扩大警方执法过程中的种族偏见等问题。特定群体在自由选择时可以选择不使用人脸识别方式,但是公共场所远程监控人脸识别技术的应用,则可能给特定群体带来无法避免的不便。
上述问题实际上是一种算法偏见。一方面,从人类基因和人脸识别技术角度来看。对于基于RGB(Red、Green、Blue)可见光的人脸识别技术来说,肤色越深面部的特征信息越难提取;另一方面,人脸识别技术作为一种人工智能,依靠的就是数据和算法,在人脸识别技术的数据训练中,对女性及深肤色人群的可训练数据量较少。面向不同市场的公司在不同人种识别上的表现也有所不同,进一步说明了训练数据集对于人脸识别准确性的重要影响。针对一些研究,相关公司的回应也集中于优化算法以及增加训练数据,虽然错误率相比研究的结果有很大下降,但肤色较深女性的错误率仍然是所有人群中最高的[7]。算法偏见问题难以在短时间内得到解决。
从法律层面来说,现有的立法中存在诸多不足。GDPR将生物识别数据定义为:“与自然人的身体、生理或行为特征相关、经特定技术处理而产生的个人数据,这些个人数据可用于确认该自然人的独特身份。”定义强调的是“经特定技术处理”的数据,由此使视频监控抓拍记录的人脸信息等被排除在外。视频监控在公共场所有着广泛的应用,所采集的数据却难以被划分到合适的类别当中。虽然GDPR禁止以识别自然人身份为目的的生物特征数据的处理,但仍然存在例外情况的规定,例如数据明显公开、出于重大公共利益目的等。同时,例外情况存在模糊性,在实际操作中也往往会引起诸多争议。因此,现有的人脸识别法律中无论是适用范围还是例外情况的规定,均难以适应公共场所人脸识别愈发广泛的应用及其快速发展带来的隐私安全挑战。在提出禁令时欧盟委员会也表示,可能需要引入新的严格规定,以加强保护用户隐私和数据权利。
从技术层面来说,如前文所述,基于RGB可见光的人脸识别技术对于深色人种的识别存在硬伤,这一问题很难得到彻底解决。同时,算法优化以及训练数据集的平衡性在短时间内难以得到实质性改善。此外,在目前对于人脸识别技术的研发中,关注点大多集中于商业模式中的个人人脸识别,对于公共场所使用的人脸识别技术保障较少,公共场所人脸识别系统往往需要和私营企业联合,由此给管理上带来了更多的不确定性和风险。2019年6月,美国海关和边境保护局(CBP)大量旅客照片和车牌照片泄漏事件便是由于外包公司不当上传数据,进而被黑客攻击导致数据泄露。同时,如何平衡保障技术的研发及普及成本也是亟待解决的问题。
欧盟拟发布的公共场所人脸识别禁令受到了民权运动者的欢迎和支持,安全界对此却持反对态度[8]。正如前文所述,该禁令是在呼吁停止警方使用实时面部识别进行公共监控的情况下提出的。直接禁止公共场所人脸识别技术的使用可能是最直接解决该问题的方式,却无法从根本上解决该问题。
人工智能等技术发展更新的速度极快,如何促进技术的应用和规避相应风险始终是一体两面的事,无法割裂来看。无论是技术漏洞的弥补还是相关法律法规的制定都有相应的滞后性,但这不应成为禁止使用的原因,如若禁止使用,即使在若干年后依旧会产生同样的问题,缺乏数据的人脸识别技术也无法获得发展与进步。相反地,应当在加强监管的同时充分激发技术的活力,应当在实际的应用中不断发现新问题,并研究相应的解决方案,进行持续的监测和评估。同时,不同的应用场景有其特殊性,彼此之间难以直接借鉴,如果直接禁止公共场所的使用,不仅无法完善该技术在公共场所的应用,更会使该技术的发展陷入僵局。《人工智能白皮书》中也指出,考虑到人工智能的迅猛发展,监管框架必须为适应将来的发展而留下空间。
欧盟作为具有超国家性质的行为体,不仅要从用户个人的角度衡量人工智能系统的影响,还应将欧盟国家作为一个整体进行考虑。《人工智能白皮书》强调,为了达到足够的规模并避免单一市场的分化,必须采用统一的人工智能路径。因此,欧盟的相关文件适用范围较广,需要在兼顾不同成员国法律规定的同时促进欧洲人工智能产业发展。
《人工智能白皮书》指出,人工智能技术应用领域广泛,经济潜力巨大,但欧盟在人工智能研发和应用方面已经落后于美国和中国。欧盟始终在尽力缩小人工智能技术方面与世界领先水平的差距,包括“数字欧洲计划”的投资等。欧盟委员会执行副主席Margrethe Vestager表示,人工智能等数字战略的出台,为欧盟提供了成为世界先进技术领导者的第二次机会。
首先,从欧盟人工智能产业发展需要来看。人工智能是数据、算法和计算能力的技术集合,人工智能依靠的核心就是算法,而算法的核心便是数据。因此,促进算法的进步并提高数据可用性是人工智能技术发展的关键驱动力。人工智能深度学习需要强大的数据集作为支撑,算法本身的进步也依靠于更为广泛的数据集的训练。欧盟想要发展当地的人工智能产业,必然需要更高效地利用数据创造价值。此外,数据的形成一般分为采集、存储、加工处理以及使用等环节。欧盟GDPR关注的重点在于能否使用生物识别数据[9],禁止的是以识别自然人身份为目的的数据处理行为。如果欧盟禁止公共场所的人脸识别技术,那么切断的便是数据的采集环节,进而会从根本上截断数据的形成。因此,欧盟即使对公共场所的人脸识别严加监管,也并不会实行全面禁止,只会限制特定目的及处理行为,例如执法以及远程监控等,这些方面主要会对其政府产生影响,而不会严重阻碍其本地产业的发展。
其次,从欧盟及其成员国的情况来看。欧盟缺乏统一的监管制度框架,成员国规定各有不同,如何在欧盟层面进行统一便成为重中之重。从其他国家的实践来看,全球范围内,提出人脸识别相关禁令的多为一个国家的某个城市或洲,有的限于特定的机构和场所。例如,2019年5月14日,美国加利福尼亚州旧金山市禁止市机构和执法机构使用面部识别技术;2020年7月22日,美国纽约州立法机关通过了2022年前禁止在学校中使用人脸识别和其他生物特征识别技术的法令。目前尚未有在全国范围推行的全面的人脸识别禁令。欧盟作为具有超国家性质的行为体,则更难以在该问题上发布统一的禁令。从欧盟内部来看,其拟推出禁令时就被质疑可能会使一些成员国当前的人工智能项目偏离轨道,例如德国希望在134个火车站和14个机场推出自动面部识别;法国计划允许视频监控系统嵌入面部识别技术等。如果欧盟无法成功提供一个适用于欧盟范围内的方法,而直接推行禁令的话,反而会面临欧盟内部市场被割裂的风险。《人工智能白皮书》中强调,一个针对可信赖人工智能的欧盟监管框架将保护所有欧洲民众,并且有助于创造一个平稳的市场,这不仅有利于人工智能的进一步发展和应用,也将巩固欧洲人工智能的工业基础。
无论哪个国家,都希望能够建设自己的信息市场,而不是被国外巨头支配垄断,这也正是欧盟关注的重点问题。欧盟一直没有属于自己的可以与国外互联网巨头相抗衡的企业。因此,欧盟近年来的方向是突出强调高标准的数据保护,成为世界监管超级大国,由此开辟自己在数字经济中的发展空间,打造数字单一市场,对抗外国巨头企业。但是,对于建设欧盟的数字主权来说,仅仅成为监管大国是远远不够的。正如意大利国家创新基金主席Francesca Bria所言,“欧洲需要继续作为一个全球经济体发挥作用,而不仅仅是个监管权威”[10]。
此外,以人工智能为代表的新兴技术正使网络安全与国家安全日益紧密地交织在一起,各国也在纷纷加强对于数据的控制权。欧盟需要作为一个整体,推进成员国构建信任机制,协同建设数字主权。因此,禁令一出必然使欧洲本地的相关企业遭受打击,不仅不利于促进本地企业的发展,反而有可能为外国企业提供契机,削弱欧盟对于数据的控制权。如果欧盟对公共场所的人脸识别进行全面禁止,则在一些必要的例外情况中,例如出于国家安全利益等,反而会涉及更为重要的数据信息,外国企业一旦承担相关业务,将使欧盟更加被动。可见,欧盟面临的最大挑战,也是数字主权建设的根本问题,就是如何培养出属于欧盟自己的互联网企业,为其提供产品和服务。因此,欧盟保护本地人工智能产业不仅出于数字经济发展需要,更出于国家安全利益的考量,旨在通过建设经济主权和技术主权来推动欧盟的数字主权建设。
据前文所述,欧盟在正式发布的《人工智能白皮书》中最终选择了删除公共场所人脸识别禁令,其根本原因在于欧盟推动数字主权建设的需要。未来,欧盟必然会同时强调监管能力与技术发展两方面内容。
首先,从监管能力方面来说。欧盟必然继续以更为审慎的态度进行监管,将使用人工智能进行远程生物信息以及其他具有侵扰性质的监控技术划定为“高风险”,对其进行强监管,严格要求只有在目的正当、使用必要、采取充分保护措施的情况下方可使用。此外,欧盟在监管上必然会更多地听取成员国的意见,努力在差异中寻求共性。面对公共场所使用人工智能可能带来的社会担忧以及内部市场分裂的风险,欧盟必然就如何划定例外情况及保障措施等开展广泛讨论,并进一步在该领域探索出属于欧盟的监管框架。因此,抢占全球数字规则制定主导权,构建可信可控的人工智能发展环境,进一步维持其监管大国的优势,努力在伦理规范上产生更为广泛的国际影响必然是欧盟未来继续保持的方向之一。
其次,从技术发展层面来说。欧盟必然不会满足于只做一个监管大国。正如“裁判永远不会赢得比赛”,欧盟需要不断促进本土企业创新发展,重视自身关键基础设施建设,打造属于欧洲的大型互联网企业,发展自身的数字经济,进而强化欧盟对于数据的控制权,推动数字主权建设。同时,面对新冠疫情对全球经济发展的冲击,以及人工智能在数字经济中发挥的重要作用,欧盟对人工智能技术必然会采取积极的态度。事实上,欧盟所有的监管措施,目的都不在于禁止,而是希望人工智能更好地为其服务。2021年1月28日,欧盟第108号公约委员会发布了《面部识别技术指南》,其侧重点在于通过细化规定加强监管,实行高标准的隐私保护而不是直接限制技术的使用,强调促进技术的发展完善。同时,欧盟官方监管动态中对于公共场所人脸识别禁令也都是限于特定的使用目的,且越来越明确,对于执法及远程监控生物识别方面进行严格限制。因此,欧盟并不会全面禁止公共场所的人脸识别,只会对特定目的予以限制。
欧盟整体的网络安全治理一直呈现出治理规则严密化以及治理内容精准化等特点[11]。在公共场所的人脸识别应用上,欧盟之后的战略发展也必然延续此方向。但是,对于欧盟来说,在监管的同时充分挖掘并利用数据的价值,在继续抢占全球数字规则制定主导权的同时不断加强技术的自主性,通过建立可信可控的数字环境,协调各成员国共同推动欧洲本地数字经济及人工智能产业的发展,从而推进数字主权的建设,才是其发展的根本目标。