刷脸识别中的技术伦理检视及法律规制

2022-03-18 11:36纯,叶
关键词:规制层面信息

单 纯,叶 茂

(中国政法大学 人权研究院,北京 100088)

技术的日新月异,带来了社会的颠覆式革命,而社会发展的适时需求又可能在某种程度上扩张技术与社会的融合度。早在20世纪60年代,刷脸识别技术就已在欧美等国出现,当时仅是将刷脸识别的特征算法应用于一些基本模式识别范畴,但这一创举,为后续在感知和认知等层面的深入研究提供了经验(1)曹林:《刷脸识别与人体动作识别技术及应用》,电子工业出版社,2015年,第17-20页。。21世纪以来,伴随大数据、人工智能、深度学习理论的不断深入,刷脸识别技术日趋成熟,更能满足快速且精确的识别要求,被应用于更加广泛的领域,市场规模随之愈发庞大。据统计,全球刷脸识别技术市场规模接近24亿美元(2)前瞻产业研究院:《2019-2024年中国人工智能行业市场前瞻与投资战略规划分析报告》,https://bg.qianzhan.com/report/detail/0f7d941086dc4e1f.html,2019年10月16日。,我国市场规模直逼全球市场份额的20%(3)中商产业研究院:《微软删除全球最大公开刷脸识别数据库?2019年刷脸识别行业产业链分析及发展趋势预测》,https://www.finance.eastmoney.com/a/201906111147898694.html,2019年6月11日。。在法教义学分析框架下,目前我国虽然尚未明确“刷脸识别技术”的内涵和外延,但学界通常选择自然科学的概念释义用于身份核验的生物识别技术,即通过“自动定位、跟踪采集、比对提取、分离存储”(4)蒋洁:《人脸识别技术应用的侵权风险与控制策略》,《图书与情报》,2019年第5期。等环节录入数据,并在相关数据库中运算、分析对比,最终靶向特定个体。当将此概念回溯于自然科学领域时,不难发现,由于技术发展水平和各国国情的差异,各国关于社会科学领域的特定研究多有分歧,就刷脸识别技术而言,其相关探讨即是由同一的自然科学领域概念延伸至差异的社会科学领域制度。可见,自然科学是刷脸识别技术的共同基石,各国存在共同的应用场景和价值体系支撑;技术视角的反思则更具普遍性。

一、刷脸识别技术的应用场景及应用价值

(一)界分政府与非政府维度的应用场景

刷脸识别技术投用到社会中,基本是以识别身份作为起点;而在安防、支付、交通等领域的诸多应用,均是基于识别身份维度对技术应用的二次拓展。从数据收集者的层面,可将刷脸识别技术的应用场景分为政府层面和非政府层面。政府层面的刷脸识别多用于公共安全或社会需要,其数据收集能力较为成熟。政府层面的数据收集大致可分为两个层面:第一层面即行政执法维度,特别是在刑事侦查中的应用十分广泛;第二层面即行政管理维度,刷脸识别技术几乎渗透到行政管理的各个方面,涉及安防、交通、智慧门禁等场域,并且其实践表现可圈可点。政府层面的数据多服务于政府的日常性工作或执法类业务,其逻辑为技术权力辅助行政权力的行使,如此一来,对个人权利的侵害基本可以寻求行政权自身构建的权力框架解决。

与以公共安全或社会需要为缘由的政府层面的数据采集不同,非政府层面的数据采集多以安全、便捷作为收集数据的“正当性”理由,如刷脸识别支持下的移动支付,主要是出于对用户资金安全和提高用户体验的考量。以商业银行为例,无论是传统以“账号+密码”进行身份认证的方式,还是以动态口令牌认证的方式,都存在遗失或被盗风险,无法完全保证账号、密码或动态口令持有者即是用户本人,而刷脸识别技术所具备的不易被盗或伪造、不会丢失等优势便可以很好地解决这一系列问题,进而保障用户的资金安全(5)张青:《商业银行应用刷脸识别技术的场景探析》,《金融纵横》,2018年第10期。。同时,刷脸识别还能极大地提高用户的使用体验,并在一定程度上分担社会责任和管理职责。如小区广泛应用刷脸识别技术是为了保障小区业主的安全;腾讯公司在游戏产业率先布局刷脸识别技术,强化对未成年人游戏时间的管控,既符合网络游戏监管规范的要求,又革新预防未成年人沉迷游戏的企业责任与行业标准(6)腾讯:《王者荣耀率先启用刷脸识别验证!腾讯未成年防沉迷接连出招》,https://tech.qq.com/a/20181128/012025.htm,2018年11月28日。。可见,非政府层面的数据采集主要以应用价值作为导向与驱动。

(二)安全、便捷及信任传递的应用价值

安全是技术发展的基石,在价值体系中体现为基础性价值,刷脸识别技术亦然。刷脸识别的基本价值定位即安全,通过刷脸识别,形成相对甚至完全准确的身份识别,进而快速进行社会生产的诸多环节,使得后续所有的社会机器运行都建立在较为安全的基础身份定位之上。随着经济社会的发展和互联网技术飞跃式的革新,人与人之间、人与社会之间的联系日益密切与复杂,国家机器运行的复杂性要求个体作为社会中的一员必须具备高度准确的可识别性,进而实现平稳快速运行,而刷脸识别则依据其独特性的优势,较之其他的身份验证方式更为准确。人脸信息的独特性与不可复制性,为人们的财产安全等方面提供了极大的可信赖感的保障。在个体不断被符码化的数字社会,人脸的独特性、方便性、不可更改性、易采集性、不可匿名性和多维性,比之于其他的身份验证方式,安全性较高。刷脸识别虽然技术上并不成熟,但不否认在现行的社会发展状态中,具备弱隐私性的刷脸识别依然是较为安全的验证方式,同时,诸如“刷脸识别+支付口令”的叠加验证也在进一步降低刷脸识别的潜在安全风险。

绝大部分技术的创设大都以便利高效作为驱动力,便捷作为技术的工具性价值符合实用主义功能。刷脸识别的另一优势即是便捷、耗时短、体验优。在2017年上海举办的物流开放大会上,蚂蚁金服公司宣布在快递物流行业投用刷脸识别技术,即消费者在与支付宝合作的快递自提柜上可实现“刷脸取件”,无接触且尤为快捷(7)新华社:《“刷脸支付”之后“刷脸取快递”也来了》,http://www.xinhuanet.com/2017-09/18/c_1121681675.htm,2017年9月18日。。刷脸识别技术因极大节省时间而被广泛应用在社会的各行各业,如刷脸进站、刷脸支付、刷脸验证权限等。

社会发展的基础驱动是人类社会的信任传递,社会发展的速度也取决于信任传递的成本。在古代,个人之间的信任主要是通过家国理念下所搭建的宗族、邻里之间的小家庭之间建立。简单的血缘和地缘是建立信任的基础,此时建立的信任感较为“脆弱”,信任传递的成本也较为高昂,人们无法脱离一定的地域建立广泛的信任机制。当工业革命打开了世界近代史的大门,传统的手工业劳动被机器化作业逐渐取代,伴随着革命与改革,传统社会解体,个人之间的信任仍是通过血缘和地缘维系,但人们已经逐渐摆脱了地域限制,人们的可流动空间不断增强,而国家与个人层面的信任机制突破了封建神权、家族皇权的限制,开始转为政治信任,但受制于国家执政能力和民众的思想开化状况,此时的政治信任仍十分薄弱,国家机器尚未建立起行之有效的运行机制。而伴随第二次工业革命、科技革命的发生,人类社会的信任传递成本逐渐降低,身份证、户口档案都成为信任传递的方式,而互联网所创造的虚拟世界又穿凿了不同的信任机制,也使得信任的传递变得迅速且微弱。到今天,虚拟世界与现实世界的关系密不可分,人不断被符码化,物质资料的生产也不断被量化,社会结构不断体系化、网状化,而越能有效纳入更多人与生产资料的组织结构越能降低信任传递成本,进而成为社会发展的必然需求。刷脸支付技术在不断推进,实现了从“裸脸支付”到“戴着口罩刷脸支付”的变革(8)新京报:《戴着口罩能“解锁”苹果手机?刷脸支付安全受拷问》,https://tech.sina.com.cn/it/2020-03-10/doc-iimxxstf7944317.shtml,2020年3月10日。。而刷脸识别以较低的成本实现了网络社会的搭建,人与人之间的交往与联系通过网络运作,但并非完全虚拟,人脸所具备的独特的人文情怀使得网状社会的联系紧密而又不失人文风度。

二、刷脸识别的技术伦理反思

刷脸识别尽管是以算法技术为支持,但其所依据的元数据为人脸。这一特殊且敏感的特性促使关于刷脸识别技术相关问题的探讨不止于法律规则的路径,进而转向技术伦理层面的论证。

(一)技术至上主义冲击人性认知

忧虑和害怕科技可能对人性造成本质的伤害,或者将人类带上万劫不复的歧途,这被称为“新卢德主义”(Neo-Luddism)(9)徐贲:《人文的互联网:数码时代的读写与知识》,北京大学出版社,2019年,第24页。。新卢德主义所提出的是更为本质性的警示:科技正在让人们相信人与机器之间是可以互联互通的,唯技术论正在消弭“人为什么是人”这个根本性问题的意义。技术之恶的原因不在于技术发展水平的高低,而在于机械化的极权主义试图将定量分析运用于人类社会的一切事务,包括对人本身进行量化分析。人类摆脱了宗教神学的束缚,接受了自然科学的量化分析。而自然科学则开启对人与世界的同步探索。科技试图揭示人这一神秘动物的行径从未停止,而人的非人化和机器化也不是数字社会生成的新型异化风险,那么究竟刷脸识别技术对于人的冲击具体如何,又在何种层面对人产生本质性危机?

一方面,刷脸识别对人对真实性的认知造成冲击。在互联网问世之初,人们一直认为互联网为赛博空间,即虚拟世界。互联网与现实世界一直是互相独立却又综合发展的。最初,互联网主要是用于信息交流,人们在互联网上查阅各种各样的信息,进行互联网社交,而网购的出现真正实现了虚拟世界与现实世界的有效链接。人们通过互联网下单,在现实世界收到所购买的物质资料。在互联网与现实世界交汇的同时,也将互联网的虚拟性所引发的对真实性的挑战带入现实世界。当虚假、欺瞒、诈骗、失信不断充斥人类生活,人们需要真实,但是又感觉真实可望而不可即,从一开始的“适应性选择”到日渐习惯,转为“正常现象”。正如当下我们对于数字社会隐私被肆意侵犯的习以为常,隐私权这个概念也得以在数字社会进行“适应性调整”。人类社会赖以存在的基础是真实,人们对真实的需求是构筑人的尊严的基础。早在互联网出现之前,“何为真实”“如何辨别真实与虚假”已是哲学家和伦理学家关注的重大认识和道德问题(10)徐贲:《人文的互联网:数码时代的读写与知识》,北京大学出版社,2019年,第253页。。人性本身的弱点让人们很容易受到蒙蔽,而互联网催生的新型不真实手段让人们难以维系基本的真实,刷脸识别将技术对人类的干预抬升至新的维度,即人们持续赖以相信的“人脸”不排除虚假的可能性,个体信息甄别虚假或识别真实的成本再次提升。尼古拉斯和自己的AI分身一同出现在电视台、朱茵在《射雕英雄传》里扮演的黄蓉被换上了杨幂的脸(11)中国新闻网:《AI换脸技让朱茵版黄蓉变杨幂 以假乱真如何辨别?》,https://baijiahao.baidu.com/s?id=1626634797660715765&wfr=spider&for=pc,2019年3月18日。。虚拟与现实的边界不断被冲击,不真实感直接对人本身发起挑战。

另一方面,刷脸识别对人的认知能力造成冲击。刷脸识别技术与互联网技术相耦合,在更高的层面实现了对个人信息的精确捕获。互联网技术实现了信息的幂数级增长,伴随而来的则是庞杂数据引发的新问题,即数据真实性与有效性问题。个人每天需要借助各种各样的手段进行信息识别,开展自己的社会生活,而信息识别的成本是无法估量的。信息不对称理论是经济学的重要理论,即交易市场中一方的信息不完整可能会给予对方一定的经济增值空间。但在信息爆炸的时代,个体间接入互联网的条件存有差异,个体间的信息鸿沟急剧扩大,技术精英掌握了大量且真实的信息,而普通个人则拥有庞杂却少量有效信息;同时,对于个人而言,进行信息识别的难度逐渐攀升,层出不穷的电话诈骗恰恰是利用了个人信息识别的较高成本。刷脸识别技术出现之前,由于尚未明确信息的主体,技术精英对掌握的信息难以达到较高的精确度,概因其掌握的皆为数字信息,缺乏真实有效的连通。受制于技术脱敏的要求,技术精英很难以合法且正当的理由获取精确信息,其与个人之间的沟通是构建于数据分析和推测之上的。然而,刷脸识别技术有效地构筑了数字精英与个人的桥梁。人脸的绝对不可复制性虽然受到质疑,但较之传统的信息识别方式,其在准确率方面表现更加优秀。如售楼处所使用的人脸识别系统,可以极为迅速而准确地收集不特定个体的全部信息,这是仅依靠间接算法分析的传统方式所难以获取的。

(二)互联网发展异化与内耗瓶颈

互联网最初是在APRA(阿帕网,美国国防部研究计划署)制定的协议下诞生的,起始于1969年,最初仅为了提供通信网络。直至1987年,互联网才被引入中国,而互联网引入中国的这30余年发生了翻天覆地的改变。其中,人们广泛接受了新经济基本要素的内容,例如,确定了免费广告增值的模式,深度挖掘了作为基本生产资料和企业资产地位的数据,推广了作为新型信息基础设施的“云-网-端”框架,形成了脍炙人口的“分享经济”“双创”等主流意识形态(12)何渊:《数据法学》,北京大学出版社,2020年,第21页。。可见,互联网及相关企业依据“以低成本获取免费内容或劳动力”作为发展的基本路径。

在起步阶段,互联网有赖于商业的资本渗透,原始的互联网行业秩序较为混乱,通过使用大量未能取得知识产权的产品如图书、音乐等吸引用户,借助电子化形式形成原始客户积累。一方面将非数字化的产品数字化,为后续产品进一步升值预留空间;另一方面为互联网打上“免费”的标签,二者形成下意识的条件反射,为后续中国互联网发展模式奠定基础。换言之,在互联网起步阶段,原始的资本积累是通过挤占现实世界的知识产权完成的,通过对书籍、音乐等资源存储方式的革新,挤占知识产权的生存空间,最终完成前期的用户习惯塑造。伴随国家知识产权保护力度的增强,互联网企业转而激发用户的自我活性,依托前期积累的大量用户,鼓励用户为互联网创造、创新作品,实现用户与互联网的深度捆绑。这种将用户身份转为“产消者”的做法,最大限度地减少了互联网企业的人力成本投入,增加了用户黏性,这也是当下数据权属争论不休之所在,同时也催生一种新型的生存方式,即数字性质作品对物理性质作品的突破,大批量生产进一步降低成本。此外,传统经济学理论中的传统生产组织——企业的边界不断消融,价值上形成一条长尾链条(13)何渊:《数据法学》,北京大学出版社,2020年,第21页。,带来经济理论的创新,也为共享经济提供经验。从生产工具维度看,互联网的最初设计是去中心化的发散式架构,通过个人电脑和操作系统的不断创新,互联网获得不断的自我成长与革新,不断创造新型文化(14)何渊:《数据法学》,北京大学出版社,2020年,第23页。。故当发展到一定阶段,互联网产品理念由侵犯版权到主张版权演化,无序状态向合法合理规制发展。有序的互联网秩序的建构需要基于强烈的版权意识与安全稳定的外部环境之上,即网民与消费者甚至以牺牲生成能力为代价,提出对于安全秩序的需求。

互联网发展的异态化与数据时代的数据技术并没有呈现强强联合的效果,反而处于内耗瓶颈的状态。当下,移动终端发展火爆,互联网的地位稳固,逐渐由单一性的信息分享平台向金融、人力、实物的层面推进。传统的经济要素——金钱、劳动力、实物资源凭借技术手段实现抽离,平台逐渐成为社会资源流动的新方式。“互联网的本质是以低成本利用社会中的生产资料和劳动力,积累其使用和匹配的数据”(15)胡凌:《“非法兴起”:理解中国互联网演进的一个视角》,《文化纵横》,2016年第5期。,而平台作为一种信息的中介,尽量减少信息识别的成本,最大限度地促进资源流动,而数据资源的理念是在此种模式下被抽象出来的。较之传统的金融、人力资源,数据资源的价值产能则依赖于社会的发展,这也能解释为何数据的诞生是在用户身份的“产消”阶段,而数据资源的利用却是在移动终端火爆的当下。纵观互联网发展的历史,我们可以看到,前期互联网通过对知识产权层面的掠夺实现用户的积累,后转而开发用户的自主活性,充分利用用户的自身创造力与数据,如京东等应用对用户的购买、搜索记录通过大数据分析,进而形成定向推送,B站等平台通过用户自己上传原创视频吸引更多用户的方式变现。遍布各地的终端成为数字经济的分享工具与生产工具,但由于数字经济始终以线上生产超越或替代线下生产,从而实现劳动成本的无限压缩。但数据行业确权的艰难与利益复杂本身就与互联网的发展方式相关联,即互联网初期对于线下产品的盗版与实现用户身份转向“产消者”决定了数据行业权属确定的复杂与混乱。

与通常移动端应用获取数据的信息不同,刷脸识别直接关涉用户敏感的生物信息。互联网与数据技术的耦合使刷脸识别技术面临新型数字化挑战,正如当下针对刷脸识别涉及的技术伦理问题俨然已经引起了技术投用国家在公共领域层面的警惕。如美国个别州通过条例禁止或限制政府采用人脸识别的管理行为(16)“2019年5月,美国旧金山市监督委员会(Board of Supervisors)通过《停止秘密监控条例》(Stop Secret Surveillance Ordinance),禁止该市所有政府部门(包括警察局)使用刷脸识别技术。此外,该条例要求市政府各部门披露其目前使用或计划使用的任何监控技术,并说明有关隐私政策,并需要获得监督委员会的批准。”参见邢会强:《人脸识别的法律规制》,《比较法研究》,2020年第5期。,欧盟对人脸识别后的数据设置了严苛的防护等级。

(三)人类社群与技术社群的颉颃

自人类诞生以来,人类历史发展与技术的使用就密切相关。通过对火的使用,原始人获得熟食,使寿命延长;通过使用工具,人类成为区别于普通动物的高级动物;通过进行基本的运算,人类训练自我的思维,创设更多的生产资料。认知革命、农业革命、科学革命推动人类的自我发展,人类的自我发展又推动社会的不断前进。在人类发展史中,技术社群从诞生之初就服务于人类社群的发展,而可以明显看到的是人类社群与技术社群奉行不同的价值取向。人类社群的价值取向是自由,无论是社会契约理论或是天赋人权理论的提出,历史演进的强大驱动力在于人对自由的不懈追求,自由本身即是一个政治哲学概念,就法律层面而言,自由即意味着法律未予以禁止。显然,关于法律层面的自由缺失一定的价值意义,只有上升到政治哲学的维度,自由的价值才能得以凸显。就人类社群的自由理念而言,从康德关于自由、上帝、不朽的讨论,到罗斯福的四大自由理论,再到以赛亚·柏林的两种自由理念,尽管关于自由的讨论从未停止,行为层面的自由边界在各种理论上有所分歧,但可以看出,在哲学层面的自由探讨从未脱离人的本体论前提。

技术社群则以规范作为唯一的价值趋向,统一协调是技术社群孜孜以求的目标。尽管东西方文化存在差异,但是作为基础技术支撑的数学是共同的话语基础。人类社群由于不同的文化地域而存在不同的政治制度、风土人情,但“科学无国界”下的技术社群超越国别差异,其最终目标则是为了规范。技术社群的本质在于反复验证,技术运行的结果不受到个人因素的侵扰,而这种规范必将牺牲一定的自由。众所周知,物理公式与数学符号属于定理——唯一且确定,也就意味着技术社群的出现本就是为了压制一定的自由,从而形成统一的规范。伴随社会发展与人自身的复杂性,一定程度上的统一成为社会的共同需求,正与技术社群奉为规范的最终目标相契合。技术的规范让人类生产生活的效率极大提高,在某种程度上满足了人类对于更充分自由的向往需求,互联网的出现使得人类可以自由地进行跨越地域的流动。同样,算法决策与其说是一种政治哲学,毋宁说是“以私有财产权、个人自由、不受阻碍的市场和自由贸易为特征的制度取代基本正义和福祉为特征的制度,通过网络机构和人工智能培养个人选择美好生活的能力来最大程度地提高个人福祉”(17)陈姿含:《公共领域算法决策的几个问题探讨》,《理论探索》,2020年第3期。。但技术社群以规范的可解释性与可重复性为唯一的价值趋向对人类社群产生了巨大冲击。技术社群在某种程度的统一是一种控制,它试图从知识来源到最终的价值观形成层面最终影响理性人的塑造。在互联网时代之前,人们对技术的应用更多停留于工具论的层面,技术对人类生活的干扰多波及生活层面,而互联网时代彻底颠覆了人类的读写方式和思维方式,算法推送有选择地为人类提供偏好知识,并最终影响理性人的构建。

技术一方面提高人的自我发展,但其规范统一本身也是对理性人的多样性的冲击。技术原本仅为人类征服自然的科学方法,却成为人类统治人类的概念和工具。正如当下算法决策的应用,其基础原理是对于现实生活的生产要素的量化统一与抽象,基于此种机制,算法决策引发了人们对社会公平正义、平等权利的探讨。这也正可以解释“技术中立”受到挑战的根源:技术本身就是试图对理性人的多样性进行挑战,实质为人类社群与技术社群的颉颃。

三、基于刷脸识别技术伦理的法律规制探索

刷脸识别虽然在世界范围内得到广泛投用,但各国或地区关于刷脸识别的规制手段略有不同。作为技术先行者的美国,区分技术使用的主体,从政府部门与非政府部门两个层面出发,设置了不同的规制路径。对于政府层面的规制,采用禁用、特别许可和任意使用三种方式;而针对非政府层面的规制,则以一般个人信息保护的程度为基准,区分为严格于一般个人信息保护和等同一般个人信息保护两种方式(18)邢会强:《人脸识别的法律规制》,《比较法研究》,2020年第5期。。欧盟在数据保护方面一向审慎,尤其是GDPR的推出适用,由此,欧盟关于刷脸识别规制则采用公私等同的规制模式,未区分技术使用主体,并未分别设置不同保护等级予以规范。

目前,我国尚未在基本法律层面对人脸识别技术应用作出系统规定,仅在司法解释层面对民事案件中人脸识别技术作出具体规定(19)2021年7月27日,最高人民法院发布《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,并于2021年8月1日正式施行;从侵权责任、合同规则以及诉讼程序等方面,对使用人脸识别技术中涉嫌侵犯信息主体人格权的情形以及相应的民事权益救济进行了全面的规定。。然而,我国就信息保护建构了位阶差异的法律体系,如《中华人民共和国民法典》将“生物识别信息”作为个人信息的下位概念应当受到保护予以明确(20)《中华人民共和国民法典》第一千零三十四条:“个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等。;在《个人金融信息保护技术规范》中,生物识别信息被列入敏感度最高的C3级别信息(21)《个人金融信息保护技术规范》第四章第二节第a项:“C3 类别信息主要为用户鉴别信息。该类信息一旦遭到未经授权的查看或未经授权的变更,会对个人金融信息主体的信息安全与财产安全造成严重危害,包括但不限于:用于用户鉴别的个人生物识别信息。”;个人生物识别信息载明于《信息安全技术个人信息安全规范》,并被明确规定为个人敏感信息(22)《信息安全技术个人信息安全规范》第三章第二节注释1:“个人敏感信息包括身份证件号码、个人生物识别信息等。”。加之施行的司法解释,我国厘定了人脸信息到生物识别信息到个人敏感信息到个人信息的法律概念上下位图谱。尽管已有针对刷脸识别技术引发权利侵害的法律救济,但相关司法解释终究是参与案件的指引,远不能满足刷脸识别技术在社会各个领域投用及庞大市场份额的需求。

(一)施行规制的理论支持

目前,关于刷脸识别技术的规制存在三种理论,即“场景正义理论”“风险预防理论”与“同一与差异的辩证规制原理”。

从一定程度上来讲,场景正义理论与司法的场域正义存有相同的构成要素,即发生的空间(场景与场域)与追求的价值(正义),换言之,此两点构成要素是形塑场景正义理论的关键。由此,致力于隐私保护的场景理论认为,“场景正义(contextual integrity)意味着信息保护与信息流动在特定的情景中应符合各方的预期”(23)Helen Nissenbaum, Privacy as Contextual Integrity, Washington Law Review, 1(2004).。如场景理论开拓者Helen Nissenbaum提出,人们对普及的人脸识别型监控技术怀有敌意,且这份敌意具有相当的合理性。一方面,信息转移离不开信息汇编和组合过程,信息被信息组合抽离出原本适合场景,并被嵌入不被信息主体了解的场景中,这无异于对信息原本“场景主义”的拆解;另一方面,信息的组合同样存在着巨大的危害。虽然信息主体不会因为零散的信息泄露造成太大的损害,但是信息组合体一旦被信息组合、汇集完成后,其他个体将会牢牢记住信息主体,进而将打破信息主体享有的宁静生活(24)海伦·尼森鲍姆:《信息时代的公共场所隐私权》,见张民安编《公共场所隐私权研究》,中山大学出版社,2016年,第82-83页。。场景理论实则强调了信息组合对原有场景的干扰,导致原有场景正义失衡,最终干扰每一个信息主体。总之,场景正义理论不能脱离场景寻求正义,而正义的实现也无法与场景相剥离。

风险预防理论依风险的认知不同可分为两类,即强风险预防理论和弱风险预防理论。强风险预防理论认为只有在确定完全没有危害的前提下才可以开展某一活动;弱风险预防理论则认为在缺乏充分确定性的情况下,风险不能作为延迟采取预防危害措施的理由(25)彭峰:《环境法中“风险预防”原则之再探讨》,《北京理工大学学报》(社会科学版),2012年第2期。。而弱风险预防理论基于危害后果程度,针对风险预防理论衍生出严格解释与宽松解释的不同方法,即就风险预防理论的解释而言,对于危害较大但发生概率较小的技术作出相对严格的解释;而对于危害不大但发生概率较大的技术作出相对宽松的解释(26)Understanding and Applying the Precautionary Principle to Deep Sea Minerals Mining in the Pacific Islands Region, A Socio-cultural and Legal Approach, https://www.sprep.org/attachments/2012SM23/english/noumea-convention/11N.4.1._Annex_1_Prec_Princ_and_DSM_mining.pdf, Oct. 29, 2019.。目前,就刷脸识别技术而言,技术本身造成的风险或许较小,但人脸信息泄露带来的损害程度不可估量,已有学者指出预估人脸信息泄露造成的损害较大,故应作从严解释(27)邢会强:《人脸识别的法律规制》,《比较法研究》,2020年第5期。。但需要明确的是,严格解释下的风险预防理论并非绝对禁止技术的设计、开发及投用。另外,风险预防理论要求针对危害发生状态动态化调整相关举措,对于发生可能性较小的危害采用防止措施,对于发生可能性较大的危害施行努力遏制或减少的方案。具体来讲,风险预防措施不限于对技术实践的限制、增强技术系统的韧性、危害控制手段与对技术的全面禁止。诚然,最终的选择永远是基于价值考量的(28)United Nations Educational Scientific and Cultural Organization, COMEST Reports on The Precautionary Principle, COMEST Reports (unesco.org), Dec. 11, 2020.。可见,依据风险预防理论所作出的决策具有临时性,必须适时进行调整。

马克思主义矛盾论是同一与差异的辩证规制原理的重要渊源,唯物辩证法的普遍性与特殊性原理是其联系实际的表现;同时,同一与差异的规制原理可溯源于经济法中的差异性原理。差异性原理主要强调两点,一是在现实的经济社会生活中,由于各类主体在各种方面存在着差异,导致出现了市场失灵、经济失衡等问题,进而影响了经济稳定增长、基本权利保护及社会公益保障,这些问题便需要以法律手段,尤其是经济法的调整来解决;二是主体均质性或无差异性是传统民法的前提,所以,这些差异性问题不能在制度功能上被有效解决,而是需要通过新兴法律制度来调整,尤其需要经济法以弥补不足(29)张守文:《经济法原理》,北京大学出版社,2013年,第8-10页。。由此,从经济法差异性原理出发,同一与差异的辩证规制原理存有基于普遍性与特殊性的考量:一方面,应当认识到法律的规制对象间存在具有普遍性的同一,并对其进行同一性规制,如避免规则洼地或监管套利的后果;另一方面,不能忽视受法律的规制对象拥有普遍性的差异,并根据其特殊性进行多样性且符合科学的规制,以符合其差异化特征,从而避免“一刀切”。可见,同一与差异的辩证规制原理能够兼顾技术实践的不同场景、差异风险与技术自身的应用价值。

(二)刷脸识别的规制方案

1.以同一与差异的辩证规制原理为指引

就上文论证来看,刷脸识别技术所引发的风险或问题,多属于信息泄露问题引发的二阶问题,故对刷脸识别技术的规制,应当理论先行,即服膺于公民个人信息保护层面的技术支持理论。显然,技术支持理论根据应用场景存有差异化的适用特性。场景正义理论所显示的技术风险存在于每类信息泄露场景中,由此无法单独作为刷脸技术的理论支持。而风险预防理论则给予了风险控制者较大的操作空间,这也解释了为何美国不同州针对刷脸识别技术采用了截然不同的规制态度,概因对于风险的估量不同。无论是普通的信息泄露或诸如人脸的敏感信息泄露,均难回应的一个难题便是信息泄露风险的范围究竟有多大,可见,对于此难题的解构或许可以引入法经济学分析的相关视角。然而,一旦进入法经济学分析的维度,必然涉及“效益衡平”的问题,并最终将风险预防理论带入如何确定人的经济价值与其他生产要素的经济价值的困惑中。

不难看出,以同一与差异的辩证规制原理为指引能够抹平场景正义理论与风险预防理论的局限性,并兼顾二者的优势;同时,对刷脸识别技术生成的技术难题作出解构与回应、技术风险作出预防与控制、技术体系作出塑造与建构。确切来讲,同一与差异的辩证规制原理可以较为有效地提取前述两种理论的有益成分,具体而言:第一,人脸信息与其他的一般信息属于信息图谱的法律概念,具有相同的特点,它们在数据学习和数据处理层面并未有所差异,即使在场景正义的维度依旧具有同样的诉求;第二,人脸信息与其他的一般信息属于信息图谱的下上位概念,人脸信息被一般信息所包含,换言之,人脸信息较之其他的一般信息存在特殊性,人脸信息直接关乎人的尊严、人的价值等政治哲学层面的价值观。由此一来,同一与差异的辩证规制原理可以囊括场景理论与风险预防理论,并针对不同应用场景或生成风险适用针对性的理论。如当商业应用与政府应用需要识别人脸信息,二者在数据采集、防护及使用目的存在不同的要求与价值时,即适用场景正义理论;当涉及人脸信息之于个体的风险性,构建普遍适用的安全与责任底线时,即运用风险预防理论;当对比存有差异性的人脸信息商业化应用与政府公益化应用,并进行差异化的规制时,即在风险预防中运用场景正义理论。

2.明确人脸识别技术的使用边界

人工智能技术的应用风险总是难以避免地谈及边界,概因技术的发展诉求与社会系统的天然矛盾,这同科技的前置性与法律的滞后性关系类似。人工智能技术总是在试图突破工具论,达到“类人”层面;而社会系统则是以人为中心构建属于不争的事实。人类摆脱对族群的依赖,走出“族群本位”而进入“个人本位”时代,是借助“人权”这一理念完成的(30)齐延平:《“个人本位”与“类本位”张力中的人权观》,《政法论坛》,2018年第6期。。“人权既是现代的创造物又是现代的创造者,是现代政治哲学与法理学在政治与法律上的创举。”(31)科斯塔斯·杜兹纳:《人权的终结》,郭春发译,江苏人民出版社,2002年,第18页。在以“个人本位”为核心的时代,其固有的分裂性体现在方方面面。西方宗教《圣经》以人与上帝的对立开篇,后续人与自然,人与国家、人与人的理念的提出也始终在彰显此种对立。人权的概念本身就是在对立中创设的,而当技术试图一再突破边界,就导致了当下人类意识的觉醒。无论是康德的以人为中心的理念被再度重提,抑或“类本位”人权理念的再解读,划定技术发展的边界,使人与技术永远保持对立状态的理念是人工智能时代人类意识觉醒的根本所在。因此,刷脸识别技术的应用除了应满足基本个人信息保护的要求外,必须被赋予更严格的界限,必须通过明确的法律条文的形式规制技术应用的边界。

3.强化政府监管责任

由入园方式从指纹识别变更为人脸识别的国内人脸识别第一案(32)快科技:《中国人脸识别第一案判了:动物园被判删除用户面部信息》,http://www.techweb.com.cn/it/2020-11-23/2812863.shtml,2020年11月21日。,尽管在一审判决中,法院判定被告方侵犯郭兵的权益,但并未否认被告采用人脸识别方式的合法性,也未承认采用人脸方式进入园区这一格式合同有损消费者权益。人脸识别技术由于在安全性和便捷性层面的巨大优势,使其得以充分地应用。早在2015年的视觉人工智能系统识别项目比赛中(Imagenet),人工智能以3.57%的识别错误率首次超越人类视觉的5.19%;截至目前,人脸识别的准确率已经提升至97%以上。作为身份验证的一种方式,人脸识别被企业广泛投用,如在银行领域普遍应用的身份认证。伴随技术应用触及社会各行各业,技术权力逐渐成为社会的新型权力,而个体在面临技术权力时的羸弱状态亟须国家作出回应。从国家行为理论层面看,通常而言,宪法的约束范畴主要是政府的行为,不包括私人的行为。哈伦大法官(Harlon John Marshall)曾就政府行为与私人行为的辨析指出,为公共提供膳食处所的人都是“政府代理人”,而非私人。就这些处所的公共职责和功能而言,均受制于政府规章(33)郑贤君:《基本权利原理》,法律出版社,2010年,第190页。。可见,私人行为并不一定被排除于宪法的约束范畴之外,私人侵犯公民基本权利的行为同样可以被纳入宪法的规范对象。与此同时,司法实践也蕴含相似的认同,如美国联邦最高法院在审理类似的案件时,通常围绕以下三个问题展开:一是私人行为是否构成“政府职能”的一种;二是私人活动是否被政府影响程度很深,导致政府应当替私人行为承担相应责任;三是私人受到质疑的某项行为是否经过政府的批准或授权,以致政府应当对该行为负责(34)杰罗姆·巴伦,托马斯·迪恩斯,:《美国宪法概论》,刘瑞祥等译,中国社会科学出版社,1995年,第294页。。人脸信息为个人的敏感信息,国家理应对此涉及个人权利的事项进行保护;从现行立法来看,刷脸识别技术仍缺少基本法律层面的系统规范,从而实践中多处于技术滥用或泛化的状态,对政府采用技术的约束尤为不足。显然,出于技术发展的需求,政府对技术的规制处于“回应型治理”的状态;回应型治理措施是基于技术可控的角度,但技术可控由于人工智能算法的自主学习俨然已经受到挑战。

关键的是,国家必须履行相关的国家义务针对刷脸识别背后的科技行业进行规制。国家在技术黑箱方面的不足仅能停留于技术层面,在法律层面,以企业主体设置的权利闭环流动模式并不能为国家监管责任的合理缺位作辩护。在政治国家中心主义衰落而智能利维坦崛起时,社会子系统由于技术的迅猛崛起而在加速消解传统国家的职能。在与人工智能相关领域的国家责任的缺位,不仅干扰公民基本权利的保护,也侵蚀国家的政治角色,最终或许塑造成超越国家权力的第三类权力。因此,国家必须尽快就相关刷脸识别技术的应用作出回应,并承担政府的监管责任。

结语

人工智能的未来走向是一个极难预测的问题,如人们对于奇点时代的揣度同样难以明确。刷脸识别技术的信息保护与一般信息的保护存在类似的层面,但又由于个人生物信息的存在具备特殊之处。正如前文所述,刷脸识别相关问题的探讨已经跳脱出技术与法律规制的层面上升到技术伦理层面,需要社会学、伦理学多方面的介入与探讨。当然,这也是一项未竟的时代任务。

猜你喜欢
规制层面信息
主动退市规制的德国经验与启示
论我国民间借贷法律规制的发展和完善——从抑制性规制到激励性规制
保护与规制:关于文学的刑法
订阅信息
健康到底是什么层面的问题
策略探讨:有效音乐聆听的三层面教学研究(二)
策略探讨:有效音乐聆听的三层面教学研究(七)
展会信息
内容规制
从语言和体系两个层面理解庄子的“吾丧我”