智慧机场背景下AI 人脸识别的侵权风险及法律规制

2023-06-07 22:58李彦宣
关键词:人脸识别人脸个人信息

刘 佳,李彦宣

(中国民航大学 法学院,天津 300300)

作为人工智能(Artificial Intelligence,简称AI)技术的典型代表,人脸识别技术已广泛应用于社会生活的多个领域。近年来,随着智慧机场建设的需要及无纸化出行的普及,AI 人脸识别技术在机场逐步推广,涵盖机场智能安检、人脸闸机验证、人脸视频监控及自助行李寄存等方方面面。然而,智慧机场中AI 人脸识别技术的应用存在侵权风险,亟需相应的法律规制。目前,学界对于AI 人脸识别技术侵权风险的研究主要集中在人格权保护和个人信息保护方面,缺少专门针对AI 人脸识别技术在机场这一特定场景下侵权问题法律规制的研究。鉴于此,应对智慧机场中AI 人脸识别技术应用进行场景化,厘清智慧机场中AI 人脸识别技术的侵权风险,结合现行规制存在的问题探求我国的应对之策,从而保障旅客合法权益,促进智慧民航的建设与发展。

一、智慧机场中AI 人脸识别技术应用

(一)智慧机场中AI 人脸识别技术应用的场景化

人脸识别技术是用于人员识别和验证的生物信息识别工具之一。从广义上讲,它是一种监控和安全技术,旨在促进或控制政府、执法机构和商业使用的访问权限[1]。以“场景一致性(contextual integrity)理论”为基础,对智慧机场中AI 人脸识别技术应用进行场景化,有助于对人脸识别技术在机场应用的侵权风险进行具体化,从而探讨具有针对性的防范及规制措施。“场景一致理论”源自于2012 年美国《消费者隐私权利法案》中的“尊重场景原则”,要求信息主体在收集、使用和披露个人数据应与消费者提供数据的场景相一致[2]。后经海伦•尼森鲍姆教授的诠释和论证,形成一套完整的“场景一致性”理论体系。该理论的核心要求将信息保护、信息传播、信息使用的分析纳入具体场景(context),从而保证信息的收集与使用具有合理性并能够符合参与主体的预期[3]。场景由社会、经济、政治和行为等因素所塑造,并具有特定的指向目的[4]。不同场景的识别要素主要包括:信息类型(information types)、参与主体(actors)、传输原则(transmission principles)等[5]。在“场景一致性”理论基础上构建对相关行为或技术的法律规制路径,核心在于根据具体场景提出针对性的防范或规制措施,强调对行为予以场景化之后分析具象的法律风险,从而探求具体可行的规制路径。具体到智慧机场中AI 人脸识别技术的应用领域,根据我国国家标准《信息安全技术 人脸识别数据安全要求》(GB/T 41819-2022)的规定,目前主要有3 类涉及人脸识别技术的场景,包括:人脸验证、人脸辨识和人脸分析。AI 人脸识别技术在智慧机场中的应用场景颇为广泛。从21 世纪初期北京首都机场将AI 人脸识别系统用于员工身份认证与黑名单管理,到出入境自助通关,再到自助登机等,智慧机场背景下AI 人脸识别技术已被广泛应用于视频监控、智慧安监、安防布控、运营管理、自助行李托运以及智慧服务等各种场景。AI 人脸识别技术在智慧机场中的应用更具有普遍性、隐蔽性、非接触性及侧重公益性保护等特点。

(二)智慧机场中AI 人脸识别信息的性质界定

主体的差异性使得不同个体的AI 人脸信息具有唯一性和不可替代性,这是智慧机场中运用AI 人脸识别技术,实现“旅客一张脸”的“无纸化通行”的基础。因此,对AI 人脸识别信息的法律属性进行界定对于保护机场旅客的合法权益具有重要意义。目前学界主要存在3 种观点:人格权说、财产权说和个人信息权说[6]。持人格权说的学者认为AI 人脸识别主要涉及到隐私权和肖像权的问题,应当注重人格尊严和对人格利益的保护。但是人脸信息在一定程度上并不具有隐私性。比如:高富平[7]教授认为隐私也在个人信息范畴内,因为隐私具有私密性和个人性,而私密性越高,往往可识别性也越高。持财产权学说的学者刘越[8]教授认为承认生物识别信息可以保护信息交易,具有很高的商业价值可供开发,但是这有将人格权物化的嫌疑[9]。持个人信息权说的学者认为AI 人脸识别信息具有人格权利益和财产权利益的双重属性,在此基础上应构建一个新的权利,即“个人信息保护权”。比如程啸[10]教授指出,只有涉及利用信息能力的不平等收集、处理个人信息的行为,才是信息时代保护个人信息的法律真正要调整的对象。

笔者认为,将AI 人脸识别信息作为个人信息权进行保护比较合适。首先,人脸信息敏感但是并不私密,比如在机场大厅行走时人脸信息是被广泛捕捉和比对的,无法完全纳入隐私权保护的范畴。其次,有利于区分公益目的和私益目的,比如公权力机关利用机场已收集到的人脸信息进行犯罪嫌疑人识别时,作为个人信息权进行保护有利于区分公益性和私益性,防止滥用“知情同意原则”作为人脸信息被泄露后的免责事由。最后,将AI 人脸识别信息界定为个人信息权能够同时实现人格权请求权与侵权责任请求权[11]。综上所述,AI 人脸识别信息具有人格权利益和财产权利益的双重属性。对此,我国目前的立法也有所体现。根据我国《民法典》第1034 条规定,AI 人脸识别信息是一种“生物识别信息”,是个人信息的重要组成部分,因此个人信息保护的一般规则同样适用于智慧机场背景下人脸信息的保护。我国《个人信息保护法》将生物识别信息界定为敏感个人信息,规定仅在国家机关行使公权力和适当合法的情况下处理人脸信息,并要遵守比例原则[12],加强了对人脸信息的保护力度。在智慧机场不同场景下应用AI 人脸识别技术同样受现有法律规定的规制。

二、智慧机场中AI 人脸识别技术应用存在的侵权风险

AI 人脸识别技术在智慧机场应用过程中,由于技术的不稳定性、信息采集规则的模糊性、行为主体对权利义务认知的不明确性等因素的存在,可能产生多重侵权风险,进而导致对公民多项权利造成侵犯。

(一)因信息泄露导致隐私权被侵犯的风险

现阶段,智慧机场中AI 人脸识别技术应用时因信息泄露导致公民隐私权被侵犯的风险,根据行为主体的不同可能出现在不同的场景中。一方面,人脸的面部特征对每个人来说具有唯一性和专属性。如果机场的人脸数据存储系统出现漏洞导致AI 人脸识别信息被泄露,就会导致隐私权被侵犯的风险,给受害者的信息、财产安全甚至人身安全造成威胁。此外,我国不同机场广泛使用的AI 人脸识别技术在三维图像识别上还有很大局限性,技术本身的不稳定性也会导致较高的侵权风险。另一方面,基于维护公共利益和安全的需要,机场往往要将收集到的AI 人脸识别信息提供给公权力机关,供其在犯罪嫌疑人数据库进行比对、追踪犯罪嫌疑人行为轨迹等,发挥“人脸识别在定罪中的证据作用”[13]。在此情况下,信息收集者和处理者应受消费者隐私权“合理期待”的限制[14],在实现公共利益与保护隐私权益之间寻求平衡,否则就可能出现因非法公开个人信息或数据泄露而导致公民隐私权被侵犯的问题。

(二)因非法采集信息导致知情权被侵犯的风险

与指纹、虹膜等生物识别信息不同,人脸信息的隐私性较弱、社会性较强,在被收集、使用时具有非接触性的特点。“人脸识别技术类似于指纹识别,但它们之间存在一个关键的区别:指纹识别很少是在没有人同意的情况下进行的,而人脸识别则不需要许可。”[15]很多时候旅客都没有意识到自己的人脸信息正在被收集,即使“同意”也可能只是基于旅客购买机票时签署的格式条款,这也难以保障旅客表达同意意愿的真实性。这样《个人信息保护法》和《人脸识别规定》所要求的“同意”也成了享用技术的门槛,难以成为保护个人用户信息安全的壁垒[16]。在智慧机场这样一个大数据流动的背景下,由于AI 人脸识别技术的隐蔽性和非接触性,机场即使获得了旅客的同意也会由于人脸信息的共享和多次流转导致信息处理的范围和使用者不断变化[17],减弱知情同意的效力。因此,公民知情权存在被侵犯的风险。

(三)因信息不对称导致自主选择权被侵犯的风险

目前,国内大部分机场已使用AI 人脸识别技术用于安检和登机,但旅客作为消费者,单一的方式易导致其自主选择权被侵犯。2021 年,我国“人脸识别侵权第一案”迎来终审判决,但两审法院均认为野生动物世界已尽到合理提示义务,原告自愿办理年卡并事后以指纹方式入园表明原告已有效同意,因此自主选择权未被侵犯。由此可以看出法院否定了野生动物世界收集和处理人脸信息侵权的可能[18]。如果从《消费者权益保护法》角度进行分析,郭某提起的侵权之诉,即园区收集人脸信息进行人脸识别构成对公民个人信息的侵犯。因为动物园之所以能够使用指纹与人脸识别,是基于顾客的同意而让渡了自己的部分权利[19]。因此,在智慧机场背景下,机场不能将AI 人脸识别技术作为不同场景下唯一的识别方式,而应事先告知使用风险并获得旅客同意,同时提供可替代的方式供乘客选择。

三、智慧机场中AI 人脸识别技术应用侵权规制存在的问题

(一)智慧机场中AI 人脸识别技术侵权认定规则不完善

1.知情同意原则被滥用

根据我国《民法典》和《人脸识别规定》,处理人脸识别信息应基于个人知情同意,那么,机场在进行安检或视频监控时是否已充分获得机场旅客的知情同意是存疑的。这也是在某些国家和地区,如欧盟,对于大规模部署AI 人脸识别系统、不加区别地收集或保留个人数据,在法律上持反对立场的重要原因[20]。根据我国《个人信息保护法》和《人脸识别规定》的规定,信息处理者具有“告知”的义务,即要单独告知信息主体处理个人信息时的种类、目的和方式,并在其发生变更时及时将变更内容告知信息主体并取得其同意。然而,实践中,AI 人脸识别技术的使用者往往在采集AI 人脸识别信息之前通过与用户签订隐私协议、服务条款等方式获得用户同意,并以此作为收集、处理和使用AI 人脸识别信息的正当性基础,减轻或者免除其可能承担的侵权责任。此外,信息采集者与处理者甚至可能在用户毫无知情的情况下“伪造”同意而试图免责,致使用户真实的意思表示无法得到充分表达[21],这实际上都构成对用户知情权的侵犯。

2.侵权主体不明确及举证困难

目前侵权责任的归责主要适用过错责任原则,只有针对特殊侵权才适用无过错责任原则。我国的《个人信息保护法》笼统地规定了过错推定原则,而未区分侵权主体。智慧机场AI 人脸识别技术的应用场景下,人脸识别技术研发公司、机场管理部门等都可能成为侵权责任的主体。对于人脸识别机器能否成为侵权主体也具有较大争议[22]。同时,AI 人脸识别技术在机场大厅视频监控等场景下具有隐蔽性,侵权行为一旦出现,旅客本就难以承担举证责任。在机场与公权力机关合作的场景下,人脸信息可能在收集、处理、分析、传递、存储等任一环节发生侵权问题,而受害的机场旅客无法得知问题出在哪个环节以及信息收集者、处理者之间的协作关系,导致举证困难。如果再加入黑客入侵等因素,旅客更难以证明AI 人脸识别技术的应用与损害后果之间的因果关系,进一步导致举证困难。

3.风险性损害难以被认定

损害作为侵权责任的构成要件之一,受害人必须证明损害的存在。人工智能时代的个人信息侵权行为造成的“损害”常常表现为个人信息泄露后被非法使用的未来风险[23]。这种“损害”有别于传统的“有形损害”,更多地表现为一种“风险性损害”,这种损害往往是“无形的”和“未来的”,很难被认定构成侵权责任。比如,旅客的人脸识别信息在机场被采集后遭到非法泄露,其损害不仅表现为人格权的无形损害,还有可能表现为财产权受侵害,而这种损害后果往往具有不可逆性。此外,旅客乘机时为了防止发生实际损害而采取的预防性支出措施[24],或者担心因AI 人脸识别信息泄露导致不利后果而产生的焦虑等[25],都属于典型的“风险性损害”。风险性损害在信息化时代也逐渐增多[26],如果难以被认定为符合侵权责任的构成要件,则可能导致大量的AI 人脸识别信息侵权的受害人难以得到有效保护和赔偿。

(二)智慧机场中AI 人脸识别信息保护监管机制不健全

我国目前尚无专门针对AI 人脸识别技术使用的监管机构,不同监管机构之间存在职能重叠或监管空白。首先,《个人信息保护法》规定由国家网信部门和国务院有关部门对个人信息进行监督管理。然而,实践中,具体由哪个部门进行监管并不明确,从而可能导致部门之间相互推诿。其次,在民航领域,《民用航空法》和《民用机场条例》明确了各级民用机场监督管理机构的职责,中国民用航空章程中细化了民航局和地区管理局的职责。但这些法律文件大多局限于民用机场安全运行技术领域,并没有涉及到专业化法律监管和旅客权益保护,也并未提供旅客在个人信息受到侵害后的投诉渠道,缺乏公众参与和监督。最后,AI 人脸识别技术的应用涉及到收集、处理、存储和分析等多个环节,而目前尚未构建多个监管部门之间的协调机制,实践中可能会出现重复监管或监管空白的情况[27]。AI 人脸识别信息作为个人信息,《个人信息保护法》中规定的对个人信息保护的监管部门与民航领域的监管部门之间职责如何协调尚需明确。

(三)民航领域对个人信息保护的行业自律性不强

现阶段国家标准和法律法规具有滞后性,只能对AI 人脸识别技术等人工智能涉及到的法律问题进行原则性规定和管理,民航领域的相关指导性文件也只能提供底线性监管。因此,健全民航领域的行业自律规范是保护智慧机场中旅客个人信息的有效措施之一。近些年来,民航局在监管制度和工作程序上出台过很多针对自身的规范性文件,有利于监管执法的规范性[28]。但是监管环境在人工智能的浪潮下已经发生改变,单一的违法行为可能造成系统性的侵权风险。现有的监管模式主要针对公共航空运输业的各个航空公司,但是由于AI 人脸识别技术侵权具有技术性与法律性的双重特点,单一的技术性监管无法满足现有的行业自律要求,也无法保障旅客个人信息安全。

四、智慧机场背景下AI 人脸识别侵权规制的完善之策

(一)完善AI 人脸识别侵权责任认定规则

1.重构知情同意规则

对知情同意规则的重构是充分发挥其在旅客个人信息保护中作用的重要一环。智慧机场中,AI 人脸识别技术的使用者应尽到明确告知义务,保证信息主体充分知情,不仅通过购买机票时格式条款的“默示告知”,而且应当在机场被“明确告知”。欧盟在《关于更加统一的信息条款的意见》[29]中提出以多层次告知的方式取代过长的告知内容。由此,机场在获取旅客个人同意时,可以采取分层次说明的方式[30],用简短和通俗易懂的语句告知旅客AI 人脸识别技术的应用并获得其同意。此外机场可以采用循环广播的形式告知旅客已进入AI 人脸识别区域。在对AI 人脸识别信息的处理中,欧盟规定必须以“禁止处理”为一般性原则,以“明示同意,法定必要”[31]为例外,通过列举的方式规定了可使用AI 人脸识别技术的情形。在我国智慧机场背景下存在着多种AI 人脸识别技术的应用场景,可以借鉴欧盟的做法将不同场景进行明确列举且通过多种方式保证旅客充分知情、明示同意。

2.明确责任主体和举证责任倒置

《民法典》第1165 条①《民法典》第1165 条规定:“行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。依照法律规定推定行为人有过错,其不能证明自己没有过错的,应当承担侵权责任。”参见中国政府网.中华人民共和国民法典 [EB/OL].(2020-06-01)[2023-05-17].https://www.gov.cn/xinwen/2020-06/01/content_5516649.htm.和《个人信息保护法》第69 条②《个人信息保护法》第69 条规定:“处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担侵权责任。”参见中国人大网国家法律法规数据库.中华人民共和国个人信息保护法 [EB/OL].(2021-08-20)[2023-05-17].https://flk.npc.gov.cn/detail2.html?ZmY4MDgxODE3YjY0NzJhMzAxN2I2NTZjYzIwNDAwNDQ%3D.规定了侵权责任。AI 人脸识别技术运用过程会涉及到多个主体,当数据控制者泄露、滥用人脸识别信息时,让人有理由相信其具有主观过错。因此,对于AI 人脸识别信息的侵权案件可以采取过错推定原则,由人脸数据控制者承担无过错的证明责任[32]。但是现有的《个人信息保护法》没有区分侵权主体为国家机关和非国家机关,而商业化的场景适用范围越来越广,导致侵权损害的可能性更大。鉴于此,《个人信息保护法》还可进一步规定:在商业场景下,非国家机关使用人脸识别技术造成的侵权纠纷应适用无过错责任,以此增加商主体通过人脸识别技术侵害自然人权益的侵权成本[33]。此外,由于信息主体不了解人脸识别技术运用过程以及人脸信息收集和处理的隐蔽性,“谁主张,谁举证”的举证规则导致其举证困难。可以考虑借鉴欧盟《通用数据保护条例》(以下简称GDPR)的做法,在AI 人脸识别侵权案件中采取举证责任倒置的方式,合理分配举证责任,由人脸信息处理者或控制者对其处理人脸信息的行为与主体遭受损害之间的因果关系进行举证。

3.承认风险性损害

承认风险性损害在智慧机场AI 人脸识别技术应用场景下有利于实现侵权责任的认定和有效救济。在AI 人脸识别侵权案件中,由于侵权后果具有不可逆性,如果等产生实质损害并被信息主体发现后才能寻求侵权救济,就背离了法律所具有的预防和保护功能[34]。随着人工智能技术的发展,人脸识别应用的风险性损害愈加突出。对人脸信息侵权的损害要件作灵活宽松的解释已经成为大数据时代的趋向[35]。欧盟针对AI 人脸识别信息侵权的风险性损害规定了一系列的事前救济机制,比如:GDPR 要求个人信息控制者和处理者应保持其处理活动的记录,同时规定“同意”必须是明确的、数据主体可随时撤回同意等[36]。美国则通过一系列的司法判例逐步承认风险性损害的成立。比如:在Rosenbach v.Six flags entertainment corporation一案中,伊利诺伊州最高法院认为,如果一个人的生物识别信息受到侵犯,则他一定会受到损害,并且这种损害是真实的、重大的。正是因为生物识别信息存在高度的敏感性,所以被告单纯违反法律的行为足以成为原告起诉赔偿的理由[37]。这实际上在一定程度上认可了在生物识别信息的特定语境下,对损害的“确定性”赋予全新的内涵,承认风险性损害的存在。

具体到我国的现有立法,《人脸识别规定》第2 条规定:信息处理者如果未采取相应的技术措施导致人脸识别的信息被泄露或者篡改、丢失的,可以认定为侵害了自然人的人格权益。不难看出,这一规定为日后承认人脸识别侵权领域的风险性损害埋下了伏笔。当然,值得强调的是,AI 人脸识别带来的“风险”是否构成“损害”应当在个案中进行具体分析和综合考量,对于那种实质性的(substantial)、具体且特定的(concrete and particularized)、实际的或迫近的(actual or imminent)风险应认可其满足“确定性”标准而成立“事实上的损害(injury-in-fact)”[38]。

(二)建立专门的监管部门

我国现有的关于个人信息保护立法比较分散,不同领域的监管机构只负责监管本行业、本领域的个人信息安全,也没有针对AI 人脸识别信息的专门监管部门。欧盟GDPR 对信息主体提供了多种救济途径,明确规定在AI 人脸识别信息受到损害时,受侵害的主体可以向欧盟数据保护委员会(EPDB)这个专门的监督机构投诉或提起诉讼。针对AI 人脸识别信息专业性和技术性的特点,可以设立专门的AI 人脸识别信息保护监管机构,由具备技术知识和法律知识的专家协助制定相关监管规定,明确AI 人脸识别信息保护监管机构的职权和责任。同时建立监督投诉渠道,搭建起信息主体与相关监管部门之间的联系通道。此外,可以对机场不同场景下运用的AI 人脸识别技术进行分类,对AI 人脸识别设备、信息采集记录等由相关专业监管部门进行监管。各个机场应设立数据监测中心,由机场相关管理部门的负责人定时向监管部门提交信息安全检测报告,降低智慧机场建设过程中AI 人脸识别信息泄露事件的发生概率。

(三)强化民航领域的行业自律

强化民航领域的行业自律对实现智慧机场AI 人脸识别技术中的个人信息保护具有重要意义。通过设立专门的安全保护行业组织对人脸信息控制者进行不定时检查,并借助行政处罚和司法途径增强行业自律的约束力,将行业自律上升为法律标准。机场要严格遵循民航局的指导意见,在提升旅客出行体验和服务品质的基础上保障旅客的AI 人脸识别信息安全。由于不同机场使用的AI 人脸识别技术研发公司不同,AI 人脸识别系统和设备存在差异,民航局可以确立统一的智慧机场AI 人脸识别技术应用规范,制定统一的人脸信息收集、使用和处理标准。机场的AI 人脸识别技术的管理者和使用者要严格自律,强化责任意识,在推动智慧机场建设中重视对旅客个人信息以及人格权利益的保护。

猜你喜欢
人脸识别人脸个人信息
如何保护劳动者的个人信息?
个人信息保护进入“法时代”
人脸识别 等
有特点的人脸
揭开人脸识别的神秘面纱
警惕个人信息泄露
三国漫——人脸解锁
基于类独立核稀疏表示的鲁棒人脸识别
马面部与人脸相似度惊人
长得象人脸的十种动物