徐 祥 运,刁 雯
(东北财经大学 a.马克思主义学院;b.公共管理学院,辽宁 大连 116025)
在当今大数据时代,人脸识别技术成为人们关注的焦点。由于其超常的便利性、易操作性等特点,人脸识别技术已经广泛应用于社会的各个领域,对于维护社会稳定、保障人们生命财产安全具有重要意义,也进一步推动了数字社会的发展。但是,人脸识别技术发展过程中也出现了一些亟待解决的问题。在人脸识别技术已经广泛应用的情况下,却尚未出台一套完善的政策法规来对人脸识别技术的应用进行规制,这使得人脸识别技术的应用中存在诸多风险,比如人脸识别技术的滥用和强迫使用所导致的个人信息泄露问题早已引起了社会公众的恐慌和不满。此外,人脸识别技术本身整体水平也还不够成熟,比如,在年龄、光照、遮挡等内外部因素的干扰下,人脸识别系统还难以足够敏锐地进行数据匹配,因而存在匹配失误、准确度不高、识别效果不够理想等诸多技术问题,容易被一些不法分子钻空子而威胁到人们的财产安全。我们应当认真审视人脸识别技术的应用在为人们的生活带来便利的同时出现的诸多问题,制定相应的政策法规,建设安全有序的人脸识别技术应用环境,确保人脸识别技术成为社会发展的推动力,而不是干扰力、破坏力。
风险通常被认为是危险事件发生的可能性与可能产生的后果的组合。人脸识别技术缺陷风险可以理解为人脸识别技术在发展过程中由于技术本身发展的不成熟而产生的负面影响或者给社会带来的负面效应。就目前而言,人脸识别技术正处于迅速发展和不断探索之中,尚不够成熟,在一些方面还存在严重问题,需要我们冷静正确地去认识它的诸多技术缺陷风险,并注意防止它异化成“技术利维坦”。
目前人脸识别技术所依赖的深度学习算法高度依赖于高质量的数据集,但因实际应用的数据集与实验使用的数据集存在较大区别,这种算法模型在实际应用中的识别准确率会下降。误差是客观存在的,任何技术都会存在误差问题,但是目前人脸识别技术水平下的误差可能超出合理容错率。人脸识别结果不准确的原因包括以下几个方面:(1)图像质量不佳。图像质量的一项重要指标是分辨率,分辨率越高,图像越清晰,可识别的人脸特征就越鲜明。但在实际上传人像的过程中可能会对图像加以一定的压缩,摄像头距离等因素也会影响图像质量,图像质量不佳会严重影响人脸比对的结果。(2)人脸遮挡。人脸遮挡既包括帽子、口罩、墨镜等实物的遮挡,也包括光照不均导致的阴影遮挡。遮挡问题很容易导致人脸信息采集失败和比对失误。(3)人脸变化。一些数据库中保存的人脸信息久未更新,会出现与实时采集的人脸信息无法匹配的现象,导致人脸识别失败。
也正由于人脸识别系统本身存在技术局限,不法分子会向人脸识别系统提供以假乱真的人脸信息来达到其个人目的,这样的行为被称作“欺骗攻击”。欺骗攻击又称“演示攻击”,可以分为2D欺骗攻击和3D欺骗攻击。运用图片或视频的欺骗攻击属于2D欺骗攻击,使用面具的欺骗攻击属于3D欺骗攻击。随着3D技术的发展,3D面具比图片、视频更具欺骗力。相关实验结果显示,在只使用2D人脸识别算法(ISV)时,面具攻击数据集(3DMAD)数据库中有65.70%的3D面具攻击被识别为合法用户。
人脸识别技术的滥用使得人脸识别系统很容易成为欺骗攻击的目标。即便是一些已经具备“反3D面具攻击”功能的人脸识别技术系统也很难真正防御欺骗攻击,更不用说那些使用其他算法的系统了。2019年,美国《财富》杂志曾经报道,一家人工智能公司用高清的3D面具和照片成功欺骗了人脸识别系统,其中包括中国的微信和支付宝,完成了购物支付程序。该公司的CEO认为:“这表明人脸识别技术并未达到安全标准”,“走捷径是以牺牲安全为代价的”。
人脸识别技术的广泛应用所带来的数据安全隐患也引发了巨大的争议。比如,一些住宅小区为了“出入更便捷、管理更高效”,对住户进行人脸信息采集,人脸信息绑定具体住址、身份信息,小区门禁由刷卡改为刷脸。对此,有居民担心个人信息和行踪被泄露:“我什么时候不在家,别人都知道。”人脸信息所包含的个人生物特征信息是人们重要的隐私信息,一旦泄露,给人们造成的危害是永久性的。从这方面来说,人脸识别的门禁虽然更便捷,但其风险比密码验证和指纹解锁更大。人脸识别技术在大数据的支持下快速发展,但由于技术发展速度与水平的不一致,数据的采集环节、储存环节、分析环节都可能存在安全风险。
人脸特征信息的收集比指纹采集更方便。从技术角度看,人脸是一种不需要用户主动配合就可以采集到的个人生物信息;从社会心理角度看,由于人脸天生就暴露在外,所以人们每天被各种监控“拍脸”也并不觉得隐私受到侵犯。由于以上两点,人脸数据采集的安全性很容易被忽略。在数据采集环节,实际上只要满足形式上的知情同意规范,即说明采集的目的与用途,就很难完全阻止针对人脸或照片的数据采集。例如,在我们使用一些App时,采集我们的面部信息甚至已经成为默认选择或者限制条件,我们不同意就无法使用这些App。那么,相关企业或其他机构采集人脸信息的边界在哪里?是否存在信息过度采集的现象?
在人脸识别系统中,相关个人的面部信息必然储存在一个大型数据库中,该数据库的安全性就尤为重要。那么,这个数据库由谁来掌握?怎样管理和控制该数据库,从而确保人脸信息的安全?比如,由于经费限制,为了控制成本,一些小区、学校的人脸识别系统数据库缺乏较强的防御攻击能力和严格的数据安全管理,其他人很容易通过黑客攻击方法或者利用内部人员而侵入数据库,窃取相关信息。又如,一些利用监控摄像头来采集人脸信息的企业或其他机构也会有一个数据库,公众对这个数据库是否知情?这个数据库又由哪个机构来监管?人脸信息属于个人敏感信息,人脸信息数据库一旦泄露,可能造成难以挽回的损失。当我们的身份信息和生物特征信息被别有用心的人拿去做牟利的工具时,我们该如何保障自己的隐私权、财产安全乃至生命安全?当然,政府部门尤其警方在一定条件下收集和保留个人人脸信息是必要的、合理合法的,人脸识别有助于警方侦破案件、抓捕在逃人员。但同时,我们也应当注意到,长期保留的个人敏感信息有可能泄露,人脸信息数据库如果遭到黑客攻击而发生数据泄露,给个人和社会带来的损失将是难以估量的。
在数据分析阶段,不同的算法对相同的数据有着不同的分析程序,甚至会得出不同的分析结果。一种算法可能会将自己认为不重要的数据剔除或解密,从而造成数据遗漏或泄露。一些数据分析系统会滥用数据,比如我们通过刷脸登录某一软件时,软件可能超出身份识别之需,擅自通过我们的个人信息分析出我们在何时何地做了何事,使我们的个人隐私暴露无遗。从这个角度讲,人脸识别技术在方便了我们生活的同时,也成了窃取我们隐私信息的“方便之门”。
人脸识别技术应用中的数据安全性与我们的隐私权利密不可分。人脸识别技术建立在大数据分析的基础上,大数据系统与我们的隐私密切相关。脆弱的大数据系统一旦崩溃,我们的隐私信息将“无私可隐”,甚至成为不法商家用来牟利的商品。在一些平台上,只需要几十元甚至几元钱就能买到成百上千的个人的信息,这些信息既包括身份证号、手机号码,也包括个人照片。当我们的个人信息成为他人交易的商品时,我们的合法权益就已经遭到了侵害。这种现象进一步加剧了“数字利维坦”的形成,引发了人们对于社会公正等问题的讨论。
人脸识别技术风险可以理解为人脸识别技术在发展过程中给人类社会带来的各种负面影响。人脸识别技术在研究开发、生产管理、市场推广等各个环节都会涉及众多的利益相关者。虽然人脸识别技术在实际应用之前会经过模拟测试阶段,但是,新兴技术的研发与应用充满了未知数和不确定性,甚至可能给人类带来巨大灾难。
一项新兴技术的创造和发展是一个长期的过程,技术风险的暴露往往需要一个较长的周期。人脸识别技术所隐含的技术风险也存在一个逐步暴露的过程,一些在投入应用的初始阶段没有显现出来的风险,可能随着该技术的广泛应用而暴露在大众面前。尽管人脸识别技术在推广之前已经经过大量的测试,但是现实生活具有测试阶段所没有的真实性与复杂性,这使得模拟测试无法完全考虑到各种场景和各种突发事件。一些不够可靠的数据样本可能存在虚假问题,直接导致人脸识别系统形成错误的判断。如果在人脸识别技术成熟之前不做好风险防范工作,那么随着这项技术的发展,各种难以预料的风险将会更多、更迅猛地出现。
当今社会对人脸识别技术所隐含的风险仍然缺乏足够的认识。在人们传统的认知中,新技术总是比原有的技术更加先进。因此,在人脸识别技术应用的初始阶段,其效益、效果会被一些媒体过分夸大,人们心中甚至会产生“技术无所不能”的幻象。人们过于信赖某项技术,而对其危害考虑不足,忽视其背后的风险,就使得该技术的风险具有了“隐身性”,及至风险暴露到足以引起人们重视时,已经太晚。另外,高新技术是不断更新、不断发展的,这些变化不断地刷新着人们的认知,满足人们的各种需求。但这些更新和变化实在太快,政府和社会还没来得及对其风险作出应对,技术就已经进入下一轮更新过程。如果不对这些已经显现的以及仍然潜藏的风险加以充分讨论和深入认识,不为其设计出一套合理规范的管理体系,那么,一旦人脸识别技术的风险规模扩大,现有的治理体系将很难控制风险。
与学界熟知的“国家利维坦”类似,随着大数据、互联网、云计算、人工智能等数字技术的发展,人们在享受各种新兴技术带来的便利的同时,也陷入了一种“受缚于数字”的两难境地。比如,在人脸识别技术快速发展、便利人们生活之际,人们也面临个人隐私遭到侵犯、主体地位丧失等日益严重的问题。原本作为约束“国家利维坦”的重要手段的数字信息技术发生异化,演化成一种新的利维坦,即“数字利维坦”。在这种情况下,最大的危险不再是隐私的泄露,而是“被预知的可能性”。如今,过度的数据化使得大数据背后的某些掌控者掌握了“财富密码”,他们利用数据这种“预知特权”来控制信息,攫取财富,甚至对国家治理构成威胁。在大数据给社会带来新的治理路径、为国家治理赋能的同时,过度的数据化即“数字利维坦”的出现潜藏着很多的社会风险。数据资源被企业占据,数据产权归属不明,“数字利维坦”的出现使得人们在大数据时代很难用新兴技术来保护自己的大数据信息。此类个人数据信息包括个人的面部信息、足迹、手印等,是从人权中衍生而来的。
人脸识别技术的核心是人工智能算法。随着技术自主性的凸显,算法的使用将导致算法时代出现新的社会风险。同“利维坦”的出现相似,不加限制的人工智能算法可能会脱离人类的驾驭,带来新的社会风险,甚至发展为毁灭世界的“赛维坦”。科学技术本是带领人类走出黑暗时代的“赛先生”,但人脸识别技术的滥用使得人工智能技术异化为带领人们急速驶入未来世界的力大无穷却找不到方向的巨型怪兽“赛维坦”。在使用人工智能算法的过程中,人们逐渐成为人工智能算法的附庸,臣服在人工智能算法程序监控之下,社会中呈现出赛维坦式的科技风险。人工智能算法的赛维坦风险将直接导致人脸识别算法可能误判数据,不去审查数据反映的是否为假象,最终作出背离实际状况的决策。该风险具有隐蔽性。在一些领域,人工智能算法带来的解决实际问题的能力甚至优于人类。比如,在人脸识别技术使用初期,人们对人脸识别带来的便利赞不绝口;在相当长的一段时间内,人们对该技术完全持信任和支持的态度,根本没有意识到该技术将会带来的风险。但是,随着人脸识别技术大规模地应用于社会,这种人工智能算法的赛维坦风险慢慢显现,实际应用中出现了与我们的预期不符的情况,甚至出现算法偏差风险,导致违反伦理规范。
人脸识别技术的发展是大数据、人工智能算法与其他要素共同作用的结果。其他要素既能够助推人脸识别技术发展,也可能导致滥用人脸识别技术。一旦人脸识别技术遭到滥用,加剧了社会风险,人脸识别技术将异化为“集人工智能‘赛维坦’和大数据‘数字利维坦’于一身的复合型技术利维坦”。“技术利维坦”比“赛维坦”和“数字利维坦”更加直白地揭示了人脸识别技术对社会和国家产生的负面影响。具体来说,当人脸识别技术应用于实际社会生活场景中,它凭借自身庞大的数据库以及便于应用、信息更新快等优势,迅速进入人们的生活,为人们所接受。并且,该项技术能够提高社会治理绩效,所以很快就被广泛地运用到社会治理当中。但是,在这背后,人类社会在无意识的情况下对人脸识别技术的依赖很有可能使人们变成人工智能技术的“奴隶”,技术本身的风险也导致社会治理存在从“数字民主”滑向“技术利维坦”的风险,容易使人们受到过度管控。在高新技术时代,我们在享受人脸识别技术带来的便利生活的同时,要努力避免技术的异化,一方面扩大人脸识别技术的积极作用,使之服务社会,另一方面遏制其消极作用,防止国家、社会和个人遭到侵害。
在大数据时代,我们在享受人脸识别技术带来的便利的同时,要充分注意这一技术带来的社会风险,特别是其使用过程中给个人、社会带来的歧视和异化问题。由于人脸具有较强的公开性、非隐私性,面部信息采集容易被人接受,所以人脸识别在数据采集方面十分方便,但也正因这些特点的存在,加之缺乏统一的行业标准和严密的法律制度,人脸识别技术的普及应用也增加了诸多社会风险隐患。
在社会生活领域,随处可见的人脸识别装置将个人生活和公共生活紧密地联系在一起,比如在车站、机场等公共场合,人脸识别都成了身份识别的主力。这在一定程度上提高了公共服务水平和管理效率,但是也加剧了公共领域公共性和个人权益之间的张力。作为一项新兴技术,人脸识别目前尚缺乏统一的行业标准和技术使用规范,因而在使用中存在诸多伦理难题和法律争议。具体而言,人脸识别技术应用中的伦理困境主要表现在以下几个方面:
第一,技术使用中的伦理责任主体难以确定。由于人脸识别技术的复杂性,责任划分也存在复杂性。责任划分当中,首先就是人脸识别技术在安全方面的责任归属问题。人脸识别技术本身的缺陷和安全隐患容易引发数据泄露风险,而人脸识别技术是否会引发安全风险,应该是设计者首先考虑的问题。在人脸识别领域,人脸识别技术不能成为责任主体,因为它只是程序员为达到特定目的而编写的代码。在传统的产品责任伦理规范中,设计生产者、销售者是毋庸置疑的责任主体;但在人脸识别技术的研发和应用过程中,“每一个环节都是单一的责任主体,又因技术内部存在复杂性和系统性,一旦出现责任归属问题,其责任主体就无法明确”。对设计者而言,存在知识责任失衡风险。在人脸识别技术领域,设计生产者是单一的责任主体,因为人脸识别技术的复杂性,具体技术系统的设计者在对人脸识别技术系统进行设计时,若囿于价值偏差、利益追求以及错误认识等因素,就会游走于法外灰色空间,背离应然的价值责任,引致责任失衡。对决策和使用者而言,存在滥用人脸识别技术而引发权力责任失当的风险。一般而言,该技术的使用者利用自我认知实现对该技术系统使用的伦理判断与监督,是使用者的责任所在。但该技术系统的使用者若依据其权力权威而滥用该技术系统,则容易逾越现有的伦理责任规范,将人脸识别技术的不完备性带入现实社会,这就引发了权力责任失当的风险。
第二,对个人尊严的贬损。有时候,对人脸信息的收集虽然并不直接侵犯个人的隐私,却有可能直接侵犯人的尊严。人们不仅因为在意自身的安全而进行自我保护,不仅因为关注自己物质生活条件的提高而追求财富,也对“自身价值有本能的和微妙的感觉,对这一点的贬损不亚于对身体和财物的损害”。人的尊严这一核心价值已经在世界范围内得到普遍尊重和肯定,并体现在诸多法律规范中。在某些方面,人脸识别技术的应用直接关系到人的尊严问题。人脸识别技术的迅速发展不断拓展着它的适用范围、应用领域。在这一过程中,设备应用的成本得以降低;而又正因为成本的降低,人脸识别系统会在更大范围内得到使用。在这一技术的使用过程中,应当遵循合法性、合理性原则,不可盲目使用或滥用。在使用过程中,要把人性尊严作为该技术系统使用之正当性的根基。凡是会对个人人格尊严造成贬损的,都属于不正当使用的范畴。有人认为在知情的情况下刷脸不会对个人尊严造成冒犯,但事实上,“知情”并不能等同于“同意”,况且“同意”也可能是迫于现实而不得不同意,这种情况下的“知情”“同意”难道没有对个人的尊严造成贬损吗?试想将来刷脸应用发展到一定程度,个体面临就业压力时,很难因为刷脸签到、刷脸领工资而拒绝一份工作,但我们并不能说他是真正同意这一系列制度安排的。在大数据时代,经常通过摄像头抓取人脸信息进行识别、认证,由此,未经当事人真正知情同意的刷脸成为一种“权力与服从”的行为,这种权力包括国家权力和社会权力。人脸所承载的个人尊严也因此而被技术稀释。人脸识别技术的算法将个人变成一串串数字代码和符号。“此时,识别的是人脸,得到的是数据,失去的或被贬损的则是人的主体性及其尊严。”
第三,伦理价值失衡,损害社会公平。人类社会的发展在于追求社会公平和正义,这也是社会伦理价值的基本取向。而随着人脸识别技术的应用与发展,人脸识别系统可能会强化某些社会偏见。2015年,一位身为黑人的软件开发人员在推特上发文称,“Google Photos”使用的图像分类器将他和一位黑人女性朋友的照片识别为大猩猩。那么,这能说明人脸识别技术存在种族歧视吗?人脸识别技术呈现“歧视”与“偏见”,只是因为它使用的算法不完善。算法与人不同,它不具备常识,不能理解抽象概念。算法本身并无偏好与喜恶,但是它的使用却可能会强化社会不公平现象,引发种族歧视等现象。人脸识别技术会给本身不受定义的人们打上各种标签,包括年龄、性别、种族和肤色等信息,人们接收到这种标签之后,在一些个人素质较低的群体里便容易产生社会歧视,因而影响社会公平正义,加剧社会破裂风险,引发社会安全隐患。
人脸识别技术的快速发展是以大量收集个人信息为基础的,相应地,人脸识别技术的滥用、个人信息的过度收集、个人隐私的泄露成为新的社会风险。
“隐私”这一概念在数字社会中十分重要,且随着时代的发展和社会的变迁,隐私的定义也发生了改变:以往,我们不愿意公开的事情即为我们的隐私;由于人脸识别技术的出现,隐私已经不限于以往我们所说的“不受他人干扰的权利”,而发展到我们原本公开的信息也成为隐私信息,隐私的边界得以扩展。个人信息与隐私的界限逐渐变得模糊。我们的脸并不是隐私;若将人脸归为隐私,那我们每天都无所遮掩地扛着隐私出行,我们的隐私早已暴露在大众面前。但是,人脸携带着最重要的个人信息,人脸信息中的个人生物识别信息属于我国法律规定的隐私信息,将个人的面部信息与他活动的时间、空间相结合,便构成了我们所说的隐私信息。如果人脸信息被居心叵测的人窃取,就相当于我们最重要的私密信息被暴露,我们也就毫无隐私安全可言了。在大数据时代,小到因信息泄露而饱受广告电话的打扰,大到因信息泄露而蒙受财产、人身的损失,以及媒体对个人信息泄露案件的曝光,使得越来越多的人开始重视个人信息安全,为自身信息的安全问题而焦虑,其中包括人脸信息。
在大数据时代,人们的日常行为也越来越趋向于数字化,每个人每天都会产生大量的信息,其中很多信息是我们不愿公开的,属于我们的隐私信息。个人隐私的信息化有以下原因:第一,随着数字社会的发展,我们的个人信息经过计算机技术的处理,变成了一条条数据、一个个代码。第二,个人隐私意识不强,在无意识的情况下暴露了个人信息。第三是出于利益考虑而主动进行隐私交换,比如我们在使用一些手机App时选择各种“同意”,包括同意获取我们的定位、同意获取我们的面部信息、同意记住密码等。第四就是一些人脸识别技术系统与监控设备的结合使得对个人隐私的获取更加便捷。当今社会,许多公共场所都安装了视频监控,这些视频监控有助于保护个人和商家的财产安全,在一定程度上也可以协助警方侦破一些重大案件。然而,在2021年央视“3·15”晚会上,多家知名企业被曝监控摄像头违规采集人脸信息。这些企业未经用户同意,擅自利用监控摄像头采集人脸数据。相关企业收集的人脸数据量已经过亿,美其名曰帮助客户进行分析以改善经营,并声称相关数据不会泄露。这套说辞是否真实,仍有待考证。对于个人而言,事实就是我们的面部信息轻易就被他人获取。包括人脸信息在内的各种公开信息被不法分子恶意整合之后,成套的公开信息就变成了个人的隐私信息,这种“隐私信息化”成为我们保护个人隐私权的最大阻力。
在数字社会中,如何保护我们的个人隐私信息,成了一个让人头疼的问题。与传统的法律权利相比,包括个人生物识别信息在内的个人信息是一种内容丰富、范围宽广的权利客体,它具有以下属性:第一,基本人权属性,既包括实现自由平等的权利和生存发展权利,也包括随着数字社会的发展应运而生的各种数据信息权利;第二,一般人格权的特点,因为其涉及个人安全感和尊严,如果我们的个人信息被他人侵占,我们就变成了犹如“透明人”一般的存在,失去了对自身个人信息的主导权,可能在社会中也难以生存;第三,隐私权特点,具有可识别性,体现了人格特征;第四,财产安全属性,个人信息具有商业利用价值,而作为我们个人标识的生物识别信息一旦泄露,更有可能成为他人获利的工具。对于个人隐私的保护,不仅需要个人加以高度重视,还需要有关部门完善相关法律规范。目前,我们的隐私信息被“数据化”以及个人隐私被侵犯的主要原因还是在于我国对于人脸识别技术的使用范围等没有进行明确的规范。在这方面,仅靠个人的抵制和相关部门的监管是远远不够的,还需要法律法规加以强有力的规制,从而实现对相关违法犯罪行为的精准打击,切实防止一些企业和个人钻法律漏洞而利用他人隐私牟利的现象。
由于人脸识别技术应用的广泛性和具体使用场景的多样性,现行的相关法律制度尚存在缺漏,需要出台更加详细、清晰的法律规定。但是,由于现实问题的复杂性,这一立法过程还需要多学科、多领域的学者展开更加深入的研究,以期最大限度地实现对人们隐私权的保护。
人脸识别技术正在如火如荼地发展,这在促进社会进步和经济发展的同时,也带来了严峻的挑战。人脸识别技术是一把双刃剑,它的发展和应用除了“肉眼可见”的好处之外,也因发展之快、应用之广和监管的滞后与缺失而在一定程度上激化了社会矛盾,其主要表现包括以下几个方面:
1.影响社会公正
社会公正是一个古老而永恒的话题,也是当今建立和谐社会的基石,是社会主义制度的首要价值体现。在数字化时代,社会公正问题有了新的表现形式,开始具有“数字化”特征,“资源占有正在从‘物质’形式向‘数据’形式转变”。在今天,数据不再限于单纯的一系列数字,还包括文字、图像、声音等资源,这些资源甚至被称为“21世纪的石油资源”,掌握这种“石油资源”的企业就容易在市场竞争中获利。这些数据资源大部分由企业和政府垄断,普通民众处于被动提供数据的地位,形成一种不公。掌握及应用数据的企业和政府组织之间存在立场、动机的不同,且很难统一。政府是为了实现公共利益而采取行动的公共组织,企业则是寻求利益最大化的市场组织。这就使得个人信息数据的采集、储存与应用等方面出现很多问题,组织和个人之间的信息不对称导致个人信息被泄露、个人隐私遭到侵犯,这些现象加剧了社会不公,引发了公众的不满情绪。在经济领域,企业凭借占有个人信息而实施不正当竞争,干扰正常的社会经济秩序,导致社会贫富差距加大,动摇了社会和谐的基础。
2.用户与企业的利益冲突
对于社会个体而言,使用人脸识别技术无疑会便利自己的生活。比如,使用一些手机App需要设置登录密码等,如果刷脸登录和数字密码“二选一”的话,相信绝大多数用户都会选择前者,这是因为,我们日常可能会设置很多数字密码,但我们的记忆能力是有限的,忘记密码又需要重新申请,而人脸识别技术的应用使我们无须记忆那些烦琐的密码,只需使用摄像头扫描一下我们的面部,识别这一生物特征,由软件后台的系统进行记忆即可。此时,我们看到的是当下的方便,却忽视了背后的风险。企业掌握了我们的面部特征,相当于掌握了我们个人信息的钥匙,我们锁在箱子里的隐私信息也随之曝光。在利益最大化的驱使下,一些无良企业甚至明码标价贩卖个人信息牟利,这个时候,用户与企业之间利益冲突激化,二者之间的矛盾愈益严重。
3.减少就业岗位
人脸识别技术对就业结构的影响可以概括为替代效应、人机协作和创造新岗位三个方面。而一项新技术,在其应用的初始阶段,对劳动力的替代表现得更为明显。与人类劳动相比,人脸识别技术在一些简单重复的工作岗位具有更大优势。一方面,人脸识别技术应用性较强,可以在多个领域投入使用,即使对于一些不大了解新兴技术的人们来说,操作也十分方便。另一方面,人脸识别技术对一些传统行业劳动力的替代能够降低企业的成本,比如:在银行系统,人们可以通过刷脸进行一些业务操作,银行工作人员则负责处理一些更为复杂的事务;在一些大型超市,已经开始采用人脸识别支付,取代了部分收银员的工作。此类应用在为雇主降低成本的同时,带来了一些普通劳动者的失业问题,给社会稳定增加了压力。
人脸识别技术的快速发展在一定程度上对人类劳动起了替代作用,开始影响人们的生活方式和生产方式。过分依赖人脸识别技术也会导致人们主动思维能力和计算能力的下降,使人们的身心自由受到挑战,甚至可能把人类变成技术的“奴隶”。
一方面,人脸识别技术的广泛应用使人们越发依赖这一简单便捷的技术。比如,我们在使用某些手机App时,为了防止自己因忘记密码而无法使用,通常会选择开启人脸识别验证。这一技术的应用确实方便了我们的生活,但是,我们如果过分依赖这一技术,可能就不愿意多动脑筋,进而影响我们的记忆能力、思维能力,削弱我们的甄别能力。我们的主观能动性在不知不觉中被这种便捷的技术弱化了,一旦离开人脸识别技术,我们的正常生活可能会受到很大的影响。在人工智能技术的冲击下,在人脸识别技术广泛使用的背景下,未来人类的主体地位可能会丧失,一个人一辈子可能都在被动地接受技术的奴役,而缺少主动学习、主动选择的能力。
另一方面,人脸识别技术也会使一部分社会成员感到心理上的威胁。人们一般认为,只有人,才具有感知能力。如果有一天,机器也逐步发展到可以进行思维和创造的地步,进而弱化人类的社会主体地位,那么,人类可能会感到恐慌,甚至产生不满情绪。人类社会全面数字化的速度令人咋舌,来自不同领域的专家都在警告人类社会“数字独裁”即将来临。如果有一天,这些数字技术背后的算法可以轻易地通过人脸识别来掌握我们的信息,洞穿我们的欲望,操控我们的情绪,甚至预测出我们下一秒钟的行为,那么我们就成了被技术操纵的人类,也就丧失了主体地位。
在人工智能技术迅速发展的大数据时代,我们既要接受人脸识别技术的应用以及人脸识别技术产业的出现,也要注意该项技术所带来的风险和隐患,在新技术迅速发展的过程中,对其所带来的后果作出严谨认真的评估,限制其“野蛮生长”。因此,在应用人脸识别技术时,社会公众、相关行业以及政府等不同的社会主体要相互配合,协同治理,为人脸识别技术构建安全合理的发展路径。
人脸识别技术的滥用以及对个人信息的无限度获取在一定程度上侵犯了个人的隐私权,数字社会必须提高个人对隐私保护的认识。在使用人脸识别技术时,一些人过分依赖这一简便的技术而忽视对自己隐私权的保护,甚至还未了解清楚自己所享受的服务的成本与风险便急于使用该技术,因而导致个人信息的泄露。提高公众的隐私权利意识,首先要提高人们对人脸识别技术的理性认知,使其了解自己和相关主体的基本权利义务,理性地认识人脸识别技术带来的利益与风险的共存关系。社会公众应该在真正知情同意的基础上使用某项新兴技术或者享受某些技术服务,而不是完全忽略知情同意书或因其过于麻烦而无视。而当我们的个人信息被泄露、隐私权被侵犯时,我们也要积极运用法律武器来维护自己的合法权利,将权利意识转化为法律精神。在隐私保护方面,我国针对相关问题提供了相应的法律依据。我国《民法典》在第111条宣示“自然人的个人信息受法律保护”,然后在人格权编“隐私权和个人信息保护”章通过六个条文对个人信息保护作出专门规定,其中包括将“生物识别信息”纳入个人信息的定义之内。《民法典》为人脸信息提供了一般性法律保护,而《个人信息保护法》为人脸信息提供了特殊性法律保护。后者是“宪法和民法之外最为重要和系统的个人信息保护法律”,构成了“面部特征信息保护的独立法律基础”。
从人脸识别行业看,人脸识别技术主体要加强风险责任意识,积极主动地承担社会责任。人脸识别技术的发展方向与其研发主体密不可分。如果研发主体缺乏责任意识,那么其在设计初始阶段就不会考虑该技术将会带来的风险,更不会主动提出一系列预防风险、解决风险的措施。因此,应当提高研发主体的道德意识,明确研发主体的社会责任,使研发主体采取有效措施防范伦理风险,而不是片面地追求经济利益。
从人脸识别技术研发水平方面看,虽然我国人脸识别技术快速发展,已经从最初的背景单一的正面灰度图像识别发展到动态的人脸识别,但是目前的研发总体上还较为薄弱,与世界先进水平仍有差距。随着人脸识别技术所涉及的图像处理变得更加复杂,识别效果也需要逐步提高,例如,对一些复杂环境中的人脸要进行高质量的有效识别与跟踪,同时提高识别准确率和识别速度。
从人脸识别数据安全方面看,应用人脸识别技术系统的用户对系统的数据安全负有责任,在数据的采集、储存、分析阶段都需要通过数据加密技术进行保护,并及时修补威胁信息数据安全的技术漏洞,建立完善的人脸识别数据安全保障机制,保障人脸信息数据安全,切实维护相关个人的隐私权利。
目前我国人脸识别技术发展处于应用领域宽广但整个行业的社会责任感还没有建立起来的尴尬阶段,社会责任感的建立没有跟上人脸识别技术向社会各个领域的渗透,导致人脸识别技术应用中出现了较多的问题。人脸识别行业的设计者、研发者、应用者、管理者要树立行业的社会责任感,不断提高整个行业的技术水平和管理水平。
人脸识别技术作为一种高新科技,用途十分广泛。但是,现在已经出现滥用人脸识别技术的倾向。政府相关管理部门应当尽快制定完善的行业规范体系,明确人脸识别技术的应用范围。
第一,由政府主导,结合各个行业应用的特点制定人脸识别产业规划,确定人脸识别技术对各个行业的帮助作用,引领对新兴技术治理环境的构建。比如,我国新冠肺炎疫情之所以能迅速得到控制,很大程度上也得益于我国的大数据能力、人脸识别能力、定位追踪技术,这些技术的应用有助于我们迅速锁定感染者行动轨迹,识别潜在接触人群,及时进行隔离处理。因此,在医疗、教育、国防安全等方面,人脸识别技术应该得到大力发展,为社会的安全和谐发展提供保障。
第二,成立具有法定权力的监管部门,制定符合实际的监管细则。一方面,对相关违法行为及时进行处置,及时叫停不符合人脸识别技术应用标准的企业的运行。另一方面,明确企业的责任范围,要求企业在采集数据时确保用户的知情权以及授权范围的有限性,从而适度采集特定应用项目所真正需要的用户信息。2021年7月28日,最高人民法院颁布了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,该规定充分考量了人脸识别技术的积极作用,一方面规范信息处理活动,另一方面促进数字经济健康发展,保护人脸识别技术的合法应用。最高人民法院在充分调研的基础上制定的上述司法解释,对人脸信息提供了司法保护。该解释明确规定,在宾馆、商场、银行、车站、机场、体育场馆、娱乐场所等经营场所、公共场所违反法律、行政法规的规定使用人脸识别技术进行人脸验证、辨识或者分析,应当认定属于侵害自然人人格权益的行为。
总之,整顿治理人脸识别行业,不仅需要政府主导和法律规制,也需要相关行业密切配合,才能达到全面治理的目的。
结语
人脸识别技术蕴藏着推动社会进步的巨大潜力,对人类行为和人类社会产生着深刻影响。与此同时,人脸识别技术仍未臻于完善,存在着不可忽视的风险。因此,我们在对人脸识别技术的应用和发展保持开放包容心态的同时,也必须保持理性、审慎的态度,让人脸识别技术健康有序地逐步融入社会。我们要认识到,一旦利用不当,人脸识别技术将在多方面给社会造成风险隐患。
要正视人脸识别技术的内在风险,遏制该技术带来的风险隐患。研发人脸识别技术的初衷是创造更加安全便利的生活,但人脸识别技术的固有瑕疵容易使人们陷入“技术利维坦”的陷阱之中。我们必须时刻保持警惕,推动社会主体之间的协同配合,构建协同治理模式,遏制“技术利维坦”的消极影响。人脸识别技术的发展与应用要始终秉持“以人为本”的理念,而不能以牺牲人的隐私和尊严为代价。要拒绝人脸识别技术凌驾于人的意愿之上,确保该技术的应用能够更好地服务于人类的美好生活需要。在未来人工智能技术的发展过程中,人脸识别技术的生产功能将创造更多的经济财富,掌握人脸识别技术的研发就是掌握了“财富密码”,因此,提升研发主体的道德意识,强化人脸识别技术行业的社会责任感,是提高人脸识别技术系统安全性、稳定性的必由之路。人脸识别技术的不断发展使得传统的数据治理体系已经难以满足现实的需要,政府作为社会治理的重要主体,应当及时组织建立新的多元治理体系,调整社会与人脸识别技术之间的关系,有效消除人脸识别技术带来的社会风险隐患。