西安交通大学法学院 余楠
算法作为21世纪各大商业公司争先研发的技术,作为能够代替人类头脑进行决策的工具,当然存在着其特有的价值;另一方面,算法决策作为一项技术应用,是被算法设计者所研发出来的,算法设计者在设计过程中为了满足商业公司的要求与利益,本身就带着不理性与偏见,而算法本身的决策输出过程也可能存在着偏差,这就导致人们对算法决策产生了疑虑,甚至是恐惧。然而完全杜绝算法决策参与我们的生活与工作是不太现实的,不少学者便提出了算法透明的观点,但这一观点的实施立马遭到了拥有算法技术公司的反对,他们认为算法透明不仅侵害其商业秘密,而且由于算法具有极强的专业性,即使公开算法过程也很难向一般社会大众解释该套算法是如何运作的。通过何种路径达到个人私权与企业的商业秘密的平衡也成了亟须解决的问题。
首先,算法存在偏见。“通过对已有研究成果的总结,导致算法偏见的原因主要包括两个方面:一是与输入数据相关的偏见;二是与算法相关的偏见。”目前,市场上广泛使用的算法是学习型算法,该类算法需要通过输入海量的数据来进行训练,从而形成自身的算法决策逻辑。因此,一旦输入数据存在偏见,就会导致算法决策结果存在偏见,即使算法是一项中立且客观的技术。另一方面,算法自身也可能存在偏见。算法是由人类创造出来的,算法设计者在进行相关算法模型设计时就有可能带有主观偏见,这样一来,算法偏见便形成了。
其次,算法会带来价格歧视、大数据杀熟以及限制消费者浏览等问题。商家首先通过各种途径获知消费者个人信息,然后进行数据分析并建构事件模型。这些事件模型包括时间(时间截和时间长度)、地点(用户接触点即网址)、内容(每个网址中的内容)以及事情(评论、点赞、购买等),海量的事件聚集在一起就形成了该用户的画像。最后,商家便会利用算法形成的画像对消费者进行精准的广告推送,以此来影响消费者的决策。于是,价格歧视、大数据杀熟的问题就产生了,同样的产品和服务针对不同的客户会有不同的价格,甚至会员客户需要支付更高的价格来购买相同的产品和服务。同时,算法决策也剥夺了自我选择的权利,使我们丧失了获取那些我们不感兴趣事物的机会。在生活中我们不难发现,很多平台软件甚至比我们自己更了解我们,站在商家的立场上,他们认为算法既大大增加了顾客的黏性,为他们创造了利益,也大大节省顾客的时间,避免了许多曲折的经历。我们不能否认算法决策在这些方面显示出的巨大优越性,但未经浏览者同意的算法决策植入是不是也在某种程度上损害了人们自由选择的权利。
算法决策还可能导致歧视,从而损害信息被采集者的相关权利。美国威斯康辛州惩教署官员在为卢米斯制作量刑前调查报告时,采用了算法决策模型的分析结果,初审法院在量刑判决中也参考了该评估结果,并根据该评估结果对卢米斯做出了六年有期徒刑和五年社区监督的处罚。卢米斯随即便向初审法院提出了减轻刑罚的请求,并要求法院公开算法决策模型做出该评估结果的依据。尽管终审法院经过审理后驳回了他的上诉理由,但依旧引起了许多学者对于该判决的反对。由此可见,随着算法决策应用的不断深入,它对我们相关权利的影响也就越来越大。今后,当企业、银行、事业单位、行政机关都开始应用算法决策模型来处理相关问题和事件时,对于算法决策模型规制的需求就越发强烈。企业会运用算法决策模型进行招聘,银行会依据算法决策模型进行放贷,行政机关会依据算法决策模型做出行政行为,一旦算法决策模型不能得到规制,我们的相关权利就可能会遭到损害。
算法技术的运用就好比是汽车的应用,科技进步在带来诸多便利和好处的同时,也存在着许多危及权利的风险。毫无疑问我们必须允许这样的危险存在,就像汽车虽然存在着危及人类生命健康的危险,汽车技术依旧普遍使用那样;但与规制汽车的应用不同,算法暂时还不需要设定一部像《道路交通安全法》那样的法律来进行规制。因此,为了平衡好算法发展与个人私权之间的关系,我们可以从以下路径对算法决策进行规制。
(1)建立算法决策模型备案机制。前面有提到不少学者提出了算法透明的观点,立马遭到了拥有算法技术公司的反对。从商业秘密的角度来看,将算法决策模型向公众公开确实是一个不太现实的想法;甚至即使不考虑商业秘密,将算法模型予以公开,普通消费大众也无法读取其中有用的信息,在他们眼里算法决策模型只是一堆毫无意义的代码。但是,我们可以借鉴专利申请注册的经验,由专门机关和专业的人才为我们把控其中的风险。让算法设计者和算法使用者在使用算法决策模型前到指定的机关进行审查备案,这样就能在一定程度上杜绝一些算法决策可能造成的损害。同时,在算法技术公司的内部也应当建立相应的算法决策模型审查部门,随时随地监管算法决策模型可能存在的潜在危害。
(2)算法相对人有权要求算法使用者/设计者对收集的个人信息履行告知披露义务;对于错误的个人信息,算法相对人有权行使更正权。算法决策是以大数据为依托的,想要减少算法决策对个人私权的影响,首先得对算法决策收集的个人信息进行规范。这就要求算法使用者/设计者应当履行相应的告知以及披露义务,而知情权在我国现有法律框架内早有规定。根据《民法典》第111条和1035条的规定,算法使用者/设计者在收集他人信息时应当循序合法的原则,向信息收集者说明使用信息的目的,并确保信息的安全。《电子商务法》第二十四条规定了用户享有信息查询、更正和删除的权利,因此算法相对人在发现个人信息存在错误或者被未经允许收集时,有权要求算法使用者/设计者对错误信息予以更正,对未经允许收集的信息予以删除。这就在一定程度上解决了算法决策模型在用户画像阶段的信息准确性,从而也减少了算法决策模型中存在的偏见。
(3)算法相对人有权拒绝对自己产生重大影响的算法决策。“为了防止个人沦为自动决策算法的纯粹客体,我国未来的《个人信息保护法》可以借鉴欧盟《通用数据保护条例》(以下简称条例)第22条的规定,赋予数据主体对算法结果的拒绝权。”前面两种措施都是在事前对算法决策进行干预,以保证其最终输出的结果尽量符合客观事实,但允许算法相对人拒绝对自己产生重大影响的算法决策是一种事后防御权。事后防御权我们不难理解,难以理解的是什么叫做产生重大影响。不少学者对条例中所提到的重大影响作出了剖析,认为单纯地以算法相对人的视角认定重大影响是不可取的,因为算法相对人在主观上都会认为自己遭受了算法决策所带来的重大不利影响。或许可以借鉴民法合同订立过程中一般理性人视角的经验,结合各方面事实综合认定算法决策是否对算法相对人产生重大影响,由此赋予算法相对人算法决策拒绝权。
(4)算法相对人在相关权利受到损害时,可以寻求司法救济。在实际生活中,当算法相对人发现算法决策结果对自己产生重大影响时,可以先与算法决策使用人或者算法决策设计者进行协商,要求算法决策使用者或设计者重新决策或者要求算法使用者说明做出算法决策结果的依据,双方达成合意的,可以按照“意思自治”原则解决双方纠纷;协商不成的,双方可以寻求司法救济,借助法院等相关机构的力量解决两者之间的纠纷。司法救济作为一种事后救济,是保护算法相对人相关权利的最后一道屏障。
法律的发展总是滞后于科技的进步,当一种新型事物出现时,必然会存在部分法律没有规定的地方,对于新事物,我们永远处在发现它、认识它以及规制它的这一发展过程中。就好比算法决策,大数据技术的发展为算法决策提供了支撑,渐渐地,商家开始运用算法为自身增加平台用户黏性以及经济收益,然后伴随着算法决策的广泛应用,法律问题开始突显,越来越多的人开始意识到算法决策模型有可能会对我们的权利造成损害。算法偏见、算法歧视、大数据杀熟等字眼,频频出现在各种媒体和新闻界面里,到现在人人都处于算法决策中,但也担忧和恐惧算法有可能给自身带来的重大影响。不少学者也开始探寻规制算法的路径,希望能找到平衡商业秘密和个人权利保护的方法,以更好地促进算法技术的发展和应用。本文通过对算法决策模型问题的描述,进而分析当前算法决策存在的妨害,最终给出了规制算法决策的路径:首先得建立算法决策模型备案机制,在源头上把握算法决策模型可能带来的权利损害;其次使用算法决策模型的企业应当履行相应的披露义务,将相关数据的收集情况告知算法相对人,以便于算法相对人及时行使删除权、更正权等权利;对于算法决策结果应当赋予算法相对人拒绝权,但拒绝权不是算法相对人想拒绝就拒绝,算法相对人仅有拒绝对自己产生重大影响的算法决策。重大影响的标准不能以算法相对人的认知进行判断,而是引用民法中一般理性人的假设理论对重大影响进行衡量;最后算法相对人在权利受到损害时,可以向司法机关寻求救济。
总之,在法律的约束下,技术才能得到健康发展,因此,算法决策规制路径的探索就显得十分重要,我们需要不断进行探索以更好地促进算法技术的发展。