[摘 要]信息爆发式增长的时代使得个性化推荐服务在互联网中占据极其重要的地位。个性化推荐服务能有效辅助网络平台在庞大的信息海洋中筛选有效信息,在解决信息过载问题的同时,极大程度地满足用户的个性化需求。但是,个性化推荐服务并不是百利而无一害的,其被网络平台不合理地使用容易让用户面临着自主受限、隐私泄露、信息茧房、算法歧视等法律风险。针对这些现实的可能风险,可从重申同意、技术设计、强调竞争、谋求平等的角度出发,对个人、企业以及政府提出相应的要求以应对个性化推荐服务带来的风险挑战。
[关键词]个性化推荐 个人权利 多元共治
[基金项目]南京财经大学2023年度校级一般课题“量化自我技术中数据风险的法律规制研究”(KYW-YXW23001)
[作者简介]王娅,南京财经大学法学院讲师,博士(南京 210023)
[DOI编号]10.13761/j.cnki.cn23-1073/c.2024.06.007
引 言
随着信息技术的飞速发展以及电子设备的广泛应用,大量的互联网信息向我们扑面而来。根据国际数据公司(IDC)发布的《数据时代2025》报告显示,全球每年所产生的数据量可达175ZB(十万亿亿字节),相当于每天产生491EB(百亿亿字节)的数据量。并且,全球的数据总量在过去十年以超过40%的复合增长率呈现爆发式的增长,这种增长趋势在未来的5年内仍继续保持[1]。由此可见,我们已进入大数据时代。
大数据时代的出现让大型网络购物平台的商品种类可达几万种,但是,用户所偏爱的产品却各有不同,同时,用户的需求也存在着模糊性。据亚马逊公司统计,在网络平台购物中有明确购买意向的仅占16%,绝大多数用户在网络平台购物都具有不确定的需求[2]。因此,如何在海量的互联网信息中找到用户所需要的商品或服务,这不仅是用户所面临的生活困境,也是互联网信息服务提供者所面临的主要挑战。基于此,个性化推荐服务应运而生。
所谓个性化推荐服务,是指根据用户的信息需求、兴趣和行为模式等,将用户感兴趣的信息、产品和服务定向推荐给用户的一种信息服务[2]。 个性化推荐服务的优越性使其被广泛地应用于电子商务、社交媒体和数字娱乐等互联网信息服务交互场景中,帮助网络平台收集用户数据,促进信息内容与用户需求的精准匹配。不过,个性化推荐服务被广泛应用的过程中,也引发了网络用户自主受限、隐私泄露、信息茧房、算法歧视等诸多的法律风险,而这些法律风险因应个性化推荐的算法技术产生。鉴于算法本身所具有的复杂性、隐秘性、专业性等特点,这不仅让用户的个人权益难以在网络平台得到切实的保障,实践中也存在维权困难的尴尬局面,而且不合理地使用用户信息也容易扰乱社会市场秩序,使其成为企业追求利益最大化而罔顾社会责任的借口[3]。此外,算法本身有其局限性,这可能会导致相关的系统性风险,某种程度上甚至会给国家安全和数据主权带来极大的威胁。个性化推荐服务所带来的法律风险不仅是个人的困境,也是社会的挑战。因此,利益相关者都需采取相应的措施以应对个性化推荐服务带来的不利现状。
一、个性化推荐服务的法律风险
大数据时代的人们能接触到足够多的互联网信息。但是,如何在海量的信息中有效地抓取用户所需要的信息,增强用户与网络平台之间的黏性,是各大网络平台服务商产品研发和服务推广的重点。目前,大多数的网络平台都采用个性化推荐服务来满足用户的需求。个性化推荐服务者利用算法技术收集用户在各个网页、商品上的各类痕迹,通过算法的自动化分析,形成针对用户个人偏好的推荐内容。个性化推荐服务因其独特的优势能有效地提升用户的体验,增强用户与网络平台的黏性[4]。由于个性化推荐服务严重依赖海量信息,因此,其需要持续不断地对用户的信息进行收集并处理。但是,平台的过度或不当操作不仅涉及用户的敏感信息及其权益保障,甚至对社会、国家的安全也产生一定的威胁,加之算法本身也存在着缺陷和不足。以上这些考量都意味着个性化推荐服务在运行过程中可能带来诸多法律风险,下面将分述之:
(一)自主受限
个性化推荐服务会对用户的自主控制能力产生消极影响。数字经济时代的信息就好比互联网的血液,发挥着举足轻重的作用。网络平台为了在市场竞争中占据优势地位,多采用个性化推荐服务来收集用户的各种碎片信息,如交易记录、账户信息、出行记录、浏览记录以及社交记录等[5],通过构建“网络用户画像”的方式,来帮助用户在网络平台更有效地找到自己所需要的产品、服务。但是,用户得以享受网络平台的便利是以个人信息被收集以及自主选择受限为代价的,这本质上是对个人信息自决权的侵害。
信息自决权是个人信息保护体系中最为核心的权利,体现的是对个体人格尊严与自由意志的尊崇[6]。“信息自决”意味着个人拥有独立地、不受任何不当干涉地使用与处理个人信息的自由。目前,企业想获取、使用与处理用户的个人信息,会将用户同意作为其行为的正当性基础和免责事由 。用户在打开APP后,最先接触到的就是APP用户协议/隐私条款。如果用户勾选同意,则表示其愿意接受APP用户协议/隐私条款中的内容,企业就可以自由获取、使用与处理用户的电子信息,这似乎是合理的。然而,中国青年报社社会调查中心联合问卷网对1561名受访者进行的一项问卷调查中显示,70.9%的受访者在下载APP时从来没有或很少阅读APP中的用户协议/隐私条款,20%的受访者甚至表示从来没有读过王品芝、肖平华:《“我已阅读并同意”?七成受访者坦言很少或从没阅读过App用户协议》,载《中国青年报》2022年3月第10版。。同时,大多数的受访者表示这些用户协议/隐私条款的文字烦冗且包含较多专业术语,让人很难阅读下去,这让他们更不会去深究里面的条款。而且,条款中关于用户个人信息收集、使用的内容非常模糊,很多用户在完全不知道的情况下就“同意”个人信息被收集、使用了。另有调查发现,在使用APP时拒绝非必要授权后,高达90%的APP不能使用或仅能使用部分功能。因此,用户就不得不选择同意用户协议/隐私条款刘文慧:《超七成受访者遭遇过个人信息泄露》,载《四川法治报》2023年5月第3版。。
基于上述这些现实情况,用户勾选“同意”的行为并不是一种明确且真实的同意,而是一种“被同意”。真实的同意以享有充分的知情权为前提,但是,用户协议/隐私条款的复杂性和专业性让用户受制于自身的“认知局限”,无法做出最合理的判断。更重要的是,用于体现用户意思表示的用户协议/隐私条款更多是对合规要求的形式遵守,而非对用户个人信息被收集所必须使其真正知情的道德义务。用户勾选同意的根本目的在于尊重用户的自主决定,改变平台和用户之间的权力势差和信息不对称的困境,实现对用户自我尊严和自由利益的维护。但就目前情况来看,无处不在的个性化推荐服务已经严重地威胁到用户的自主选择,侵蚀用户的个人真实体验,甚至可能导致用户实现自我的可能性减少。因此,网络平台的发展必然要以维护用户的个人自治为基本遵循。
(二)隐私泄露
个性化推荐服务以用户数据作为支持,特别是对有关用户个人偏好的数据。但是,这些个人偏好数据往往和用户隐私有着密切的关系。如果对这些信息收集、处理不当,则很可能会侵犯公民的个人隐私权。公民的个人隐私权是指公民对于自己的私人事务享有不受他人干扰或干涉的自由权[7]。随着信息技术的发展,对公民个人隐私权的侵犯多以个人数据在网络空间被泄露的形式出现。例如,美国的塔吉特公司为了提高营销效率,利用算法技术对顾客的历史购买记录进行分析,以预测女顾客可能怀孕的可能性,从而达到精准投放母婴产品优惠劵的目的。一名意外怀孕的高中女孩是塔吉特公司的顾客,但是,她并没有向任何人透露自己怀孕的隐私。但某天,她的父母收到了来自塔吉特公司的母婴产品优惠劵从而间接得知女孩意外怀孕的秘密[8]。可见,在大数据时代,更加注重保护公民在网络空间的个人隐私权十分必要。
公民在网络空间的个人隐私权主要表现为:禁止在互联网平台泄露与用户相关的敏感信息,公民在网上享有私人的生活安宁与私人的信息依法受到保护[9]。但从实践中看,公民网络空间的隐私安全存在着巨大的隐患。申言之,信息技术时代,在互联网上散布、出售他人信息,电子邮件遭到监控等隐私泄露问题常常不绝如缕。需要指出的是,个性化推荐服务的飞速发展让个人隐私已然成为一种新型商品。一些IT技术人员利用技术手段和工具对个人信息进行技术性窃取,然后在非法利益的驱动下,将这些所窃取的信息进行二次加工或非法交易。例如,在3·15晚会曝光的隐私泄露问题中就有,中国电信为垃圾短信提供渠道赚取暴利;融营通信、容联七陌等多家互联网企业涉嫌收集用户的个人隐私,非法买卖用户的个人数据,形成骚扰电话的黑色产业链,问题的严重性使其一经揭露就受到人们广泛关注[10]。
综上可知,公民的个人隐私权在数据经济时代确实面临着巨大的挑战。数据经济的重要特征是网络服务要求用户以让渡个人敏感信息的方式信任公司[11]。“数据平台”作为个人信息处理者将个人数据转换成信息价值的过程中,使单纯的个人数据进入了个人信息权益保护的范围。这些个人数据往往蕴含着用户在教育、家庭、生活等多方面的细节。“数据平台”若利用算法技术对用户的碎片化信息进行收集,则很可能还原出用户的真实情况。同时,这些数据也可能被非法盗取,那就不只是牵涉到隐私泄露的问题,也涉及到信息安全。因此,如果不对“数据平台”收集信息的行为加以限制,则个性化服务很有可能为信息处理者远程监控用户提供诸多便利,让用户被围困在“数据平台”构建的“圆形监狱”雷曼用“信息圆形监狱”(informational panopticon)来形容IVHS(Intelligent Vehicle Highway Systems)项目完全收集个人信息并累积成公共信息后对隐私构成的威胁。See Jeffrey H. Reiman, Driving to the Panopticon: A Philosophical Exploration of the Risks to Privacy Posed by the Highway Technology of the Future, Santa Clara Computer and High-technology Law Journal, Vol.11:1, p.34(1995).中,使用户的个人隐私趋于透明,这显然与个人隐私保护的目标背道而驰。
(三)信息茧房
个性化推荐服务的提供者通过对用户在互联网平台上注册、搜索、浏览、购买、评价等历史记录进行收集,通过大数据的智能化分析,向用户精准地推送其感兴趣的信息、商品和服务,从而达到增强用户与平台之间黏性的目的。但是,收集的过程不仅存在用户隐私泄露的风险,而且,也严重地限制用户接受信息多样化的自由,让用户深陷在算法技术形成的“信息茧房”中,被动地接受算法所带来的各类信息。所谓信息茧房,是指人们只关注自己感兴趣的或者令自己身心愉悦的信息,但长此以往将自己深陷信息孤岛的现象[12]。
信息技术的进步和经济利益的需要促使各互联网公司纷纷在自己的APP内实践个性化推荐服务。但是,个性化推荐服务的一个负面影响就是,信息服务的提供者主观地编辑用户所需要和获得的信息并随意裁剪。加之算法技术概略化、单维化的“极化”特性使其只传播同类的信息。因此,就会出现集中、热门的内容获得更多的推送和传播,而涣散、冷门的内容则被信息海洋所淹没,无人问津[13]。长此以往,用户越喜欢看什么,APP就越推荐什么,到最后,用户只能看到自己喜欢看的东西,以致其长期地处于自我封闭的状态,无法接触外界的其他信息。既有实践也表明,我们可能某天在网络上看了几则关于某影片的剪辑片段或有关某地方的新闻,结果从此往后的若干天里,在该平台上每天都会向我们推送大量的类似内容,属实让人不堪其扰,而且,其他我们可能感兴趣或者必然感兴趣的内容则越来越少。
算法技术带来的信息茧房效应有多方面的危害性:对用户而言,信息茧房使用户自由地获取知识的眼界和能力受限,用户只会关注那些符合自我预期、兴趣或者在短时间内对自己有益的信息,长此以往,则会加剧用户之间的认知鸿沟。对社会而言,由于用户深陷信息茧房之中,与其他用户缺乏有益的沟通交往,则容易对持有相反或不同观点的个人或群体产生排斥、打压心理,甚至会引发大范围的网络冲突,不利于社会的稳定与团结。对国家而言,信息茧房会形成“马太效应”。一般而言,发达国家对算法技术的约束较好,信息得以集中分配,人们获得的知识丰富多样。但在发展中国家,算法平台掌握话语权,使其能够自由地对信息进行裁剪,信息分配较为分散,人们获取信息的多样化受到限制。由是,发展中国家和发达国家之间的信息资源差距将逐渐拉大,而且,前者将在国际竞争中更加处于不利地位[14]。
一个不会思考的民族是没有前途和未来的。基于这一社会前景的考量,互联网信息服务的提供者不应以一味取悦用户为目标,其本身还应承载着启发民智、保障用户知情权等价值期许,以承担相应的社会责任[15]。当前社会是信息社会,信息就是价值,信息就是金钱,掌握信息就是掌握最前沿的发展方向。目前,各种APP是人们获取信息的重要途径,人们出于天性总是会倾向于关注自己感兴趣的东西。但是,这并不意味着互联网公司就可以剥夺用户接触多元信息的机会。企业在谋求自身利益最大化的同时,也应该积极地承担相应的社会责任。此外,党和国家一直在全国推行和谐社会的建设,这就意味着各方主体需要承担起相应的责任。特别是企业,如果其只一味钻营,不能履行社会责任,和谐社会就只能是一个期许、一个口号。
(四)算法歧视
个性化推荐的算法运作逻辑会形成针对特殊个体的个性化规则,侵害个体的平等权,造成算法歧视。平等权作为人的尊严和价值,意味着每个人不论其肤色、性别、宗教、性取向等状况如何,都应该享有人之为人所应有的权利。但是,算法歧视的出现使得平等的观念受到巨大冲击。
算法歧视是指对具有某种属性的特定社会群体成员采取的不利行为或者实施的不利程序。算法歧视一般分为直接歧视与间接歧视两种。直接歧视也称差别对待,指个体因其属于特定群体而遭受不同等待遇的情形。例如,在Google等搜索引擎中,人们在搜索非洲裔美国人相关名称时,更容易出现暗示其具有犯罪的历史信息[16]17-34。又如,亚马逊公司曾开发过一套用于筛选求职者简历的算法筛选系统,其会自动优先选择男性求职者并根据简历中出现的“女性”字眼对于女性求职者的简历予以降分处理。是以,直接歧视会维持或加剧基于肤色、性别、宗教、性取向等方面的成见,进而导致对黑人、女性、少数群体等的歧视。间接歧视也称差别影响,指表面中立的行为对不同社会群体成员造成不同等负面影响的情形。比如,某雇佣单位招聘工作人员,要求应聘者的身高至少一米七以上。这看似平等的招聘要求,却因为两性在生理条件的天然差异,实际上把绝大部分的女性排除在外,剥夺了她们的就业机会,这就构成了间接歧视。
算法歧视的形成逻辑从前端模拟展开,中端训练为过程,终端使用形成闭环。申言之,算法在模拟过程中,人为的变量和分类会造成歧视,算法在描绘和解释现实世界的同时,对人类社会的结构型偏见进行了继承;算法在训练过程中,数据集的不同表现也可能使算法生成歧视性决策;算法在使用过程中,在未拟定非歧视的机器学习算法下,同样会导致歧视。这也是为什么谷歌公司在图片软件中,错将黑人的照片标记为“大猩猩”;Flicker的自动标记系统也曾错将黑人的照片标记为“猿猴”;微软开发的人工智能聊天机器人Tay在和网民聊天不到24小时就被教坏,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”[17]。
算法技术对个体或者群体不合理的区别待遇需要我们采取相应的解决措施。但从目前对算法歧视的规制来看,由于概念的模糊,算法歧视常常与平等、公平等词相关联,导致规制者对算法歧视做泛化处理,认为只要算法技术存在着对个体或者群体的区别对待就被视为存在算法歧视,对算法歧视采取“一把抓”的应对措施。这种忽略算法歧视的内在联系而采取的应对措施,在一定程度上,也是对算法歧视的歧视。因为,算法歧视是一项较为具体的风险,规制者应该围绕算法歧视来建立具体的规制路径。换言之,应根据算法本身的性质、数据的处理对象和应用的不同场景来进行风险评估,明确其规制的范围,从而采用不同的规制路径。否则,这种不合理地扩大算法歧视的规制范围容易导致规制路径的混乱。对算法歧视的规制,可以参考美国白宫科技政策办公室所发布的《人工智能权利法案》,在该法案中,规制者就对算法歧视抛弃了泛化处理,只保护基于肤色、民族、性别、宗教等法定特征的不合理区别对待和影响[18]。我们也应该结合我国的实际情况,对算法进行风险评估,明确其规制范围,建立具体的规制方法,让治理算法歧视成为实现算法公平的一环。
二、个性化推荐法律风险的规制进路
个性化推荐服务的广泛应用,给生活带来便利的同时,也给用户带来自主受限、隐私侵犯、信息茧房和算法歧视等诸多方面的法律风险。目前,面对个性化推荐服务所带来的法律风险,已有相应的保护措施。但是,这并不足以有效解决个性化推荐服务所带来的问题。基于此,本部分拟从重申同意的用户自主确认、通过设计的隐私保护技术、强调竞争的企业合规考量和基于平等的政府监管支撑这四个方面,对个性化推荐服务所带来的法律风险进行体系化的规制探讨。
(一)重申同意的用户自主确认
个性化推荐服务的算法技术虽然改变了个人的生活,但是也存在用户自主受限的影响。若要打破个人控制自由受限的局面,就需要重申用户同意的自主确认,这主要涉及到对用户知情同意权和选择自由的双重维护。
对于用户的知情同意权来说,要进行同意的有效性判断,因为只有有效的同意才能阻却信息处理的违法性。《中华人民共和国个人信息保护法》第14条规定,有效的同意需要由用户在充分知情的前提下自愿、明确做出。该法第17条也提到了信息处理者有着使用户“知情”的某些告知义务[19]。由此可知,在个性化推荐服务中,用户的知情权是网络平台收集并利用用户数据行为的必然要求。用户对于平台收集的数据类型、范围和数据处理的方式和目的以及算法技术的运作原理等享有知情权。基于此,企业必须适当地降低用户协议/隐私条款的阅读门槛,遵循《数据安全管理办法(征求意见稿)》第8条,以明确具体、简单通俗的方式明示其收集、使用相关个人信息数据的目的、方式、范围等规则,并征得用户同意。同时,若条款内容的敏感性程度较高,则可以将其单独从用户协议/隐私条款中分离出来,单独征求用户意愿,尽可能地保证用户能够真实、自愿地完成是否“同意”的自主确认。
对于用户的选择自由而言,可在保证用户享有明确知情权的前提下,在APP中提供“择出”和“择入”两种机制来实现,除使用服务所必须要收集、处理用户的个人信息外,不得因用户自主选择“择出”而拒绝向其提供正常服务。申言之,需要赋予用户对于个人信息被获取、使用与处理的拒绝权,不能强制性地要求用户必须同意协议/条款才能正常使用APP。更重要的是,一次同意也不能代表永久性的、所有的同意。目前,很多APP中,是否同意协议/条款的页面一般只会出现一次。但是,同意可能只是一时性的,只是为适应当时的需要所做的决定。因此,在用户不愿意继续被个性化推送的信息处理者所“窥探”时,也需要给予用户撤回同意的权利。此外,在信息处理可能超出用户同意范围的时候,需要就超出范围的部分重新征求用户同意。
毋庸置疑,对用户知情同意权与选择自由的维护势必以给平台施加义务为主要手段,这是因为受限于技术、专业和能力等因素,平台和用户之间存在着明显的权力势差和信息不对称,而且这种差距更是随着社会变化和技术迭代逐渐拉大。因此,通过一系列具体的措施尽可能地平衡平台与用户之间不对等的情况,最大程度地帮助用户实现真实的知情同意和切实的自主决定,就是数智时代的必然选择。
(二)通过设计的隐私保护技术
数据平台基于数据、运营、技术等优势条件和资源容易对个人及其信息形成挤压状态。为了应对此种状态,确立数据平台的“守门人”角色并课以其个人信息保护合规义务是一种较好的选择[20]。申言之,数据平台可以“从一开始就将个人信息保护的需求通过设计嵌入系统之中,成为系统核心功能的一部分,成为商业实践的默认规则,给予个人信息全生命周期的保护”[21]。这是事先预防的一种可为手段,不过,这种保护路径的有效实施仰赖于两个较为关键的因素。亦即,通过预先设计达致隐私保护需要注意技术信任问题和设计者的伦理约束问题。
其一,在技术信任方面。首先,要求算法服务提供者必须增强算法本身的可靠性,逐渐优化隐私保护技术。比如,平台可以在遵循透明且可事后问责的基础上,根据目前用户隐私保护所出现的技术漏洞,不断地改进相关技术。其次,考虑到个性化算法技术的侵入性和不透明性,应对网络平台用户的数据收集、使用、存储、传播等多个环节进行技术加密,对数据本身的内容进行脱敏、去标识化、匿名化等处理,让用户的数据发挥其价值的同时,也能确保其隐私不被泄露[22]。最后,技术信任也要求用户与算法服务提供者保持隐私态度的一致性,将保护隐私落实到具体行动中。例如,用户在使用个性化推荐服务时,尽可能去阅读相关的隐私保护条例,了解平台对于数据的使用和处理的运作方式,同时,在可操作的范围内对个人信息进行脱敏、匿名、去标识化等有意识操作,避免自己的信息被泄露、非法利用。
其二,在设计者伦理约束方面。设计者伦理要求算法服务设计者应具有一定的安全保障义务与保护隐私的法治理念。具言之,设计者应有排除对服务用户侵权以及对未来妨害进行审查和控制的义务;设计者也应自律地表达合规承诺,做出合规设计,并且,违反合规承诺时应承担相应的法律责任[23]。这是因为算法技术本身是中立的,但是算法的架构会受到设计者的影响,能够将其调整为符合设计者利益的模式。这种架构本身是不透明的,且不同于法律规则,有着明显的义务主体承担相应的责任,这就可能导致隐私保护技术的代码本身仍是“遵从了设计者的技术理性”,掺杂了设计者的主观存在[24],尤其是当设计者的伦理观念偏离了法律的“制度理性”,就会导致隐私保护的目标不仅无法实现,而且用户隐私被侵犯的可能性大大增加。因此,隐私设计者应具备相当程度的个人信息保护的法律素养。只有设计者拥有切实的法治意识,他们才能在技术设计的初始就嵌入良好的隐私保护理念以预防不同程度的隐私风险或威胁。
通过技术信任和设计者伦理约束两个方面来对隐私保护进行预先设计,这不仅是对传统个人隐私保护法律框架的扩展,同时,也是对信息技术迅速发展和隐私保护日趋复杂的积极回应。因此,技术保护的路径永远在路上。
(三)强调竞争的企业合规考量
个性化推荐服务作为信息利用方式之一,离不开算法技术和海量数据的支持。鉴于平台作为强有力的信息处理者,与用户之间是一种信息不对称、地位不平等的关系。因此,要想克服个性化推荐服务所带来的信息茧房之弊端,达到有效的信息治理效果,就必须突出企业的自我约束和控制义务。
适当的算法透明可以作为企业自我规制的合理路径之一。算法技术的复杂性及其算法推荐的自动性让广大网络用户以为算法推荐是中立的,所以他们并不会去质疑平台算法的操作过程。算法透明就要求企业以一定的方式和程度向用户说明算法自动化决策的内在逻辑,尤其是解释用户重点关心的特定因素对算法最终决策的具体影响。《算法推荐规定》第12条就鼓励算法推荐服务的提供者“优化检索、排序、选择、推送、展示等规则的透明度和可解释性”,以达到“避免对用户产生不良影响,预防和减少争议纠纷”的目标[25]。更关键的是,出于对商业秘密的重要性、算法本身的复杂性之考量,算法的透明度并不都以公开算法源代码的方式实现[26]。这是因为,一方面,算法源代码的披露某种程度上会让企业在市场竞争中处于不利地位;另一方面,算法源代码本身有着复杂的逻辑,即使是专家也很难理解其运行逻辑,因此公开算法源代码并不是算法透明要求的唯一可能。算法透明的作用只是让用户对于算法设计的基本逻辑和决定个性化推荐的关键因素有较为直观的了解。基于此,用户在使用时可以知道算法如何计算数据来实现个性化推荐,当不想使自己的数据被收集并给自己推荐,或者想要增加信息多样性时能够主动地规避。正是对算法透明这一企业自我规制措施的强调,一定程度上有利于缓解个性化推荐所带来的信息供给、信息服务的差异,有效克服信息茧房之弊。
企业加强自我审查对规制信息茧房之危也有重要意义。企业作为信息处理者,应遵循科技向善的价值导向,通过对代码审计实现算法推荐的自我审查,同时,对代码所引发的信息茧房之漏洞应提供相应的措施和建议加以解决。而且,企业也有算法技术和信息处理等方面的优势条件推动算法向着合理、合法的轨道运行。有鉴于此,算法的个性化推荐并不仅仅只满足用户的兴趣爱好,更应在算法思想中融入保障用户认知健康成长的社会责任意识,避免知识鸿沟的出现。企业加强自我审查的意义在于:一方面,企业需要继续优化算法推荐技术,避免服务一味地迎合用户兴趣以形成主动的信息茧房;另一方面,企业需要融合更多的推荐策略,设计更为健康的推荐机制。此外,企业自我审查也助益于政府监管的实施,提高政府对算法技术的监管能力和监管效率。
通过算法透明和自我审查,企业能有效地弥补个性化推荐服务的不足,缓解信息茧房的效应,增强民众对企业算法技术的信任。不过,对企业自我规制的强调,不仅仅在于个人信息保护的合规义务之落实,更经济的目的在于推动企业之间在数字生活中公平竞争,而不是个人与企业之间相互竞争[27]。只有企业之间充分良性地竞争,个体才能选择符合其利益的企业,或者在提供相同服务的企业之间自由流动,进而从个性化推荐服务中实际受益。因此,企业自我规制最根本的指向就是借此创造企业的竞争优势,使企业在自由市场中处于有利地位。职是之故,企业需要不断地优化自身算法技术,提供多种资源组合来减弱信息茧房的危害,为自身争取较为有效的核心竞争力,也为用户创造更多的选择自由,避免其深陷算法技术形成的信息孤岛之中。
(四)基于平等的政府监管支撑
相较于社会中常见的歧视行为,算法歧视更为隐秘,而且,个人也缺乏足够的能力来识别是否发生算法歧视。因此,借助政府监管的力量来增强个人与企业讨价还价的能力就有其必要性。一般来说,政府对算法歧视的监管,一方面应遵循算法的客观运行规律,另一方面也要灵活嵌入社会治理体系,以实现算法时代决策公正的要求。因此,政府监管的直接目的是为了让算法在法治化的轨道下运行,即通过监督减少算法歧视的隐蔽性和复杂性,确保算法自动决策的客观性与公平性,尽可能减少不必要的歧视给用户生活和工作带来的不利影响。
政府对算法歧视的监管可以从风险评估和算法审计两方面展开。目前,《中华人民共和国网络安全法》《中华人民共和国数据安全法》以及《中华人民共和国国家安全法》都为算法审计与风险评估提供了法的依据。风险评估旨在对算法技术的风险进行客观评估以避免对算法歧视进行泛化处理。申言之,风险评估要求加强对算法技术的真切认识,寻求促进算法良性发展的治理途径,避免让代表平等、公平的社会价值观屈服于经济利益,造成冲击社会经济秩序和传统价值观的现象。风险评估可以从界定风险评估对象、风险源识别和风险评估指标体系三个环节来构建。具体而言,首先,风险评估对象可以以法律禁止不合理的区别对待为基础。当然,也需要注意,某些算法虽是基于合法目的的正当区别,但实际效果却产生了差别性的对待,这就需要具体判断算法所区别的要件是否具有合理性、必要性、合比例性。如果有,则不应认定为风险评估对象,如果没有,则应归入风险评估对象范围[28]。其次,风险源的识别一般以影响权益、秩序和规则的敏感信息或者和敏感信息有潜在关联的数据为主。最后,建立一定的风险评估框架加以标准化。成体系或者标准化的风险评估框架作为一个理性策略,可帮助监管机构快速且全面地了解并确定可能的数据风险程度,并及时采取得当的风险应急措施。而且,评估框架经受实践检验并调整后,还可以作为行业标准加以统一应用,提升政府总体的监管水平。
算法审计是由技术性和非技术性措施组成的审查算法系统的一系列方法的总称[29],其可根据风险评估的指标体系来对算法歧视划分不同的等级,进而根据不同的风险评估指标确定不一样的审计方法。换言之,算法审计需遵循分类分级的原则,区别地对算法主体科以强制审计的义务。算法审计一般是现场检查以及面谈的审计方法。但是,对于算法歧视而言,因其本身多因参数的权重不均而导致,因此就需要使用代码审计的方法来纠正偏差。算法审计为治理算法歧视提供了新思路、新方法,其主要是通过设计不同的治理机制来解决算法歧视所带来的问题,尽量避免政府“一刀切”式的监管模式。有鉴于此,政府的监管不能再是传统的强制—命令式,而应是引导性、回应性的多元方式。而且,政府监管应注意灵活把握监督的程度,不宜过多地介入企业自主管理,妨害其技术创新。
综上,政府监管是对算法歧视风险的事前预防,也是事后救济算法歧视的一道防线。通过政府对算法歧视的监管,算法会受到外部正确价值观的干预,进而切实地减少不公正算法对决策过程和公正结果的影响。因此,政府监管的主要目的就在于确保算法能够承载反歧视的价值伦理。唯有如此,才能真切地践行个人和社会对平等价值的不懈追求。
结 语
个性化推荐服务的广泛应用不仅提高了用户对网络平台的黏性,而且也给互联网企业带来巨大利润。但是,这看似用户与企业双赢的局面,实际上对网络用户的信息安全和隐私造成极大损害,同时,也严重危害到社会的整体利益。因此,如何在个性化推荐服务中保护用户的个人信息免受侵害,达致经济发展和权益保护的平衡就是当下研究的重中之重。当前,面临个性化推荐服务所带来的诸多便利和效用,我们已无法拒绝也不可能拒绝这一技术实践。但是,不受限的技术发展必然会加剧已有的个人信息利用危害或者促使更多可知的和未知的风险损害。在这些可能的风险考量中,个体自主性的逐渐丧失、个人隐私的加倍泄露、人为建构的信息茧房以及无从逃避的算法歧视等风险依然挑动着人们脆弱的神经,刺激着人类敏感的情绪。更为重要的是,社会情境的复杂性和经济利益的多元性使得单一的个人信息保护框架已经无法有效解决个人信息受侵犯以及个人权益被侵害的问题。基于此,试图构建多种组合的手段共同地维护个人权益和社会利益就是当下必然的理性选择。具言之,只有经由重申同意的用户自主确认、通过设计的隐私保护技术、强调竞争的企业合规考量以及基于平等的政府监管支撑等多元参与的路径,我们才能更好地促进技术发展与权利保护的互惠共生。
[参 考 文 献]
[1]中国人民大学高瓴人工智能学院.算法向善与个性化推荐发展研究报告[R].2022-01-07.
[2]金雪.考虑评分差异的网上超市商品组合推荐方法研究[D].大连:大连海事大学,2023.
[3]李敏.电商平台个性化推荐算法的法律规制[J].现代商业,2023(18).
[4]石易,周神保.个性化推荐算法的安全风险[J].中国电信业,2019(5).
[5]崔爱茹,汤小春.基于Web多人协作平台的个性化推荐算法研究[J].计算机与现代化,2013(3).
[6]荣予畅,吴才毓.个性化推荐场景下信息自决权研究[J].江苏科技大学学报(社会科学版),2021(4).
[7]谢远扬.信息论视角下个人信息的价值——兼对隐私权保护模式的检讨[J].清华法学,2015(3).
[8]郭鹏,李展鹏.预测分析技术背景下的个人信息行政保护新机制建构[J].学术研究,2023(7).
[9]年俊潔.司法公开视域下的个人信息保护问题研究[D].兰州:兰州大学,2023.
[10]黄靖雯,陶士贵.数智化阶段的金融科技:风险与监管[J].兰州学刊,2023(6).
[11]贾云雁.论网络隐私权的保护[J].经济视角(下),2011(3).
[12]蔡川子.数据抓取行为的竞争法规制[J].比较法研究,2021(4).
[13]曾建辉.算法时代出版评论的当下境遇与发展进路[J].中国编辑,2021(10).
[14]唐子茜,袁尧,汪卫霞.从信息茧房到多元赋能:知识鸿沟的产生机制及其治理路径研究[J].情报理论与实践,2024(6).
[15]谢永江,杨永兴,刘涛.个性化推荐算法的法律风险规制[J].北京科技大学学报(社会科学版),2024(1).
[16]Daniel R.Shulman.What’s the Problem with Google? [J].THE Sedona Conference Journal ,2014(15):17-34.
[17]李嘉真.商业算法决策的异化困境及其规制出路[D].上海:华东政法大学,2023.
[18]李志颖.算法歧视的两副面孔及其法律规制[J].交大法学,2024(1).
[19]傅雪婷.个人信息同意任意撤回:目的、体系与规则[J].大连理工大学学报(社会科学版),2024(2).
[20]焦俊峰,李晓东.大数据时代个人信息保护的治理体系研究——基于技术信任和专家系统的二分框架[J].电子政务,2022(12).
[21]时明涛.个人信息保护“知情同意”的规范再造[J].民商法论丛,2023(1).
[22]张奕翔.算法时代的隐私保护:矛盾困境、路径方向及未来挑战[J].传媒论坛,2022(16).
[23]王鹏.数据平台个人信息保护的合规义务与路径实施[J].江苏社会科学,2023(3).
[24]郑驰.算法推荐的权利风险及其治理[J].大连海事大学学报(社会科学版),2022(4).
[25]林洹民.《个人信息保护法》中的算法解释权:兼顾公私场景的区分规范策略[J].法治研究,2022(5).
[26]苏宇.优化算法可解释性及透明度义务之诠释与展开[J].法律科学(西北政法大学学报),2022(1).
[27]王娅.个人信息保护理念的错位与回归[J].学术交流,2022(8).
[28]徐杨岚.“技术—环境”视角下算法风险评估指标体系的理论建构[D].成都:电子科技大学,2023.
[29]张欣,宋雨鑫.算法审计的制度逻辑和本土化构建[J].郑州大学学报(哲学社会科学版),2022(6).
[责任编辑 钱大军]
The Legal Risk of Personalized Recommendation Service and Its Regulation Approach
WANG Ya
Abstract:The era of explosive growth of information makes personalized recommendation service occupy an extremely important position in the Internet. Personalized recommendation service can effectively assist the network platform to screen effective information in the huge information ocean, solve the problem of information overload, and greatly meet the personalized needs of users. However, personalized recommendation service is not beneficial without harm, and its unreasonable use by network platforms easily makes users face legal risks such as autonomy limitation, privacy disclosure, information cocoon, algorithm discrimination and so on. In view of these potential realistic risks, we can put forward corresponding requirements for individuals, enterprises and governments to deal with the risks and challenges brought by personalized recommendation services from the perspectives of reaffirming consent, technical design, emphasizing competition and seeking equality.
Key words:Personalized Recommendation Individual Rights Pluralistic Co-governance