林嘉 罗寰昕
【摘要】个性化推荐主要面临威胁人类主体自主性、“信息茧房”与“回音室”效应、大数据“杀熟”方面的质疑。“一键关闭”功能因能够实现隐私个人控制、促进信息自由流通和预防价格歧视而被推崇。然而,用户往往缺少隐私自治能力,个性化推荐造成群体极化之前首先具有议程凝聚、促进交往的价值,以关闭个性化推荐来解决价格歧视存在目标和手段的错位。“一键关闭”不仅难以符合规制预期,其自身还存在可操作度低和所承载公共价值模糊的弊端。个性化推荐的治理应以算法向善为方向,通过打造以信任为中心的透明可解释、用户交互友好的算法推荐,发挥个性化推荐的公共价值,增进社会福利。
【关键词】个性化推荐 算法规制 可信算法 隐私个人控制 “信息茧房”
【中图分类号】G206 【文献标识码】A 【文章编号】1003-6687(2024)3-079-10
【DOI】 10.13786/j.cnki.cn14-1066/g2.2024.3.011
2021年12月,国家网信办等四部门联合发布《互联网信息服务算法推荐管理规定》(以下简称《算法推荐规定》),为算法推荐服务提供了规范指引。其中,《算法推荐规定》第17条第一、二款分别规定:“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项”“用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务”。该规定在实践中演化为“一键关闭”功能,备受关注。2022年国际消费者权益日到来之际,《经济日报》发布一则名为《微信、抖音、淘宝、微博等头部APP已允许用户一键关闭个性化推荐》的报道, 经各大主流媒体转发,引发很大反响。[1]
“一键关闭”功能广受好评,被认为是推动个人信息保护、消费者权益保护的有益举措。正如《人民日报》评论称,“算法”不能变“算计”,“一键关闭”个性化推荐功能有助于压实平台责任,“进一步推动解决近年来人们反映强烈的信息茧房、算法歧视、大数据杀熟等问题”。[2]
基于上述背景,本文将回顾“一键关闭”个性化推荐作为算法规制措施的由来,即立法者对其功能有着怎样的预期?这些功能预期是否顺利实现?通过回溯“为何要一键关闭个性化推荐”,力图说明“我们追求怎样的个性化推荐”是比单纯拒绝个性化推荐更具现实意义的命题。校准对于算法推荐系统的规制目标后,本文试图从打造透明可解释和交互友好的可信算法推荐等方面提供规制新解。
一、个性化推荐的“原罪”
对个性化推荐的质疑主要来自三方面,这些质疑分别从隐私保护、群体极化和偏见歧视角度对个性化推荐技术展开批评。[3]
1. 算法过滤取代用户判断
个性化推荐中,算法过滤取代用户判断,损害个人的信息自主权,进而威胁人类主体的自由与自主。个性化推荐的实现需要对用户的设备信息、位置信息以及在使用产品时的行为信息进行自动分析和计算,根据计算结果从信息候选池中筛选出用户可能感兴趣的内容进行推送。由此,个性化推荐算法取代用户自身,决定了用户所获信息的内容和范围,并因此被谴责威胁到人类的自主价值。关于人的自主选择能力对于人类尊严和价值的重要性以康德有关自由的学术思想为代表,在康德看来,人类拥有某种意志并且能够自由地实践自己的意志,有能力自律地行动,正是这种能力,而非运用这种能力的结果,对人类来说最为重要。[4]康德的主体理论对近现代自由主义思想影响深远,当代数据隐私领域持续强调的个人信息自主、自治、自决概念,正是康德理性主义精神的体现。[5]对个性化推荐的批判符合古典自由主义传统。互联网以及操控互联网的大型平台,决定了信息如何呈现给世界,搜索引擎、社交媒体、电子商务等大型平台决定了用户可以获得哪些信息以及以何种形式获得信息。个性化算法推荐过滤掉它认为与用户爱好不相关的信息,即用算法过滤取代用户有意识的自主选择。通过塑造用户接收信息及与信息交互的方式,个性化推荐控制了人与信息以及人与人之间的互动,通过控制用户在线互动的内容和对象,个性化推荐限制了用户主动选择信息内容和信息来源的能力,因而被批评。
2.“信息茧房”与“回音室”
“信息茧房”与“回音室”效应是对个性化推荐的常见批判,亦可描述为数字权力的滥用,批评者表达了定制信息服务对言论自由和协商民主的危害。[6]“信息茧房”与“回音室”的概念由美国学者桑斯坦提出,其通过21世纪初出版的著作《信息乌托邦:眾人如何生产知识》《网络共和国》《网络共和国2.0》和《标签共和国》系统论述了信息通信的民主功能,并引入了“信息茧房”与“回音室”效应等概念。“信息茧房”与“回音室”效应形象地描述了过去传播学研究中提出的“选择性心理”及其结果,在桑斯坦看来,“信息茧房”意味着人们只听他们选择和愉悦他们的东西。作为一名宪法学者,桑斯坦把对社交媒体的研究和政治民主结合,他认为,一个运转良好的民主社会中,人们不会生活在“回音室”或“信息茧房”之中,并进一步提出审议民主质量应作为信息通信的评价标准,一个好的通信系统应有助于促进“协商”。正如有学者评价,“与其说桑斯坦关注的是民主,不如说他关注的是‘协商”。[7]桑斯坦对“信息茧房”与“回音室”效应的批判源于对审议、反思及问责的民主制度的追求,担忧预先过滤会威胁到网络用户作为公民获取信息、沟通协商、表达观点的空间。在《标签》中,桑斯坦提出两个更为具体的促进观点流动和民主秩序的标准:不期而遇的机会与共享经验。[8]个性化推荐技术被认为是数字时代阻碍信息流通局面和观念市场繁荣的“元凶”,可能会导致信息窄化和用户价值观的封闭,进一步加剧群体极化和社会黏性丧失,最终造成社会分裂的不良后果,并且不利于区域化和全球化进程。
3. 用户信息与浏览数据的货币化
对个性化推荐的批评之三源于用户信息与浏览数据货币化造成的价格歧视风险。19世纪初,西方报业新闻界“黄色新闻”风靡一时,“黄色新闻”以大量漫画和煽情报道吸引受众眼球,采用以低售价、高发行量赢取高利润的经营方式;如今进入新媒体时代,同样是为了尽可能获取受众的注意力资源,个性化推荐和定向广告也成为信息领域一种划时代的象征。互联网企业一方面提供免费信息服务,另一方面则通过用户数据的货币化、商品化盈利。个性化算法推荐中蕴含的用户画像、定向广告、“大数据杀熟”,引发消费者对于隐私与个人信息权益的担忧, 并进一步演化为对算法歧视与偏见的控诉,价格歧视即为最受关注的一种。[9]当一家公司出于与供应成本无关的原因,对相同或类似的商品或服务向不同消费者群体收取不同的价格时,就会发生价格歧视。[10]经济学文献传统上认为,个性化定价的发生需要四个条件:一是对消费者个人支付意愿的评估能力;二是消费者的套利能力有限;三是市场支配力的存在;四是通过隐藏这种商业行为来对抗消费者对个性化定价可能产生的负面看法的能力。[11]随着大型互联网平台数据收集与分析能力的提高,个性化推荐算法的行为预测愈加准确,可以实现更有效和有针对性的个性化定价,而在网络世界中,隐藏这种商业实践相对更加容易,消费者很难通过定价和广告机制辨别出有竞争力的替代方案,这使得个性化定价可以顺利实施。
二、“一键关闭”的魅力
针对上述个性化推荐的数条罪状,“一键关闭”作为算法治理手段具有充分的魅力。这种魅力从原理而言源于三方面:其一,数据隐私保护的“个人信息控制论”传统;其二,信息自由流通对社会分裂与群体极化的免疫;其三,“一键关闭”呼应了互联网用户对“大数据杀熟”的反感与抗拒情绪。上述规制效果直觉性地理顺了“一键关闭”的规制逻辑。
1. 隐私个人控制论
歐美数据隐私保护的智慧长久以来建立在一种自由主义范式之上,可称之为“隐私控制”。[12]1890年,美国学者沃伦和布兰代斯提出“隐私权”的概念,主张隐私权意味着“独处的权利”。20世纪70年代,为了回应计算机数据库处理个人信息时伴生的问题,公平信息实践在美国应运而生,其历经各个版本的演化,而核心命题之一始终是赋予个体以隐私自我管理的权利。欧盟《一般数据保护条例》(GDPR)于2016年通过,作为一部基本权利保障法,其制定的总体思路是基于“个人数据关系个人尊严”“赋予个人对自身数据的控制权以抗衡数据处理行为”的价值认知,进而创设个人数据保护权以保护个人权利不因个人数据处理而受侵害。可见,经过多年的发展,数据隐私法的价值总是以自主控制的理想为中心。[13]
延续“隐私控制论”的逻辑,个人信息保护领域个人信息权和算法有关权利作为控制个人信息利用的个体权利,一直是数据隐私保护的核心。隐私法通常被称为“以权利为基础”的法律。尽管欧盟和美国存在人权保护倾向和市场规制传统的差异,但可以说二者都发展出了以权利和控制为本位的隐私保护机制。正如上文所述,在这种保护范式中,可以清楚地看到康德式的自由主义政治理论根源,围绕个人对其数据的权利,自由自主原则已经被确定并概念化。
我国的《个人信息保护法》出台时间较晚,亦受英美等国隐私控制范式的影响,从近年来本土研究中有关个人信息“权”与个人信息自决的大规模讨论中可窥一斑。[14]“一键关闭”个性化推荐是算法规制领域隐私控制保护范式的典型代表,它要求互联网信息服务提供者向用户提供不针对其个人特征的选项,即赋予用户对个性化推荐的拒绝权。通过拒绝系统对用户浏览、购买、点击等行为的跟踪,用户得以控制其个人信息,主要是控制算法对其个人信息的数据分析,从而缓解对个人自主的威胁。
2. 信息自由市场
“一键关闭”在信息传播和传媒通信领域的重大魅力在于其刺破了为个人用户专属定制的“泡泡”,促进更广泛和完整的信息在用户处展现及流通。在有关表达自由以及媒介责任的论述中,一直存在所谓“观念市场”的类比,它借用了经济学相关概念,在这样的一个市场中,真理和谎言相互竞争,人们期待前者终会战胜后者。[15]观念市场成为如黑格尔所追求的以“真理”构成人的“现实自我意识”的前提。
3.“杀熟”的歧视感知
“大数据杀熟”概念自创生起,即被社会公众理解为一种负面现象。目前能检索到的含“大数据杀熟”关键词的20余篇阅读量“10万+”微信文章中,均对其使用否定评价,文章标题关联了“被宰”“潜规则”“网友亲测后气炸”等容易激发消费者反面情绪的概念。在英文语境中,“大数据杀熟”即价格歧视,或称差异化定价、个性化定价,是一种常见的经济现象,在经济学里作为中性词,本质是弹性定价策略,根据消费者的消费意愿、消费行为和消费模式等因素收取不同的价格。在中文语境下,“歧视”则更容易传递否定性评价信息。
对“大数据杀熟”的负面情绪一方面来自大数据时代公众对技术黑箱的恐慌;另一方面则源自天然的消费者直觉,“杀熟”的用词从直觉看破坏了消费者的关系期待。对“杀熟”的抗拒情感可以从中国传统人伦秩序方面进行理解。费孝通先生把中国社会结构特点归纳为“差序格局”,旨在描述亲疏远近的人际圈层。[16]以关系作为社会基础的中国人偏重由关系或交情建立的信任, 尽管当前的网络关系很难说仍维持了这种社会交往结构,但“杀熟”这样的话术安排还是隐含了消费者与平台及其算法系统之间信任关系的破裂。[17]传统社会关系网的处罚机制通过声誉效应实现,处在关系网中的个人难以承担破坏信赖之后对声誉的损坏。互联网语境下,这种处罚机制依然若隐若现,大数据“杀熟”被广泛报道后,往往唤醒了消费者对平台企业的警觉和防范心理状态,造成了大数据技术的低信任局面。在这种对抗情绪占主导的互动关系中,“一键关闭”自然成为一把利器,对于担心被“杀熟”的消费者来说,关闭算法对其行为的跟踪无疑是一剂安心药。
三、“一键关闭”个性化推荐的迷思
“一键关闭”作为个性化推荐算法的治理手段,对其的各项质疑是否可以得到妥善解决?下文将从隐私个人控制悖论,个性化推荐的议程凝聚价值和“一键关闭”是否能够作为价格歧视规制手段三方面进行分析,揭示以“一键关闭”治理个性化推荐所存在的手段与目标之间的错位。
1. 隐私个人控制悖论
在个性化推荐场景中,“一键关闭”的隐私个人控制的规制范式存在两方面疑问:其一,用户是否有意愿行使控制权;其二,“一键关闭”后,用户真的能控制自己的信息隐私吗?即使平台设计了便捷的“一键关闭”功能,用户也可能对其熟视无睹。即使在“一键关闭”后,用户也可能因体验不佳又重新启用个性化推荐。再者,即使用户关闭个性化推荐,也并不意味着推荐的减少或者定向广告的减少,向用户扑面而来的可能是杂乱无章的信息和随机且精确性大幅下滑的推荐,进而造成信息过载。用户当然可以通过自己设置兴趣标签或者关键词检索的方式浏览信息,这看似是一种完美控制个人信息暴露环境和隐私利益的方式,但实际上又陷入了另一种形式的“信息茧房”——由于信息过载和用户认知有限,这种信息茧房的桎梏效应可能比个性化推荐情境更加严重。
个人信息控制论的流行始终伴随着争议,体现为个人信息个体性和流通性的二律背反。在争议的声音中,最有力的两条线索来自个人信息的场景化理解和行为主义规制。[18]1989年,耶鲁大学法学院第16任院长波斯特发表一篇题为《隐私权的社会基础:普通法侵权中的共同体与自我》的论文,由此奠基了未来20年以社群主义理解隐私的思潮。[19]国内近十年来发端的数据隐私研究中,康奈尔大学法学院教授尼森鲍姆的“场景融贯”理论可谓引用率最高的西方学术资源之一。根据尼森鲍姆的说法,对于人类而言,在一系列可能的关系和角色中相互交往,在特定的上下文中建立和协商“部分公开”的“隐私”概念是完全合适的,即共享第三空间介于严格的个人隐私概念和完全公共的非私人空间之间。[20]尼森鲍姆的思想内核亦源于对个人信息的社群主义理解,“场景”可以被认为是社群架构的具体化阐释。医患关系之间的信息关系常被用于生动形容场景化的隐私保护:医生和患者之间构成了医疗信息使用的特定场景,病人当然地希望有关其医疗细节的某些隐私得到尊重,然而,这并不意味着患者或医生绝对控制患者的健康信息,医疗细节往往会被适当地分享给其他关心该病例或相关的医护人员,患者不会因此而感受到被冒犯。但如果医生向药物公司或广告公司售卖患者医疗信息,患者当然地会感觉到隐私受到侵犯。
在社群主义隐私观的哲学背景与场景理论指导下,进一步发展出隐私的行为主义规制进路,即个人信息保护应当根据不同行为所可能侵犯的个体与社会的不同权益而进行不同程度的规制。[21]这种对个人信息保护作为“行为法”而非“权利法”的理解,超越了个人信息保护的权利话语,成为个人信息控制论思想的有力竞争。运用“行为法”理解我国个人信息保护,《个人信息保护法》“旨在保护个人信息处理中的个人权益不受侵犯”,是“围绕个人信息处理展开”的规范,而非关于个人信息权的法律。[22]依循行为主义规制的逻辑,对于如何规制个性化推荐,是行为限度问题,而非对个人信息的控制权行使问题。
2. 公共领域与交往理性
个性化推荐确实有加重“信息茧房”或“回音室”效应的可能,但从大众媒体作为公共基础设施的角度来看,“一键关闭”并不能直击问题所在。促进协商民主的前提是议程凝聚。从议程设置理论发展出来的议程融合(Agenda Melding)理论,从深层次说明了公共议程对于社会整合的意义,麦库姆斯和唐纳德·肖认为, 媒体设置的议程之所以能作用于公众,是因为它们具有聚集社会群体的功能, 而这是源于人们都有一种对于“群体的归属感”的需要。[23]议题凝聚是观念冲撞的前提。我们彼此需要了解我们在讨论一个什么样的问题,我们是否在讨论同一个问题,然后才是观点的分享,结果有可能是和谐也可能是对立,最终的目标才是寻找共识。“交谈”本身就是一件非比寻常的事。[24]个性化推荐在造成群体极化和社会分裂之前,首先具有形成阿伦特、哈贝马斯等学者所称“公共领域”的重大意义,即促成主体之间合理的“交往”。“交往理性”的运用条件之一“言谈的有效性”要求可理解、真实、正当和真诚。“一键关闭”看似避免了信息的单一聚集,但有可能伤害在激化群体极化之前的讨论场域、理性交谈行动的形成以及一定程度共识的凝聚。数字时代的“文字失语”现象愈发普遍,个性化推荐让用户发现相似的观点和那些表达相似观点的人,首先应当肯定其增进沟通、鼓励表达的重要价值。至于观点的多元则需要合理的算法设计,“一键关闭”后并非就意味着能够拥有一个理想、中立、多元的信息环境。
3. 议程、框架与“杀熟”误解
议程设置和框架理论都是传播学效果研究的经典理论,两者都描述了媒介通过新闻报道构建出的“拟态环境”来影响受众的议程和认知。议程设置理论由麦库姆斯提出,讲述大众媒介对公共议程的影响,以及其塑造大众对报道客体的属性印象,简单地说就是媒体不仅能决定人们想什么,还能决定人们怎么想。框架理论一般认为来自社会学,戈夫曼将贝特森提出的“框架”概念引入文化社会学,指出人们借助框架来识别和理解事件,对生活中出现的行为赋予一定的意义。议程设置理论注重媒介效果,强调新闻媒介对形成公众意见的焦点施加的影响;框架理论注重研究媒介话语,重点在于意义的建构和文化共鸣。作为传播学的经典理论,议程设置和框架理论试图阐释传播和受众的相互关系,讲述大众传播塑造受众认知的规律。正如李普曼在其著作《公众舆论》一书中介绍的“虚拟环境”和“真实环境”的概念,外部世界是通过媒介呈现在我们每个人面前的,因此媒介如何选择和报道事件将影响我们对外部世界的看法。[25]议程设置和框架理论有助于我们较好理解从大数据“杀熟”术语概念的产生到传播,这一过程如何塑造了大众对个性化定价的反感情绪与偏见态度。通常情况下,看到“价格歧视”的字眼,人们就会习惯性地挥舞起道德大棒,得出痛打大數据“杀熟”的结论。[26]
那么,大数据“杀熟”确实如其名号一般恶劣吗?通过处理消费者个人数据实现的价格可塑性涉及法律和政策的许多领域:反垄断、竞争、隐私、合同、消费者保护和反歧视,其知识体量之庞杂非本文所能容纳。在此仅力图说明一项有关价格歧视的共识,以解释大多数消费者长久以来的误解——价格歧视并不必然损害消费者福祉。①学术研究普遍认为,信息、价格歧视和消费者福祉之间的关系非常复杂,当企业拥有更多关于消费者偏好的信息时,总消费者剩余可能增加也可能减少。即使是在对个人信息保护采用较严格的人权保护模式的欧盟,价格歧视也更多被看作竞争法问题。[27]
以我国目前的规制实践来看,对价格歧视的规制集中在竞争法领域,除了价格歧视与滥用市场支配地位、价格串通等垄断行为相结合外,监管机构在个性化定价问题上的态度是谨慎和保守的。审判实践中常见法院认为动态调价行为属于正常经营行为、不构成价格欺诈的案例。从法律文本上看,立法所涉要件包括“不合理的差别待遇”“不公平的交易条件”,可以看出立法为差异化定价留有正当性空间。国务院反垄断委员会最新发布的《关于平台经济领域的反垄断指南》更是明确列举了平台经济领域经营者实施差别待遇的正当理由。甚至有学者指出,完全的非个性化结果几乎没有可能,应把拒绝个性化推荐理解为一种“用户感知标准”,即使经营者在提供搜索结果时无法避免利用与消费者个人特征相关的信息,其在呈现结果时也不应让消费者有明显的正遭受不利差别对待(歧视)的感觉,以此增加关闭个性化推荐的可操作性。②
可见,大数据“杀熟”并非如其名字一般的凶神恶煞,立法与司法的审慎态度在压倒性的反“杀熟”报道声音中鲜少受到关注。再者,“一键关闭”与价格歧视的竞争法规制并无手段与目标之间的相关性,且不论大数据杀熟本身是正效应还是负效应消费者并不清楚,关闭之后还有可能降低消费者福利。对于恐惧“杀熟”的消费者们,“一键关闭”或许是一剂抓错的药。
四、从“一键关闭”到“算法向善”
上文分析了对个性化算法推荐的常见质疑,并进一步阐释了“一键关闭”功能可能无法达到预期的规制效果或并不适配所要解决的法律问题的理由。回到“一键关闭”功能本身,除了用来解决个性化算法推荐的弊端,这种选择机制本身能否给用户带来价值?更深一层的问题是,我们需要怎样的个性化推荐?
1. 关闭个性化推荐之后
算法推荐无处不在。推荐系统的任务是联系用户和信息,一方面帮助用户发现对自己有价值的信息,另一方面让信息能够展现在对它感兴趣的用户面前,从而实现信息消费者和信息生产者的双赢。[28]推荐系统和网络时代早期的分类目录、搜索引擎一样,都是帮助用户筛选信息的工具,但它们满足的需求不同。搜索引擎满足了用户有明确目的时的主动查找需求,而推荐系统能够在用户没有明确目的的时候帮助他们发现感兴趣的新内容。分类目录、搜索引擎、算法推荐都可以作为缓解信息过载的工具,算法推荐还具有发掘物品“长尾”的功能,推荐系统通过发掘用户的行为,找到用户的个性化需求,从而将长尾商品准确地推荐给需要它的用户,帮助用户发现那些他们感兴趣但很难发现的商品。[29]
个性化推荐是推荐系统的一种,主要作用是通过分析大量用户行为日志,向不同用户展示不同的个性化页面,来提高网站的点击率和转化率。尽管不同的网站使用不同的推荐系统技术,但总体来说,几乎所有的推荐系统应用都是由前台的展示页面、后台的日志系统以及算法推荐系统三部分构成的。可以说,算法推荐无法关闭,它总是存在。不妨进行这样一场思想实验:无论打开任何网站,首页都需要根据一定逻辑陈列内容。“一键关闭”个性化推荐,并没有关闭推荐系统。那么,关闭了个性化推荐,留下的是何种推荐?
算法推荐的分类标准有很多,按传统的分类方法一般分为基于内容的推荐、协同过滤推荐和混合算法推荐。
其一,基于内容的推荐为用户推荐项目的依据是该项目与用户之前偏好的项目有一定相似之处。其二,协同过滤推荐又可以分为基于用户的推荐和基于项目的推荐。基于用户的协同过滤推荐在算法推荐中应用最广泛,其基本逻辑是分析大量用户对项目的评分以发现用户偏好的相似性,然后向用户推荐符合其偏好的项目。可见,基于内容的推荐和基于用户的协同过滤推荐均可以划入个性化推荐范畴,前者需要分析用户的历史偏好以及产品标签和用户行为标签之间的相关度;后者属于典型的个性化算法推荐,其不仅需要分析特定用户的偏好,还需要分析与用户偏好项目相似的群体与该用户之间的相关性。其三,混合算法推荐是指通过混合两种或者两种以上的推荐方法进行推荐,包括加权式、切换式、混杂式、层叠式和级联式等形式。[30]最新的综合性推荐系统还有基于深度神经网络的算法推荐,深度学习算法能够从多个角度学习用户与项目之间的交互,这种深度混合学习有助于更全面地反映用户的偏好,并增强模型的泛化能力。[31]混合算法推荐是数种算法融合的系统,其中只要涉及个性化算法推荐,其整体推测内容就带有个性化推荐的属性,无法单独分割出非个性化推荐结果。对于深度学习与机器学习模型结合后的推荐系统,更是难以分割“个性化”与“非个性化”体验,人们甚至不完全清楚模型中的“主要参数”是什么以及它们的效果是什么。
可见,上述三类常见的算法推荐都大体属于个性化推荐范畴,一种可能符合“非个性化推荐”的算法是基于项目的协同过滤推荐,又被称为项目对项目的推荐。[32]该系统不分析任何特定用户的数据,而是根据给定产品和其他用户(那些同意个性化推荐的用户)的行为之间的关系来生成这些建议,这种推荐形式类似于“像你一样对项目X评价很高的人,也倾向于选择项目Y,建议你可以尝试下项目Y”,以及“购买了 X的用户,也购买了Y”。尽管这种算法推荐符合非个性化算法推荐的范畴,但其数据集的基础依然需要其他同意个性化推荐的用户的行为数据。另一种非个性化推荐类似于搜索引擎,如消费者直接填写其偏好——“敏感肌”“混油皮”“无香款”“防晒指数”,根据这些信息,系统直接推荐定制化的建议,例如推荐一款粉底液。这种推荐系统从另一个角度看也属于个性化推荐,只是个性化的信息是用户主动输入的结果,而非算法基于日志的分析。
经过上文的梳理可发现,真正符合非个性化推荐的算法推荐数量稀少。有学者指出,与其说“一键关闭”赋予了用户对抗数字权力的武器,不如说它更有可能创造一种虚假的选择权。[33]“一键关闭”功能强调对用户而言选择的重要性,但对于这些选择背后所承载的价值却出奇的模糊——关闭了个性化推荐,之后呢?正如上文所述,强调选择的重要性更像是延续了一种对隐私自治的坚持,而隐私自治作为一种规制手段本身具有相当的局限性。即使用户能够真正有效管理一个算法推荐系统,设想一个热衷于驯服算法的用户,他/她果断地关闭个性化推荐功能,并自主设计感兴趣的标签,又将界面内容按自己偏好进行了排序,这难道不是恰恰印证了“信息茧房”和“回音室效应”?反过来设想,一个并不知道有“一键关闭”功能的用户,抑或怠于关闭推荐的用户(可能大多数用户属于此类),在某日打开一款视频软件,首先浏览了首页的推荐内容,然后进入自己的关注列表查看了博主的更新,接着又点进了热搜页面阅读今日热点,再在搜索栏上检索了一个同事推荐的短视频,最后关闭了这个视频软件,打开了另一款新闻软件。这位用户虽然没有行使“一键关闭”的选择权,但可能更加满足“一键关闭”功能预设的预防信息窄化的目标。
究其根本,“一键关闭”作为一种规制工具,可能在工具所承载公共价值的设想上出现了错位。正如上文所言,“一键关闭”并不意味着用户能够控制其数据隐私,“信息茧房”“回音室效应”与个性化推荐并没有必然关联,价格歧视也非“一键关闭”所能够解决的问题。再者,个性化推荐真的能够“一键关闭”吗?用户一键关闭了哪些推荐要素?关闭之后的算法产品是怎样的面貌?这些疑问都共同导向了一个算法推荐规制的更根本的命题——我们需要怎样的算法推荐?
2. 校准目标:算法向善
当算法推荐乃至个性化推荐无法回避,探究“我们追求怎样的算法推荐”是比“我们如何关闭个性化推荐”更关键的命题。向用户推荐其可能感兴趣的商品可能会让其感到隐私空间受到冒犯;但向用户推荐其不感兴趣的广告,可能也是另一种低效。以向善的技术伦理观引领个性化算法推荐,目标是使其最大化为人类带来福利,最小化可能的风险和危害。
不妨回顾一下个性化推荐的前世今生。在个性化推荐技术诞生以前,网络平台主要以受众数量作为招揽广告商资本的筹码。为此,平台公司需要不断提高平台的质量和用户体验,如搜索引擎追求准确的检索结果,视频平台追求丰富的电影电视资源。个性化推荐诞生后,流量不再是一个终极标准,广告商更看重的是广告投放后的效果和质量,即算法推荐能否精确地分析出哪些用户需要哪些广告、哪些用户更有机会被哪些广告说服从而诱发购买行为,这比“我有多少用户”更加重要。由此,相较于“做出更好的互联网产品”,平台经营目标向收集用户行为数据和挖掘消费意愿倾斜,这个过程可能会损害消费者福利,引发对分配正义的担忧。
对算法推荐的塑造应兼顾对消费者负责和广告投放需求两方面,平衡互联网平台的公共价值和经济激励。个性化推荐不完全等同于平台对数字权力的滥用,算法规制应鼓励与用户利益一致的个性化推荐。有学者将这种个性化推荐规制目标置于信义法框架之中,以忠诚义务规范个性化推荐技术基础上的用户画像、定向广告等行为。[34]忠诚的个性化推荐是指不以损害用户利益的方式应用算法推荐,即使存在经营的经济必要性冲突。[35]在一些红线问题层面,忠诚的个性化推荐是比较好理解的,如电商平台根据特定用户的阅读偏好推荐新书被认为是符合用户利益的,但针对受保护、边缘化或弱势群体的个性化推荐是不被允许的,如包含地域歧视或民族歧视的招聘廣告投放。是否为忠诚的个性化推荐需要根据特定信息的关系性质和所承载的公共价值来进行判断,如虽然都是根据地理位置信息投放的行为广告,但招聘广告可能会被认定为就业歧视行为,其他类型的广告服务如美妆广告则不在禁止范围。①
如果说忠诚的个性化推荐能为用户提供防御型的保护,那探究个性化推荐背后的公共价值则是力图为用户乃至公众提供一种积极性的保护,尤其是对于众多大型平台来说,履行社会责任和服务集体福利是我国数字经济发展战略对其的内在要求。作为不同的公共产品类型,个性化推荐承载了多元化的公共价值。作为大众传播的新闻媒体是公共服务型产品的代表,其以提供全面客观、多元真实的讯息服务为使命,因此无论是传统媒体平台、资讯整合平台还是新闻定制化平台,除履行忠诚义务外,还具有信息交流、文化凝聚、民主参与和大众教育等意义,平台企业应主动承担这些公共使命,以主流价值观引领算法参数设计。个性化的信息服务通常具有积极意义,尤其是促进了无数小众知识、兴趣市场的崛起,但信息的意外邂逅和共同经验也很重要,算法参数的开发应致力于对两方面的统筹,如有关某社会事件的评论,可以同时推荐各方意见,而非限于一方观点刺激群体极化,以创造一个交换评论与批评的场所,带来去极化效应。[36]
无论是否“一键关闭”,忠诚义务和公共价值追求都应该成为个性化推荐的内在品格。“一键关闭”的制度安排当然很有意义,但只有在明确其制度目的和价值追求的基础上才能够更好发挥该制度的意义。相较于作为一种隐私和信息控制工具,个性化推荐更适合被当作一种关于信息服务的多样化的选择。对于用户而言,不是“一键关闭”才能享受安全的个性化推荐,无论平台提供何种算法推荐,其应当都是安全可靠的。个性化推荐可能是一种更便捷、更直观的选择,但并不一定是最好的选择,信息产品市场应允许并鼓励不同用户的不同信息获取偏好。即使个性化推荐是安全的,也会有用户选择“一键关闭”,使用自己的“大脑算法”。从这个意义上来说,“一键关闭”是为了满足浏览的个性化审美而存在的,也是为了满足多样化偏好而存在的。
五、迈向信任的算法个性化推荐
对于个性化推荐技术的功过评判,并非如“一键关闭”功能那样直接果断,评价任何一种通信系统是可取还是不可取都过于简单。在饱受批评以前,个性化推荐也曾被认为是互联网媒体时代的伟大发明,极大优化了用户体验,满足了人民群众日益增长的新闻媒体需要。无论是对“一键关闭”的规制还是公众对个性化推荐的担忧,在更大层面上都体现了公众对科技行业的不信任。让个性化推荐更好服务于人类社会,需要打造可信推荐,在为用户提供高质量信息服务的同时增进社会福利。以可信算法为目标塑造个性化推荐,可从划定个性化程度的法律限度和构建透明可解释、交互友好的算法方面着力。①
首先,政府监管应为个性化推荐划定红线。我国有关算法推荐的法律红线由来已久,2016年“魏则西事件”促使医疗信息的竞价排名模式纳入医疗广告监管范围。在国外,“剑桥分析事件”后,美国众议院通过了《诚实广告法》,要求所有社交媒体披露线上的政治竞选相关数据。欧盟最新《数字服务法案》明确限制数字巨头的在线广告行为,阻止平台利用基于性别、种族或宗教等数据的算法来针对用户,也禁止针对儿童投放广告,试图将人们推向某些产品和服务的欺骗性策略也被禁止。个性化推荐中,无论是行为广告还是内容推荐,都需要法律划定一定限度。如针对青少年,应鼓励使用防沉迷的个性化算法推荐;针对医疗、求职等敏感信息的个性化推荐,应遵守伦理与道德边界。除法律划定红线以外,不同场景的个性化推荐系统还应注意培养用户与算法之间的信任关系,避免超出隐私期待的推荐内容导致用户的恐慌和猜疑情绪,在全社会营造健康可持续的算法推荐生态。有研究指出,消费者有两类非常反感的定向广告类型,分别是利用从第三方网站而不是广告出现的网站获得的信息制作的广告,以及在用户没有主动披露的情况下推断出的相关敏感信息(如怀孕)。[37]避免引起用户不满的算法推荐,有助于消除怀疑和反感,培育平台与用户之间的信任互惠关系,在平台经济健康发展的同时,使用户也不断受益。
其次,采用透明可解释的算法推荐并增强平台与用户之间的互动反馈,培养用户对算法的信任。打造可信任和受欢迎的个性化推荐,不能仅注重算法推荐获取用户注意力和推测用户偏好的定制化服务,还应发挥推荐系统作为大众传播的政治、经济和社会功能。
有关透明与可解释的算法治理由来已久,就个性化推荐而言,透明与可解释不是简单的信息披露或者赋予用户隐私控制权,而应致力于以保障知情权的方式培养用户信任,打造安全可靠的个性化推荐系统。尽管完全的隐私个人控制在信息时代并不可能,但算法推荐可以努力让用户感受到对信息与隐私的一定掌控力,以达到增进信任关系和互动关系的目的。平台增强自身的可信赖性,不仅对用户有利,对其自身也有利。有研究指出,当用户信任一个平台时,算法透明有助于增加定向广告的效率。[38]除了传统的算法透明规定明确的告知义务外,以信任为中心的算法推荐还可尝试向用户解释其为什么要收集这些个人信息,以及这些信息将如何产生更恰当、高效的广告。扎克伯格在美国参议院接受质询时谈道:“尽管有些人不喜欢广告,但人们也不想要无关紧要的广告……我们从社区得到的压倒性反馈是,人们宁愿我们展示相关性内容。”在可解释方面,同样要以信任关系为中心,算法解释应针对特定场景用户最关心和担忧的问题。如谷歌的英语搜索增加了信息評估功能,对于特定搜索结果附加在线评估信息提示,提醒用户可以检查某个主题的信息来源是否受信任,或者稍后在有更多可用信息时再行检索,除此以外,还提供了来自独立事实核查机构的事实核查功能,以及其他提升信息检索质量的措施。
如果说透明可解释的个性化算法推荐系统为用户提供了基础性的安全保障,交互友好的算法推荐设计则力图挖掘和拓展用户的兴趣与偏好,为用户打造一个多元信息沟通格局。“一键关闭”功能内含了对“选择权”的追求,但这种目标内嵌在隐私自治的逻辑中,具有相当的局限性。建立交互友好的个性化推荐系统同样是对选择权的强调,但其背后所承载的价值目标是信息多元化,致力于挖掘用户兴趣的“长尾”,而非一味圈住用户的特定兴趣。以用户兴趣和传播信息的完整性和多样性为目标,平台应从用户和物品角度设计多样化算法推荐,以更精准并且多元的方式为用户做推荐,破除信息茧房。在克服用户“选择性心理”方面,平台可以通过交互界面的“助推”来实现目标, 同时,国家应注重对数字公民媒介信息素养的教育,促使用户建立多元化理解信息的意识。[39]“赋能过滤泡泡”和“反过滤泡泡”是打造交互友好系统的经典工具。[40]一方面,“赋能过滤泡泡”意味着提高用户定制算法推荐的能力,如鼓励新用户在进入平台前选择某些关注标签,并告知随时可在特定位置修改个人偏好。提高用户定制化能力旨在消除用户对被数据操控的担忧,培养用户的信任感。另一方面,“反过滤泡泡”则故意让人们看到与他们的观点和偏好相反的信息,以避免同质化推荐导致的群体极化和信息级联。
“用户比大多法学学者想象中更喜欢算法决策。”[41]一旦基于代码的决策在成本、速度、准确性方面更具优势,消费者对算法的偏好就会增加,在许多案例中,人们表现出更喜欢公式而不是人类。个性化推荐具有增进人类福祉,创造更好世界的充分潜力,它需要具有信息素养的专业群体的积极作为、主动塑造,而非简单交给用户“一键关闭”的权利。正如习近平总书记在网络安全和信息化工作座谈会上强调的,“办网站的不能一味追求点击率,开网店的要防范假冒伪劣,做社交平台的不能成为谣言扩散器,做搜索的不能仅以给钱的多少作为排位的标准”。“一键关闭”功能于时代的意义应当与特定的公共价值目标结合,我们有理由期待一个以可信赖个性化推荐增进人类福祉的社会。
参考文献:
[1] 佘颖. 把算法开关交给消费者,好![N]. 经济日报,2022-03-16(5).
[2] 人民日报评论:一键关闭“个性化推荐”,避免“算法”变“算计”[EB/OL]. [2022-03-17]. https://mp.weixin.qq.com/s/yNnZ_2vL4b1lhxRU1VfIgw.
[3] 林洹民. 个性化推荐算法的多维治理[J]. 法制与社會发展,2022(4):166.
[4] 史蒂芬·缪哈尔,亚当·斯威夫特. 自由主义者与社群主义者[M]. 孙晓春,译. 长春:吉林人民出版社,2011:9.
[5] Daniel J. Solove. Understanding Privacy[M]. Cambridge: Harvard University Press, 2008: 85.
[6] 林嘉,罗寰昕. 数字权力治理中的社会法定位与进路[J]. 东南学术,2023(6):228-236.
[7] 孙竞超. 社交媒体能为民主做什么?——读桑斯坦的《标签共和国》[J]. 北大法律评论,2019(1):275-292.
[8] 凯斯·桑斯坦. 标签[M]. 陈颀,孙竞超,译. 北京:中国民主法制出版社,2021:55.
[9] Sandra Wachter. Affinity Profiling and Discrimination by Association in Online Behavioral Advertising[J]. Berkeley Technology Law Journal, 2020(2): 367-430.
[10] Inge Graef. Algorithms and Fairness: What Role for Competition Law in Targeting Price Discrimination Towards End Consumers[J]. Columbia Journal of European Law, 2018(3): 541-559.
[11] Pascale Chapdelaine. Algorithmic Personalized Pricing[J]. New York University Journal of Law and Business, 2020(1): 1-47.
[12] Paul M. Schwartz. Privacy and Democracy in Cyberspace[J]. Vanderbilt Law Review, 1999 (6): 1610-1701.
[13] Neil Richards, Hartzog Woodrow. Taking Trust Seriously in Privacy Law[J]. Stanford Technology Law Review, 2016(3): 431-472.
[14] 梅夏英. 在分享和控制之间:数据保护的私法局限和公共秩序构建[J]. 中外法学,2019(4):845-870.
[15] 凯斯·桑斯坦. 网络共和国[M]. 黄维明,译. 上海:上海人民出版社,2003:21.
[16] 费孝通. 乡土中国[M]. 北京:人民出版社,2012:32.
[17] 翟学伟. 中国人的社会信任[M]. 北京:商务印书馆,2022:167.
[18] 丁晓东. 个人信息私法保护的困境与出路[J]. 法学研究, 2018(6):194-206.
[19] Robert C Post. The Social Foundations of Privacy: Community and Self in the Common Law Tort[J]. California Law Review, 1989(5): 957-1010.
[20] Helen Nissenbaum. Privacy in context: Technology, policy, and the integrity of social life[M]. Palo Alto: Stanford University Press, 2010: 129-157.
[21] 丁晓东. 个人信息的双重属性与行为主义规制[J]. 法学家,2020(1):64-76.
[22] 高富平. 个人信息处理:我国个人信息保护法的规范对象[J]. 法商研究,2021(2):73-86.
[23] 彭兰. 假象、算法囚徒与权利让渡:数据与算法时代的新风险[J]. 西北师大学报(社会科学版),2018 (5):20-29.
[24] 刘擎. 刘擎西方现代思想讲义[M]. 北京:新星出版社,2021:250.
[25] 沃爾特·李普曼. 公众舆论[M]. 阎克文,江红,译. 上海:上海人民出版社,2002:13.
[26] 喻玲. 算法消费者价格歧视反垄断法属性的误读及辨明[J]. 法学,2020(9):83-99.
[27] Marco Botta, Klaus Wiedemann. To Discriminate or Not to Discriminate? Personalised Pricing in Online Markets as Exploitative Abuse of Dominance[J]. European Journal of Law & Economics, 2020(3): 381-404.
[28] 项亮. 推荐系统实践[M]. 北京:人民邮电出版社,2012:2.
[29] 克里斯·安德森. 长尾理论[M]. 乔江涛,译. 北京:中信出版社,2006:35.
[30] Erion ?ano, Maurizio Morisio. Hybrid Recommender Systems: A Systematic Literature Review[J]. Intelligent Data Analysis, 2017(6): 1487-1524.
[31] 李孟浩,赵学健,余云峰,宋学永,孙知信. 推荐算法研究进展[J]. 小型微型计算机系统,2022(3):544-555.
[32] Linden, G, B. Smith, J. York. Amazon.Com Recommendations: Item-to-Item Collaborative Filtering[J]. IEEE Internet Computing, 2003(1): 76-80.
[33] Natali Helberger, Max Van Drunen, Sanne Vrijenhoek, Judith M?ller. Regulation of news recommenders in the Digital Services Act: empowering David against the Very Large Online Goliath[EB/OL].[2021-12-06].https://policyreview.info/articles/news/regulation-news-recommenders-digital-services-act-empowering-david-against-very-large.
[34] Hartzog Woodrow, Neil Richards. The Surprising Virtues of Data Loyalty[J]. Emory Law Journal, 2022(5): 985-1034.
[35] Hartzog Woodrow, Neil Richards. A Duty of Loyalty for Privacy Law[J]. Washington University Law Review, 2022(3): 961-1021.
[36] Lucien Heitz, Juliane A. Lischka, Alena Birrer, Bibek Paudel, Suzanne Tolmeijer, Laura Laugwitz, Abraham Bernstein. Benefits of Diverse News Recommendations for Democracy: A User Study[EB/OL].[2022-02-08].https://www.tandfonline.com/doi/full/10.1080/21670811.2021.2021804.
[37] Leslie K. John, Tami Kim, Kate Barasz. Ads That Don't Overstep How to Make Sure You Don't Take Personalization Too Far[J]. Harvard Business Review, 2018(1): 62-69.
[38] Tami Kim, Kate Barasz, Leslie K John. Why Am I Seeing This Ad? The Effect of Ad Transparency on Ad Effectiveness[J]. Journal of Consumer Research, 2019(5): 906-932.
[39] Judith Vermeulen. To Nudge or Not to Nudge: News Recommendation as a Tool to Achieve Online Media Pluralism[J]. Digital Journalism, 2022(10): 1671-1690.
[40] Derek E. Bambauer. From Platforms to Springboards[J]. Georgetown Law Technology Review, 2018(2): 417-431.
[41] Derek E. Bambauer, Michael Risch. Worse than Human? [J]. Arizona State Law Journal, 2021(4): 1093.
Trust-Based Algorithmic Personalized Recommendations:
Reflections on the Law of "One-Click-Off "
LIN Jia, LUO Huan-xin(Law School, Renmin University of China, Beijing 100872, China)
Abstract: Personalized recommendations have been challenged as a threat to human autonomy, the "information cocoon" and "echo chamber" effect as well as the "killing of familiarity" by big data. The "one-click-off" function is promoted as a way to achieve personal control over privacy, promote the free flow of information and prevent price discrimination. However, users often lack the capacity for privacy autonomy, and algorithmic recommendations have the value of cohesive agendas and facilitating interactions before causing group polarization. In addition, there is a misalignment of goals and means to solve price discrimination by turning off personalized recommendations. The "one-click-off" option does not only fail to fulfill the functional expectations of legislations, but also suffers from poor operability and the ambiguity of the public values it carries. The reform of personalized recommendations should be oriented towards algorithmic goodness, and through the creation of trust-centered, transparent and interpretable algorithmic recommendations that are user-friendly. In the meanwhile, the public value of personalized recommendations should be brought into play to enhance social welfare.
Key words: personalized recommendation; regulations on algorithm; trustworthy algorithm; personal control over privacy; “information cocoon”