狂欢下的隐忧:聚焦大数据时代的算法传播风险

2022-11-19 01:42王燕星
关键词:个人信息算法用户

王燕星

(闽江学院新闻传播学院,福建福州,350108)

WilliamFrawley等人在1992年首次提出“数据挖掘”的概念,如今数据挖掘已经成为实现个人信息化转向的技术保障。数据挖掘是指利用多学科分析工具,从海量、不完全、模糊且随机的数据中提取未知、隐藏但具有潜在应用价值的数据信息、数据关系和数据模式,并用以进行信息管理、知识优化、决策支持的数据信息提取、数据模型转化、数据知识发现和数据价值开发的技术过程[1]。数据挖掘依赖于人工智能、机器学习、统计学等多学科技术的组合,应用挖掘算法构建挖掘模型,发现数据与模型之间的关联性,建立未知事物的联系并对未来进行预测[2]。数据挖掘技术的优越性在于信息生产者、分发者通过算法将收集的数据特性进行升华,发挥其控制、过滤、记录和判定等作用,从而实现个性化推荐,将尼葛洛庞帝的“我的日报”畅想变成了现实。但是算法技术的运用是一把双刃剑,一方面通过赋能与赋权,为用户构建了极具个性化的信息场域,提高了用户使用信息的效率。另一方面,信息茧房、数据泄露、侵犯隐私、算法黑箱等信息伦理问题浮出水面,成为狂欢下的隐忧。本文将聚焦大数据时代算法传播的风险,并在解决对策层面提出思考和建议。

一、千人千面:算法传播的特质描摹

算法在传播领域一个重要的应用是个性化信息的智能推送。信息分发主体在收集用户基本数据的基础上,根据用户行为、社交关系、地理位置等信息推断其兴趣偏好与需求,描绘用户画像,打上数据标签,在此基础上推送给用户“喜闻乐见”的信息商品[3]145。算法传播的特点表现为三个属性,第一是智能化属性。由于算法传播技术是吸纳如机器学习、高性能计算、模式识别、数据可视化等诸多领域的技术[4],可以自动记录下用户在互联网上的每一个动作,用留痕的方式临摹用户的生命痕迹,并通过自主运算做出决策,从而将信息内容特质由“千人一面”转化为“千人千面”,解构了传统的传媒生态和权力模式。第二是黑箱性属性。在控制论中,黑箱通常指的是不知的区域或系统。由于用户无法认知算法逻辑,无法了解算法是如何过滤和排序信息的,因此算法对于用户来说犹如一个密闭的黑箱或牢笼。它营造了一个由其主导的拟态环境,即维兰·傅拉瑟在其媒介进化论中提到的数字世界,“数字幽灵”无时无刻不通过信息权力左右着用户的价值观念。第三是决策性属性。不同于早期的数据采集,算法传播为实现探索未知和潜在关联的理想,在决策力上呈现出前所未有的能力。从1994年美国明尼苏达大学应用协同过滤技术成功推出自动化推荐系统开始,到2009年谷歌、Facebook、Twitter等互联网巨头开始使用算法推荐,再到2012年“今日头条”运用算法技术进行新闻内容的自动分发,算法能够通过对用户的互联网内容、个体画像、所处场景等特征的判断,通过有偏向的议程设置,有效渗入用户的未知场域,凸显出预测未来的决策力。

二、复杂隐秘:算法传播风险的类型呈现

基于算法传播的特征描摹,算法传播可能将受众置放于风险越来越高的信息生态中。这些风险既来自于建构“虚拟身体”的算法模型本身的不可靠性,也来自于从“活的身体”再造“虚拟身体”过程中算法的错误调节,还来自于将信息与身体完全脱钩之后的失控[5]106。

(一)隐私泄露风险

算法传播有效性的基础在于基于用户的个人信息和数据推算出用户偏好。平台在用户使用之前会告知用户可能存在一定风险,用户同意后才可以使用。从规则层面上看,并未具有强制性。但实质上,平台在使用前提中所附着的例如允许平台访问用户的通讯录、图片、视频等条件对于用户来说是带有隐性强制性的,因为如果不接受就不能使用的结果会让用户忽视个人隐私的让渡和消解,真实个体的透明化成为追求信息自由的代价。即切尼·利波尔德认为的“隐私逆转”,隐私的所有权和控制权从真实个体转移到云个体,再转移到算法平台[5]107。用户在互联网上为平台提供的元数据,无形中在一定程度上还原了现实世界中的生活图鉴,环绕在个体周围的有形围墙在信息化社会已被无形之手强力拆除,“第三只眼”时刻窥视着互联网中人们的生活。“交际与信息的数字化之风吹过透明社会,穿透一切,使一切变得通透可见”[6]。

同时隐私获取与隐私提供之间的关系变得更加微妙,隐私悖论已然形成。用户在进入平台前对隐私保护更加敏感,而随着用户对平台的浸入程度的提升以及使用体验优化的需求,用户通过搜索、留痕、上传、分享等动作,无意识地为平台供给越来越多的隐私信息,包括数据隐私、位置隐私、身份隐私以及偏好隐私等整合型隐私,算法技术根据用户的网上痕迹生成用户画像。平台为用户拆除了进入藩篱后,用户对于隐私信息的敏感程度反而下降了,数字化生存方式让用户变得麻木,用隐私通货交换信息便利成为习惯。个体暴露于数字化的全景监狱,算法背后的技术与资本完成了对个人的监视、规训与剥削[7]。用户对社交媒体上的个人信息的泄露问题还表现出明显的第三人效应:用户明知道社交媒体中存在个人信息安全问题,却认为个人信息被入侵的风险不会发生在自己身上[8]。

(二)隐私信息再利用风险

数字化记忆是网络信息时代的重要特征,个体和集体记忆的形态从生物记忆延伸到了数字空间[3]145。只要用户在互联网上留痕,信息就被记录下来,永久记忆成为现实,被遗忘成为了奢望。信息的掌控权已经被让渡,对于信息在后期是如何被使用的,用户完全不知情。数字化记忆的可访问性、持久性、全面性以及由此所形成的“凝视”给我们带来了新的挑战,人类日常生活面临着数字化时间与空间双重维度的介入[9]。这种时间和空间的交错融合在现实生活中给用户带来的风险就是用户信息的再利用,表现为在用户建立数字脚印的基础上,由他人再造出数字影子,再造过程并未得到用户的再次确认。再利用不仅表现为元数据的让渡,还表现为对元数据样态再造,由此衍生出用户不可预知的后果。个人隐私信息既具有人格属性,又潜藏商业属性。用户的初始信息从上传到社交媒体开始,已然完成了私域信息向公域信息的转化,跳脱出隐私权保护的范畴。经过算法的反复计算,描画出接近真实的人格图像并在此基础上挖掘其潜在价值,这是用户在上传信息初始并未预料到的结果。此时用户对个人信息完全失去了控制权,人格属性的被不法再利用可能会对个体的名誉等带来巨大的危害。例如2020年7月,杭州一位女士去快递站取快递时被人偷拍了一段视频,偷拍者与他的朋友分别饰演“快递小哥”和“女业主”的身份,捏造了暧昧微信聊天内容,并将拍摄视频和聊天内容发至微信群,编造出了“富婆出轨快递小哥”的剧情。小视频和聊天内容在网上扩散,这位女士被网友谩骂,现实生活中也遇到了巨大的困难,最后该女士将造谣者告上了法庭。这起特殊的案件意味着个人信息被获取后其用途的不确定性越来越大,因此对人性自由和尊严的尊重成为互联网社会必需的价值追求。同时个人隐私信息中带有商业属性的信息往往会被广告投放前的数据分析所用,在精准传播的华丽外衣掩盖下给用户带来信息骚扰等问题。如果被不法分子所用,那就可能使用户遭遇诈骗、财产损失等实际危害。

(三)信息茧房风险

凯斯·桑斯坦在《信息乌托邦》一书中指出公众的信息需求并非全方位的,人们倾向于将自己包裹在感兴趣的内容中,从而将自身桎梏在信息茧房中。信息茧房是信息聚合和信息偏食的产物,信息在用户提供和算法筛选的双重作用下,表面上为用户跨越信息搜索的时空限制创造了极大的可能性,节约了社会资源,但个体所处的拟态环境也表现为千人千面,拟态世界与真实世界的偏离程度越来越大。个体可能无法看到被算法刻意屏蔽的那一部分真实世界,信息窄化现象凸显,而这一部分真实世界的信息也许又是非常重要的,算法技术的信息喂养使得数字居民的眼界在开阔与缩小之间挣扎,信息干预带来的被规训和操控的风险也在上升。基于兴趣导向的算法推送导致受众所接触信息的同质性增加,知识多样性减少,人类的自主权在认知和行为层面都有了减退的风险[10]。德国社会学家马克斯·韦伯曾将“合理性”分为工具理性与价值理性。工具理性强调人的行动受到追求功利的动机所驱使,强调从效果最大化的角度充分利用理性手段达到自身的目的;而价值理性认为,行动的出发点是基于责任感、荣誉和诚信等纯粹信仰,强调以动机的纯正和正确的手段来实现自身的追求[11]。当碎片化、浅表化和娱乐化成为在新媒体环境中游走的信息的重要特征时,工具理性体现在了对于流量的追求,但由此可能不断给用户呈现浅表的甚至低俗的内容,算法技术背后隐藏的价值导向有可能将用户引向一个未知的尽头,呼唤价值理性的回归似乎应该成为当下紧迫的声音。

同时算法技术使得个体接收的信息重叠度越来越低,共同话题越来越少,社会黏性下降。用户长期处在茧房中陷入固定圈层,并形成群体极化现象。用户变得越来越固执,回声室越来越坚固。对于他人观点的接纳度不断下降,个体的孤立化加剧,反思能力和共同行动力在不知不觉中弱化。更令人担忧的是,随着云个体能力的膨胀,真实个体的现实行动力正在悄悄被削弱,通过手指完成的交往行为让口语表达显得多余而无力,尤其是网络原住民更沉浸于“无声世界”。长期置身于此种场景,将割裂社会的整体交往,最终会形成一个个“信息孤岛”[12]。

(四)智能鸿沟风险

1990年,托夫勒在《权力的转移》一书中提出了“数字鸿沟”概念,关注到了国家间、阶层间、人群间信息能力的分化。随着智能时代的来临,对于数字鸿沟的认识也被提升到新的层面,谓之智能鸿沟。智能时代所造就的数字鸿沟极强地呈现出马太效应:技术意义上的强者愈强、弱者愈弱,生活意义上的智能人群愈智能,非智能人群愈非智能[13]。随着智能手机的快速普及,使用新技术层面上的沟壑在逐渐弥合,但由于算法技术强化了用户的个性化消费方式,提供给用户的内容差异导致隐性沟渠的扩大正在成为现实。由于算法技术根据自身逻辑将用户归入不同圈层,贴上标签,形成了非常隐蔽的认知偏见,继而导致行为歧视。用户在无法察觉偏见和歧视的情况下不断地循迹留下数字脚印,这样的反馈循环会在无形中扩大因为信息资源的不公正分配而形成的智能鸿沟。随着互联网的广泛覆盖和智能手机的快速普及,数字鸿沟的表现已经从第一级的接入沟,深入扩散到第二级的使用沟和内容沟层面[14]。

三、动因探究:算法传播风险形成的深层原因

(一)忽视社会责任

随着以大数据、人工智能为代表的智媒体技术的发展,在此基础上衍生出了有效而完整的商业模式,盈利能力大大增强,但市场竞争也愈发激烈。为了提高自身的竞争力以实现经济利益最大化,各平台纷纷将利用算法技术提高用户黏性作为其努力方向,其正向效应应该得到肯定,但是有些平台因为片面逐利而忽略社会责任的情况也不容忽视,它是算法伦理失范现象存在的深层原因之一。同时,行业中存在的技术垄断也加剧了数据的商业化进程,商业公司在面对数据化带来的利益权衡上,可能优先考虑自身利益,算法应用商以流量和点击率作为把关标准,公众诉求在不透明的“算法黑箱”中被逐渐淹没,公共力量的监督作用也明显弱化,这就使得隐私风险加大、智能鸿沟加深、信息茧房形成的可能性大大提高。

(二)把关人角色弱化

算法技术通过处理用户提供的海量信息从而完成个性化推荐,这种“溺爱式”的自动化生产过程在逐渐消解传统的把关权,传统把关人角色的职责和作用在技术面前明显被弱化,机器算法将内容简化为一系列指标,简单粗暴地将“社会人”视作信息商品(提供数据来源,作为信息主体)和信息消耗体,将“社会人”数据化、机械化,使得人作为人的特征被消解,取而代之的是像原子一样无差别的信息消耗体和信息提供体(信宿和信源),这是技术科学与社会人文之间的根本差异[3]150。因此个性化推荐的信息产品失去了有效的监督,工具理性和价值理性的平衡被打破,信息真实性和公信力的保证以及主流价值观引导等方面受到了一定的挑战。同时由于算法技术对于隐私信息的敏感程度低,导致个人信息被不加区分地对待和使用,缺乏情感价值判断、责任感和媒介伦理约束的行为将使得个人信息透明化程度加深,隐私风险加大。

(三)法律法规滞后

目前,我国出台了一系列涵盖民法、刑法、消费者权益保护法、网络安全法等涉及个人信息保护的法律法规。例如《中华人民共和国刑法》先后设置了“盗取、收买、非法提供信用卡信息罪”“非法获取公民个人信息罪”“出售或非法提供公民个人信息罪”“侵犯公民个人信息罪”等罪责。《网络安全法》对网络运营者收集、存储、提供个人信息进行了规定。2021年1月1日起实施的《民法典》第111条规定:“自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息”。但从目前已出台的法律法规看,主要关注的是对信息收集存储传输公开等环节的规制,而针对个人信息加工环节的规制还未受到重视。目前的法律法规保护模式较为笼统,针对以数据挖掘加工为特质的算法技术的管理上,立法力度、条文细化、适用效力、覆盖面等方面都存在相对滞后的情况,这就使得灰色地带仍然大量留存。

四、路径构建:算法传播风险的治理策略

(一)以人为本,信息为人

尼尔·波兹曼在《技术垄断:文化向技术投降》中指出,技术变革不是数量上增减损益的变革,而是整体的生态变革。算法传播使得信息生态系统中的人的主体性更多地体现在对技术设备的应用上,“技术中立”的价值观念导致内容生产风险和价值导向风险激增。因此规避算法传播价值风险的前提应该是在保证算法话语权重的同时增强信息生态系统中人的主导性,提倡以人为本、信息为人,重新审视人为主观判断力的作用,强化真实个体对云个体的主导作用。引入公平的算法责任伦理体系,在技术价值和人文价值之间寻求平衡点。人机协同机制的建立是提高人的主导性地位的具体措施,人与机器共同分发、共同把关,清晰认知虚拟世界与现实世界的差异,将技术置于人的控制之下。作为新型信息生产主体要承担价值引领的社会责任,以数据向善作为行为指引原则,过滤有违公平正义、虚假新闻、“三俗”、色情、暴力等信息,构筑防火墙。构建个性与多元相结合的信息模式,不仅要更精准了解用户真实需求,还要提高用户对公共议题的关注度,增强信息的多元化。构建算法与人工相结合的人工影响模式,在内容的事先研判到动态把关过程中,坚持主流价值立场和道德立场,将正确健康的价值观赋能算法推荐,实现重流量、轻质量到重流量、更重质量的内容评价标准的转变,使人类不再沦为技术的附庸。

(二)除茧破茧,打破圈层壁垒

某种程度上,“信息茧房”是一个善意的提醒:技术发展到极致的情况下,人们如何让技术“为我所用”而不是听其摆布,走向另一个极端[15]。由于算法技术的先天缺陷和数据收集不完整,导致用户需求在一定程度上被窄化认知,用户日复一日接受信息的过程实际上成为了一个作茧自缚的过程。从用户的角度上看,要破茧而出就需要提升算法素养,算法素养就是在算法传播背景下用户对信息的选择、判断、理解和评估能力。用户要有更强的自律意识,不过度依赖算法。要保持主体理性,能够对算法推送的信息进行价值判断。要提高辨别信息的能力,变被动接受为主动选择,有意识地过滤和规避负面辐射的劣质内容,防范算法权力在思想领域的渗透,增强对无用信息的免疫性。其次要拓宽信息接收渠道,积极聆听多元声音,尤其是增加接收公共信息的时间,关注社会热点话题,降低由于信息窄化带来的认知偏差和思想极化。用户还可以通过培养丰富的兴趣爱好来降低媒介的捆绑力,合理节制使用媒介。从政府的角度上看,要破茧而出就需要强化“把关人”功能,发挥引领作用。要审慎传播新闻观点,通过新闻多样化传播正能量信息,严格把控劣质内容的传播。从媒体的角度上看,要破茧而出就需要充分发挥议程设置功能,提高优质内容的推送频率以及重要性引导,一定程度上打破圈层壁垒,在用户偏好信息与多元信息之间找到平衡点。

(三)个人信息的综合保护

首先,要结合算法技术发展特征和我国国情,完善个人信息保护法治体系,在产业发展(充分利用和共享用户信息)与权利保护(降低信息流转、泄露、再造)之间寻求平衡,理顺立法与激励之间的关系。《个人信息保护法》草案在2021年4月26日已提请全国人大常委会二次审议,该法目前还未正式出台。针对个人信息侵害愈发严峻的局面,应该加快该法出台的进程,使得个人信息保护有法可依。其次,要加强个人信息保护的实践管理,例如区分个人一般信息与个人敏感信息,明确允许被收集的个人信息的范围。企业或网络运营商在收集个人信息时要以更突出、清晰的方式告知用户,强化知情与同意原则,筑起合规使用个人信息的屏障。还可以设立专门的机构对企业或网络运营商收集利用个人信息的行为进行监督管理,加重非法过度使用个人信息的侵权责任。第三,要加强用户的个人信息保护意识,提高自我保护与尊重他人个人隐私的道德素养。用户在网络社交平台自生产内容时要尽量屏蔽个人敏感信息,一旦发生个人信息被侵权,要及时寻求法律救济进行维权。第四,信息生态系统中的企业主体要增强自律意识,制定自律协议,坚守伦理准则。加强对员工的职业道德教育,抵制泄露他人隐私的行为。充分发挥行业组织监督、协调、引导的职能作用,建立行业监管惩治机制,实现信息生态平衡发展。

猜你喜欢
个人信息算法用户
个人信息保护进入“法时代”
基于用户和电路的攻击识别方法
2021少儿出版用户触达能力指数
敏感个人信息保护:我国《个人信息保护法》的重要内容
主题语境九:个人信息(1)
民法典应进一步完善侵害个人信息责任规定
Travellng thg World Full—time for Rree
信用卡资深用户
学习算法的“三种境界”
算法框图的补全