算法推荐技术视角下短视频传播的伦理失范问题探析

2022-03-22 14:48李仕生石鲜鲜
文化与传播 2022年5期
关键词:伦理内容算法

李仕生,石鲜鲜

短视频是指在互联网上传播时长为几秒到几分钟不等的视频,具有碎片化、互动性、丰富性的特征。在算法推荐技术的加持下,短视频成为强大的“时间杀手”,让一些人没日没夜地深陷其中。算法推荐技术在短视频传播的运用,衍生出了低俗恶搞、色情暴力、侵犯他人隐私等伦理失范问题。我们需要重视这些问题,并通过各种途径加以治理,进行短视频的伦理重构。

一、算法推荐技术在短视频传播中的运用

自从现代的信息传播和智媒技术接轨,短视频平台的内容分发完成了从“人找信息”到“信息找人”的转变[1]。算法推荐技术使用户在信息过剩的当下,获得更加精准的个人偏好信息。在这个过程中,算法推荐模型自身也在不断发展和完善。

协同推荐算法是较早产生并运用于电子商务信息分发的算法。电商平台根据用户的下单、收藏、加购等信息进行预判。协同推荐算法运用到短视频领域时,对用户行为的衡量指标主要有完播率、点赞量、评论量、转发量等。但面对新用户入驻,基于用户行为数据的协同推荐算法难以短时间内匹配其需求,于是又衍生出了内容推荐算法。内容推荐算法可以计算每位用户的核心兴趣点,丰富用户画像模型。内容推荐算法技术的运用,使平台一开始就可以根据用户的性别、年龄、需求等元数据建立“画像”,描绘出用户的兴趣爱好“图谱”,进而“投其所好”,向用户推荐其最可能感兴趣的信息。

2021年2月5日,科技创投媒体“36氪”网站在《快手上市背后:短视频行业进入2.0战争时代》一文中提出了“短视频2.0时代”的概念。短视频2.0时代的竞争重心在于洞察用户动机、连接万物的能力。与此相对应,当下的算法推荐系统一般综合运用协同过滤和内容推荐两种模型,并加入机器学习、深度学习等人工智能技术,把推荐机制从用户端更多转向内容端[2]。举例来说,如今的智能算法推荐技术为每个新作品赋予一定的基础推荐量,根据传播情况增加推荐量或者终止推荐。

二、算法推荐技术下短视频传播的伦理失范问题

相比于在信息爆炸情况下的大浪淘沙,如今的短视频平台在内容分发方面更加高效精准,由此引发的算法伦理问题也受到广泛关注。算法伦理,指算法越来越多地代替人类智慧进行决策所引发的伦理危机[3]。而算法技术下短视频传播的伦理失范,指的是平台在算法决策的过程中,由于资本控制、价值判断失衡、技术偏差等因素,产生一系列伦理风险,对用户产生某些负面影响。正如加拿大传播学者麦克卢汉在“媒介是人的延伸”的基础上提出的“延伸意味着截除”,意指有些媒介工具会使人自身某些功能退化[4]。算法被喻为人脑的延伸,给用户带来了诸多技术便利,但同时用户的部分自主性也被算法决策削弱,从而陷入伦理失范的困境中。

(一)短视频平台使用算法技术的初衷与用户需求有偏差

短视频平台使用算法技术的初衷主要是为了促进信息分配精准、高效。但在实操中,这样的初衷有时会和用户的需求存在偏差甚至背道而驰。

1.创作端:过度重视内容识别,轻视用户需求

算法技术对短视频内容有一套完整的识别体系,按照推荐权重的重要性依次是点赞量、评价量、转发量、完播率、复播率等指标。一些用户深谙识别指标的重要性,于是就想办法去迎合,投其所好。例如,在抖音平台上存在大量以“互关互赞,抱团取暖”为标签的短视频,评论区中经常出现网友的“诚实第一,从不欠赞”“高质量礼尚往来新作品”之类的回复。这些行为的出发点,都是用户想迎合算法技术的逻辑,让其作品获得足够的点赞量、评价量、转发量、完播率、复播率等。但是,平台应更看重用户对信息的真实性、重要性、权威性等需求。一则具有高点赞数的短视频并不必然体现它的信息价值,可能只是用户“互关互赞”下的成果。因此,平台过度重视内容的可识别性可能会带来用户真实需求的缺位。

2.算法端:把用户表面行为误读为深层兴趣

用户接触最多的短视频只能说明用户的大概喜爱程度,不能囊括用户的所有喜好[5]。一方面,在设置元数据标签时,很多用户出于理性选择有价值的信息,但在猎奇欲、窥私欲等本能驱使下,绝大多数用户对于内容的需求日趋集中[2]。以抖音为例,从互联网内容科技公司“新榜”提供的数据来看,2021年11月涨粉排行月榜的前3名分别为:剧情创作者“张同学”(1034.5w)、美妆达人“柳夜熙”(569.1w)、音乐博主“可爱屁”(533.9w)。这些抖音账户的内容较为浅显、猎奇,容易吸引用户眼球,满足了其娱乐需求。用户一开始可能只是出于好奇,或是为了学习某项技能接触这一类浅层次的信息,但算法却有可能将其一次性点击解读为深层兴趣。另一方面,受制于日常心境的变化,用户可能在心情不好时点击主题比较颓丧的视频,或在肚子饿时观看吃播视频,抑或是在失恋时关注情感治愈类视频。但是这种情绪并不是持续性的,用户也不需要平台一直推荐这类视频。

3.用户端:固化群体偏见,加深群体区隔

随着我国农副产品越来越快地参与国际市场流通,国外对畜产品质量的严格要求无疑是对我国的一个冲击。为使我国畜产品尽快达到国际水准,笔者认为政府部门首先要提高对发展畜牧业机械化的重视,从畜牧饲养机械推广、专业饲养人才培养、畜产品销售保障等多方面给予扶持和鼓励,促使农民生产观念的转变。另外,畜牧业规模化是今后的发展趋势,规模化才能有效降低成本和增强抵御风险的能力,有利于保障产品的品质和供给稳定。而机械化与规模化之间存在相互推进的关系,因此,为使我国逐渐发展成为畜牧强国,我们还要鼓励规模化养殖。

算法推荐技术的作用机制主要表现在两个方面:一是借助代际差异进行群体定位,二是参照群体定位调整自身行为。代际差异指的是中老年人和年轻人之间的代沟,反映在短视频上便是观看内容的大相径庭。中老年人更为青睐实用性的短视频,比如关于长寿秘诀、疾病预防方法、健康食谱等类型的内容。基于中老年人群体偏好的内容,平台利用算法推荐技术向其推荐了高度同质化的视频,形成了信息闭环。而对于年轻人,抖音可能会给他们推荐搞怪、游戏、二次元等主题的短视频。由此,算法推荐技术借助代际差异对中老年人和年轻人进行了群体定位。

基于群体定位,用户自身形成行为规范,对于超出群体标签的行为会产生一定程度的排斥,还可能加深彼此的刻板印象。比如在一些论坛中出现了这样的帖子:“抖音算法是给我淘汰了吗?我已经很努力在搜小哥哥跳舞、美女变妆视频、影视剧解说,怎么还在一个劲儿给我推荐土味视频啊?”大部分人认为自己的圈子才是独特、优越的空间,由此社会群体身份认同的区隔可能进一步加深。

(二)用户时空紧张感加剧

许多短视频用户有这样的感受:有时候打开抖音看几个短视频,不知不觉就过了一两个小时。留给工作和学习的空间不断被短视频挤压,时空紧张感油然产生[6]。短视频的观看情境较为灵活,在一定程度上满足了用户的碎片化信息需求,但如果过分沉迷其中,则会导致虚拟和真实界限的模糊,最终使得用户身处迷惘之中。比如有的用户喜欢看网红跳舞的视频,看了一遍不过瘾,还要多次看并点赞、收藏甚至关注。那么算法系统就会认定该用户很喜欢看这类视频并对其进行同类推荐,使其陷入短视频的“旋涡”无法自拔。

用户时空紧张感并不只反映在心理的紧迫上,还可能导致在生理层面和社会层面出现新的问题。在生理层面,短视频带来的时空侵入会让用户患上拖延症。与非拖延者相比,沉浸在短视频中的拖延者可能会面临更多的压力,产生更大的焦虑感或自我批评的思想。此外,在社会层面,时空紧张感会带来群体性孤独。有时候人们虽然共处一个时空场域,但沉迷于短视频的他们并没有在彼此间建立深层次的联系。有句流行语为“世界上最遥远的距离,莫过于我在你身边,你却在玩手机”,这句话表达的处境就与时空紧张感下的群体性孤独相似。鉴于此,在2018年,抖音就上线了反沉迷系统,加强对用户的主动提醒。但这个系统能起到多大的作用,实在不容乐观。

(三)平台过度采集用户的隐私信息

2021年12月,央视报道称“某红书”APP不时给用户推送含有大量未成年人身体隐私的短视频,引起了网友对其隐私管理的讨论。采集用户部分信息是算法推荐技术发挥作用的前提,但过度采集用户隐私会陷入道德失范甚至触碰法律红线。

法国哲学家福柯把人类社会的控制方式比喻为全景监狱:在一所监狱中,狱卒对罪犯进行全天候、全方位的监视,但是罪犯却无法看到狱卒的存在[7]。短视频的信息环境就像“超级全景监狱”,算法操纵者暗箱操作,将用户的喜怒哀乐置于眼底并做出一系列引导行为。算法到底如何过滤和排序信息对绝大部分用户而言是“技术黑箱”,用户的隐私得不到足够保障,只能被算法凝视和控制。

2020年7月30日,北京互联网法院的一个判决引发关注。案件中,法学博士生小凌起诉抖音、多闪等短视频APP,声称这两则APP在没有获得许可权限的情况下,通讯录中的好友就出现在了视频推荐界面[8]。像小凌这样对于隐私权敏感且勇于较真的用户是少数,大多数用户是选择忍受。而平台对于用户的个人信息索取近乎“强制”。比如,不少用户都有这样的感受:在使用某些APP时,对隐私协议只有“勾选”的权利。“同意就使用,不同意就不给用”的选择实际上具有强制意味,让用户丧失了公平的话语权。截至2021年9月,抖音系DAU(日活跃用户数量)增长至约6.4亿。而用户使用规模越大,短视频平台对于隐私权限的滥用越令人担忧。

(四)内容分发导致的歧视与偏见

2018年4月13日,《人民日报》海外版发表文章《算法也有价值观》,文中驳斥了今日头条创始人张一鸣的“算法没有价值观”之言论。但近些年来,不断有学者认为,算法的中立性是一个伪命题[9]。因为算法是一系列解决问题的清晰指令,但问题的性质在被提出和被界定之前就带有强烈的背景和意图。这也意味着算法推荐从诞生那一刻起就必然夹带着算法创设主体的意志[10]。在算法创设主体的意图下,本该服务于用户本身的算法容易异化出算法歧视与偏见。

算法推荐技术导致的歧视与偏见指的是在内容分发时,由于政治权力、商业资本、算法设计者价值判断等因素造成的决策不客观[11]。算法是由机器工程师设计的,因而技术本身必然融入了人的价值判断,算法推荐技术带来的判断失误也可以视为人的某种“歧视与偏见”。据媒体报道,2015年5月美国一黑人程序员发现,她和一位黑人女性朋友的自拍照,被Google打上了大猩猩的分类标签。这种不尊重人种的表现是由于算法设计者针对内容标签的设置有误,给当事人造成了很大的心理伤害[12]。再如,《华盛顿邮报》调查117名美国用户后发现,Facebook会根据性别、设备使用习惯、居住地等进行差异化推送,像某些信息只推送给农村用户而非城市用户,或推送给大部分女性用户而非男性用户[11]。算法歧视与偏见下,人们以往的角色特性被进一步固化。就像一些人工智能招聘系统一般,算法在筛选掉不符合预期简历的同时,也剥夺了不同人群间流动的机会。

三、算法推荐技术视角下短视频传播伦理失范问题的治理

在算法全方位融入社会生活的背景下,数字人权理论逐渐进入人们的视野。数字人权理论主张数字科技要以人为本[10]。将数字人权理论放在短视频时代,意味着算法推荐技术应该以人为本,充分尊重用户的个人利益环境。为对短视频的伦理进行重构,短视频平台、用户、公权力组织需要多方合力解决。

(一)短视频平台:拓展算法推荐维度,融入内容价值判断

不少短视频平台的流量集中在热度较高的头部视频上,对于尾部作品的分发缺少关注。抖音中粉丝基数大、历史数据好的账号才能进入热门流量池,继而攫取平台大部分流量。为了缩小流量的“贫富差距”,平台应尝试进行头部视频的限流和尾部内容的托底。如快手的“基尼系数”机制,就很好地调控了注意力资源。发在快手上的视频至少能获得100个人的基础用户量,当视频的观看时长、点赞、评论达到相应阈值,其推荐量会被降权处理。“基尼系数”机制下,平台中三成的流量会分配给头部视频,大多数的热度可以赋予容易被人遗忘的尾部内容。

目前,短视频的算法推荐指标主要关注三个维度:性别、年龄、职业等用户基本信息;地域、天气等环境信息;标题、摘要、音乐、燃点等短视频自身信息[13]。当三个维度的特征匹配时,算法便会预测出每个用户群的浏览方向。这种推荐模型可以最大化地集成用户的感知信息,但是缺少了内容价值判断维度的约束。因此,短视频平台要在显性指标的基础上,加入用户满意度、内容影响、真实性、时效性等价值判断指标,向用户呈现重新加权的推荐结果。对于目前算法推荐的单一性,业界有过多种措施。Google曾推出“逃离泡沫”插件,该插件可以针对那些审美异化的用户,反向推荐格调积极的内容,使之逃离同质化的“信息泡沫”。《华尔街日报》曾推出“红推送,蓝推送”,该插件可以向用户推送脸书上同一内容中双重倾向的信息。总之,除了对常规的用户画像进行设置,短视频平台需要拓展算法推荐维度。当推荐模型的衡量指标不再局限于转赞评等显性数据,而能够从技术伦理的角度去完善价值体系时,社会各界就能更自如地应对智媒时代的挑战。

(二)用户:增强算法素养,学会“驯化”算法

当算法推荐技术在短视频传播过程中衍生出伦理问题时,算法素养的概念应运而生。

算法素养就是要培养人们与算法的共存能力[14]。算法素养要求用户对推荐内容具备自我把关意识,学会“驯化”算法。例如,用户可以有意识地阅读、停留等,调整算法参数。具体而言,面对更有价值的内容,用户可以延长阅读时间以留下兴趣点的足迹;面对意义不大的内容,用户可以采取不点赞、不评论、不关注的“三不原则”,明确对该内容的态度。以微信视频号为例,在基于善意的情况下,用户可以长按短视频内容界面,点击“不感兴趣”或“投诉”。点击前者后,短视频将会弹出“将减少此类推荐”的提示信息;点击后者,则需进一步标注“投诉”原因,如勾选“低俗色情”“垃圾广告”“谣言欺诈”等。

2016年12月23日,人民网评论在《算法盛行更需“总编辑”》一文中呼吁:算法主导的时代,更需要有态度、有理想、有担当的“看门人”[15]。这里的“看门人”,可指具有一定算法素养、能够对内容自我把关的短视频用户。由于算法推荐技术的独特性,用户可以通过一系列反馈进行算法“驯化”,引导短视频的内容展示。正如美国传播学者丹尼斯和德弗勒所言,今天数字媒介的伦理问题主要集中在一些普通个人或者说媒介本身上[16]。从这个角度上来讲,拥有一定算法素养的用户,也是算法社会时代的“看门人”。

(三)公权力:成立算法审查委员会,完善算法的公益诉讼救济

人们的认知中往往存在一个误区,那就是算法推荐技术必然是工具理性的代表,和价值理性完全对立。事实上算法思维和价值理性不是非此即彼的关系,算法推荐技术和价值理性在一定条件下具有共通的可能。但如今,各家短视频平台为了在激烈的市场竞争中占据一席之地,有时会罔顾内容传播的价值理性。此时若有公权力的介入,或许有利于促进短视频市场的技术向善,从而尽可能规避算法推送中的伦理失范风险。公权力的介入首先在于发挥监管功能,但又不能损害短视频平台的正当商业利益。例如,由政府监督人员、行业代表、高校学者共同组成一个“算法审查委员会”,从更为专业的角度增加算法决策的透明性,帮助公众适当打破“算法黑箱”[17]。在算法审查委员会中,政府监督人员从行政的角度对算法进行监管,行业代表从商业的角度对算法进行维护,高校学者从新闻专业的角度给予建议。

在司法层面,当前我国公益诉讼的诉讼标的绝大多数集中于环境污染和食药安全[18],针对智能算法技术的公益诉讼救济力度不够。2020年11月,在江西电视台都市频道的心理援助节目《幸福配方》中,有一位61岁的女子黄月,因痴迷抖音上频繁刷到的“假靳东”而整日茶饭不思。真靳东作为名人,有足够的社会资源与抖音对簿公堂。但对于普通人而言,要想维权难上加难。目前,作为一种新型技术性工具,算法规制存在法律概念界定不清晰、适用范围模糊等法律缺位问题[19]。再加上算法黑箱所形成的信息壁垒,司法部门针对算法的公益诉讼救济体系并不完善,接到相关诉讼时往往难以受理。因此,将算法侵权案例纳入公益诉讼案件范围,完善公共法律服务体系,司法才不会滞后于最新的诉讼救济需求。

结语

在信息过载的时代,算法推荐技术让短视频用户实现了“私人定制”,但也延伸出颇多伦理失范问题,包括平台开发算法的初衷与用户需求产生偏差,用户时空紧张感加剧,用户隐私的被动让渡以及在内容分发环节出现的歧视和偏见现象。要对短视频传播过程中产生的伦理失范问题进行治理,必须优化算法推荐服务机制,推动短视频平台运营者、用户、公权力三方共同参与,为规范短视频行业的健康发展保驾护航。

猜你喜欢
伦理内容算法
《心之死》的趣味与伦理焦虑
内容回顾温故知新
护生眼中的伦理修养
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
主要内容
一种改进的整周模糊度去相关算法
医改莫忘构建伦理新机制
婚姻家庭法的伦理性及其立法延展