陈海军 邹君波 赵颖 费德馨
关键词 资讯分发;智能算法;算法推荐;算法伦理
中图分类号 G2 文献标识码 A 文章编号 2096-0360(2021)07-0032-03
1.1 智能算法起源和发展
算法一词源自波斯学者al-Khwarizmi名字的拉丁化,他于9世纪在巴格达撰写《印度数字计算》一书,向西方引入了印度教的数字,以及相应的计算方法,即算法。中世纪拉丁语中出现专有名词“algorismus”,指用印度数字进行四个基本数学运算——加、减、乘、除,后来,术语“算法”被人们用作表示任何逐步的逻辑过程,并成为计算逻辑的核心[1]。
随着信息技术和人工智能技术的发展,算法逐渐智能化和机械化,并广泛应用到资讯信息分发领域。所谓智能算法推荐,是指通过大数据统计分析技术及互联网信息技术,按照人们的阅读习惯、兴趣爱好与个性化的阅读行为,精准地为人们提供获取信息的机器程序。现代推荐算法大致可以分为三类:基于内容的推荐算法、基于知识的推荐算法、协同过滤算法,此外还有以加权、串联、并联等方式融合以上算法的方法[2]。
1.2 算法推荐伦理内涵
算法的伦理问题,指的是算法越来越多地代替人类智慧进行决策所引发的伦理危机。人工智能背景下,算法越来越智能化和程序化,在遵循自然逻辑和思维逻辑之外,甚至能代替集体智慧进行决策,人类主体地位受到挑战,人与技术之间的关系面临重构。
技术中性论最早由英国的福布斯提出,该理论认为技术对于社会组织和文化等的发展并没有什么特殊影响,其本身并无好坏之分,既可以用于善良的目的,也可以用于邪恶的目的,关键是用于何处。在大数据背景下,资讯分发平台在算法机制的作用下产生了诸多的伦理问题,使得人们对智能技术的影响和作用产生了质疑,重新思考技术中性论的现实意义。
2.1 智能算法带来的伦理问题表现维度
2.1.1 内容呈现:加剧“信息茧房”,受众成为“单向度”的人
从算法推荐结果出发,目前最常见的算法推荐机制是平台根据用户对内容的点赞评论等数据,分析其内在的兴趣和需求,在获取到相对完善的用户画像后,在下一次推送中推荐与用户相匹配的信息内容。这样的方式一方面实现了人与信息的高效匹配,节省了用户的时间,但另一方面也让用户在无形之中回避了自身不太感兴趣的内容,只选择性地接触自己感兴趣的话题,久而久之失去了解和认识不同事物的能力,从而加剧信息环境中的“信息茧房”危机。
马尔库塞在其著作《单向度的人》中指出,发达工业社会压制了人们内心中的否定性、批判性、超越性的向度,使这个社会成为单向度的社会,而生活于其中的人成了单向度的人,这种人丧失了自由和创造力,不再想象 或追求与现实生活不同的另一种生活[3]。人工智能时代,算法推荐带来的“信息茧房”加剧,无疑会使得生活在其中的人们更加“单向”化,停滞自身的创造和发展,无法实现人的价值。
2.1.2 算法过程:信息选择权让渡,主体权益面临抢占风险
从算法运行过程出发,推荐算法通过获取用户以往的行为数据,对用户画像进行标签化和细分化,根据其特点向用户推荐与其历史浏览内容相似的信息。在这种程序下,用户并不知道自己所看到的内容已经经过算法过滤,会自然而然认为平台推荐的内容应是客观全面的,这就极大可能导致用户错过一些本应知情却被算法机制筛选掉的信息,无法了解客观世界的全貌。
这种算法推荐的过程不甚透明,用户并不知晓算法程序如何分析、分发信息,因此当用户过度依赖资讯平台的推荐来获取信息时,也就意味着将信息选择的权利让渡给了算法,这样不仅会导致用户接触新鲜事物的主观能动性下降,所获信息过于片面狭窄,用户本身的信息选择权和知情权等权益也可能受到侵犯,沦为算法程序的奴隶。与此同时,在互联网大背景下,大量用户数据被资讯平台分析检测,平台也不能完全保证收集到的用户数据的安全,用户隐私可能面临被泄露、被更改的風险,致使隐私权益得不到保障。
2.1.3 价值反馈:社会舆论进一步分化,主流价值观受冲击
从算法价值层面来说,由于用户对资讯平台推送的信息具有选择接触性,在用户主动获取所需信息的同时,平台也会根据新鲜度和热度推送信息,这些内容通过算法程序推荐给广大用户后,在正反馈机制的作用下,能在平台上获得更多曝光量和浏览量,实现热度的不断增值。但由于算法机制缺乏严格的审查制度,如果仅靠流量与点击为算法标准来进行推送,一些低俗、泛娱乐化的内容甚至是虚假新闻也可能会被大量推送给用户,导致网络环境中吸引眼球的内容猎奇或观点极端的信息增多,影响人们对真实世界的认知和判断。
哈佛大学教授凯斯·桑斯坦认为,互联网环境中的“信息茧房”局限会产生群体“极化”的问题,也就是说当人们长期囿于不良信息环境中时,自身和群体的价值观会受不良价值观的影响,逐渐异化,这种情况导致的不良后果可能是原本和谐统一的社会风气被破坏,主流价值的舆论引导力下降,社会舆论进一步分化。
2.2 技术中性论视角下的伦理问题成因分析
技术中性论认为技术本身是非善非恶的,技术能产生怎样的影响,取决于使用它的主体出于怎样的目的,或使用过程中存在的逻辑问题。算法推荐作为一种人工智能时代的智能技术,其本身也应不具有先天的善恶属性,智能推荐算法导致的伦理问题的成因可以从以下几个方面分析。
2.2.1 人为因素:主观偏见和潜在歧视
人为因素更多指的是使用算法的主体存在的主观偏见。算法推荐基于数据分析过程进行,在对收集到的信息进行数据分析时,外部主体的主观判断和偏见会使得原本的结果产生误差,造成不符合预期的结果出现。人为因素的存在是一种不可抗性,因为任何算法均由人所设计和开发,纵然算法过程遵循的是科学的数字分析与历史数据分析路径,但先前的算法设计、数据导入、结果应用等环节均需由人力来完成,哪怕算法推荐再智能化也不可能排除人力因素的干扰。因此在算法推荐过程中,人为因素的存在会对智能推荐的客观性产生影响,导致推荐结果具有偏向性,不管是基于何种算法技术的算法推荐都有可能被用来人为操控结果。譬如现有的一些人工智能招聘系统就存在着性别、种族歧视等问题,在对求职者进行简历筛选时,会根据算法分析结果筛选掉一些不符合预期的简历。
2.2.2 智能算法内部原因:数据误差与完整性限制
智能算法需要基于数据的分析处理来实行操作,因此数据的完整性和准确性尤为重要,但因为种种客观因素,我们所得到的数据结果并不是百分百完美的。
首先,在完整性上有所限制,智能算法在获取用户使用数据后对其进行分析,然后选取受众接触最多、最感兴趣的内容再次推送,其中比重较低的信息可能会被筛选掉。但这些受众接触最多的信息只能说明用户的大概率喜爱程度,并不能囊括用户的所有喜好,用户转发和收藏某个话题内容不全是出于热爱,可能是出于好奇,也有可能是为了学习某项技能而进行频繁接触[4]。因此数字逻辑无法完全解答个体的行为逻辑,也不可能为受众推送覆盖全面需求的信息内容。
其次,是准确性的限制,如果在一群较为集中的数据中出现与之差异较大的数据点,或被人为加入某些数据,那得到的分析结果也会与均值有较大偏差。比如新浪微博热搜榜上出现的热点内容,并不全部是自发形成的流量热点,某些热点词条是有些企业为了推广自己的产品服务,与平台进行交易后被安插在其中,这些被买了流量的信息内容在微博的算法推荐机制之下,会出现在许多网民的主页上,但实际上,这些被推荐的内容与部分用户的信息偏好是相离甚远的,是人为创造的热度假象,因此用户是被迫在大数据的推荐下接触了这些内容,他们的主观能动性没有得到满足。
2.2.3 信息壁垒:算法的天然屏障
信息壁垒是算法内部的天然屏障,是指在算法过程中,由于决策者拥有算法信息的知情权与数据分析过程的主导权,受众无法知晓其具体运作过程,只能是推荐结果被动的接受者和执行者,因此无法对这些推荐内容进行准确判断和评估。譬如在像“今日头条”这样的资讯平台上,用户所获得的信息均由平台算法推荐,用户无法知晓其背后的运行过程,也无法自主做出信息选择进行评价。信息壁垒是算法的天然屏障,也是算法伦理问题的最大原因,它让人们无法接触到决策过程中的很多核心信息,除了算法本身,没有人准确地知道到底什么因素在决策过程中起了决定性作用[5]。同时在实际运用中,信息资源的使用具有“马太效应”,即信息资源丰富的一方对信息的掌控会越来越大,而信息资源匮乏的一方则会逐渐失去对信息的支配权,因此在算法发展的过程中,决策者和执行者之间的信息壁垒也在日益加深,形成更大的信息差异。
麦克卢汉曾有过著名论断“媒介是人的延伸”,指出媒介与人的关系。目前,智能推荐算法作为广泛使用的媒介技术,面临着算法伦理危机考验,因此在行业未来的发展中,既要充分坚持技术的工具理性,发挥其最大效用,也要坚持人的主体价值,树立伦理目标。
3.1 基于新闻自律维度:提升从业者“算法素养”,坚持自律和规范
习近平总书记指出:“要坚持正确新闻志向,提高业务水平,勇于改进创新,不断自我提高、自我完善,做业务精湛的新闻工作者。”新闻自律是对新闻业界以及新闻从业者的道德要求,指在从事新闻报道相关工作时,新闻来源必须真实可靠,决不能哗众取宠,新闻界从业人员必须严格遵守新闻出版的法律法规,严于自律,真实客观地去分析、报道有关的新闻信息。目前算法技术虽已广泛应用在各大资讯平台,但深入了解其原理机制,能灵活使用的技术人才仍在少数,大多数公众对智能算法的认识也停留在表面。因此,必须大力推广算法知识教育,提升从业者的算法素养。同时,坚守自律和规范依然是新闻工作者必须遵循的职业道德准则。
3.2 基于算法与人的价值维度:摆脱思维定式桎梏,全面延伸主体价值
在资讯平台中,信息分发大都依赖智能算法对用户数据的分析,这就导致算法推荐会加剧网络环境中的“信息茧房”或“回音室”效应,受众囿于重复低质的信息内容,无法突破自身局限,无法全面延伸人的价值。因此在算法应用过程中,用户自身不应完全放弃自主选择信息的权利,应开放包容地倾听全方位的声音,平台方也要意识到技术是为人类服务的工具,通过种种提示帮助人们摆脱思维定势的桎梏。
例如,美国BuzzFeed杂志推出的“Outside Your Bubble”功能,在一部分流传范围非常广的新闻底部,加上另一些平台的评论,比如Twitter、Facebook等,帮助受众了解多维意见和声音。再如Google推出的“逃離泡沫”插件,该插件可以根据用户的阅读习惯,反向推荐格调积极、易于接受的内容,帮助用户逃离熟悉的“信息泡沫”,还能够在感官上给用户带来很好的体验效果[7]。同时,作为信息消费者,除了依靠社交媒体的技术支持,用户自身也应主动接触各类新鲜事物,了解真实的客观世界,努力实现自己的主体价值。
3.3 基于人机关系维度:坚持人本规则,加强人机协作
随着人工智能技术的发展,智能算法技术越来越渗透到人们生活的方方面面,但在人与技术的互动过程中,人机关系的伦理冲突问题也日益显著,譬如资讯平台中智能算法推送的大量信息内容,可能在某些时候取代人的主观选择,成为决策或行动的主导力量,对人的主体地位造成冲击。因此在处理人机关系时,算法信息分发平台应当坚持人机结合的原则,一方面要提高对人本规则的认识,强调人的主体性、能动性,认识到人是信息的生产者、传播者和消费者,算法技术的应用要以满足人的需求为导向;另一方面,加强人工把关和人机协作,充分将人力和技术的优势结合起来,为用户推荐优质化的信息内容,这样方能促进智能推荐算法在未来发展中具有正确导向,更好地体现人的主导性和价值观[8]。
参考文献
[1]MatteoPasquinelli.算法究竟从何而来[EB/OL].弯月,译.(2019-08-01)[2021-03-15].https://baijiahao. baidu.com/s?id=1640593404395534400&wfr=spider& for=pc.
[2]王亚妮.算法推荐新闻的伦理风险以及未来发展[J].新媒体研究,2019,5(1):29-30.
[3]赫伯特·马尔库塞.单向度的人[M].上海:上海译文出版社,2006.
[4]雷鸣.资讯分发平台的个性化推荐研究[D].武汉:华中科技大学,2018.
[5]房雯璐.算法推荐模式下媒介伦理失范研究[J].山东工业技术,2019(7):138.
[6]张萌.算法推荐的伦理困境:技术逻辑基础上的社会价值规范[J].今日科苑,2019(10):43-51.
[7]靖鸣,管舒婷.智能时代算法型内容分发的问题与对策[J].新闻爱好者,2019(5):9-13.
[8]胡万鹏.新闻算法推送的伦理困境及其对策研究[D].长春:长春工业大学,2019.