“算法推荐”的负面影响及应对策略

2022-01-25 13:14
湖北第二师范学院学报 2021年12期
关键词:智能算法内容

周 敏

(湖北第二师范学院 新闻与传播学院,武汉 430205)

一、“算法推荐”综述

关于“算法推荐”的研究起源于20世纪90年代,美国明尼苏达大学 GroupLens研究团队基于协同过滤的推荐算法开始对其进行研究。他们想要制作一个电影推荐系统,从而实现对用户进行电影的个性化推荐。研究基于一个设定:“和目标用户相似度高的用户,其感兴趣的事物目标用户也会感兴趣。”于是,研究小组让用户对自己看过的电影进行评分,采集用户评分的数据。然后,小组对用户评价的结果进行分析,并预测出用户对并未看过的电影的兴趣度,从而向他们推荐从未看过并可能感兴趣的电影。[1]由此,美国明尼苏达大学 GroupLens研究团队开发出了GroupLens推荐系统,并将其运用到了新闻组中。简单来说,“算法推荐”是一种基于计算机专业算法的具体应用,依靠采集用户网络行为痕迹,通过构建数学算法,来推测出用户可能喜欢的东西,并将之固化、深化、泛化。

算法推荐系统,实际上是拟合一个用户对内容满意度的函数,主要包括三个维度的变量。第一个维度是内容特征。每种内容有很多自己的特征,内容库需要考虑怎样提取不同内容类型的特征做好推荐。平台在互联网上收集用户信息,包括用户的社交关系、网络习惯等。算法根据用户信息以及匹配原则向用户推荐内容,或者是依靠由用户发现的、订阅的“人工推荐”模式进行内容分发。基于用户浏览标签和用户自身标签来做推荐,平台能够对用户实现精准推送。这是对用户进行了数据分析的推荐方式;第二个维度是用户特征,包括各种兴趣标签,职业、年龄、性别等,利用模型计算隐性用户兴趣。用户必须在平台上留有大量的行为数据才能去形成有效的推荐。许多拥有头部流量的企业能够做好这一点,如今日头条、美团等。平台型媒体可以通过监听、绑定用户数据等多种方式去实现用户数据挖掘、画像描绘、特征梳理。例如,通过对用户原始数据的清洗,如性别、年龄、职业、地址等,虽然部分用户的标签特征会高度重合,但是推荐系统可以基于用户的行为数据、社交数据来进行重新标签,且系统对用户的画像是实时变化的;第三个维度是环境特征。这是移动互联网时代推荐的特点,根据用户所处环境和场景的变化,对信息偏好做出敏感反应。这一点是随着技术的升级推出的方式,如根据用户身处不同的地点,所在的环境不同,那么信息偏好也会不一样。同样的,在相似环境中的用户,信息偏好也会相似。系统不仅仅在捕捉用户的行为,而且已经在探索行为背后的原因及目的。结合这三个维度,算法判定推荐内容是否适合推荐给用户。在推荐模型构建中,内容的点击率、阅读时间、点赞、评论、转发都是可以量化的指标。算法直接可以给出基本判断,然后针对推荐反馈来做出调整。

具体说来,算法推荐是一种分发方式,可以分为五种:第一种是基于内容的推荐,即通过用户日常浏览内容,推荐可能感兴趣的其他内容;第二种是基于关联规则的推荐,即凭借大数据的技术,来预测用户的需求;第三种是基于知识的推荐,以用户资料中已有的知识结构为基础来预测需求;第四种是基于协同过滤的推荐,即所谓的“物以类聚,人以群分”的方式,其中又分为基于用户、基于项目的和基于模型的协同过滤;第五种是混合推荐,通过模型的泛化推荐加上上述根据用户特征进行挖掘需求,然后有针对性地进行精准推送,因为在体量庞大且复杂的算法推荐系统中,由于服务对象的复杂性,仅靠量化的数据指标,显然是不够的。可以看到在当下,算法为人们搭建了一个前所未有的平台,混合推荐既弥补了社交过滤的不足,又可以独立于社交关系来精准分发。

可以看到基于内容的信息推荐方式,其理论依据也是来自信息检索、信息过滤来抓取可靠信息。信息推荐是数据“喂养”出来的,没有庞大的信息流去检索和过滤就不可能有算法推荐。在PC时代,平台也有着自己的一套算法推荐系统,如百度有搜索排行和信息推荐等功能。PC时代的算法推荐逻辑相对简单,主要以搜索量和点击量为依据。随着技术的升级,越来越多的算法推荐过滤到了语义的推荐,它不再强调片断的行为,而是更深入探索行为背后的含义。在移动互联网时代,社会总体的信息呈现出越来越过剩的情况,但难以掩盖社会个体成员信息缺乏的情况。人们都想要看新的东西,但基于当前算法却很难跳出算法推荐怪圈,因为所有的推荐都是基于过去预设未来。那么,这个互联网典型悖论就被无限放大。正基于此,信息传播的精准化成为移动互联网时代的传播重点,即把合适的内容传播给合适的受众,同时学会规避它的弊端。算法的精准推荐在互联网上的广泛应用就成为了必然选择。

研究者以资讯类app“今日头条”为例,分析其算法推荐过程中主要的三个步骤:

1.进行文章模型构建。将文章集合进行处理、挖掘。主要利用新闻内容元数据(即分词手法)把文章分化为颗粒,再形成新闻的内容特征,最终进行兴趣建模。其次,通过信息检索进行质量建模,即用户能否获取信息、文章内容是否为低俗、拼凑。最后,依据用户的点击量、浏览量、其他外部平台上该新闻的热度进行热度建模。

2.进行用户模型构建。主要基于用户喜好、人口属性、用户行为习惯、用户状态信息等方面进行用户模型构建。算法基于用户的数据信息,推荐属于用户的“私人订制”,在一般情况下会也辅以文章特征进行建模。

3.选择合适的算法推荐。系统根据用户的不同特征和需求选择不同的算法推荐方式。可以说,这是一个“业务数据化—数据业务化”的全过程。

在算法推荐实施之前,对内容和用户进行模型构建的过程,为后面的内容曝光、资源配置打好基础,然后利用算法推荐提升用户获取信息的效率,最后还可以挖掘长尾金矿的商业潜力。除此以外,算法推荐还能增进用户对于平台良好的使用感受,解决文章的冷启动问题,并生成独特的频道内容。

算法推荐分发已经几乎是所有软件的标配。社交平台如微博、微信等,搜索引擎如谷歌、百度等,购物软件如淘宝、京东等,均依托算法推荐技术进行平台内容分发。虽然平台间的数据类型不同,对数据需求也不同,但各大平台均以高效推荐为主要目标。算法推荐把用户和信息联系得更加紧密,不仅提升了系统工作效率,还很好地节省用户时间,实现信息提供者与用户的双赢。

当然,我们也要看到,“算法推荐”在给用户带来内容分发便利的同时,也引发相对密集的争议。从前以严肃新闻为主要内容的资讯平台或智能新闻App为了内容分发更加精准高效,纷纷采用“算法推荐”技术。传统媒体的知识传播也发生了不同程度的重构,试图凭借算法推荐的系统去抓取用户数据、分析行为语言、预测未来行为和兴趣点。各种类型的资讯平台都想要为用户提供量身定制的新闻信息产品,满足用户个性化需求,顺应阅读分众化的时代潮流,让信息流动更加快速顺畅。然而,“算法推荐”技术带来了红利,也打开了“潘多拉魔盒”,“算法推荐”对网络舆论生态的负面冲击日益显现,也给社会管理工作带来较大挑战。信息技术对用户隐私的侵犯以及数据的偏向性成为被质疑的重点,算法本身的特点让“下沉的螺旋”十分明显,技术的偏见和歧视十分明显,人编写的算法必然带有人的意图。事实上,这也是各类平台目前所面临的算法瓶颈:严重依赖于数据优劣,难以解决数据有效性问题。

二、“算法推荐”的负面影响

研究者在中国知网中以 “算法推荐影响”作为主题检索关键词,剔除不相关文本,最终得到有效文献178篇,检索时间为2021年2月26日。研究者采用文献计量工具citespace对178篇研究样本进行关键词的统计分析,以期了解学术界对算法推荐所带来的影响的聚焦所在。同时,以关键词凸显度的统计结果关注该议题在近年的变迁。

图1 关键词凸显(深色部分为凸显年份)

研究者对文献关键词进行关键词凸显的排序,可以看到,“信息茧房”和“把关”这两个词汇作为新闻传播学的学术术语保持了较高的凸显强度,同时也成为了2020年的最新凸显关键词,是当前学界的关注热点。除此之外,“意识形态”该词以1.37的凸显强度成为2020年的凸显关键词。由此可见,在算法推荐的影响下,意识形态问题的管理成为当下学界和业界的当务之急。另外,“算法偏见”也是2020年学者们关注的焦点所在,因此笔者对算法推荐的负面影响展开研究有一定的启示意义。

从词频的分布中我们可以看到(表1),除去“算法推荐”“算法推荐机制”“算法”“人工智能”“个性化推荐”等词作为研究对象自身故而占有较高的词频外,学术界对算法推荐所带来的影响主要聚焦在以下几个方面。第一类,以“今日头条”“短视频”“抖音”“聚合类新闻客户端”等词为代表,学者以此类平台和内容为切入点,进行观察、研究。第二类,以“信息茧房”“过滤气泡”等词为代表,学者对弥漫在算法推荐系统中的信息茧房效应进行讨论。第三类,以“媒介伦理”、“媒介素养”、“价值理性”、“工具理性”等词为代表,学者以媒介伦理为理论视角,社会管理为现实视角,对算法伦理风险进行考察。第四类,以“意识形态”“价值引领”“把关人”等词为代表,学者呼吁互联网内容层面的理性回应,倡导健康良性的舆论生态环境。基于对近年来算法推荐相关文献的梳理、统计、分析,研究者将从舆论生态层面和社会管理层面展开对算法推荐负面影响的讨论。同时,研究者将对算法推荐的负面影响尝试提出建设性策略。

表1 “算法推荐影响”的关键词词频(词频≥3)

(一)舆论生态层面

1.隐蔽干预难以查证,舆论操控风险增强

尽管“算法推荐”技术越来越受欢迎,但“算法黑箱”正遭到越来越多的质疑。这些由“算法推荐”向用户推送的所谓新闻信息,究竟是基于什么样的标准与价值判断而被选中,公众完全不知情,而这些系统的内部工作机制也不透明。把控这些智能平台的互联网技术公司多次宣称,这一算法机制是公平公正的,却总以保护商业秘密为由拒绝公开其运作过程。现在的公共领域和私人领域处于高度的重合状态,网络的发展应该赋予人们更多的监督权。很多平台都设置有“推荐”一栏,让用户停留在自己的舒适区。这样的信息导向不仅让用户只能看到部分内容,而且用户无法对公共环境进行监控,放弃了自己的监督权。超级平台的背后是互联网巨头。用户通过平台看到的新闻,是否只是互联网巨头想让他们看到的部分“真相”呢?这样的话,隐蔽干预即使存在,也实际上很难查证。

由于“算法推荐”运行机制不透明,倘若推荐信息存在“立场过滤”,与企业利益相左的信息会逐渐消弭,那么网络舆论管理的风险将会增强。即使不是平台本身操控舆论,外部操控者只要熟悉算法推荐技术,就能组织观点信息展开舆论攻势,一旦获得部分用户认同,就可能会借助“算法推荐”得到广泛传播,继而实现对舆论的操控。算法推荐技术一旦被操控,用户反而会被技术和舆论所裹挟。

2.劣质内容毒害用户,挤占主流舆论空间

算法驱逐了人工编辑的“把关人”地位,产生了许多垃圾信息,如“标题党”、虚假新闻、黄色新闻等。同时,根据伊莉莎白·内尔—纽曼(Noelle-Neumann)的“沉默的螺旋”理论,大众传播在影响大众意见方面能产生强大的效果一个人提出意见,却发现与其所属群体观念发生背离时,会产生孤独恐惧感。处于意见弱势地位的人会放弃自己的看法,变得沉默,最后换支持方向,与优势群体、优势意见一致。[2]算法推荐非常容易造成用户产生“大家都有这种想法”的刻板印象,使态度和观点产生极化,造成人的认知局限性。于是,在网络环境中可能发生正面观点保持无声,但负面意见不断增长,从而发生网络舆论的失真。

为了骗取用户的点击,各类标题党大行其道,各种劣质内容在悄悄毒害用户。 比如,未经科学验证的健康知识在内容平台肆意传播,给用户造成误导;毫无用处的拼凑信息被推荐给用户,令人不堪其扰;一些或极端或粗浅的言论也时常被算法推荐,此类信息价值导向存在严重问题,甚至对人格塑造产生负面影响。这些劣质内容真相难辨、对错不分、缺乏深度,不仅浪费用户的时间,还可能诱导用户产生错误的认知,做出错误的选择。例如,YouTube的算法推荐曾遭受广泛质疑。充满猥亵和暴力的视频被算法分发到专门针对儿童的应用程序YouTube Kids上,激励发展了一种不健康的亚文化。这种亚文化以儿童为目标受众,内容令人不安。

由于劣质内容随处可见,用户沉浸在智能平台推荐的内容里,而主流舆论内容被用户和平台习惯性忽视。算法推荐无视了技术背后的情感和认知的合理性,浅薄的“三俗”内容因为下沉螺旋充斥着网络空间,导致恶性循环。主流舆论的空间被严重挤占,在信息流中逐步下沉,其传播效果必然大打折扣。

3.信息茧房愈加牢固,“后真相”情绪影响舆论

信息茧房由桑斯坦提出,是指人们的信息领域中由于“选择性心理”会被自己的兴趣引导,形成自己的“个性化日报”,于是自己的生活桎梏在像蚕茧一般的“茧房”中。当个人被禁锢在自我建构的信息脉络中,个人生活必然变得程序化、定式化。[3]信息量剧增的今天,用户被推荐繁多的信息,在其中根据兴趣进行选择关注的话题,久而久之,就形成了“信息茧房”,即只看我们选择的东西、只接受愉悦我们的信息。选择性接触不会改变个人原有的观点,而是让个人原有观点增强。“算法推荐”的技术如今被广泛运用,让 “信息茧房”更加牢固,导致用户的视野更加狭窄。

如今,个性化获取信息是用户在互联网环境中获取信息的主要逻辑。用户对于资讯内容的兴趣和关注点相对固定,“算法推荐”会认为用户只关注这些内容。尽管在某个意义上,信息茧房,是难以避免的,因为它毕竟是选择性心理的结果。然而,用户可能还需要关注其他内容,从其他方面以补充自身知识结构、拓宽视野。平台运用“算法推荐”的逻辑,看似是在顺应用户的思维,但算法推荐越精准,用户的视野就会越狭窄,将更难打破“信息茧房”的束缚。

用户视野变得狭窄,将难以理性认知各类社会问题,继而变得更加偏激。由于“算法推荐”会大量推送与用户相近认知内容,这就会造成用户情绪的累积和“共振”,让人误以为“大家都是这么想的”。特别是算法平台上部分观点存在无视事实、偏激的倾向,导致“后真相”现象日益普遍,“客观事实在形成舆论方面影响较小,而诉诸情感和个人信仰会产生更大影响。”[4]人们把情绪放在事实前面,甚至站在虚假的事情前面大谈情绪,各类阴谋论越来越多。互联网巨头所谓的“算法推荐比你更懂你自己”,其实是让用户更加坚信所谓的“事实”。由此观之,网络空间开始弥漫着用户情绪,而事实正在加速坍塌,失去地位。

4.用户设置议程,意见领袖作用弱化

在用户设置议程的今天,真相都还没有被专业媒体挖掘报道出来,各类观点就已经就在路上了。根据算法平台自媒体博主的只言片语,用户开始迫不及待地发声,把各类社会个案上升到人性、道德高度,甚至情绪和观点高过了事实真相。“传者”和“受众”界限的日益模糊,意见领袖失去了领导作用,难以扭转网民的错误认知也无法阻挡用户的情绪宣泄。由此,产生了网络暴力、媒介审判等不良现象。

与此同时,传统媒体议程设置的权利被“算法推荐”逐步剥夺,主流媒体舆论引导也处于弱势状态。比如,高管性侵养女案中,尽管在后期反转,事情的性质其实并不是所谓的性侵。但是,一些媒体智能平台如微博等,通过“算法推荐”,根据分析用户的搜索和浏览记录为用户设置议程,仍在源源不断的推送类似信息,仍然将其归类为“性侵儿童”的话题标签下。官方发布和主流媒体报道依然在努力进行引导,但在“算法推荐”面前作用是有限的。此外,用户会在算法推荐产生的“信息茧房”中进行事实辨别和观点判断,媒体想要开展议程设置会比较艰难。

(二)社会管理层面

1.迎合用户影响创新,资讯日益浅薄低俗

无论智能平台如何标榜自己的“算法推荐”技术,无论他们如何强调内容分发能够做到多么智能精准,就目前呈现效果来看,内容能否被推荐以及推荐给谁,都只有相对简单的标准——点击量,也就是内容能不能抓住用户眼球,能不能吸引用户点击阅读或观看。对流量的肆意追逐助推各类智能平台走向媚俗化。“眼球新闻”逐渐在各个内容平台泛滥成灾。

某些内容创业公司或作者,为了能够在智能平台攫取利益,不惜去研究并依赖“算法推荐”技术制造内容垃圾,自媒体的“做号”产业让不少平台和用户头疼不已。有些作者为了在平台上得到认可,会刻意制造耸人听闻、低诉肤浅的内容,从而获得算法推荐的青睐。创作者丧失了理性思考和维护新闻真实性的原则,甚至失去了独立思考的能力。创作者的创新能力在“算法推荐”的不良诱导下被逐步削弱,深度写作和冷静思考湮没在喧嚣的“眼球新闻”之中。创作者开始去写段子、拍搞笑视频,什么点击量高就写什么拍什么。长此以往,资讯将会更加浅薄低俗。此外,许多自媒体平台充斥着媚俗、恶俗甚至谣言信息,更是让网络空间乌烟瘴气,让人不由地质疑是否“新闻正在死去”。

2.内容生产门槛过低,编辑把关逐步淡化

“算法推荐”的技术,从媒体需求的角度来讲,的确是提高了内容分发的效率,也实现了内容和用户的精准匹配。但是算法推荐不提供内容生产,同时也省略掉了编辑和把关的流程。内容单纯凭借机器来计算是否推荐,不仅丧失应有的温度,而且导致内容缺乏必要管理,粗制滥造大量存在。

为了获得更多内容、创作者和用户,智能平台拉低门槛,放低姿态,允许各种声音在这个平台上出现。倘若技术能够完成自我监管、约束和提升,内容门槛问题就会比较好解决。但是,“算法推荐”的标准仍然比较单一,优质内容难以获得推荐,内容把关成本高,即使在政府部门严厉监管和智能平台强力封堵下,违规劣质内容依旧层出不穷。智能平台对编辑把关的赋权不足,致使各类智能平台问题频出,接连受到监管部门惩治。长此以往,用户常掉入“标题党”的陷阱中,就会失去对媒体和新闻的信任,从而恶化网络生态环境。

此外,人工编辑的把关意识也逐步淡化。由于“算法推荐”替代了人工编辑和采编风格,用形式上的合理性取代了实质上的合理性,用机械算法和自动推送摒弃人文主义的现实关照,抛弃了人文的机械技术是无法真正地深入人心的。单纯追求点击率和阅读量的竞争是丧失灵魂的无序竞争,也是无意义的。

3.内容生产侵权不断,洗稿抄袭乱象丛生

依托“算法推荐”的智能平台信息全、范围广,用户可以阅读新闻、浏览资讯、看视频和直播。智能平台采取媒体授权、自媒体合作、用户生产等方式获得内容。但更多时候,自媒体博主会直接从其他信息平台抓取信息,分发给感兴趣的用户。自媒体博主随意抓取内容的现象导致侵权不断,智能平台各类版权纠纷案件可谓此起彼伏,严重挫伤原创作者的积极性。

在直接侵犯版权之外,洗稿抄袭乱象也大量存在。洗稿、抄袭等行为甚至得到了智能平台默许。一些原创稿件被拆散、拼凑、改写,“改头换面”就可以在自媒体账号上发布,并且运用“算法推荐”技术,还可以获得较高的推荐量。侵权者不用付出任何代价就能得到流量,而智能平台则几乎不用成本就能获得内容,然后通过“算法推荐”来变现。侵权者的洗稿技巧日益娴熟,即使原创作者想维权也会比较艰难。与此同时,平台几乎不用承担任何风险。那么,当读者被各种同质化内容“骗取”一次次浏览后,也会对自媒体和平台失去信任。

4.数据存在安全风险,机器开始控制用户

算法推荐技术所带来的隐私问题愈发严重,公共信息和私人信息的界限愈发模糊。为了精准描绘用户画像,掌握用户的阅读习惯和行为轨迹,平台需要收集大量的用户数据。平台广泛收集了用户信息,包括用户的注册信息、位置、浏览习惯、转发和评论的喜好等。甚至,平台会将信息以某种形式卖给广告商。值得警惕的是,个别智能平台进行“协同过滤算法推荐”的时候,会窃取用户的使用设备信息、用户个人通讯录、短信内容、社交平台痕迹、娱乐习惯等等,这将会导致用户个人隐私数据等被大量收集,面临着隐私泄露的风险。侵犯隐私一直是平台治理中的重难点。毕竟,我们想要的是人机协同,而不是人被技术所裹挟。

同时,智能平台的无序竞争也可能导致用户难以自主选择接收信息的内容。机器开始尝试控制用户。即使用户意识到要多维度获取信息,也可能会遭到机器阻挠,那么人们想要获取新鲜事物变得更难,只能处于“舒适”的怪圈中,待在机器所构建的“虚拟社会”。

三、“算法推荐”负面影响的应对策略

(一)完善相应法律法规,依法开展常态监管

网络法治化治理是必然趋势,监管部门早已开始发力。2019年,我国出台了一系列规范网络信息安全保护的法规条例,为网络健康有序发展提供有力保证。网络安全等级保护制度2.0标准制定,扩大了网络安全保护的范围;《互联网个人信息安全保护指南》发布,指导用户保护个人的数据安全;《关于APP违法违规收集使用个人信息的认定方法》发布,规范了APP对用户数据的收集等。

“正如我们已经看到的,预测个体的行为已经变得非常容易了。未来比过去更具价值,因为我们的旅行和购物计划可能是商业圈中最有影响力的商品。虽然我们的过去由安全防火墙和隐私法保护着,但通过精密系统的预测,我们的未来却极易被人掌握。”[5]针对“算法推荐”带来的侵犯隐私问题,监管部门应结合实际情况,逐步完善相应法律法规,对于“算法推荐”存在的违规乱象,更应依法开展常态监管。只要平台或发布者触碰法律“红线”,就要对其进行严惩,做到“有法可依,执法必严”。

(二)实时开展行业整顿,敦促平台净化升级

在对智能平台进行常态化的监管之外,还要实时开展全行业的整顿工作。2020年1月6日工信部网络安全局约谈了小米科技有限公司,全面排查安全问题。2020年7月20日,进一步夯实网络安全主体责任,抓好网络安全风险漏洞问题整改,廊坊市委网信办组织召开网络安全问题集中约谈会议。

事实上,近年来,此类行业整顿行动相对较多。对这些算法公司整顿的重点,相当一部分与“算法推荐”相关。对于技术我们应该扬长避短,合理利用好它的长处,规避它的短处。“算法推荐”不应该沦为违法违规的“利器”,而应该是提高效率的“长剑”。监管部门必须稳妥监管“算法推荐”技术,敦促平台净化升级。

(三)做好有害信息监测,及时清理有害信息

由于智能平台过度依靠“算法推荐”进行信息推送,编辑把关人员相对缺乏,有害信息难以被及时清理。因此,需要监管部门做好有害信息监测工作,拿到这些智能平台的信息接口,便于采用“人工+技术”的模式进行监测,做到及时发现和快速封堵删除。这些有害信息包括网络谣言、色情信息、过激言论和反宣渗透等,对人们思想迫害颇深,也会导致恶性循环。同时,在对劣质有害信息进行清理时,对于没有事实依据的揣测和阴谋论,除了进行封堵删除外,还需及时将此类信息通报给智能平台,督促他们管理好平台上的自媒体账号和用户留言,不要过分抓取有害及敏感信息。

(四)盯紧动向强化研判,规避舆论操控风险

平台通过议题设置与用户产生共鸣,并利用数据采集、信息追踪等功能,对当下火热的网络舆情进行搜集,并且进行了大数据分析。在技术加持下,可以合理利用“算法推荐”的利器,以保证公共话语的多元表达,增加网民之间的理性互动和讨论。运用多元、有效的公共话语,以事实来说服用户,以理性来引导用户,以此减少网络舆论的失真,这是当下平台内容治理的题中之义。

监管部门要盯紧网络舆情动向,并强化研判。智能平台同时坐拥超级流量和算法技术,在缺乏外界监管的情况下,可能存在舆论操控行为。信息监管部门对平台中“带节奏”的言论要提高警惕,对不法分子利用技术以操控舆论的违法行为要施以严惩,更要严厉打击外部操控者。不能让智能平台的“算法推荐”技术沦为舆论操控的“扩音器”。对于舆情事件中出现的敏感信息和言论,监管部门要及时响应,智能平台协助监管部门尽快进行核实,并对谣言和不当言论进行删除和澄清。同时,应对主流媒体进行内容赋权,利用“算法推荐”将主流媒体声音推送给用户,以主流言论带领人们,澄清片面敏感信息带来的负面影响。如此,通过及时研判舆情,可以规避潜在的舆论操控风险。

(五)持续升级技术水平,有效遏制劣质内容

“算法推荐”技术存在的问题,需要依托技术本身的更新迭代来解决。第一,是建立风险内容识别系统,可以设立:鉴黄模型、谩骂模型、泛低质识别等系统模型。算法系统通过采取对自身的升级,达到改善弊端的效果,将会比人工过滤更有效和迅速,可以更全面防止垃圾信息的泛滥,维护平台文明与健康。第二,是优化算法,升级内容审查技术,及时遏制有害信息。算法挖掘信息的方式,涉及信息的科学性和合理性问题。算法系统应升级敏感词过滤技术和音视频审查技术等,对于违规信息进行进一步的人工核查。第三,加强用户数据保护。用户的隐私不能让渡给机器。尽管对用户私人数据的使用界限没有明确规定,但至少对用户数据抓取要有所控制。如此,通过升级技术手段,并遏制有害信息,对内容进行有效审核,将会净化智能平台。

(六)强化企业把关责任,增加人工编辑比重

部分智能平台已经意识到缺少“把关人” 的严重性。在现实条件下,仅仅依靠技术升级实现对劣质内容严格审核和优质信息有效推荐的难度较大。此时,需要持续强化企业把关责任,增加人工编辑比重,采用“人机结合”的模式。如今日头条上线了“热点、搜索”等频道,并在“热点”栏目中,引入了人工编辑。人工编辑会严格筛查劣质信息。增加人工编辑比重,这虽然看似回到了传统的新闻生产模式,但其实打破了算法推荐下的内容窠臼,又能保障内容质量。机器和技术是为人服务的,实现机器和人的优势互补,才能使得工具理性和价值理性达到二元平衡。

(七)引导用户时常反思,理性认知算法推荐

“算法推荐”给用户带来了良好的资讯阅读体验,节约了信息挑选的时间,但其弊端也日益受到舆论关注。各智能平台存在大量劣质内容和无用信息,正在浪费用户的时间,并挤占正常阅读的空间,而“算法推荐”催生的“信息茧房”也导致用户的视野日益狭窄,鱼龙混杂的信息也让用户无所适从。面对这个问题,今日头条推出了“探索”机制,用户可以在此寻找到自己未知的兴趣所在,可以探索更多的内容可能。目前今日头条上已经有了四大区域,搜索区能够看到热搜、热点新闻,频道区可以看到垂直类信息,要闻区可以看到权威媒体新闻,个人化区可以探索未知的领域。另外,监管部门和主流媒体可以适当引导用户开展反思,鼓励他们正确认知“算法推荐”,不能只是接受智能平台的“迎合”,获取同质化的信息资讯。用户要勇敢走出“信息茧房”,获取更多有价值的信息,从而增加阅读的维度、深度和广度,全面提升自己的理性认知和判断能力,做到不被“算法推荐”所禁锢。

(八)完善用户画像,产品推荐更精准

算法推荐本质的目的就是为了更精准地实现“信息和人的匹配”。以此逻辑为导向,算法推荐可以增加平台与用户现实社交关系圈的联系,并且细化产品颗粒,以建立更完善的用户画像,进行更准确的产品推荐,可从以下两个方面出发:

1.实现“精准化”和“多元化”。在信息泛滥的时代,如何更加的“个人化”是信息分发的关键一环。我们要发现特定用户在选择不同类别内容时,内容之间是否存在着更加细粒度的联系。算法推荐针对此联系,对内容选择进行深层的透彻分析,从而实现细粒度的个性化,实现更多的“消费者主权”。我们不仅要做更精准的推荐,同时也要重视内容的多样性,做到粗粒度的多元化。对于人们对信息的“挑食”,用户画像具象化是破解信息茧房效应的必走之路。

2.多层次综合推荐。部分智能平台正在开发更先进的技术和算法,尝试在信息传播的前端加强对内容的把关,或者对内容分发环节进行调整,增加更优的信息价值评价标准,而不是简单以“点击量”作为推荐依据。算法也在进行深度学习,要将用户的立场从“被动”变为“主动”。以B站为例,B站内容系统由用户主导,结合前期把关解决趣味下沉问题,由用户自主选择内容,从而实现了产品精准推荐,用户地位转变。

四、结语

“我们在生产和信息交流方式上的变革必然会引发自我管理所用规范的变革。”[6]算法实现信息的私人订制,同时也带来了很多问题。在算法推荐的过程中,看似是算法技术处于中心,但事实上人为因素是贯穿始终的。人是信息的主人,要如何去规避算法偏见和改变当前的信息茧房困境才是问题的关键。沉溺于“技术悲观论”的论调是“信息茧房”的另一种表现。我们要看到算法推荐其实是有很多可改进的空间,对于它带来的问题,不能沿用传统编辑模式下的老办法。技术、社会和人是良性互动的。用户既需要由算法推荐带来的“私人订制”信息,也需要保证信息的质量和温度。因此,智能平台需要从用户的角度出发加强算法的自我学习和升级,从根本上解决算法推荐带来的弊端。

猜你喜欢
智能算法内容
内容回顾温故知新
哪种算法简便
Travellng thg World Full—time for Rree
智能前沿
进位加法的两种算法
智能前沿
智能前沿
智能前沿
主要内容
一种改进的整周模糊度去相关算法