技术与人文:数字时代的算法困境及其文化阐释

2022-01-01 09:55姬广绪
青海民族研究 2021年3期
关键词:算法用户信息

谭 杰 姬广绪

(广东省团校、广东青年政治学院,广东 广州 510550;广东外语外贸大学,广东 广州 510420)

“机器能思维吗?”早在1950年,现代计算机理论奠基人和发明者阿兰·图灵在《心智》杂志上发表了《计算机器与智能》一文时,就提出了这一经典问题。20世纪70年代之前,人工智能还只是一个并不热门的议题。人们对于“计算机械”这样的智能机器充满了敬畏,在经历了近40年的沉寂之后,伴随近年来的大数据及其计算工具热,才直接催生了热门的“人工智能”话题。[1]有趣的是,“人工智能”从哲学意义上消失了,成为一个商业领域最炙手可热的大众话题和研究领域,甚至出现了一种近乎极端的情形——将人工智能宗教化,一位号称美国未来学家的名叫雷蒙德·库兹韦尔的人声称,他发现了“奇点时刻”——到2045年,人类和机器会合二为一而获得永生,这些人所期待的人工智能的出现,简直成了宗教中某种“救赎时刻”的来临。[2]

网络的发展已经开始超乎人们的预料,借用帕特南(Robert D.Putnam)在《独自打保龄》中提出的概念,互联网中最初被期待着蕴含着大量的“桥介资本”,也就是背景不同的网民能够促进彼此交流,提升一种理想的公共性状态,让人们在需要时可以动用众多的人脉求助于他人。[3]“天涯若比邻”是网络社会的理想状态,每个人都可以触摸全球化,世界从社交的意义上变得越来越小。然而,互联网的发展却朝着个人化飞奔,正在推翻前人对于网络社会的期待。尤其是以算法为代表的的技术发展让人们可以最大程度上避开自己不喜欢的信息和内容,尤其是互联网的商业化逻辑使得每一个网民首先是一个信息消费者,作为消费者遵循的是消费理性的逻辑,即利益最大化,这使得人们更加关心符合自身利益的事。但同时,这一逻辑带来的代价是人们信息选择权的禁锢,每个网民都成为算法技术的被动接受者。“人们开始将自己的生活工作甚至命运‘主动地’交由网络接管,把最为私密的生命资料放在被算法加密、集权力者才有权取阅的数据库中。人们的喜怒哀乐,也开始由各种各样的技术程序设计和规制。”[4]

那么,到底我们该如何理解互联网发展所带来的技术变革,以算法为代表的技术进步对人类社会的发展会产生怎样的影响?互联网时代的个体性和公共性困境该如何理解?这些基本且至关重要的问题需要得到解答,因此本文选取网络搜索中的算法推荐机制作为分析对象,讨论基于用户画像的算法推荐对用户来说会产生哪些影响,而这背后又隐含着怎样的文化逻辑,如何透过人类学的理论视角理解算法推荐对用户的影响是本文关注的核心问题。

一、作为数据权力的搜索结果

如果说前数字时代的媒介生态是单向传播的话,数字时代的传播开始呈现出双向甚至多向的特质。数字时代开启了从信息接受到信息生产和信息搜索的新媒介生态。戴维·斯塔克(David Stark)将搜索看成是“信息时代的标志”。搜索不仅仅解决了在海量信息中排序、筛选更加有用信息的问题,同时更重要地,搜索开始越来越影响我们对于“现实生活”的认知和理解。搜索提供了一种更加便利的接近答案和真相的手段,这当然是技术的优势使然,同时也是当下信息消费的现状使然。从普通类的搜索引擎来看,用户更加依赖通过其获取特定问题的答案,而这其中涉及大量的公共信息。当越来越多的普通用户将搜索引擎及其提供的结果作为公共信息的来源时,搜索结果背后隐藏的数据权力再生产过程是不被察觉的,而这些掌握数据的信息公司无疑将获得巨大的数据权力并由此产生巨大的商业收益。在商业数字平台大行其道的今天,民众在线上搜索获得的信息以及基于这些信息所形成的社会认知、价值取向乃至行动逻辑是处于数字社会进程中的中国社会不能回避、不容忽视的话题。

通常意义上商业性的搜索引擎对于信息检索的质量是会有折损的,本·巴格迪肯(Ben Bagdikian)认为“从广告中获取收益的搜索引擎是很难将公正的信息回馈给公众的,出于此种原因以及参照历史上其他媒介的经验,我们更加期待广告资助的搜索引擎所提供的信息是更加偏向于广告商而非消费者的诉求的。”[5]搜索引擎的使用本就让公众对于信息的获取限于一个隐形的围场(Enclosure)之中,而商业性因素的增加让这种围场效应变得更加强烈。国家对于公共性信息机构,例如图书馆的投入逐渐减少,个体和商业化的信息获取途径,例如搜索引擎开始重塑公众对于什么是公众领域的认知。[6]

商业网络公司本质上是逐利的,其无一不希望在网络大战中争取到最多的用户,而提供免费服务“吸粉”是其常规手段,大家现在都可以免费地获取各种各样的服务,然而正如电子前线基金会的克里斯·帕莫(Chris Palmer)所说,“你获得的是免费的服务,而你付出的代价是个人信息。Google和Facebook很懂得如何将个人信息兑换成金钱”[7]。如果说免费服务获取的代价仅仅是将个人信息用于商业性的广告定制和更加精准地推动给客户,那其实也还好。但是随着算法的不断迭代,个人的信息搜集变得越来越普遍时,我们发现这种“个性化”服务的背后其左右的不仅仅是我们购买何种商品和服务。随着移动互联网的发展及智能终端的普及,越来越多的网民其信息获取的途径依赖于互联网。根据中国互联网络信息中心发布的第47次《中国互联网发展状况统计报告》,截至2020年12月,中国搜索引擎用户规模达7.70亿,占网民整体的77.8%,用户规模较2020年3月增加了1962万,增长率为6.2%;手机搜索用户数达7.68亿,占手机网民的77.9%,用户规模较2020年3月增加2300万。[8]越来越多的网民的主要新闻和信息来源于网络中的新闻资讯平台,例如网易新闻、今日头条等。而且,用户的比例还在不断增加,例如今日头条APP,截至2020年底,累计活跃用户2.6亿,其中40岁以下的用户占到了85.16%。而纸媒、电视的新闻用户数量却在不断下降。从目前的趋势来看,以今日头条为代表的互联网新闻平台将是未来网民新闻信息的最主要的来源之一。

此种以新闻为代表的公共信息的流通方式不可避免地受到了互联网算法的影响和改变。“个性化定制”的新闻开始越来越迎合不同网民的兴趣和爱好。今日头条之前的广告语就是“你所关心的就是头条”,充分体现了这些以商业逻辑作为主导的新闻平台在提供类公共信息时依旧将基于算法的个性化策略贯彻其中。算法正在决定网民们能看见什么,而且更深入地开始影响网民的价值观和立场。

当下人工智能技术已经开始深入融入到网民的日常互联网实践中,网络技术中的基本核心程序已经相当成熟。目前多数的算法和信息过滤技术都是根据用户的链接点击、文字输入和搜索等一系列动态行为来判断你可能感兴趣的内容。也就是用户实际在网上的实践行为、其他背景近似的网民群体的实践行为会被详细记录、标签,以此来推断大家的好恶。伊莱·帕理泽(Eli Pariser)将这种由算法过滤后所形成的基于不同个体的同质性新闻的生产机制称为“过滤气泡”(Filter Bubble)。他认为在算法推荐机制下,高度同质化的信息流会阻碍人们认识真实的世界。只看想看的信息,听起来倒是一件很愉快的事情,但伊莱·帕理泽(Eli Pariser)认为,这种过滤气泡其实是打着个性化的名义,把每个人隔离在信息的孤岛上,使他们丧失理智选择的权利。他举例说,2010年4月,举世震惊的英国石油公司墨西哥湾漏油事件后,如果使用谷歌搜索“BP”(英国石油公司的简称),有人看到的是漏油事故,而有人则看到了该公司的投资新闻,这种推荐算法的依据正是用户个人的阅读需求与偏好。[9]

更进一步探究会发现,这种信息过滤机制是一种无影无形的、实质性影响用户的感知和判断的力量,这和纸媒时代以及电视时代是不同的。在今天的互联网上,绝大多数人并不知道谷歌、百度或今日头条的政治立场,并且,基于算法的推送过程,所有的平台和网站都不会主动告诉用户其所搜索或被推送的新闻是如何被推论出来的,也更加不会告知用户显示页中的搜索结果其根据是什么。用户甚至不知道算法在背后已经对你进行了一个全方位的立体画像。由于多数的新闻推送或网站搜索都不是用户自行订阅的,因此用户很容易相信平台和网站所呈现出的结果的公正、客观和真实。

虽然问题已经出现,并且在互联网行业内成为公开的秘密,但算法究竟对每一个个体用户产生了什么影响、影响有多大,目前还无法推测,因为个体的差异太大,算法基于用户画像的结果呈现也太过于复杂,因此从数据分析的角度去追踪几乎是无法计量的。因此在目前的阶段,对于此话题的研究仅能够从个案的角度去观察,同时做有限解释。未来还需要在方法论上做进一步的开发和拓展。

帕斯奎尔(Frank Pasquale)将算法的秘密性带来的信息社会称为“黑箱社会”,并且所有服务的覆盖之广和技术之复杂使它们具有不透明性,并且可以逃避责任,不必像传统媒体那样直面公众。[10]在搜索引擎的算法中,所有的网民被算法进行分类和贴标签,而网民自己却对此知之甚少,甚至大多人都还愉快地在不同的信息平台和应用中注册自己的身份信息,把自己作为被标签化的对象。即使搜索引擎中的算法是公立且良性运行的,所有运用搜索引擎的人对于搜索结果的呈现原理不觉明理的时候,还是给人一种不透明的感觉。更何况当下绝大多数的搜索引擎首先是商业公司开发的,主要服务于企业的商业目的,公司会在最大化的程度上隐藏算法的运算结果,甚至隐藏算法的存在。“商业机密”成为合理隐藏算法的说辞以维护其算法的机密性。

二、从文化的角度理解算法及其偏差

从文化的角度去理解算法,其实它就像是人类学中经常提到的文化滤镜,每一种科技都会有一个界面,它是人和科技进行交流和互相观察的管道。人透过界面理解科技,科技透过界面以及人对界面的反馈搜集其对人的理解。人和技术之间的这个界面总是无法完全消除的,它会挡在二者之间,就如同相机的镜头。人透过镜头所看到的世界是一种技术干预后的观感,是被过滤后的真实,而这其中的手法层出不穷。从这个角度来说,当下网民所理解的世界是被技术中介的世界,加上算法的加持,扭曲是在所难免的。

关于算法的原理,脸书借助的是EdgeRank,以这种演算法来整理预设的账号首页版面,亦即头条动态消息。EdgeRank的作用是为脸书上的每一种互动排名,演算法很复杂,但基本概念相当简单,依据三种因素来计算。第一种因素是亲近度:你在某人的账号上逗留时间越长,表示你和这人的亲近度越大,脸书越有可能对你发布这人的近况。第二种因素是资讯类型的比重:以“感情状态”为例,加权的比重非常高,因为大家都想知道谁正在和谁交往。第三种因素是时间:近期张贴的事项比旧事重要。

类似算法的过滤机制在人脑中本就存在,即文化认知结构。人脑的认知一方面要强化既有的认知,另一方面要求取新知,而人脑每天接触到大量的信息,如何过滤掉无意义的信号,筛选出极小比率的重要资讯以达到强化既有认知和求取新知的平衡就尤为重要了。在人脑中,这个最重要的机制就是压缩资料。大脑通过压缩信息量,捕捉所见所闻中的精髓概念,在认知人类学种被称为“认知结构”。认知结构的作用就是,一种事物如果反复出现,人脑就没有必要去重新认识。人一旦认出椅子的长相,就知道它的用途。认知结构一旦生成,我们本能上就会去强化这些结构。心理学称这种倾向为“确认偏误”,也就是人们更加愿意相信一些能够佐证既有观点的事物,往往只看到他们想看的东西。[11]

个人化的文化认知结果会以三种方式阻碍文化多样性认识。第一,过滤罩以人为的方式限制“异文化视野”——人类试图理解和解答文化共存的知识储备及视野。第二,过滤罩里面的信息环境势必比较缺乏激发理解文化多样性的特质。互联网的出现及其连通性本是人类接触和了解多样文化的最佳途径和窗口,然而人工智能及算法营造出来的过滤罩环境却隔离了人们接触多样文化的可能。第三,人工智能和算法营造的个体化环境提倡和鼓励的是一种基于“推送”的信息传播方式,个人主动搜寻和探索异文化的动机被抑制。

基于算法的信息过滤所提供的对于特定问题的解答是一种人工解答,视域极其有限,但很有效。无论你想解决什么样的问题,它都能够给你提供一个高度关联的信息环境。通常这样的环境都很实用,例如当你搜索“移民”时,搜索引擎会在下方推荐你可能会感兴趣的相关话题,例如“广州移民治理”等。当你点击下面的相关话题进行信息浏览时,算法就会将你的这个动态痕迹记录下来,作为日后推荐更加符合你的阅览偏好的信息的关联数据,但这时你看待问题的视野无形中就会被压缩得过于窄浅了。因此,算法的过滤带来的最大问题就是它没有“拉远镜头”的功能,使用者容易迷失方向,看不清楚事物的全貌,将自己置身于一座信息孤岛上。

算法过滤的机制依循的是三步骤模式:首先,算法通过动态信息和静态信息认清用户身份与喜好;其次,对用户提供最合宜的信息与服务;最后,把算法改良到恰到好处。简言之,你的身份形塑你使用的媒体。同时反过来媒体也会形塑你的身份,最后的结果就是个人和媒体高度互嵌。在网络上关于城市移民的负面评论,网友会透过自己出于肤色和文化差异所形成的“刻板印象”去想象和构建所谓的“移民形象”,网友还可能会用自己的网络行为自觉不自觉地促成和强化这种不实传播。

结果,当越来越多带着潜在误解的人看到了这些信息之后,又验证了他们的偏见和假设,“自我应验的预言”成为了这个问题的核心。基于人工智能和算法的网络把人们带入到了这种自我应验的时代——算法误判了我们的特质,而这些错误的特质进而成为了我们真正的特质。

当个人化的媒介与特定的人的心理机制结合后,我们会发现身份塑造媒体的同时,媒体也在影响个体相信和关心的事物。当你点击一条关于移民的新闻链接时,表示你对那链接有兴趣,这代表你未来比较可能点击同一主题的文章和新闻,媒体进而会向你推荐这一个主题。个体就这样被困在一个信息的闭环,反复看见的都是自己想看的信息。如上所述,当个体的身份从一开始就被误解,这种奇怪的模式就会开始出现,这也就是传播学中经常提到的“信息茧房”。

因此,尽管网络提供的信息来源广泛,选择也多得令人目不暇接,深居算法和过滤罩里的我们却无缘接触多数的信息。虽然网络能够让我们以多种身份在网络上闯荡,个人化的经济学却经我们逼向死角,个人观因此在原地踏步。尽管网络的潜力在于解放知识、松绑控制,实际上却逐渐收窄我们的视野,限制我们获得的机会,这些权力则集中在少数人或者利益集团身上,在事实上形成少数霸权。

个人化最令人担忧的是,多数的用户看不见个人化的机制,无从控制个人化的行为。我们甚至察觉不出,各人看见的网络越来越不一样了。就算网络知道我们是谁,我们也无从了解网络对我们的观感,如何运用我们的个人信息。科技的初衷是让人类更好地控制日常生活,但如今互联网算法带来的结果却是日益剥夺我们选择的权力。

三、算法正义:呼唤数字时代的人文精神

刻板印象在个人层面上可以被看作是在人的大脑中快速运转的语言模型,这种模式当然是有缺陷的、不完整的,或者是根据笼统、模糊的感性数据建立起来的,互联网的算法则在日益提供这种“数据”。由上述的认知结构可以推断,持有某种偏见的个人不会花大量的时间去反思进而修正他们的心理模型,相反,他们的偏见往往会随着“选择性确认”的加深升级为信仰的可能。这种心理模型有巨大的伤害性,由于缺少检验假设的必要环节,同时忽视反面例证,因此这种刻板印象更加是由随机数据采集和假设所驱动,被证实性的偏见强化的心理“算法”。

简言之,前互联网时代就存在的此种刻板印象在机制和伤害性上同本文所讲的数据算法十分相似。二者的相似性体现在其所具有的社会建构属性,迪尔凯姆(Èmile Durkheim)解释过一种普遍存在的社会现象,叫做社会事实(Social Fact):一切行为方式,不论它是固定的还是不固定的,凡是能从外部给予个人以约束的,或者换一句话说,普遍存在于该社会各处并故有存在的,不管其在个人身上的表现如何,都叫做社会事实。简单地说,社会事实就是外在于个人,却能制约个人行为社会现象。一类典型的社会事实就是公共情绪,比如集会时煽动起来的仇恨、冲动、民族自豪感等等。迪尔凯姆认为,社会事实产生于系统的教育体系和日常生活的潜移默化。这就和网络世界的文化偏见产生了机制上的差异,基于网络世界的偏见更加是一种“无声无息”的状态,是透过被大众认为是最具有中立性的“技术”形塑的。[12]就像萨莉亚·乌莫贾·诺布尔(Safiya Umoja Noble)在他的Algorithms of Oppression中发现的,在google搜索主题词“Beautiful people(漂亮的人)”的前二十张图片里,漂亮的人有十七张白种人的面孔,三张黑种人。而在主题词“Ugly people(丑陋的人)”搜素结果的前二十二张图片里,尽管他们的面孔因为扭曲而不好辨识,我们仍然可以大概归纳出有八张有比较明显的白种人特征,九张黑种人,三张拉美混血裔,两张黄种人。[13]“搜索引擎”其实是用户的价值观和信仰的镜面反映,技术被赋予的“科学性”化身让用户对于搜索结果深信不疑,妨碍了对于结果的反思和修正。因此如果我们相信线下的刻板印象可能是公共建构出的一套偏见机制的话,线上的刻板印象则是一小部分代表技术中立主义的程序员和算法工程师同使用搜索引擎的用户共同建构并维系的。被“偏见”的族群本就是信息贫民(Information Have—less),在其生活的社区中,他们的家人、朋友、族人大多信息素养不高。而算法及其导致的偏差式的刻板印象会加剧他们在网络空间中的边缘化及污名化,其结果就是互联网上更加激化的族群矛盾。[14]这种线上的矛盾往往会被拖拽到线下,可能引发更为严重的现实后果,这种恶性循环就是算法偏差的典型特点。

技术有着强大的改造世界和积聚能源的力量,但是在具体的文化场景之下,却要为规则或者某种精神所支配。[15]针对前面所述的问题,笔者认为要从三个层面思考支配技术的“规则”。

首先,从政府的层面来说,需要对信息时代的公共领域和资源有全新的认识。随着数字生活的全面开战,公众对于信息的消费需求越发强烈,商业性的力量先于政府介入其中并开始控制信息的供给。正常的竞争本无可厚非,既符合商业逻辑,也节约了公共资源。然而商业的逐利本性和垄断操纵野心让公共信息供给领域未来的发展走向歧途,甚至某些巨头企业为了满足投资者的需求开始在搜索引擎中置入非正当、非正义的算法。这是一个全新的领域,需要政府的主动介入干预,合理控制企业在公共信息提供方面的任意性和商业性导向。政府需要从公共利益的角度出发,对算法推荐进行一定规制,在这个方面,中国法律已经有了一定的探索。一方面,规制网络运营者对个人信息的收集和使用,从而确保网络运营者对个人信息的收集和使用建立在个人同意基础上。例如,《中华人民共和国网络安全法》第四十一条规定,网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。正在全国人大常委会审议的《个人信息保护法》更是全面的规制了网络运营者对个人信息的收集和使用。另一方面,为进一步保障用户对个性化算法的控制权,法律还赋予个人以退出权,即个人可要求网络运营者不对其进行基于个人信息的算法推荐。例如,《中华人民共和国电子商务法》第十八条规定:“电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。”《个人信息保护法》(草案二次审议稿)第二十五条第二款规定:“通过自动化决策方式进行商业营销、信息推送,应当同时提供不针对其个人特征的选项,或者向个人提供拒绝的方式。”

其次,从企业来说,在保证商业利益的前提下,内置于提供公共信息的数字产品的算法应该强调“多元性”,例如瑞士的报纸Neue Zürcher Zeitung(NZZ)最近开发了一款App——the Companion。像大多数智能新闻终端一样,这款App也通过机器学习生成个人算法,给用户推送个性化的新闻信息流。但与众不同的,算法会确保这一系列新闻中包含一个“惊喜”,也就是超出读者偏好范围之外的内容。类似地谷歌浏览器的“逃离泡沫”(Escape Your Bubble)插件也在做同样的努力,这款插件可以根据用户的阅读习惯,反向推荐调性积极、易于接受的内容。用户每次访问Facebook时,插件会将不同视角的文章自动导入用户的信息流。多元提供了用户逃离“信息舒适区”的可能性,更加多元和丰富的资讯有助于改善今天数字信息的生态。这就要求算法工程师在制作算法的时候有意识地通过更加合理的技术增加奇遇、多添一些人性,对微妙的身份差异敏感一些,主动宣传公共议题并培养公民精神,用更多的“道德算法”解决之前的技术偏见问题。同样作为公共信息的重要来源,头部搜索引擎公司需要继续强化“信息把关人”的职能,肩负起社会责任,传播人文精神,为用户提供有价值的阅读,真正让重大新闻能看到、有人看,防止过度算法操控下劣质信息的生产和分发。

最后,从用户的角度来说,应当保持足够的“网络理性”。“网络理性”不应仅仅体现在如何防止网络诈骗,如何不传谣姓谣这样的问题上,而应该引导网民保持信息选择的知识理性。用户应该认知到算法推荐的信息是经过个性化算法过滤的,存在偏差。在有必要的时候,用户应该有意识的使用法律赋予的退出权,不让网络运营者进行个性化的算法推荐,从而保护自己的信息选择权,获得较为全面的信息。提高信息搜索、信息筛选的能力更是未来融入数码世界的核心所在,良性信息已经成为现代公民重要的生存资源,获取资源能力的关键就在于网络素养的提升,这也是技术赋权的重要内容。

四、结语:回归初心的算法管理

类似像百度这样的搜索平台不生产内容,但对于信息的排序(Ranking)及其视觉呈现就体现了其作为“管理者的权力”(curatorial power)。[16]平台主体如何将各类信息进行分级排序呈现在公众面前,这其中暗含了信息黑箱,对于平台的算法管理成为了今天数字时代重要的管理学内容。“可见性”作为关键概念出现在当下算法管理的讨论中,当我们把算法管理的显式排名(或隐藏的排名,如播放列表)称为“新的可见性机制”时,我们指的是有序列表在平台经济中吸引其他参与者注意的方式。但有些人可能会认为,算法管理的工具指向一种不同的可见性:用户在一个可见的笼子里,受到一种新的,甚至更普遍的管理注视,这一观点将算法管理视为新的全景敞视。但是,从他们对评估者和被评估者之间在互动层面上以及用户和平台所有者之间在结构层面上权力不对称的深刻观察来看,我们并没有得出这样的结论:这些敞视的权力源于搜索引擎平台通过高度官僚化、自动化的实践将用户置于正式的等级权力结构中。平台公司的确有很强的基于信息可见性的权力,而且,算法管理的可视属性——同时在非常大的范围内注册,同时也让诸多的细节可见——的确是非同寻常的。平台展示了集中的权力可与直接的控制脱钩,在平台算法管理中,控制是去中心化和离散的。

时至当下,以微信、淘宝和百度为代表的国民应用已经不仅仅是商业平台,同时也是具有中国特色的数字基础设施的一部分。[17]自第一批互联网公司成立以来,我国政府各级部门一直努力保持对数字通信技术的管控。数字平台也受到了监管和监督。习近平总书记在2016年的“网络安全和信息化工作座谈会”上的讲话中说:“网络空间是亿万网民共同的精神家园。互联网不是法外之地,利用网络进行欺诈活动,散布色情材料,进行人身攻击,兜售非法物品,等等,这样的言行也要坚决管控,绝不能任其大行其道。没有哪个国家会允许这样的行为泛滥开来。我们要本着对社会负责、对人民负责的态度,依法加强网络空间治理,加强网络内容建设,做强网上正面宣传,培育积极健康、向上向善的网络文化。”[18]政府通过大规模的基础设施建设将这些互联网企业的平台纳入了既受市场保护又受国家监管的场景之中,是一种不同于美国和欧洲平台企业管理体制的新模式,这种“公私合作”的模式既可以解决互联网企业在国内市场和海外市场的竞争问题,同时也解决了国家对于平台企业的监管问题。大型平台企业作为以逐利为核心的营利性公司,必然以利润最大化作为价值追求,当其以利润最大化为唯一目标时,就较为容易借助“算法”等“数据滥用”手段走向市场垄断的“歧路”,形成赢者通吃、一家独大的局面。同时,监管的难度依然不小,因为消费者对互联网平台的使用过程本身就是数据收集、数据控制、数据使用的过程,隐私性与便利性互相交织的客观存在造成了监管“飞地”,这都容易出现更大范围和影响力更大的公共问题。回归互联网的本质,在互联网发展管理中引入算法管理,让人文精神浸润互联网,“让互联网更好造福人民”应当成为技术之初心。

猜你喜欢
算法用户信息
哪种算法简便
Travellng thg World Full—time for Rree
进位加法的两种算法
根据问题 确定算法
订阅信息
关注用户
关注用户
关注用户
关注用户
展会信息