孙海荣 赵志豪
大数据时代新闻聚合平台的发展更多基于Python语言的“网络爬虫”技术。网络爬虫是一种用来自动浏览万维网的网络机器人,其使用针对性的方法对所需数据进行高效的抓取,如面对动态加载的网页,使用模拟发送请求或使用Selenium模拟用户操作的方法抓取数据。[1]但为新闻聚合平台提供“数据抓取”“数值分析”“算法推荐”的数字爬虫技术的同时也带来了一系列智能伦理危机。表面的客观数据背后隐藏着偏见和歧视、精准的智能推送背后隐藏着对公民隐私权和信息自由权的侵犯、大数据优化的背后隐藏着数据利益的驱使和人文关怀的缺失等[2],为用户、社会以及新闻专业主义生态环境造成了一定的影响。本文将就数字爬虫技术的使用为切入点,就数字爬虫技术对新闻业的赋能与负能进行具体阐述,并分别从法律、科技、平台、机器行为学角度综合提出治理路径以针对新闻聚合平台数字爬虫技术所带来的智能伦理危机。
法国哲学家贝尔纳·斯蒂格勒所言“人的发明”蕴含两层含义:一是说人发明了技术,二是说人是“被”发明的。[3]这里将人与技术规定为主体-客体之间的关系,突出了技术在人与技术之间的重要地位。从技术赋能角度来看,技术是一种“人之为人”思维下的实践产物,在这一关系中,人是与技术不可分离、相互规定的技术存在物。人在发明创造技术的同时,技术实践也在“创造”人,这就是客体改造与主体改造的相互统一。贾开等学者(2021)[4]从机器行为学视角出发将爬虫技术视为嵌入社会环境并具有主体性的行动者,爬虫技术作为行为主体与环境进行主动交互,以社会环境中“人”的形态实现主体赋予其的动机并反过来促进技术实践与适应环境本身。
数字爬虫技术对新闻产业的生产工艺流程的优化升级不仅在于对于微操细节的革新,关键在于对新闻产业生产工艺理论的升级。以前端、终端、后台操作流程为例,前端通过网页抓取、版权媒体、聚合平台孵化三个流程将产出内容进行查重、机器审核后发送至后台。后台通过人工审核进行安全性审核与话题流量入口多寡后由内容运营进行对接,如原创栏目、资源开发。后台通过算法推荐进行内容分发,将用户自选择的频道置顶进行干预、编辑置顶精选内容。
但技术实践并非是完全积极正面的,技术实践所引发的伦理问题通常表现为技术发明或社会应用问题,但其背后隐藏的则是伦理问题。韦伯区分“信念伦理”与“责任伦理”,强调技术实践的责任伦理优先。技术实践首先要对技术行动后果负责,这是“责任伦理”优先原则。从技术负能角度出发,由爬虫技术所引发的伦理问题单从外部规制无法将其即将出现的技术风险一并概括,此刻用以应对一切技术风险及技术代价的“信念伦理”与事后承责的“责任伦理”处于同等地位。并且技术与伦理道德的关系上,伦理道德并非是超越时空占据绝对统治地位的,技术带给伦理更多的是“挑战”而非“请教”。
数字爬虫技术给新闻聚合平台所带来的伦理问题不仅对用户本身造成了侵犯,同时也对整个新闻业的专业精神与专业理念进行了重构。从新闻聚合平台的用户角度出发,隐私侵犯、信息自决权受限以及信息茧房等问题体现了数字爬虫技术对用户个人的技术掌控,用户个人新闻获取处于技术牢笼之中。而在新闻业的专业精神与专业理念方面,技术与内容之间的矛盾、新闻价值理念潜规则、行业产权纠纷等涉及新闻专业主义精神的伦理问题层出不穷。
根据艾媒网发布的中国新闻客户端用户规模统计数据,2021年中国新闻客户端用户约为9.23亿人次。诸如“今日头条”“一点资讯”“谷歌新闻”等深度新闻聚合平台所采用的爬虫技术结合新闻聚合平台内部的其他算法可以为数字新闻的“采、编、发”传统流程带来系统化的升级。而这种技术赋能也确实为用户带来了全新体验,使新闻获取以及新闻产出变得更加便捷与高效。
新闻聚合平台依托数字爬虫技术的数据抓取以及中文切词技术可以使使用者在短时间内获得海量文章的有关数据,对其进行快速统计处理。而在人工智能的加持下,根据已有的参数变量在整个互联网平台进行快速采集,大大拓展了新闻渠道来源,能够在新闻发生的第一时间“快、准、狠”地精准推送。这极大地降低了新闻工作者的劳动强度,同时也使得新闻聚合平台牢牢抓住用户群体,用户群体在整个环节中不仅是内容产出者,同时也是内容的传播扩散者,更是维持新闻聚合平台收益的核心群体。
利用“爬虫技术+算法”进行新闻写作可以为新闻聚合平台实现每日发布数以万计的海量新闻稿件,但不同的新闻内容具有其不同风格的要求、特色、格式和范式,新闻编写是如何实现这一精准化分配呢?可以利用爬虫技术进行参数设置,将已知统计过的各类高阅读量标签化文本融入智能编辑中,帮助作者设置标准化标题,从而规避不当标题和“标题党”的诞生,帮助记者更好的查漏补缺。另外,爬虫技术通过爬取不同样本的行文结构特点,使得新闻产品可以契合各渠道的传播方式,呈现新媒体、全媒体时代的新闻稿件篇章规则,帮助新闻更大范围的传播。写作方面通过“人工+算法”相结合的方式,智能机器人根据算法设置的参数进行文章初稿的生成与拟定,后续由内容编辑进行内容审核及安全性审核,按不同自媒体成文方式进行修改。但应值得注意的是“爬虫技术+算法”所产出的智能编辑并不能完全替代人工编辑,主要原因是算法在与环境的互动当中会不断自我进化,而这种进化多是依据已有的参数目标进行,很容易在非主观的情况下产生新闻伦理失范行为,即算法歧视、缺乏人文关怀精神的新闻稿件。所以,当下智能写作机器人还是较多应用于地震灾难新闻和财经数据新闻,而面对社会民生类新闻当下仍然是以智能写作机器人辅助人工编辑为主。
传统的新闻审核容易出现新闻来源审查难(非官方的新闻来源真假难以辨别)、新闻稿件数量大、人工成本较高、人工审核偏见(个人阅历及价值观的不同)等问题,导致传统的新闻审核时长滞后于新闻发布。审核周期过长影响新闻发布的及时性,长此以往也会削弱传统媒体的行业地位,导致其赖以生存的订阅量逐步下降。在当前大数据时代“爬虫技术+算法”所形成的智能把关模式为新闻审核阶段保驾护航,“内容库”和“表现形式”的审核机制可以高效率地筛选、拦截、撤回内容有偏差的新闻稿件。新闻聚合平台均有其专属的“内容库”,在具体的新闻审核过程中,以内容库内的主体、关键词、关键数据等为主要依据,对待审查的新闻稿件相关内容自动标红,将不符合内容规范的新闻稿件撤回并重新发至发稿人处,提醒其问题所在并推荐重新编辑后再度上传。而针对“表现形式”进行新闻审核,主要在于判断新闻稿件内的照片、视频、H5、超链接等是否符合其所投稿的新闻版块及是否符合其新闻主题,若内容违规或不符主题则同样撤回。智能把关模式也会实时审核已发布稿件,针对违规的已发布稿件进行自动撤回,保障新闻内容的合法性和新闻聚合平台的核心竞争力。
算法推荐新闻即利用“Python+算法工具”分析使用者个人用户画像从而将适配于各个用户的不同新闻内容进行精准分发,也可以理解为利用算法工具满足不同用户的个性化需求。算法推荐新闻这种新闻分发方式,极大地解放劳动力,使得新闻工作者可以专注于新闻生产的更多方面。算法推荐新闻的核心工具即爬虫技术,该技术通过模拟人类行为,批量分析和处理大规模的新闻内容数据。“今日头条”新闻聚合平台作为国内较为成熟的算法推荐新闻使用者,首先以爬虫技术在互联网中大量收集、分析数据,并以贴标签的形式将不同类型的新闻内容进行打包分类。随后跟踪用户的平台使用习惯如页面停留时间、喜好领域、当前定位所在地等信息对用户形成一个基本的用户画像,将分类编排好的新闻内容包按照用户的个人画像进行个性化分发,满足用户需求。而其中较为隐私的信息如地点、性别、收入、学历等个人身份特征信息通常平台在收集时会对用户进行事先询问,征求同意与否。
技术伦理,即对技术行为进行伦理导向,通过伦理干预,使技术活动在科技视角之外,更要考虑技术的目标、手段及其后果的正当性。以反爬虫技术为例,针对过度数据挖掘或可能暴露用户隐私数据的行为,编辑算法对爬取行为进行反制,将数据挖取保持在一个合理的界限之内。
诸如“今日头条”“一点资讯”“财新APP”等多种不同类型的新闻聚合平台,通过定位推送同城信息、根据个人喜好进行个性化推送、用户自选兴趣领域等人性化功能,为人们的生活带来了便利。但因新闻聚合平台技术滥用所导致的问题层出不穷,不论是破坏行业格局还是捆绑胁迫收集用户隐私,此类问题不仅涉及技术越界,更产生了法律纠纷。本文通过定性研究方式对数字爬虫技术所导致的事件现象、社会行为及伦理问题进行分析。
在数字经济时代,数据的互联、共享不仅给平台竞争赋入新的竞争优势,以此进化出的新竞争优势更加便利于用户的日常使用。而各个互联网平台之间的数据抓取主要依赖于算法的核心工具,即爬虫技术。
但爬虫技术的不正当使用也带来一系列违背行业规则更甚触碰法律的行为。互联网平台内有大量由用户自主上传生成的数据内容,尽管“UGC”内容权属存在争议[5],但肆意抓取不但消耗个人用户的创作热情,并且对其他竞品平台在行业内的地位也产生影响。通过抓取竞品平台公开、免费的数据资源从而巩固自身利益,逐步替代原平台在行业中的竞争优势,在行业中形成垄断,这种“搭便车”的行为无疑破坏了行业生态,对其他平台产生不正当竞争。如此前深圳市中级人民法院审理的“酷米客”诉“车来了”案,“车来了”平台通过爬取“酷米客”平台上的公共交通数据资源转为己用,是一种典型的搭便车行为,“酷米客”所投入的时间、人工、经济成本无法得到补偿。需要注意的是,两家平台同拥有为用户提供当前公共交通定位实时查询的功能,“车来了”的不正当竞争行为损害了“酷米客”的商业利益,理应做出相应的赔偿。
需要注意的是,当爬取到其他平台内部尚未公开或已署名“独家发布”的数据时,会进一步产生产权纠纷,而不仅仅是不正当竞争的问题。并且“Python+算法”生成的智能机器人根据互联网资源所创作的新闻产品是否具有原创著作权?当智能机器人所创作的新闻产品被他人盗用时是否触犯了智能机器人的著作权?又或当其他平台的智能机器人剽窃了同竞品平台的智能机器人作品时该如何定义此类案件的侵权行为?这些问题也亟待解决。
信息时代下的信息差决定着经济差,而算法推荐新闻在无形中限制人的视野的同时也在巩固着社会阶级关系,精英阶层与社会底层可以接收到的信息在数字时代不但没有缩小彼此之间的数字鸿沟,反而加大了两个阶层之间的差距。以新闻聚合平台为例,当用户打开新闻聚合平台时,第一眼在首页中所看到的即是与自己兴趣相关或者当前定位相关的新闻内容,这种内容选择性呈现方式表面看似帮助用户节省时间且内容种类多样,但实际上用户所接受到的由算法推荐的新闻多是算法通过识别用户画像进而将分类打包好的新闻内容投送至用户处。这种默默无闻的新闻推送方式表面看似便捷多元化,但实际逐渐限制了用户视野。大多数用户都会遭遇到一类情形,即在某新闻平台长期使用后,其用户特征已被平台算法进行精准定位很难在除了自身主动搜索讯息以外的情况下获得不同层面的新闻内容。而想要修改已生成的用户画像已十分困难,在面对已不感兴趣却频繁接受推送的新闻内容时,用户难免产生放弃平台或麻木的心态。
产生此类现象的主要原因在于,精英阶层有着足够的经济储备量和广泛的社交范围,其群体不需要仅仅通过社交媒体或新闻聚合平台来获取最新的信息。算法推荐可以限制其网络上的视野,但在实际生活当中精英阶层有着更多的信息来源渠道,以及足够的金钱去支撑他们接触新的视野和培养新的爱好。但针对于底层人民而言,缺乏时间、金钱与高压力是此类人群的主要特征,该群体的日常消磨时间方式多放在了社交媒体或新闻聚合平台上。但随着算法与环境不断互动形成其个人用户画像后,该类群体仅剩的拓展知识层面与个人视野的渠道也被限制。这样的算法控制会逐渐拉大精英阶层与底层之间的知识鸿沟与经济差,无法实现阶级越迁的底层人民会被固化在自己所固有的社会地位里,久而久之这种情形对社会结构的稳定会产生一定的影响。
基于爬虫技术算法“黑箱”的存在,用户隐私侵犯问题使用户感到焦虑。[6]算法“黑箱”是指算法内部运行机制过于复杂,以至于算法推荐新闻过程能够使用算法却无法具体了解算法编程的内容和结构的现象。[7]算法黑箱的实时监控下,用户个人如同“衣不遮体”般暴露在互联网平台面前,导致用户虽知算法监控的存在但却又无可奈何。
很多新闻聚合平台利用自身功能的必需性来对使用者隐私进行捆绑威胁,若使用者未同意平台所给予的条款则会被限制使用其产品的部分功能。这种算法权利的越位对使用者产生了很大的影响,大多使用者并不是不愿意公布自身的隐私,而是害怕隐私上交之后能否被合理保护以及被索取隐私的目的是为何,这些问题都是需要算法权利的掌控者所需要回答的。2021年5月,国家网信办曾通报百度等105款APP侵犯用户个人隐私的现象。这些APP均存在未经用户同意收集使用个人信息以及未按法律更正个人信息等问题,搜狗输入法、讯飞输入法、QQ输入法等市场份额较高的输入法也包含在内,可见问题之普遍。
在当前智能技术时代,技术人员以技术开发者、平台运营者等身份由幕后走上了台前,承责主体划分标准主要以与算法伦理问题之间的关系密切程度进行划分。技术开发者作为算法的创造者理应成为承责主体之一,平台运营者通常承担算法目的规划师的职责也被包含于承责主体之一,平台本身作为算法最大的受益方则也作为承责主体之一。将技术开发者、平台运营者、平台本身作为承责主体同样囊括于新闻传播伦理规范中,这对新闻伦理失范问题进行责任主体问责产生了一定的阻碍,究其原因在于难以判断失责主体是否主观所为。在传统的新闻传播活动中,“采、编、发”新闻生产流程多是以人工为主、机器为辅的方式进行。当某一环节出现问题时,便可以按照内部管理机制进行主要责任人的问责,整体流程清晰而迅速。但在当下智能时代,由算法产生的新闻伦理问题通常会以两种形式出现,即主观与非主观。
算法产生伦理问题时,主观情况下则多与算法开发的技术人员有关。其中涉及技术人员的新闻道德、个人主观、经济效益等多种因素。但如何判定算法主观失误是一个没有界限的问题,因为在当前的“弱智能”时代,算法多是作为一种工具而非独立个体,即算法只具备与环境之间的互动进化而不具备自我意识,所以算法的纯主观失误很难出现。
而当算法出现非主观失误时,其问责对象则变得比较模糊。首先,算法由技术人员开发而成,而这之中必然包含了算法开发人员自身不可避免的立场与偏见,在算法的不断使用过程中这种偏见会以“技术中立”的形象推送至用户面前。其次,互联网平台同样也具有其经营目标,这一目标同样会施压于技术开发人员从而成为算法的一部分。所以在具体承责方面具有主体模糊以及主次不分的问题。
现有的法律框架难以对此类新闻伦理失范问题进行责任主体问责。主要原因在于:第一,在技术合理使用制度条件下,哪种技术的使用是符合超规格使用例外的,而且如何判定算法的主观与非主观失误;第二,技术开发人员缺乏一定的新闻伦理常识,多是按照平台所给予的规定进行算法设计。而平台也有自身生存下去的经营目标,法律适用时在平台生存与新闻伦理尊严之间难以抉择,所以针对智能新闻伦理案件时的责任主体定责相对模糊。
新闻聚合平台的技术滥用产生的技术伦理危机对行业生态、新闻伦理、传媒结构等形成了一系列负能影响,为应对此趋势理探讨一种有效的治理路径。从技术伦理的控制目标来说,技术伦理并非要限制技术的发展,而是要使作为人类行为产物的技术活动,在人类社会伦理范畴内运行。为此,盛国荣(2010)[8]提出,对技术伦理的控制必须充分考虑以下几个命题:一是科技方法可能改变了人类的环境以及传统伦理观念在世界中的适用性,这种适用性需要技术伦理的跟踪;二是涉及人们对技术破坏伦理的思考路径问题;三是涉及人们对自然的伦理关系的认识问题;四是涉及人们的新伦理建构问题,即新的伦理产生之后如何建立起一套新的伦理原则和标准。理应从不同角度出发思考对技术伦理的控制,在原有的伦理结构基础上进行破局再建构,新闻聚合平台所产生的智能伦理问题不仅要从现有的法律、人文角度出发,也要主动探索新的技术治理路径和治理理念,平衡现有主体与新入主体之间的利益流动,从而推动新闻聚合平台的健康发展。
当前,我国针对新闻出版者保护以及应对新闻聚合平台民事纠纷所采用的法律框架为《著作权法》和《不正当竞争法》,但二者之间的缺陷也极其明显。2018年欧盟正式通过《数字化单一市场版权指令》法案,该法案中最具争议性的一点即在于互联网平台通过以摘要或链接的形式转载其他媒体平台的内容时需不需要支付一定的费用。这对于探讨我国新闻出版者邻接权问题具有很大的启示作用。
在新闻聚合平台民事纠纷案件中,爬虫技术所涉及的新闻作品与新闻出版者数量繁多,众多被侵权方需一一佐证其对作品享有著作权,这使维权方的维权成本陡然升高,维权方成为了被“为难”的一方。结合我国国情创建新闻出版者邻接权主要要义在于加强新闻著作权的内容保护,保障新闻出版者的合法权利,以维护新闻专业权威。可将新闻出版者邻接权解释为“保护新闻出版者的脑力劳动,新闻作品蕴含了新闻出版者的人工成本、时间成本,如果被他人免费使用则会降低新闻出版者的生产积极性,不利于新闻领域的发展”(辜凌云2019)。这一权利在当前智能时代适用,可以为那些不具备“独创性”的作品提供有力保障,保护新闻出版者的合法知识劳动。
《不正当竞争法》则是一种兜底性的法律保护措施,具有事后调整、个案调整以及证明责任较重的缺点。具体体现在信息平台之间的“搭便车”行为,如一些网站在不经允许的情况下擅自将其他信息平台的数据进行数字化处理推送给自家网站的用户。或以“贴摘要”“挂链接”的形式表面指明数据的从属方,但实际所摘取的信息已满足自身网站用户需求而导致数据从属方丢失大量点击率、广告商以及用户量,造成行业之间的不正当竞争。而新闻出版邻接权可以有效防止新闻聚合平台的肆意“搭便车”行为,法令中对“链接行为”有着明确的要求,即使用链接方需获得被链接方的许可并支付一定的费用,使得新闻工作者的知识产品获得了有效保障,避免传统媒体行业沦为互联网平台内容制造机的尴尬局面。同时也为传统媒体行业提供新的生存路径,即发展高质量的新闻内容作品,形成内容为王的核心品牌价值,实现内容变现。
当前我们仍处于“弱人工智能时代”,算法的智能化水平比较有限,但算法作为一个拥有极大发展潜力的新兴技术,其对人类产生愈发强烈的影响,无疑是一种时代趋势。在对算法技术的规制中,多元主体的协同并进是必不可少的。《国务院关于印发新一代人工智能发展规划的通知》提出,要建立健全公开透明的人工智能监督管理体系,实现对智能算法的全过程监管。尤其是算法开发平台作为算法技术的主体拥有者,其在算法技术治理环节中占有绝对地位,而平台在此环节中所要履行的则是其技术职责。从技术纬度出发,以算法监督算法是一种有效应对算法伦理问题的解决办法。[9]
首先,建立健全算法风险预防机制[10],即技术开发人员通过设定具备治理算法功能的算法机制实时监控日常平台系统的运行。当算法运行出现失误时由系统自动进行矫正,将算法恢复初识默认值进行重新循环。其次,算法开发人员可以将自己的源代码进行开源式设计,邀请代表用户参与整体算法的设计,这样既能满足大部分使用者需求,也可令算法开发过程透明、公开,使使用者了解算法开发的意图、用法。最后,可以采用智能芯片植入的方式令智能机器人获得相关的新闻伦理与底线思维,虽然智能新闻伦理失范并非硬性法则便可治理一切问题,但通过智能芯片的植入可以对大部分新闻聚合平台侵权纠纷进行预防,当智能识别此行为可能违反芯片内所包含的硬性规则,算法则会进行自我矫正。
“机器行为学”中的“机器”并不单单指工厂内部的生产设备亦或是具有实体形态的生产机器,其所指的是所有具有工具属性的人造物或人造物构成的人工现象。算法在当前智能时代作为一种人造工具,其具有与实体环境之间不断交互进化的属性,这种被环境改变的属性则被称为“权变性”。而算法不会完全融合于“权变性”的必然性,所以将算法看作机器的角度进行行为分析有利于囊括尽可能多的风险因素,对当前的算法治理原则进行修改。
当前算法风险治理缺乏一种整体的理论框架为指导,不能针对算法各个风险因素产生很好的关联性从而建构风险治理框架。从机器行为学的角度理解算法可以从触发、开发、功能和进化四个角度入手,以一个算法生命周期为基准构建新的算法治理理论框架。从触发、开发、功能和进化等不同环节入手,分析每一环节中风险因素的关联性,可以为风险治理框架提供依据,更多角度的为算法治理制度创新提供可能。
过去传统算法治理策略中多将“算法”看作为单独的技术个体而拎出来单独研究,形成了“头痛医头,脚痛医脚”的片面监管方式。而机器行为学则更多从“技术-环境”“技术-个体”的视角进行问题研究,更加方便针对算法自身进化而导致的一系列伦理问题。如算法推荐引擎在给用户推荐新闻的同时,也在通过筛选点击率、页面停留时间等客观指标不断优化操作指令。当人们在搜索“白人”时所关联的内容较为中性,而在搜索“黑人”时则会更多与犯罪有所关联。这并非算法本身技术设定的算法歧视,而是在与环境的交互中衍生出来的。所以算法治理的范畴应进一步扩大,以更全面地囊括可能发生治理风险的因素。
总的来说,若从“机器行为学”角度出发探讨算法治理框架,前者是从算法生命周期着手,从触发、开发、功能、进化四个议题展开;而后者则更多从“算法-群体”“算法-环境”等人机混合层面。基于此框架我们既可以对当前众多的算法治理原则或规范进行评估以明确其遗漏所在,同时也可以对不同利益相关体的不同偏好作出对应分析,以更好理解各方的优势与不足。
当前所存在的一个问题是,企业内部承责制度不明晰,未能很好地将法律制度、技术治理、行业规范融合进企业内部条例,使得平台治理方在处理企业内部出现的智能伦理问题时所采用的方式较为滞后。
2021年9月15日,国家互联网信息办公室发布《关于进一步压实网站平台信息内容主体责任的意见》,旨在充分发挥网站平台信息内容管理第一责任人作用,引导推动网站平台准确把握主体责任。新闻聚合平台应将外部规制与内部规制双结合,以政策、法律、行规作为外因,以效益、价值观作为内因对整体企业承责制度进行严格化重建。
具体可以体现:首先,建立由层级逐渐向下延伸的惩罚办法,通过层级管理的方式进行命令下达与审核,从源头杜绝可能产生新闻伦理问题的一切风险,并将法律制度与公司条例相结合,涉及法律底线的行为将会直接移送司法处理;其次,由部门审核指定既具有新闻专业知识又具备技术开发的人员来进行关前和关后的审核工作,做到以技术治理技术。内部规则将代码问题与员工个人效益直接挂钩,既可以杜绝社会效益让位于经济效益的问题,也在一定程度上实现了企业内部的自控能力与社会责任承担功能。
技术本身无所谓对错,主要在于技术的使用者以及技术的使用程度。在当前的“技术大航海”时代,互联网平台已经成为信息社会的重要基础设施,并逐步渗透到现行的社会运行与制度制定中。作为网民获取信息的社会公器,新闻聚合平台理应承担起应有的社会责任,形成自身中立、独立、高质、高效的品牌价值。但随着资本的注入与技术的滥用,新闻聚合平台逐渐模糊自身定位,在社会公器与私人商域之间摇摆不定。
新闻聚合平台应时刻牢记自身“公共性”的内涵,要承担起社会公器所应该承担的责任,与传统媒体相互协作,做好优质新闻作品的传声筒以及利用自身高效的连接性维护新闻行业的生态稳定。充分利用自身的技术优势,做好数字新闻版权保护和优质原创内容的产出,保证优质新闻内容的流通,打破社会舆论结构的圈层化现象。开拓数字新闻新局面的同时,也理应注意到新闻聚合平台的生存来源在于商业收益,不能过分追求其承担社会责任而损害了新闻聚合平台的商业利益,那么如何平衡好商业私域与价值公器成为未来需要探讨的一个问题。
针对新闻聚合平台的技术治理是一个多元主体多维度共同任务,需要平台、法律、行政、用户等多主体的相互协作。在未来的实际操作中,不能传统的将技术视作为单一个体,而要从宏观的角度将其与环境、群体联系起来,视为一个具有生命、可自我进化的人工技术,只有在这种视野下建构的技术治理理论框架才能承担并抵御更多可能性因素的风险。