安全与发展:网络内容审核标准体系的价值取向

2022-04-29 00:44朱垚颖谢新洲张静怡
新闻爱好者 2022年11期
关键词:治理体系安全发展

朱垚颖 谢新洲 张静怡

【摘要】作为当前网络治理和社会治理的重点,网络内容治理工作的重要性与日俱增。网络内容审核是网络内容治理的关键一环,内容审核标准体系的完善对于网络内容治理意义深远。基于安全和发展两个价值取向,当前网络内容审核机制存在责任规约不明确、管控尺度难把握、公开机制不健全、前置预防有漏洞、技术标准不全面等问题,这反映出安全与发展双重价值的失衡,凸显了平台利益与社会效益的价值冲突。现提出需建立体系化、标准化的内容审核机制,以全流程、可操作性、多维度作为治理要求,实现网络内容在价值取向上的安全与发展并重。

【关键词】网络内容;审核标准;安全;发展;治理体系

伴随各类互联网内容平台的兴起、社交媒体的广泛普及、用户内容生产参与度的提升,以及网络内容与现实世界连接和渗透程度的进一步加深,网络内容对社会政治、经济、文化等领域的影响力日益凸显,网络内容治理问题也成为网络治理和社会治理的重点。近年来,我国高度重视网络内容治理工作,并将信息安全提升至国家安全的战略高度,相继出台了《网络安全法》《信息安全保护法》《网络信息内容生态治理规定》等法律及规定。2021年9月1日,《数据安全法》开始施行,国家正式建立数据安全审查制度。2022年2月15日起施行的《网络安全审查办法》,进一步明确了国家网络安全审查工作机制。上述办法的施行,意味着我国数据安全及网络安全审查工作进入机制化、体系化的新阶段。网络内容作为网络数据治理和网络安全治理的关键,其审核机制的建立和价值取向也是当前政府、学界、业界高度关注的话题。

安全与发展是网络内容建设的两个价值取向,随着内容审核技术的发展与工作思路的成熟,网络内容审核应逐渐由“安全第一”向“发展优先”转化[1],实现安全与发展的相辅相成。网络内容审核机制是网络内容治理与建设的重要组成部分,关系到内容审查工作的发展方向。以此为出发点,本文将探讨安全与发展在内容审核工作中的现状与问题,分析其矛盾根源,进而对内容标准的制定方式及其意义进行讨论,提出具有系统性、全面性和可操作性的网络内容审核标准体系的建设思路,有助于适应当前阶段的网络内容规律和特征,解决好网络内容审核工作中的问题与矛盾。

一、网络内容审核的现状探讨

网络内容审核是指由政府主导建立的,由政府、平台及用户等多主体协作执行的对网络内容进行的检审、核查与治理活动,目标是保障网络内容的安全与清朗,推动网络内容生态长久发展。由此可见,网络内容审核涉及安全和发展两个价值取向,前者以后置处理为主,在监测到负面信息之后对内容及其发布主体实行管控措施,后者以前置工作为主,包括用户素质培育、舆情风险监测技术、优质内容创作引导等内容。对当前网络内容审核发展现状的分析,既需关注审核背后的“底线”思维考量,也需关注审核方式和审核对象的差异。

(一)“底线”思维下的内容审核模式

目前,我国网络审核以安全保障工作为主要取向,平台的审核工作也以守住内容“底线”为主要目标。从政策层面来看,20世纪以来,我国已经建立了较为全面的网络安全政策及法规体系:从1994年《计算机信息系统安全保护条例》出台,到2021年《关键信息基础设施安全保护条例》推行,我国基础网络安全体系逐渐建立。近年来《网络安全法》《数据安全法》《个人信息保护法》相继颁布,信息和数据安全得到了更为细致的法律保障。在网络信息安全保护日益强化的大环境下,网络内容安全体系也逐渐完善。2019年,《网络信息内容生态治理规定》(以下简称《规定》)推出,提出了违法及不良信息的判定标准以及优质信息的内容特征。2022年1月,《网络安全审查办法》出臺,进一步针对产品、服务和数据三个治理对象强化了平台的管理责任。可见,当前阶段审核标准体系主要围绕信息安全及国家安全建立和展开,针对互联网内容方面的潜在风险和现存问题建立了较为全面的政策体系。同时,《规定》也涉及了一部分内容发展层面的措施,要求平台对《规定》所提出的优质内容进行优先传播和呈现。

从平台层面来看,当前内容审核工作主要采取机器审核与人工审核相结合的方式。主体在平台中创作和发布的内容首先通过机器进行负面关键词初步匹配,未命中关键词的内容视为审核通过内容,直接发送至平台。机器检测到可能存在风险的内容进入人工复审环节,涉及违法违规的“底线”内容将被进行封禁和删除处理。一些具有模糊性的内容则进入二轮人工审核环节,并根据内容可辨别难度的增加依次上递,最终确定对其的处理方式。在审核内容层次方面,一些平台也按照内容影响力进行优先级划分,重点关注“大V”等账号发布的内容,普通用户发布的内容在达到一定热度之后才会进入平台审核库中。对于谣言等信息内容,平台也设置了相应的后置处理办法,包括设置谣言信息标签、建立辟谣平台、开启官方媒体辟谣权限等。总体来看,平台内容审核工作主要依据《规定》所提出的负面信息清单来进行,集中审核力量处理“底线”问题,并进行必要的内容审核处理结果公示,同时配合相关优质内容的推荐工作。

(二)内容审核方式的多元发展

当前,网络内容审核呈现多元模式,审核方式以体制机制审核、人工审核、机器审核为基础,形成多种方式相互配合、互为补充的多层级审核流程。在此过程中,官方媒体、市场化媒体、账号类媒体由于在内容生产机制、内容传播目的、专业性程度等各方面存在差异,往往在内容审核中采取不同的审核模式及策略。与此同时,不同审核模式对于人才、劳动、技术等要素的倾向性和需求也存在差异,形成了多元的工作方法和审核思路。

体制机制审核是目前主流媒体的主导内容审核方式,媒体编辑部在审核工作中扮演着“把关人”的角色,专业人才的评估和判断在内容“底线”的把控和内容质量的优化中发挥着关键作用。网络内容时代的体制机制审核沿袭了传统媒体内容生产的严谨性与专业性,其不仅是主流媒体传播力与公信力的重要保证,同时也为推进行业内容审核的专业化和规范化提供了有效示范和指导。目前,由主流媒体主导建立的内容风控业务机构成为内容审核工作中的业务主力之一[2],为行业内容审核工作提供了有力支持。

人工审核主要指由具备内容审核相关知识和技能的人员根据内容审核规则对体量庞大的网络信息展开的人工筛查。这一审核方式以“劳动密集型”为主要生产形式,并将官方制定的法律法规与平台规则作为主要的行动原则。现阶段,市场化媒体通常借助于“机器+人工”的内容审核方式,人工审核主要作为机器审核的补充手段和上层环节,用于把关音视频作品以及较为模糊或复杂的内容问题,补足机器审核在内容形式上的局限性,精细化处理机器预筛过程中可能存在的内容风险。

机器审核运用算法进行内容比对和筛选,是内容审核标准化、规模化发展方向的集中体现。机器审核以技术为导向,运用数据库、人工智能等现代技术进行实时高效的内容治理,极大提高了内容审核工作效率,推动审核工作的常态化开展。但是,现阶段的机器审核仍然存在着技术滞后的问题,同时面临着网络内容复杂化带来的挑战,因此尚难达到完全智能化的水平,需要人工复核作为其支持与补充。机器审核的把关作用在账号类媒体中得到突出体现,账号类媒体主要指各类网络平台中的自媒体以及个人创作者,其内容创作时常存在着自我审核环节缺失的问题,进而将审核压力转嫁到内容发布平台方。在此过程中,违规内容通过机器审核得到快速处理,阻断了不良内容的大规模传播。与此同时,大量账号内容为机器学习提供了良好数据,进而促进机器学习的开展和内容审核算法的成熟。

(三)各类型网络内容审核的不同侧重

当前网络内容海量丰富、类型多元,包括文字、图片、视频、游戏、虚拟沉浸内容等多种形态,呈现出多媒体、数字化、智能化等趋势。随着互联网文化产品的日益丰富,短视频、直播、游戏等诸多文化产品进一步丰富了网络内容这一概念内涵,也带来了更复杂的审核需求。

在网络内容不断发展的背景下,针对不同类型内容的审核方式和重点也存在相应差异。文字类型的网络内容审核往往以关键词及语义审核作为重点,审核方式相对明确,常见前置审批和事后删帖等审核方式。而游戏等更复杂的网络内容前置审核,既需要对游戏中出现的一些文字、图片、NPC形象等进行审核,也需要对游戏故事情节、剧情推进、环境场景等体现出的文化价值观进行审核,避免出现低俗文化、传统文化误读等情况,确保内容优质、健康、干净。直播内容审核涉及即时直播,因此较难进行前置审核,审核难度也大大增加,常见的审核方式是以智能审核方式对直播中的“间隔图片”进行审核,以及对一些直播账号进行人工审核。

目前,在不同类型网络内容的审核中,文字、图片审核相对较为成熟,短视频审核、游戏审核的技术审核也在不断发展,直播审核可能面临着较大的技术挑战和内容把关上的困难。目前不同类型内容的审核方式和技术也在彼此借鉴,例如将敏感词过滤、图片审核作为视频内容审核的手段,或是将传统内容审核中的播前审核引入到直播内容审核中来。总的来说,不同类型的网络内容有着相应的审核机制和审核方式,相应的审核准则也在推出,例如中国网络视听节目服务协会在2017年和2019年分别发布《网络视听节目内容审核通则》《网络短视频内容审核标准细则》,2021年也对后者进行了全面修订,进一步结合新的内容变化修订了审核标准。

二、当前网络内容审核工作存在的问题

由于审核技术、机制和责任归属的不健全,以及审核方式和审核对象的差异化,现阶段网络内容标准存在着安全与发展取向不平衡的问题。一方面,平台内容审核工作固守安全底线,忽视了长远发展目标的规划;另一方面,平台面对技术红利的吸引单方面追求内容发展,致使相关的安全保障措施配备相对滞后。两方面的价值失衡引发了各类审核工作问题,同时也反映了相关制度建设的短板。

(一)责任规约不明确

习近平总书记在2016年的全国网络安全和信息化工作座谈会上提出,网站在网上信息管理中应负“主体责任”。[3]互联网平台掌握着干预平台信息流動的技术能力和内容管理的实际权力,是网络内容审核的责任主体。突出平台责任,强化平台治理是党的十八大以来,我国在网络治理方面取得的重要经验。[4]平台主体责任的落实是安全与发展的实现基础,然而实际工作中却存在着各类责任不明确的问题。

首先,平台的责任履行不够全面。一些平台初步明确了“底线”工作的重要性,并成立专班小组负责相关工作,但对优质内容引导工作还不够重视,因而导致了内容审核与内容发展之间的价值断层,尤其是一些处于早期发展阶段的内容平台仍然以扩大平台影响力作为第一诉求,将优质内容的生产放在后置需求地位。其次,平台考虑审核成本和效率,将部分审核工作移交外部团队,导致审核责任间接落实、人员素质参差不齐等问题,可能造成审核质量下降。再次,部分平台自制力较弱,内容安全意识不足,时常为了追求流量而牺牲质量,致使一些处于灰色地带的内容频频出现。例如2021年底,全国网络执法就整治了网上历史虚无主义、治理算法乱用、整治未成年人网络环境、整治弹窗新闻信息突出问题、规范网站账号运营、整治网上文娱及热点排行乱象等问题,其中如金山毒霸应用程序弹窗推送诋毁革命烈士邱少云等内容的出现[5],危害了网络内容空间的健康发展。

上述问题也反映出了平台审核工作中安全与发展的价值错位。如何通过政策引导将平台审核责任中的安全与发展有效衔接,提高平台自我管理的自主性和积极性,是当前阶段需要思考的问题。

(二)管控尺度难以把握

《规定》中将网络内容的审核与处理标准概括为“十一不准”“九防范抵制”和“七鼓励”,是当前最为权威和全面的内容治理标准参考。[6]这一标准为内容治理划定了较清晰的框架,对优质内容的标准予以一定的指引,体现了安全和发展两个价值维度。基于这一框架,平台能够对色情、暴力等“底线”内容进行果断识别和封禁,但对于相对模糊的内容仍然存在管理力度难以掌握的问题。

网络内容本身具有复杂性,是一种处于添加、改写、再传播状态中的永久“半成品”[7],这也导致平台难以形成普适化的处理策略。平台依靠自身治理经验进行的管理具有局限性,其管理范围与用户接受能力之间可能存在偏差,引发次生舆情,造成公共利益损失。当前内容审核在系统管理理论以及行动逻辑方面还有待深入研究[8],存在可操作性较弱的问题,缺乏具有动态适应性的处理预案,因此难以为平台审核工作提供更为细致的指导。审核工作的完善需要进一步考虑其维度多样性,在为安全问题提供参考的同时,也为复杂内容的处理以及优质内容的发展提供更多切实的解决路径。

(三)公开机制不健全

内容审核流程的完整性和合理性是内容审核工作的重要发展维度,平台公开机制是提高审核工作透明度和保障工作质量的重要环节。目前,一些平台在审核工作中存在机械化、形式化的问题,可能造成用户的不满情绪以及社会监督的缺失。

一方面,平台的信息公开工作不够深入。许多平台颁布了社区公约,对平台使用进行了细致规约,同时也开通了官方管理平台,例如抖音社区自律公约、“微博管理员”账号、微信“辟谣助手”小程序等。这些做法取得了一定成效,但对用户主动性要求较高,治理范围较为有限,仍然需要进一步的宣传推广。另一方面,用户在审核工作中处于较被动的地位,用户主体性体现不足。一些平台利用技术优势在用户不知情的情况下对其创作内容进行一定范围的设限,从而预防不确定性内容的负面影响,减轻审核工作压力。类似做法虽然能够规避风险,但是不利于用户的引导和培育,也放任了平台所构建的权力不对等的私人秩序的形成。[9]透明化工作中的问题进一步表明了安全与发展的价值失衡,内容审核工作需要着眼全局,形成可持续的工作模式和方法,不仅考虑当前工作的完成和问题的解决,更要考虑内容治理的长远规划和发展目标。

(四)前置预防机制不完善

长期以来,后置处理是平台内容审核工作的主要模式。一些信息形式具有较大的管理难度,例如谣言等不良信息具有来源广泛、不确定性强、变化发展快、人际扩散迅速等特征,使平台在介入之初就面临着较大规模的传播和影响范围,处于相对被动的地位,即使最行之有效的谣言治理办法仍然是偏滞后性的。即时通信类信息也存在着类似问题,此类信息具有碎片性和隐匿性,除了针对特定关键词的前置拦截以外,其他信息只能进行事后干预,而此前已发出的内容则难以进入治理范围。此外,平台依据内容热度的审核优先级划分也导致某些偶然性大面积传播的不良内容难以得到及时发现和处理。

面对体量庞大的网络信息,单方面的后置性安全保障工作难以完全解决内容问题,需要从发展的思路出发,开展前置性的教育和预防工作。一些平台开通了“赞赏”“投币”等激励功能,鼓励用户发布优质原创内容。此类做法有利于推进内容审核工作由事后管理向事前引导转变,但总体来看平台在公约引导和优质内容激励层面相对薄弱,同时需要避免商业炒作、非理性打赏、盗版侵权等问题。与此同时,自媒体平台推出了各类内容创作者扶持政策,但执行过程中存在着创作者与平台话语权不对等的现象,扶持政策“高门槛、低力度”,创作者所得回报难以达到预期[10],因而进一步加剧了内容资源的头部集中以及内容同质化趋势。一些平台推出了个性化的用户素养培育功能,例如哔哩哔哩要求用户在获得会员身份之前通过社区使用规范考核,一些豆瓣小组要求用户在加入前作出遵守小组规则的相应承诺等。这些做法能够在一定程度上提高用户的规则意识,但是目前尚未全面推广使用,一些公约内容也由用户自主制定,缺乏专业性和约束力,治理方面存在一定的漏洞。

(五)技术标准不全面

技术是内容建设的重要驱动力,代表着发展的价值取向。平台技术的创新需要通过内容呈现,因此“发展”是平台内容的基本要务。尽管如此,内容安全仍然是内容繁荣发展的前提条件,现阶段存在着内容审核技术滞后于内容发展技术的现象[11],导致平台在技术方面出现了过度追求发展取向的问题。具体来看,智能算法推荐等平台内容生产技术满足了用户的个性化需求,但同时也导致了内容同质化、碎片化等问题。然而与之相应的内容质量保障技术尚未得到充分开发和应用,无法与过分商业化导向的推荐机制形成制衡,进一步放任了内容质量的滑坡。

另外,当前审核技术尚且无法全面满足审核工作的现实要求,针对图片、视频、音频等内容审核的相关技术处于弱智能状态。例如,平台的视频内容审核仍然存在着成本较高的问题,当前技术水平下需要对视频画面进行抽帧处理,对音频信息进行文字转化,大大增加了审核工作量。

目前我国仍然缺乏有效的内容审核技术研发制度与研发激励机制,导致以平台和企业为主体的研发主体的创新性不足,技术开发的积极性较弱,从而导致了内容审核技术的发展滞后问题。现有技术标准不够系统,更加侧重技术的可能性与实用性,对于技术与内容更新速度的适应性以及技术与网络内容形式间的匹配性考虑不足。

三、问题剖析:显隐要素与价值冲突

目前内容审核工作中的各类问题在一定程度上反映了安全与发展双重价值的失衡,也是平台利益与社会效益产生价值冲突的体现。平台对审核工作的不同环节有着差异化的价值权衡,根据具体工作性质及其与平台经营之间的关系选择工作策略,进而形成了现有的内容审核工作局面。沿着这一思路,对审核工作问题原因进行剖析,能够进一步明确当前审核工作的症结所在,从而为标准体系的制定提供更为准确的思路。

(一)安全与发展的价值取向探讨

习近平总书记强调:“安全和发展是一体之两翼,驱动之双轮。”[12]统筹安全和发展两件大事,实现更高水平的安全和更高质量的发展是社会主义事业的必然发展方向。网络内容审核工作中同样需要平衡好安全与发展之间的关系,既塑造有利于网络内容的安全环境,又用扎实发展成果夯实我国网络内容空间建设,实现动态平衡。

内容管理制度的深入推进需要秉承“安全与发展辩证统一”的价值观。在这一过程中,既需要信息安全管理范式的创新和转型,由传统的经验研判转向数据研判,由被动应对转向主动预防,培养公众的数据素养和防范意识,[13]也需要加强对各个主体约束性的转变,由强制性约束转为正确引导,由依靠组织化控制转为依靠个体自治,由封闭式治理转为互动治理。[14]

目前,我国内容治理正处于由安全向发展转化的过程之中,在此阶段更需要明确内容审核工作的发展方向,对内容审核工作提出更高的发展要求,同时提供更为有力的制度支持。无论是“安全第一”还是“重视发展”,都是基于国家网络内容治理能力和网络内容阶段性特征进行的策略选择。由安全向发展的转化也是二者相互作用,達成平衡的动态过程。需要注意的是,制度重心由安全向发展的演变并不是对安全的摒弃,而是在安全制度体系基本健全、网络信息安全得到全面保障基础上的深化改革,以制度创新为引领,为网络内容审核工作注入发展动力。

(二)隐性要素与平台的效率考量

隐性要素是指平台在内容审核工作中的流程、制度、组织方式、素养培育等后台管理环节,这些工作关乎平台的审核工作质量以及内容建设的可持续发展,但在短期内对平台的内容质量影响较为间接,因此常常被平台视为安全保障范畴。实际工作中,平台倾向于保证隐性要素的完成性,而对于此类工作的完整性与质量情况未予以充分的重视。这一现象是平台出于效率考量的结果,同时也是安全与发展价值特征在审核工作中的具体体现。

在内容审核工作中,安全与发展在投入与回报的时效性上存在差异。平台内容“底线”的严守是平台运营正常开展的基本条件,在这一问题上,平台对于安全方面的投入见效较快,能够避免重大内容问题的发生,确保平台在当前政策框架下平稳运行。因此,平台在机器审核数据库建设、重要内容专班小组审核、海外舆情风险监测等安全范畴投入了较大精力。相比之下,审核公开机制的完善、用户素养培育机制等工作投入见效比较迟缓,且投入与收益之间的关联性具有较大未知性与复杂性。基于以上考虑,平台采取了着力保障“底线”工作的内容管理策略,而对于流程、制度、组织方式、素养培育等隐性管理工作,平台更加期望效率的提高,即在短时间内解决问题,达到投入最小化。

平台在隐性要素方面向安全价值取向倾斜,导致了内容审核流程、机制以及前置工作的不健全。针对这一问题,审核标准体系建设应该考虑向发展取向的引导转型。审核标准体系需要给予平台经营充分的理解与支持,同时帮助平台明确发展范畴工作的长远意义和潜在价值,通过出台相关激励政策、工作细则、工作规范等,督促平台加紧全流程审核工作质量的提升。

(三)显性要素与平台的利益追逐

显性要素是指平台所能呈现的内容及功能形式,以及能够直接促进平台内容繁荣的相关技术手段。这些要素直接作用于平台内容形式、视觉呈现效果、功能多样性等,与用户黏度、流量吸引力等商业指标息息相关。“内容先行”是当前网络平台发展的基础逻辑,用户是平台利益的根基[15],因此,这一逻辑不仅要求平台信息的丰富性,同时追求更具个性和针对性的定制服务,以满足平台用户的多样化需求。对显性要素的倾向性体现了平台对发展的价值取向的倾斜,是平台利益追逐在实际工作中的表现。

安全与发展对平台经营的作用不同,对安全问题的投入虽然能够快速解决矛盾和规避风险,但其作用仅限于维持平台运行。相比之下,对发展问题的投入能够创造更大的商业价值。具体而言,平台内容技术的迅速演进就是发展价值取向的充分体现。对于平台内容这一显性要素来说,发展问题的投入效果是立竿见影的,直接影响着用户体验与平台热度。因此,平台更乐于在内容生产和发展方面投入更多资源,特别是智能算法等技术要素,直接作用于用户吸引力和用户黏度的提升,进而获得更大的商业效益。这也解释了内容审核技术发展始终相对迟缓的原因,平台在技术开发过程中的商业逻辑造就了当前技术发展不均衡的局面,使得内容审核技术仅仅能够满足基本审核工作的需要,而在复杂内容识别、图片视频审核工作中仍处于弱智能阶段。

显隐要素价值取向的差异表明,平台在内容建设工作中的策略选择并非单纯对安全或发展中某一方的青睐,而是基于自身经营需求与实际工作性质进行的价值选择。因此,内容审核标准体系的建设也并非对某一价值取向的单方面强调,而是需要考虑更为细致化的审核工作语境,进而对具体领域存在的问题提供具体化的规约和指导。

四、网络内容审核标准体系的发展建议

网络内容审核工作需要平衡好当前工作中安全与发展的关系,明确责任主体、执行方式、制度公开、素养培育、技术标准等各个环节,更为关键的是,需要建立一套能够运转于政府、网络信息内容服务平台、网络内容消费用户三个主体之间的标准体系。网络内容审核的标准体系应涵盖网络内容的评价尺度、审核工作的执行方式及流程、审核技术标准、内容风险预防机制的建立标准等,从而为内容审核工作提供系统化的指引,推进内容治理体系的不断完善。审核标准体系的完善不仅是当下互联网内容建设的现实需求,更是网络强国建设社会治理现代化的必然要求。建立系统化、立体化、具体化的内容审核标准体系,能够提高内容治理效能,平衡当前存在的价值矛盾,推动建立多主体协同治理格局,促进公平健康的网络空间与生态的形成,为社会治理的现代化提供支持与保障。

(一)建立系统的全流程标准

内容审核标准体系需要健全内容审核工作的各项机制和流程,推进审核工作的完整性、合理性,推进前置预防工作的完善。

第一,需要对平台责任进行更为具体细致的规约。一方面,内容审核标准需要从更为细化的角度对平台需要承担的工作内容进行指导,推进平台内容审核的有效执行,减少因平台主体缺位造成的内容审核漏洞。另一方面,内容审核标准应为平台提供重要的工作执行参照,减少平台审核工作的不确定性,降低审核工作难度,从而推进平台审核工作的全面落实。

第二,需要推进审核工作公开制度和意见反馈机制的完善,提高内容审核工作的透明度,密切用户与平台之间的沟通。制度公开机制能够更好地发挥社会监督作用,形成规约和督促平台内容审核工作标准化、有序化的外部力量。意见反馈机制一方面能够提高用户对平台内容审核工作的参与度,收集多方有益建议,另一方面也能够深化用户与平台的沟通与交流,减少审核工作不透明造成的矛盾与摩擦。同时,平台不仅需要提升用户参与的积极性与广泛性,也要注重参与主体的关联性[16],加强与事件相关主体的对话与沟通,提高内容管理工作的针对性。

第三,需要建立用户素养培育机制和优质内容激励机制,促进治理和引导工作的前置性,减少负面舆论事件的产生和扩散。用户素质的提高有利于用户内容创作行为的规范化,提升平台内容质量,同时也有助于提高用户辨别和筛选信息的能力,削弱网络谣言等不良内容的影响力和传播力。优质內容激励机制能够通过平台引流、内容评选等多种手段提高用户内容创作的积极性,引导优质内容的生产和传播。此外,优质内容激励机制的实行还需要更为有力的互联网版权保护政策,保障原创内容的版权归属,切实维护创作者权益。

(二)推出具体的可操作标准

内容审核标准体系不仅需要进行价值方向的有力引导,也需要为实际工作提供具体的实践指导。制定完善和细化的内容审核标准,能够提高内容审核工作效率,提升内容审核工作质量。面对体量庞大、内容多元的网络信息,内容细致且具备较强指导价值的审核标准能够为审核工作的执行者提供多语境适用的行动参考,减少不确定性造成的审核工作障碍。另外,审核标准制定工作相关的案例研究和分析也有助于制定包括网络舆情事件在内的各类行动预案,推进内容治理主体对网络内容规律的把握和认识,提高相关工作的执行效率。

从制度设计方面看,内容审核需要建立具体化的价值评价体系。具体化的操作标准能够帮助平台进行准确的尺度把握,不仅为平台明确指出内容审核的“底线”“红线”,并且能为模糊性、争议性内容的处理提供细致的判别标准,为健康、优质内容提供价值引导的方向和方法。与此同时,平台能够基于系统化的审核标准和治理理论制订各类行动预案,为审核工作提供实践指导和参考,缩短突发事件的处理周期,提高平台的风险感知能力和应对能力。细致且可操作的内容审核标准能够减少内容审核对人工成本的需求,推动审核工作从主要依靠经验判断向主要依靠规则尺度转变,推进审核工作的标准化和规范化。

从实施效果方面看,内容审核标准的细化能够推进平台治理手段和治理尺度的标准化,进而减少相应的次生舆论问题,减轻平台内容审核工作的负担。审核标准制定需要考虑网络内容治理的总体目标,也需要兼顾当前阶段网络内容特征以及用户需求,建立适应目前网络内容发展规律的内容审核体系。这一做法有助于平台内容审核工作的合理决策和准确执行,避免管理范围与用户认知之间的差异造成的误解和质疑,从而减少内容管理引发的用户情绪化问题,消除平台审核工作的相关顾虑,提升平台对内容审核工作的积极性和执行力。

(三)构建立体的多维度标准

内容审核标准体系需要从技术和内容两个方面构建更为立体化的评判标准。当前我国内容治理政策以基础法律为核心政策,呈现“虹吸效应”[17],与各类规定细则相辅相成,共同作用于内容治理工作。从技术角度看,不仅要巩固基础内容审核技术的发展,更要推进审核手段的全面智能化,不仅要完善针对负面内容管理的技术标准,更要建立优质内容推荐和生产的相关技术规范。从内容角度来看,审核标准需要建立多层次的价值评价体系,既要进行全方位的顶层设计,又要建立适应具体情境的可操作標准;既要对负面内容和模糊性内容进行详细规约,又要对优质内容评判标准进行更为深入的指引。

组织机构的数字治理能力是其进行策略设计、提供技术保障以及完善队伍建设的基础[18],全面多元的内容审核技术标准能够为平台审核技术提供明确方向,促进平台审核技术的全面均衡发展,提升平台的综合数字治理能力。具体来看,目前的机器审核工作仍然存在误判和漏判现象,可能造成商业损失、影响新闻价值、降低用户信任度[19],多元技术标准体系能够对机器审核技术提出更为精准的识别要求,强化复杂内容辨别技术的研发和优化,推动优质内容推荐机制的智能化和精准化,建立与网络内容结构与形式相匹配的机器审核技术体系,促进文字、图片、视频识别技术的全面发展。技术激励机制能够在一定程度上平衡内容技术与审核技术之间的发展差距,鼓励平台深入拓展内容审核技术发展的深度与广度,突破当前机器审核的技术瓶颈,实现审核工作的智能化发展。

多维度内容标准的建立对于平台的良性运转与内容建设具有重要的调节和推动作用。平台是智能化时代互联网内容生态建设的关键,不断造就着内容生产、分发、消费的一体化局面,良好生态的形成需要多方利益的平衡与能量的相互供给。[20]内容标准体系需要兼顾用户内容创作的引导与发展、平台管理方式的多样化与标准化、平台审核制度与流程的合理性等多个方面,鼓舞和激励网络内容创作,增强网络内容的多样性与创新性,指引网络内容的发展方向,推动网络内容建设融入社会文化发展,营造生态良好的网络空间。

[本文为国家社会科学基金重大项目“中国特色网络内容治理体系及监管模式研究”(18ZDA317)的阶段性成果之一]

参考文献:

[1]何明升.网络内容治理:基于负面清单的信息质量监管[J].新视野,2018(4):108-114.

[2]张杰,毛艺融.平台型媒体内容审核:动因、现状与突破[J].出版科学,2021,29(6):76-83.

[3]习近平.在网络安全和信息化工作座谈会上的讲话[EB/OL].http://www.gov.cn/xinwen/2016-04/25/content_5067705.htm,2016-04-25/2022-07-17.

[4]田丽.互联网内容治理新趋势[J].新闻爱好者,2018(7):9-11.

[5]2021年全国网络执法取得显著成效[EB/OL].http://www.cac.gov.cn/2022-01/27/c_1644887128880847.htm,2022-01-27/2022-07-17.

[6]王建新.综合治理:网络内容治理体系的现代化[J].电子政务,2021(9):13-22.

[7]任慧,曹珊,李巍霞.媒介内容产业生产趋势、困境与治理机制研究:基于新媒体传播生态的思考[J].现代传播(中国传媒大学学报),2014(12):57-60.

[8]周毅.总体国家安全观视域的网络信息内容治理:进展、内涵与研究逻辑[J].情报理论与实践,2020(8):44-50.

[9]谢新洲,宋琢.用户视角下的平台责任与政府控制:一个有调节的中介模型[J].新闻与写作,2021(12):13-23.

[10]申玲玲,向爽.价值共创视角下自媒体平台内容创作者扶持政策研究[J].出版科学,2021(5):80-91.

[11]谢新洲,朱垚颖.网络内容治理发展态势与应对策略研究[J].新闻与写作,2020(4):76-82.

[12]统筹好发展和安全两件大事[EB/OL].http://www.qstheory.cn/qshyjx/2021-04/15/c_1127333059.htm,2022-03/2022-04-15.

[13]王世伟.论大数据时代信息安全的新特点与新要求[J].图书情报工作,2016(6):5-14.

[14]张东.中国互联网信息治理模式研究[D].北京:中国人民大学,2010.

[15]谢新洲,宋琢.用户视角下的平台责任与政府控制:一个有调节的中介模型[J].新闻与写作,2021(12):13-23.

[16]谢新洲,杜燕.政治与经济:网络内容治理的价值矛盾[J].新闻与写作,2020(9):69-77.

[17]邓卫华,左静.“十八大”以来互联网内容治理政策变迁:基于政策文献计量的研究[J].信息资源管理学报,2021(3):88-98.

[18]张杰,毛艺融.平台型媒体内容审核:动因、现状与突破[J].出版科学,2021,29(6):76-83.

[19]祝智庭,陈丹.数字治理:智慧学习新素养[J].电化教育研究,2014(9):9-17.

[20]彭兰.智能时代的新内容革命[J].国际新闻界,2018(6):88-109.

[朱垚颖为清华大学人文学院写作与沟通教学中心讲师;谢新洲(通讯作者)为北京大学新媒体研究院院长、教授、博士生导师;张静怡为北京大学新媒体研究院博士生]

编校:张红玲

猜你喜欢
治理体系安全发展
迈上十四五发展“新跑道”,打好可持续发展的“未来牌”
砥砺奋进 共享发展
改性沥青的应用与发展
新加坡法治反腐的实践经验及启示
大数据视角下的国家治理现代化
高校治理体系和治理能力探究
高职院校学生管理问题现状研究及对策初探
“会”与“展”引导再制造发展