李红勃 张玉芳
(中国政法大学:法治政府研究院;人权研究院,北京 100088)
未成年人是祖国的未来,民族的希望。党和政府历来高度重视未成年人的健康成长。习近平总书记强调:“当代中国少年儿童既是实现第一个百年奋斗目标的经历者、见证者,更是实现第二个百年奋斗目标、建设社会主义现代化强国的生力军。”[1]共青团中央维护青少年权益部和中国互联网络信息中心发布的《第5 次全国未成年人互联网使用情况调查报告》显示,2022 年未成年网民规模突破1.93 亿,其中小学生的互联网普及率达95.1%,其他各学龄段学生的互联网普及率均超过99%[2]。为保障未成年人在网络空间的健康成长,我国颁布了《未成年人网络保护条例》(以下简称《条例》),自2024 年1 月1 日起正式施行。这是我国第一部专门性的未成年人网络保护综合立法。《条例》聚焦未成年人网络素养提升、网络信息内容规范、网络防欺凌、个人信息网络保护、网络沉迷防治等方面,坚持全社会协同共治,总结未成年人网络保护的实践经验,从制度规定的层面回应了现实治理的需要。《条例》的出台,对于营造有益未成年人身心健康的网络环境、健全未成年人网络保护制度体系、保障未成年人的合法权益具有重要意义。
在未成年人网络保护的治理体系中,网络信息内容的规范和管理是核心问题。网络是一个载体,而信息是其内容。互联网上海量的信息资讯扑面而来,会直接或间接影响未成年人的行为习惯、价值观念,从而影响其身心成长和人格发展。因此,国家和社会必须予以高度重视,通过科学合理的管理机制,为未成年人提供优质的网络信息内容,构建清朗的未成年人友好型网络环境。由于网络技术发展迅速,涉及的利益关系极其复杂,因此未成年人网络保护立法相对比较缓慢和艰难。在此过程中,关于网络信息内容的规范,一直是受到各界普遍关注的焦点话题,在如何设计制度方案的讨论中,也一直存在较大争议。在学术研究领域,关于未成年人网络保护中信息内容规范的研究并不充分,现有研究涉及的议题主要包括:从未成年人网络安全风险防范的角度探讨保护措施的完善[3],结合域外经验讨论网络时代如何构建未成年人法律保护制度[4],关于网络信息建立分级制度的讨论[5]等。当前,随着《条例》的颁布实施,基本法律制度框架已经具备,未成年人网络信息内容的治理实现了有法可依。但是,如何准确理解现有制度的内涵和目的,该制度的实施还需要哪些配套机制,是否还存在优化和改进的空间,这些构成了本文研究的核心问题。通过对这些问题的讨论,以期推动未成年人网络信息规范管理制度的有效实施和持续完善,全面优化未成年人的网络环境和网络生态。
在信息时代,网络已经渗透到人们生活的方方面面,未成年人不可避免地要接触和使用网络,他们正在成为网络信息最重要的消费者之一。但是,网络上的一些信息内容并不适宜未成年人,甚至有可能对他们身心发展产生不利影响。因此,基于国家亲权理论,国家需要采取针对性措施,积极承担起网络信息内容的规范、管理职责。然而,与未成年人其他领域的相关保护工作相比,比如纸媒领域的图书、报刊内容管理等,网络信息内容的管理有其特殊性和复杂性,面临着更大的困难和挑战。
随着5G时代的到来、短视频平台和直播的兴起,未成年人在网络世界接触到的信息内容变得丰富多样。数据显示,经常看短视频的未成年网民比例从2018年的40.5%增长至2022年的54.1%[6]。未成年人作为网络信息和短视频等数据流量的重要群体,平台和视频的制作者在发布和传播视频的过程中,对于未成年人接收的信息没有做精细合理的区分对待。网络上存在的大量低俗、不良甚至违法信息,对未成年人的身心健康带来不利影响,也增加了父母和其他监护人的不安和焦虑。因此,如何筛选和管理网络信息成为亟待解决的突出问题。
探索世界是孩子的天性,未成年人在网络环境中生活和成长,对网络世界充满好奇。为了保护未成年人身心健康,需要对网络信息内容进行规范和管理,但这在实践中,面临着两个突出问题:一是需要根据未成年人所处的不同年龄阶段,对信息内容进行动态的、差别化的管理。按照《中华人民共和国未成年人保护法》(以下简称《未成年人保护法》)的规定,未满十八周岁的公民均为未成年人。但是,在网络信息内容的管理中,如果对十八岁以下的所有未成年人都按照统一标准进行“一刀切”式的信息管理,则过于死板和简单。需要看到,六七岁的低龄儿童和十三四岁的少年之间,存在生理、心理等方面的巨大差异,因而网络信息内容的规范和管理,需要正视不同年龄段未成年人的差异,区别化对待。二是对信息内容进行合理划分。对于网络上哪些是适宜不同年龄段的未成年人观看的信息,应当作出明确的说明;对于不宜观看的内容,应进行更加精准和科学的分类限制。现有的做法只是把禁止内容列为“黑名单”,对限制内容的规范还不够具体。根据网络内容的信息生态理论,以互联网平台为媒介的网络信息内容生态中,其核心在于信息内容的存在和流通,应当按照“事前—事中—事后”进行阶段式治理[7]。规范网络信息内容的目的在于预防不良信息等明显影响未成年人身心健康的问题,但是对于需要限制的内容,还缺少相应的机制,这可能导致“灰色地带”的信息无法得到有效监管。
网络信息传播涉及的主体众多,包括网络的建设者、运营者、维护者和使用者,其中使用者又包括内容制作者、传播者、浏览者等,不同主体在信息内容制作和传播的过程中扮演着不同的角色,发挥着不同的作用。如何明确不同主体的责任,就成为监管的难题和重点。
现有的《中华人民共和国网络安全法》(以下简称《网络安全法》)、《未成年人保护法》都对网络信息有关主体的责任作出了规定,但仍旧难以应对网络信息实践的复杂情况。尤其是聚焦到“网络信息内容规范”这个具体问题上,上述法律对于各方主体的责任划分还不够全面和详尽,无法构建起全链条、闭环式的监管体系,无法有效应对未成年网络领域的新问题和新挑战。比如,在北京互联网法院平台治理十大典型案件中的“软色情漫画案”中[8],漫画中夹杂着大量刺激性、挑逗性文字和裸露的画面等,这些并不适宜未成年人群体阅读,但相关平台、主体未能进行有效审查,也没有做显著有效的提示,未能有效承担起信息内容规范的责任。
在网络信息内容监管方面,还有一个突出问题涉及未成年人的身份认证和年龄验证。网络平台在用户注册和使用过程中往往缺乏有效的身份认证和年龄验证机制,这导致未成年人可以轻易访问不适合他们观看的内容,从而增加了未成年人接触不良信息的风险。在这个问题上,哪些主体该承担什么责任,如何进行多方协同合作,都需要进一步予以明确。
当前,随着互联网在未成年人中逐渐普及,网络欺凌现象开始出现并越来越突出,引起了全社会的普遍关注。《未成年人学校保护规定》第二十一条规定,网络欺凌是指通过网络或者其他信息传播方式捏造事实诽谤他人、散布谣言或者错误信息诋毁他人、恶意传播他人隐私等行为。实践中,少数中小学生通过污蔑、造谣、发布隐私、拍摄不良视频等方式在网络上攻击其他同学,这些欺凌行为不仅对受害者造成了严重的精神伤害,也破坏了网络秩序。引发未成年人网络欺凌的原因有很多,其中不可忽视的是网络上暴力视频等不良信息的错误诱导,导致一些未成年人产生了模仿行为。
针对未成年人网络欺凌的治理,当前的机制还存在不足。一方面,平台的信息内容治理机制不够完善,平台未能针对未成年人进行有效的信息内容审查、筛选和预警,在有关欺凌信息内容出现时,未能及时处理和阻断传播。有学者提出,平台应提升治理效能,网络暴力信息治理中平台的主要功能在于预防和及时响应[9]。另一方面,惩戒体系还不够健全,网络欺凌涉及行政、刑事、民事等多领域的法律责任交叉重合,需要结合刑罚、治安行政处罚和教育监管提供治理方案[10],现有的《网络安全法》和《未成年人保护法》对其中的衔接和责任划分不够明确。
《条例》聚焦未成年人保护的突出问题,结合未成年人身心健康发展和网络空间的规律特点,细化了《未成年人保护法》《个人信息保护法》《网络安全法》的相关制度,针对网络信息内容规范,构建了一个更有针对性和可操作性的制度体系。
未成年人网络信息内容的规范,首先要回答的就是:哪些信息内容可以向未成年人开放,而哪些信息内容应当被禁止或者受到限制。对此,《条例》基于未成年人保护的需要,将网络信息分为三类,分别予以规制。
第一,鼓励和允许的信息。对未成年人健康成长有利的信息内容,应该予以允许和鼓励。(1)关于鼓励的信息内容,《条例》采用了概括式规定,提炼出了此类信息内容的共性特征①《未成年人网络保护条例》第二十一条规定:“国家鼓励和支持制作、复制、发布、传播弘扬社会主义核心价值观和社会主义先进文化、革命文化、中华优秀传统文化,铸牢中华民族共同体意识,培养未成年人家国情怀和良好品德,引导未成年人养成良好生活习惯和行为习惯等的网络信息,营造有利于未成年人健康成长的清朗网络空间和良好网络生态。”。结合《条例》第二十一条的规定可以看出,国家鼓励的网络信息内容包括两类,一是政治性的内容,即引导未成年人树立正确政治观念的信息;二是涉及身心发展的内容,即引导未成年人形成良好的品德、生活习惯、行为习惯等方面的信息。(2)关于允许的信息内容,《条例》没有进行专门规定,但可以通过排除法予以确定,即除了国家鼓励的内容、法律禁止和限制的内容外,其他符合法律和公共道德的信息,都属于允许提供给未成年人的信息。
第二,严格禁止的信息。关于严格禁止提供给未成年人的信息,《条例》采用了列举式规定,对各类禁止信息作出了清晰的规定,呈现了一个“禁止性信息清单”,主要包括:(1)一般性违法信息。根据《条例》第二十二条的规定,这类信息主要包括宣扬淫秽、色情、暴力、邪教、迷信、赌博的信息,引诱自残自杀、恐怖主义、分裂主义、极端主义等危害未成年人身心健康的信息。可以看出,这些行为本身属于违法行为,因此与其相关的各类信息均属于禁止性信息。需要说明的是,这些信息不仅不能提供给未成年人,也不能提供给成年人,两者采用了同样的标准。(2)网络欺凌类信息。网络欺凌本身就属于违法行为,且这类信息在网络上的传播不仅会加剧和扩大对当事人的伤害,而且还可能引发其他未成年人模仿,从而诱发更多欺凌现象。根据《条例》第二十六条的规定,以文字、图片、音视频等形式,对未成年人实施侮辱、诽谤、威胁或者恶意损害形象等行为,均属于网络欺凌,属于法律禁止的行为。(3)未成年人违法犯罪信息。未成年人心智尚不成熟,对很多事务无法做出准确的判断,如果受到各种网络不良信息影响,很可能做出违法犯罪行为。对此,根据《条例》第二十七条的规定,在网络上通过文字、图片、音视频等形式,组织、教唆、胁迫、引诱、欺骗、帮助未成年人实施各类违法犯罪行为的,均属于违法行为,此类信息不得在互联网上传播。《条例》对此类容易诱发未成年人违法犯罪信息的屏蔽和阻断,有助于营造未成年人健康成长的网络环境,避免未成年人因受到不良信息影响而滑向违法甚至犯罪的深渊。
第三,受到限制的信息。有些网络信息,可能影响未成年人的身心健康,但又没有达到需要禁止的程度,因此应当受到必要的限制。对此,根据《条例》第二十三条的规定,对于有可能引发、诱导未成年人模仿不安全行为、实施违反社会公德行为、产生各类极端情绪、养成各类不良嗜好的信息,制作、复制、发布、传播该信息的主体必须在信息展示前做出显著的提示,即对信息可能产生的不良后果进行预先说明和警示。由于该条规定对信息制作者、发布者等主体设置了提示义务,增加了更多负担,需要对其内涵、标准进行权威性界定,避免给执法部门赋予过大的自由裁量权。因此,根据该条第二款的规定,国家网信部门需要联合新闻出版、教育、电信等相关部门,共同确定可能影响未成年人身心健康的信息的种类、范围、判断标准和提示办法等,从而为互联网企业提供明确的指引。需要注意的是,有关部门在依据该授权性规定出台相关标准时,要根据未成年人身心发展的特点和规律,针对不同年龄阶段的未成年人做出区别化对待。
在对网络信息内容进行类型划分后,为了保障相关规定得以落实,避免未成年人受到不良网络信息的伤害,《条例》对家庭、学校、政府部门和社会组织的相关责任进行了细化,搭建起了分工协作的保护格局。
1.家庭和学校的引导教育责任
学校和家庭是未成年人培养网络素养的重要领域。学校和家庭应当在教育的过程中提升未成年人网络素养,培养未成年人的网络安全和法治意识,提升未成年人正确合理使用网络和预防风险的能力。《条例》在第三章“网络信息内容规范”中对学校和家庭的专门性规范较少,主要是在网络素养和个人信息保护的方面提出了学校和家庭的责任。学校要高度重视未成年人网络素养教育,通过课程、活动增强学生的网络安全意识,培养学生形成良好的网络文明素养、行为习惯和防护技能;父母和其他监护人要积极承担家庭教育责任,对孩子的网络活动进行科学指导,对孩子上网时间进行必要控制,可以通过家庭网络过滤器或者个别指导,引导孩子观看健康适宜的网络信息。
2.网络产品和服务提供者的信息发布管理责任
网络产品和服务提供者是网络空间的建设者、参与者、维护者,在网络环境的建设中发挥着中坚力量,平台应该坚持科技向善的理念,逐步提升网络安全能力,预防各类网络风险,用技术手段守护未成年人健康成长。根据《条例》的相关规定,平台的主要责任包括:(1)信息发布注意义务。针对未成年人的各类网络产品和服务,不得发布可能影响未成年人身心健康的任何信息,不得在首页首屏、弹窗、热搜中呈现对未成年人身心健康不利的信息。同时,禁止平台利用自动化决策技术针对未成年人进行商业性推销活动。(2)发现违法信息后的补救责任。平台在日常管理中,一旦发现违法信息,必须立即采取补救措施,包括停止传输、删除信息、屏蔽信息、断开链接等,防止违法信息进一步扩散。同时,平台要保留该违法信息的相关记录,及时向网信、公安等有关部门报告。对于制作、复制、发布、传播各类违法信息的用户,平台要予以必要的技术惩戒,比如限制其某些功能、暂停对其服务甚至直接关闭其账号等。
3.国家机关的监督管理责任
对于网络信息内容规范,有关党政机关应当积极承担其监管责任,构建分工协作的完备的监管体系。首先,国家网信部门要积极承担起网络监管“第一责任人”的主体责任,既要做好顶层设计,在各系统各部门之间进行统筹协调,还要配置资源和力量,形成监管合力,加强引导和监督。其次,各级人民政府中负责未成年人网络保护的工作部门,尤其是新闻、电影电视、教育、电信、公安等部门,要依据法律法规形成未成年人保护的“权力清单”,切实履行本部门未成年人网络保护的法定职责。最后,共青团、妇联、学联等群团组织以及村委会、居委会等基层群众自治组织,要利用自身优势,针对本系统、本行业的未成年人群体,开展各类网络保护专项活动,尤其要针对困境未成年人采取积极措施,提供相应支持和帮助。
网络是科技发展的产物,网络问题的治理,除了传统手段外,更要注重技术手段的运用。在网络信息内容的规范方面,技术手段的治理优势非常突出。针对网络欺凌这一突出问题,《条例》设计了一个以算法技术为路径的预防和治理体系。
其一,明确要求网络产品和服务提供者建立健全网络欺凌行为的预警预防、识别监测和处置机制。具体来说,平台要提供技术支持,通过算法技术准确识别各类违法信息、不良信息和敏感词汇,并针对这些信息设置“风险信息”的识别和预警机制;平台要针对未成年用户,加强信息监测,分析用户行为,一旦发现网络欺凌类信息,要及时做出预警,并采取删除、屏蔽、断开链接等技术措施,阻断危险发生和相关信息传播。
其二,设置便利未成年人及其监护人保存遭受网络欺凌记录、行使通知权利的渠道。网络欺凌问题的治理,一方面要督促平台积极承担预防和管理责任,另一方面还要引导网络用户参与治理,为其提供条件和途径。具体来说,要为网络使用者提供便捷的维权通道,在使用网络时明确告知未成年人及其监护人的维权途径和方法,以便未成年人及其监护人能够在遭受网络欺凌时,及时发现和阻断风险,减少危害后果的发生。由于未成年人的判断和自我保护能力不足,在发生网络欺凌时,平台还应通知其监护人,通过监护人维护未成年人的合法权益。
其三,建立健全网络欺凌信息特征库。网络产品和服务提供者应当利用自身的技术优势,通过算法技术分析、识别、收集、归纳网络欺凌信息的特征,为预警和识别网络欺凌提供语料库。通过“网络欺凌信息特征库”识别危险信息并设置过滤机制,限制或屏蔽可能涉及网络欺凌的内容,尽可能保护未成年人免受网络欺凌的伤害。
《条例》的颁布,为未成年人网络保护提供了法律依据,指明了管理方向。具体到网络信息内容规范管理领域,贯彻《条例》的相关制度,既需要进一步处理好一些关系,平衡好不同利益,还要构建配套的工作机制,从而确保《条例》的相关规定在实践中得到全面落实,达到立法的预期目标。
对网络信息内容的规范管理,涉及网络表达自由和未成年人法益保护的平衡。《中华人民共和国宪法》第三十五条规定了中华人民共和国公民有言论自由。言论自由在网络信息传播的领域表现为表达自由,其核心是保障公民能在免受公权力干预的情况下自由地表达和交流各种信息[11],即公民有权利在网络上自由地表达自己的观点看法,浏览文字、视频和网页等。未成年人有权享有丰富的信息内容,但网络表达自由不应侵害未成年人的健康发展,应在最有利于未成年人原则的指引下进行。成年人对信息具有识别和判断的能力,但是未成年人处于认识世界的初期,对于信息的识别能力不足,应当给予未成年人信息制度构建上的特殊保护。因此,相较于网络表达自由的价值,未成年人的权益保护和健康成长处于更优先的地位,而为了这一目的,就需要对网络信息内容进行必要的规制。
网络信息背后不仅有国家权力,还有平台的算法权力。平台掌握着算法,并运用算法技术获取利益,如果缺乏有效的约束,在某些情况下,平台不会主动保护言论自由和未成年人利益,甚至会成为言论自由的重要威胁[12]。因此,为构建健康和有活力的网络信息空间,国家需要对平台进行合理的约束和监督,引导平台处理好网络表达自由和未成年人保护之间的关系。根据未成年人的特殊性,平台需要加强对信息内容的审核,应将最有利于未成年人原则作为技术规制的价值基点。
网络信息分级制度符合未成年人成长规律,通过划分年龄段与内容分级,筛选适宜未成年人发展的信息内容,这方面已有成熟的域外经验可供借鉴[13]。《未成年人保护法》第六十七条规定,网信部门要会同公安、文化旅游、新闻出版、电影电视等部门,根据不同年龄阶段未成年人身心发展及保护需要,确定可能影响未成年人身心健康网络信息的种类、范围和判断标准。《条例》第二十三条也提出,要确立可能影响未成年人身心健康的信息的具体种类、范围、判断标准和提示办法。这表明我国立法在一定程度上采纳了网络信息分级制度,具体办法将由网信部门联合其他部门共同制定。
根据未成年人身心健康发展的需要,应当为未成年人提供符合其年龄阶段的网络信息内容。在网络信息分级标准制定上,可以参照美国、韩国,利用关键词对网络信息进行分类,比如暴力、性、裸露等信息[14]。在程度上,可分为适宜、不宜、禁止三级,其中“适宜”属于鼓励和倡导类型的信息,应当是适宜未成年人身心健康的内容;“禁止”属于不能出现在未成年人模式和未成年人群体使用网络过程中的信息,应对《条例》第二十二条的禁止性内容进行类别区分和规定;“不宜”是限制级别的信息,应对《条例》第二十三条的限制性内容进行类别区分和规定。
对“不宜”未成年人观看的信息,需要按照其年龄段做进一步的细分,比如,可以6岁、12岁、14岁为阶段做不同划分。随着年龄的增长,分级标准所限制的网络信息的范围会越来越小,且不同年龄段的限制内容应各有侧重。(1)低于6岁的儿童尚不能对复杂外界形成全面客观认知,因此应当减少网络信息的获取,只观看部分益智开发类的视频,并在监护人陪伴和指导下使用网络。(2)处于6-12 岁的未成年人是“不宜”这部分限制信息的主要规范对象,其限制级别较高。6-12岁属于未成年人心智发展的关键时期,对该年龄段进行信息过滤时,应多关注可能引发不良模仿和暴力行为的信息内容。(3)12-14岁的未成年人处于发展自我、渴望独立的阶段,同时处于青春萌发的时期,容易叛逆、冲动,对异性又充满好奇,所以对于该年龄段的内容限制应注意过滤带有“性、暴力、教唆”性质的信息。(4)14-18岁的未成年人正在经历从孩子到成人的过渡,考虑到其成熟程度,网络信息的限制会比较少,主要集中于违法犯罪类信息。
对未成年人网络信息的监管,需要避免过于强势的法律家长主义,应遵循比例原则,在保护未成年人免受网络不良内容、行为侵害的同时,也要保障其享有网络带来的积极效益[15]。在维护未成年人网络合法权益的同时,也要尊重互联网平台的权利,保障其权益。
构建未成年人网络信息内容规范制度,其目的是保护未成年人的网络权益,使他们在享受互联网服务的同时免受不适宜信息的负面影响。但是,也要看到,未成年人不仅是网络信息的消费者,也是生产者,网络信息供给丰富而多样,有利于未成年人的健康成长。因此,在构建未成年人网络信息分级法律制度时,不应对网络信息先入为主地警惕甚至排斥,而应当遵循适度监管的原则,在对信息进行审查和规范的同时,也要尊重未成年人获取多样性信息的权利,不应过分增加发布、传播网络信息的限制和负担。同时,保护未成年人不能以侵害其他人的合法利益为代价,对其他网民的权利只能进行必要的限制,且尽可能地将不利影响控制在最小范围之内。
获取利润是经营者提供网络信息服务的内在动力,而为了保护未成年人对网络信息进行的分级和标签,对经营者来说这无疑增加了其义务和责任。因此,网络信息分级制度不宜对网络服务提供者施加过重的负担以及过多的责任,否则网络服务提供者参与制度实施的积极性会大受打击。对网络服务提供者增加的负担要保持合理限度,否则可能因违背公平原则而遭到经营者的抵制,可能有损分级制度实施的效果。
行业组织自我监管是网络时代网络监管的重要组成部分。互联网行业协会作为行业组织,有权利也有义务对其成员进行管理,督促成员积极承担社会责任,维护行业形象,获得社会信任。根据《条例》第九条的规定,互联网的各个行业协会要高度重视未成年人保护,加强对全体行业成员的管理和监督,制定和发布未成年人网络保护方面的行业规范与行业标准,通过行业自治,督促和引导行业成员积极承担起未成年人保护的社会责任。
中国互联网协会自2001年成立以来,陆续发布了《中国互联网行业自律公约》《加强未成年人保护游戏行业自律倡议》《加强互联网平台规则透明度自律公约》等一系列互联网自律公约和倡议书,积极倡导行业自律、促进行业健康发展。在落实《条例》网络信息内容规范管理相关规定方面,互联网行业协会更要有所作为,积极承担起行业自治组织的监管责任。具体来说,针对未成年用户数量巨大或者对未成年人群体具有显著影响的平台,互联网协会应推动建立网络信息安全评估体系,落实未成年人网络保护影响评估、提供未成年人模式或者设置未成年人专区、健全未成年人网络保护合规制度体系等义务。中国互联网协会可以聘请专家组成独立机构,制定行业标准,发布建议、宣言、指南,并对未成年人网络保护的有关情况进行检查、评估、监督。
结语:身处网络时代,人们的生活越来越依赖网络提供的各种信息,未成年人也不例外,网络信息对他们的成长产生着越来越重要的影响。在此背景下,对网络信息内容依法进行规范和管理,就成为未成年人网络保护的应有之义,也是国家和社会必须承担的责任。良法是善治的前提。《条例》的出台,为网络信息内容规范和管理提供了系统性的法律方案,为网络平台的信息生产和传播、行政部门的监督和管理以及其他组织和个人的网络活动提供了权威的依据和清晰的指引。保护好网络时代的每个孩子,是全社会的共同责任。因此,政府、学校、互联网企业及其行业协会,要以《条例》的颁布实施为契机,高度重视未成年人网络保护,切实履行各自的义务和职责,通过各方协同共治,为未成年人提供优质的网络信息内容,构建有利于未成年人健康成长的网络空间。