邓博艺
關键词 短视频,未成年人保护,互联网治理,全球经验
中图分类号 G2 文献标识码 A 文章编号 2096-0360(2021)13-0042-03
短视频是一种长度以秒计数,主要依托于移动智能终端实现快速拍摄与美化编辑,可在社交媒体平台上实时分享和无缝对接的新型视频模式。中央电视台发展研究中心的王文斌曾提出短视频的传播优势在于“以大数据和智能算法为基础向用户精准分发[ 1 ]”,目前呈现出智能化、专业化、垂直化的发展趋势。但是在未成年人保护的维度,平台管理的不足更值得我们讨论,短视频中的多元化的内容和简单化的呈现逻辑,可能对未成年人社会化进程产生复杂的影响。
2016年以来,学界对短视频泛娱乐化问题的讨论屡见不鲜,但将未成年人作为讨论主体的研究甚少。因此,我们在加大对短视频平台中的未成年用户的关注的同时,也需要从更宏观的网络治理环境层面寻求更广阔的思路。在已有研究的基础上,本文试图对未成年人在短视频平台中的潜在风险进行分析,为平台治理给予合理性支持,通过比较国内外短视频治理格局分析中国在这一问题处理上的优势和短板,为完善治理开拓路径选择的可能。
王文斌站在传统电视媒体的角度认为短视频最大的特点在于“以短见长”。短视频的时长大多在5分钟以内,制作成本低、信息密度大、传播速度快,能够最大限度地填充用户的碎片化时间,是当下信息传播的重要趋势[ 1 ]。
与此同时,短视频传播能满足用户的多维度需求。PGC与UGC的结合和跨平台融合使得短视频生产简便多元,极大地降低媒介参与的技术门槛。同时,短视频内容十分鲜明且碎片化,精准定位下的标签和对零散时间的整合,使短视频平台在短期内收获了大量用户群体。吴佳妮从使用与满足的角度上分析,认为视频内容表达趋向社交化,能在娱乐的同时,实现社交与陪伴,获取尊重和自我实现,消解传统话语结构并涌现出多元价值观[2]。此外,点赞、评论、转发、关注等即时反馈机制使得短视频传播效果直观可见,更易产出热点和爆款进行进一步引流,满足用户猎奇、求新的心理需求。
目前,与短视频市场深入发展趋势相对应的平台治理机制却尚未完善。有学者提出短视频作为内容传播平台,应将治理重点放在对内容的把关和筛选上,这种取向一方面忽视了由平台、内容创作者、商业公司共同构成的内容生成机制,另一方面可能造成事后治理的被动态势[3]。
为了将讨论聚焦到未成年人这一特殊使用群体,我们必须将群体属性与平台属性加以关联,分析得出短视频平台之于未成年人的潜在风险,以此为基点展开进一步讨论。
CNNIC发布的数据显示,互联网已经高度融入青少年的学习和生活,互联网上的内容也对当代青少年的价值观念和行为模式产生巨大的影响。季为民总结道,针对网络空间中未成年人保护问题,我国已经出台了《未成年人保护法》《预防未成年人犯罪法》《网络安全法》等一系列的法律,加大对网吧、企业和平台的监督,加强未成年人的媒介素养教育,但仍旧存在平台管理不善、网络文化乱象、素养教育薄弱、保护规制不完善等诸多问题[4]。
与此同时,网络信息内容安全管理的复杂化程度正在不断增大。非政府机构的参与使得网络信息服务的市场化程度不断提高,市场竞争带来的集中化趋势冲击了传统以条块分割的网络管辖模式。在赋予行业活力的同时也营造了大量的网络阴影。此外,随着社交媒体的大规模普及,新媒体和互联网用户对于社会事件的关注程度和反应速度攀升,未成年人网络保护议题的关注热度与复杂性并存。
短视频的平台属性能为我们评估未成年人使用风险提供思路。作为内容发布平台,短视频平台可以被视为容纳多媒体内容的信息池,对这一层面的治理要着眼于内容质量和引导效果,作为社会化媒体,用户在平台中通过算法接触信息,建立多层次的传播关系,同时也继承了社交媒体参与文化的复杂性,作为商业媒体,平台需要通过广告和营销植入来实现“二次售卖”,这为短视频传播注入了更多的不确定因素。
2.1 内容风险
短视频平台中可能存在对未成年人不利的低俗、误导、涉黄、涉暴、涉恐等不良信息和不良网络亚文化。短视频的呈现效果和资本的介入使得平台中简短的、极具感染力的声画刺激,能够很大程度上作用于未成年人的感官,如果不加以干预和引导,很有可能阻碍未成年人塑造正确的消费观和价值观,甚至引发不良的模仿行为。
2.2 接触风险
平台中存在不良网络社交、算法推荐编织信息茧房、网络成瘾、网络欺凌等接触风险。未成年用户观看短视频的过程中通过停留、点赞、转发、关注等行为“投喂算法”,算法的精准反哺可能会模糊用户自身需求与算法预测用户诉求之间的界限,无意识地失去主体性。个人短视频界面中的内容无非是符合个人兴趣的、占据头部流量的、购买了广告位的内容,合力编织未成年人网络学习的信息茧房。
2.3 经济风险
未成年人经济自由度的提升,暴露了短视频平台中个人隐私泄露、网络诈骗等问题[5]。在短视频平台中,注册账号、上传和下载视频、发表评论等各个行为中都存在隐私泄露的风险。与此同时,平台中存在部分商家联手不法分子通过视频中的链接,套取未成年人的照片、电话、邮箱,甚至是身份证号码和银行卡密码,实施网络诈骗[6]。
因此本文推论,未成年人短视频使用风险在微观上可能归咎于未成年人自律不足、家长缺乏引导和学校忽视媒介素养教育,中观上短视频平台内容把关缺失、商业公司和网红包装公司“资本至上”“流量至上”的行事原则,宏观上政府互联网治理经验不足等原因[7]。
从海外来看,美国是最先涉足移动短视频领域的国家,2011年4月,视频分享网站Viddy上线,紧接着Twitter和Instagram相继推出视频分享功能。目前,YouTube已经成为全球活跃程度最高的视频分享网站。此外,在日韩流行的Line也启用了“微片”的功能。
赵昱和王勇泽对国外短视频发展思路进行了总结,认为中国短视频正是借鉴了国外短视频“视频时间短、视频编辑与特效渲染、社交互动与分享”的特点而逐步活跃起来[8]。张建中等学者指出,纵使中国短视频平台在国际上具备很强的竞争力,平台管理的不足也受到了许多国家的诟病[9]。从内容上看,2018年,印尼、印度等国家就以“传播消极、不雅内容”“导致年轻人文化堕落”等原因下架TikTok,2019年,美国外国投资委员会也对字节跳动旗下的musical.ly启动国家安全调查等。
目前,与中国类似,全球绝大多数国家并未针对短视频平台展开系统化的治理,因此,个别国家的互联网治理经验十分值得思考借鉴。
3.1 宏观思路:不同国家的不同选择
从网络治理的总体规划上看,不同社会语境使不同国家存在不同的政策倾向。
美国倾向于鼓励行业自律与公众自律,这种倾向诞生自宪法第一修正案对限制網络言论自由立法的阻力,与美国三权分立的政治制度紧密相关。此外,新闻自律的传统以及内容分级与过滤技术的支持都是促进自律体系产生和发展的重要因素。
韩国则采用政府主导的强规制体系。政府先后颁布《青少年保护法》《互联网内容过滤法》《不健康网站鉴定标准》《电影振兴法》等相关规制,对未成年人网络使用保护进行了详细规定,在技术上注重内容筛选技术和防沉迷系统的研发。值得注意的是,韩国是全球首个推行网络实名制的国家,政府拨款建设网络成瘾防治中心,形成了“以法律为根基,以技术为动力,以实名制和内容分级为特色”的韩国互联网治理体系[10]。
英国在这一问题上采取了较为折中的办法,倡导多利益主体的合作规制,“监督而非监控”是英国对未成年人网络保护的一贯原则[ 1 1 ]。英国《1978青少年保护法》《黄色出版物法》《禁止滥用电脑法》等法律法规中均体现了针对未成年人保护的条文。杜智涛、刘琼和俞点通过比较研究认为英政府倾向于同互联网运营商、研究机构、学校和其他各类社会组织都保持密切合作,共同维护未成年人上网安全[12]。
本文认为,中国的未成年人网络保护保护更多停留在强政府的层面,保留了机构设置和网络立法方面的优势。截至2019年初,我国相继颁布了《网络短视频平台管理规范》《网络短视频内容审核标准细则》《关于进一步规范网络视听节目传播秩序的通知》等文件,应对未成年人在短视频平台中面临的各种风险。
但是,中国互联网行业自律发展尚未成熟,客观上看,中国的自律组织行政色彩较浓厚,虽然颁布了大量行业自律准则但影响力有限。尤其是进入互联网时代以来,网络传播主体复杂化,缺乏头部企业和网民的加入,仅凭行业组织的力量是难以取得很好的自律效果的。
3.2 具体议题:不同国家的相同问题
不同的宏观规划面临的是相同的具体议题,因此治理经验的借鉴就显得十分重要。目前,各国主要从立法、设立专门机构、完善内容审查和过滤技术、加强行业自律、动员社会力量、重视家校教育这几个方面加强未成年人的网络保护。
3.2.1 完善互联网管理相关法律
针对网络不良信息,美国出台了《儿童在线保护法》《儿童网络隐私规则》等法律,英国出台《关于处罚致使儿童卖春、儿童涉黄相关行为以及儿童保护法律》,对在网络中发布不健康信息的行为加以处罚。针对网络内容分级,德国颁布《青少年媒介保护条约》,明确了执行互联网内容分级制度的决定。从美国的经验上看,如果克服了立法阻力,完善互联网立法肯定是回报率最高的治理措施。
3.2.2 整合专门管理机构
英国涉及未成年人网络保护的行政管理部门主要有通讯联络办公室、内部政互联网工作组以及国家网上儿童保护中心。早在2003年,张利通过对韩国网吧的研究发现当时韩国就已经成立了信息道德委员会和互联网内容管理的专门机构,韩国文化观光部设置专门的纠察小组,监督网络中的违法行为。受此启发,王诗雪认为中国在短视频平台管理中,也需要实现政府管理人员与平台运行负责人的直接对接,对不符合规定的内容进行直接管理[13]。
3.2.3 升级内容分级与信息过滤技术
美国采用的内容分级标准为“因特网内容选择平台”,并使用由美国在线提供的违法信息过滤系统来实现网络信息的筛选[14]。日本移动运营商积极开发未成年人网络安全套餐,为手机安装过滤软件,设置“限制访问”功能,支持手机在晚10点至早6点之间自动切断网络连接[15]。2009年6月我国工信部发布《关于计算机预装绿色上网过滤软件的通知》,但最终未能实现,杨攀认为原因在于我国的内容分级与信息过滤技术不够成熟,购买国外的过滤软件又可能存在语言转换和文化适应困难,甚至存在威胁公民隐私和国家信息安全的隐患[16]。
3.2.4 促进行业自律
美国Facebook于2018年初就组建了多达7 500人的人工审查团队,与人工智能一同展开平台内容自检自查,这一规模与其平台巨大的用户数量和内容规模相匹配[17]。2015年谷歌公司推出儿童版视频应用YouTubeKids,这一应用中只显示通过了人工审核的视频内容,同时家长可以对整个应用进行锁定[18]。
总的来说,中国在未成年人短视频平台保护上具备强政府的优势。自1994年国务院发布《中华人民共和国计算机信息系统安全保护条例》以来,我国中央政府共发布超60部对互联网进行内容监管的法律法规,并且依据新媒体环境,不断颁布新的规范进行补充。在机构设置上也关注到了未成年人网络保护的问题。然而,行业缺乏自律阻碍了中国互联网治理从被动管理到主动优化的进程。进入互联网时代以来,中国互联网协会成为行业内最为活跃的自律组织,先后颁布大量自律文件。但是各大短视频平台在优化推送算法和完善内容审核机制等方面仍旧缺乏自律意识,还需依靠外部力量。此外,中国在短视频平台上的管理上还存在不少技术上的“硬伤”。
综上所述,本文从未成年人的短视频使用问题入手,对短视频平台的发展与治理、未成年的短视频使用风险以及其他国家在未成年人網络保护问题上的应对经验等文献进行评述。在全球短视频深入发展的当下,本文将关注点聚焦到未成年人这一特殊群体,试图厘清短视频平台之于未成年人的潜在风险,在明确了问题的基础上,梳理其他国家在未成年人网络保护上的实践经验,最终明确了中国互联网治理在立法和执法上拥有较强的自主性,同时在行业自律和技术研发上也存在不可忽视的短板。
参考文献
[1]汪文斌.以短见长:国内短视频发展现状及趋势分析[J].电视研究,2017(5):20-23.
[2]吴佳妮.音乐社交短视频软件何以走红:以抖音App为例[J].新媒体研究,2017(3):18.
[3]吕鹏,王明漩.短视频平台的互联网治理:问题及对策[J].新闻记者,2018(3):15.
[4]季为民.建立中国特色未成年人互联网运用保护规制体系[J].青年探索,2019(4):5-16.
[5]李柏萱.未成年人网络利用活动权利保障:以网络视频直播领域为切入点[J].岭南学刊,2019(6):8.
[6]田丰,郭冉,黄永亮,等.中国青少年互联网使用安全问题研究[J].公安学研究,2018(4):1-31,123.
[7]张海波,张萌.未成年人网络安全研究报告-中国首部由儿童参与调研完成的调查报告[R].中国未成年人互联网运用报告(2019),2018(6):3-5.
[8]赵昱,王勇泽.短视频的传播现状分析[J].数字传媒研究,2015(5):89.
[9]张建中,萨费尔·卡里姆,朱莉娅·布厄斯汀.抖音海外版TikTok的国际扩张[J].青年记者,2020(7):56.
[10]陈昌凤.网络治理与未成年人保护:以日韩青少年网络保护规制为例[J].新闻与写作,2015(11):50-53.
[11]张化冰.互联网内容规制的比较研究[J].中国社会科学院研究生院,2011(5):46.
[12]杜智涛,刘琼,俞点.未成年人网络保护的规制体系:全球视野与国际比较[J].青年探索,2019(4):17-30.
[13]王诗雪.UGC模式下短视频应用面临问题及优化措施:以抖音和快手为例[J].传媒论坛,2019(5):25-26,28.
[14]郝振省.中外互联网及手机出版法律制度研究[M].北京:中国书籍出版社,2008:17-23.
[15]林兴发,杨雪.德国、日本手机网络色情监管比较[J].中国集体经济,2010(31):199-200.
[16]杨攀.我国互联网内容分级制度研究[J].法律科学(西北政法大学学报),2014(2):184-192.
[17]谢新洲,朱垚颖.短视频火爆背后的问题分析[J].出版科学,2019,27(1):86-91.
[18]许洁.短视频平台生态治理机制优化研究[J].新闻世界,2019(8):92-96.