马天一
近年随着人工智能、大数据技术发展,旨在通过智慧管理与智能技术从信息中获取增值效益的智慧图书馆逐步成为公共图书馆的发展方向[1]。目前关于智慧图书馆的研究较多,2017-2020年文献数量显著增长,人工智能、个性化、智慧服务等是研究热点主题[2]。智慧图书馆是由智慧平台、智慧空间、智慧服务有机构成的生态体系,每个环节都离不开智能算法与用户数据处理[3]。智慧图书馆的出现让未成年人有机会接触智能化、数据化、网络化的图书馆服务,其不仅可以在智慧图书馆中获取图书馆提供的文献信息并使用公共图书馆的数字服务网络,还可以利用智能终端对互联网进行访问。后者实际上是未成年人网络保护的宏观问题,而前者则是图书馆法的专业领域问题,从这一角度出发,对未成年人的保护措施是否完善决定了智慧图书馆的价值能否得以充分实现。智慧图书馆中未成年人保护的典型问题就是智能算法可能带来部分潜在风险。然而,关于智慧图书馆中算法的研究主要聚焦于应用场景的总结与展望等,研究者已经意识到风险存在,如有研究提出AI提供智慧化精准推送以及主动的知识发现服务中可能引发读者歧视与偏见[4];图书馆应当推进AI创新服务规范化,并提升透明性、可解释性、可靠性、可控性等[5],但相关研究尚未从法律防控的角度进行深入分析,因此对智慧图书馆中算法治理的法学研究有待加强。《中华人民共和国公共图书馆法》(以下简称《公共图书馆法》)第37条明确,公共图书馆“不得向未成年人提供内容不适宜的文献信息”,而目前针对这一未成年人保护条款进行专门研究的文献较少,只有对该法第37条中“内容不适宜”这一概念进行法律解读与制度构建的研究[6],而这一研究集中在传统法律规范分析方法上,未能结合智能时代的特点进行进一步解读。本文在此研究背景下,以智慧图书馆中未成年人保护的问题意识为导向,以《公共图书馆法》第37条为核心开展研究。本文的创新之处在于,将《公共图书馆法》未成年人保护条款与2021年12月31日发布的《互联网信息服务算法推荐管理规定》(以下简称《规定》)这一最新算法规范进行交叉融合,分析智慧图书馆中的未成年人保护问题,并将法学教义学方法应用到《公共图书馆法》的具体规范中。本文的研究方法以不同学科的交叉融合为起点,通过对信息传播学、图书馆学、教育学、法学等学科的综合研究,提出基于算法推荐服务背景下公共图书馆进行未成年人保护的问题分析与对策。在问题分析上,由于目前图书馆学领域对算法视域下的未成年人保护研究较少,因此本文主要结合信息传播学与教育学的研究成果去分析智慧图书馆中的新型潜在风险是否存在以及会带来何种负面影响。进而,本文开始进入以法学研究为核心、以图书馆学为重要支撑的规范分析阶段,对当下法律规范体系无法妥善应对算法引发的新型潜在风险现象及原因进行剖析,在此基础上,本文提出以传统法学教义学方法解决智慧图书馆算法治理中存在的问题,并围绕教义学解释进行了实体与程序的双重分析,一方面通过对法律规范的扩大解释实现新型潜在风险的消弭;另一方面根据算法的治理路径分析了对相关规范扩大解释后智慧图书馆如何进行程序性保障。
智慧图书馆建设理念与展望百家争鸣、百花齐放,但本质特征是促进图书馆服务智慧化水平的提高,通过人工智能、大数据、云计算等方式提升图书馆的服务质量。图书馆提供文献信息服务可以分为提供纸质等形式的非数字化文献信息与数字化文献信息。在提供非数字化文献信息服务场景中,算法推荐服务是通过智能终端为读者提供推荐,而后读者根据推荐内容在物理空间中去寻找并阅读文献信息。这种算法推荐服务产生风险的可能性较小,因为算法推荐服务在这里只是读者获取文献信息推荐的渠道之一,这种情况下,一方面,在读者寻找文献信息的过程中,其很可能与其他各类文献信息进行接触;另一方面,由于这些纸质等传统文献信息都是图书馆工作人员经过审核与筛选后向读者提供,加之网络只在文献信息提供之初发挥作用,因此这种情形下几乎不存在信息茧房、沉迷网络、引诱模仿等风险。
但是,在智慧图书馆的建设中,通过人工智能赋能数字化阅读也成为了不可避免的趋势,而算法推荐服务正是其中不可或缺的部分。数字化阅读与算法推荐服务结合后,读者将在算法推荐的影响下直接通过智能终端阅读文献信息。在某种程度上,读者通过智慧图书馆进行数字化阅读与通过小说、动漫等专门App进行阅读具有相似性。然而,在数字化阅读本身对读者的影响加上算法技术特性对推荐结果的影响的共同作用下,图书馆能否对可能基于算法发生或被算法推波助澜的风险做到充分避免,决定了智慧图书馆的服务质量能否安如磐石。其中最重要的环节之一就是为未成年人提供安全的阅读环境。随着未来智慧图书馆的全面铺开,从智慧图书馆中的各个方面促进未成年人的保护应做到事无巨细;进一步说,既然可以通过对算法本身的重视有效避免其可能引发的潜在风险,就应当在算法设计、监管、应用等环节针对潜在风险进行全面遏制。
首先,数字化阅读环境中较容易发生沉迷网络与引诱模仿等风险。根据241份面向未成年人的有效问卷显示,数字化阅读环境中部分未成年人在自我意识和社会化情绪等方面展现出成瘾现象[7]。而在引诱模仿上,未成年人模仿性较强,未成年人模仿漫画、动画片的不当行为导致自己或他人受到伤害的案例不在少数。由于数字化阅读比纸质化阅读更加直观,可以在多媒体的技术配合下使读者更加沉浸,因此数字化阅读更容易引发未成年人对不当行为的模仿。算法推荐服务的出现又会使这些数字化阅读中的风险由“黑天鹅”变成“灰犀牛”。详言之,由于算法推荐服务是根据用户画像标签为读者提供推荐服务,未进行有效数据分析可能导致放任不良习惯、忽略学习演化规律等情况的发生,从而降低知识服务对个体成长的正向影响[8];并且,智能算法分发的信息内容更容易改变受众态度和行为[9]。算法推荐服务的技术特性加剧了数字化阅读中的种种风险。不仅如此,算法推荐服务也使得数字化阅读中出现了与信息茧房相关的新风险:个性化推荐机制、碎片化阅读等智慧图书馆中的微服务都有可能让读者逐渐陷入信息茧房中[10];有调研表明,在移动阅读环境中,算法推荐服务的技术制约会导致读者获得同质化内容,进而形成信息茧房[11]。而一旦信息茧房由不利于未成年人健康成长的信息构成,则会引发新型风险。这种数字化阅读中基于算法特性产生的新风险应当在智慧图书馆建设中被一并重视,从算法治理层面提出适合图书馆的具体对策。
尽管算法推荐服务引发的风险大多在商业应用中产生,但是商业模式只是加剧了算法带来的危害后果。质言之,提供推荐服务的算法属于最大似然应用程序,其通过对给定数据集的深度分析处理以及不断地自我学习完善,实现自主生成决策事项的最优方案[12],因此算法产生负面影响不一定是算法设计者刻意为之,也可能是因为算法自身在深度学习过程中无意形成了可能引发负面影响的决策机制。总之,应当在将具体案例与现实问题结合的基础上通过合理的理论推演正视公共图书馆等非商业环境中可能面临的具体风险,从而使智慧图书馆的合法合规建设更加有条不紊。
信息茧房(information cocoons)生动地形容了信息传播过程中个人有选择性地接受信息,进而把自己关在封闭空间里、阻碍自身发展的情形,并且这一情形将让人与人、群体与群体之间的差异愈发明显[13]。算法推荐服务在满足用户特定需求的同时,削弱了用户的主观努力,使用户更加依赖算法提供的信息,而这会导致用户接受的信息宽度、深度受限,进而放大各类传播领域中信息茧房出现的可能性[14]。对未成年人而言,算法推荐服务建立在对未成年读者浏览记录、阅读兴趣等数据处理的基础上,从技术制约层面看的确存在形成信息茧房的风险。也就是说,尽管未成年人在智慧图书馆中可获取的文献信息范围增加,但是获取方式在算法推荐的影响下从主动获取变成被动获取。而较之成年人,未成年人获取文献的主动性更低,且其甄别文献能力也更差,因此,如果算法推荐无法为未成年读者提供开拓化、全面化的文献信息,就很可能会导致未成年人陷入信息茧房。
算法推荐服务可能在智慧图书馆中形成信息茧房这一问题已经引起重视,例如有研究从零数据的角度思考如何破除图书馆中的信息茧房[15],从阅读推广的角度提出要优化策略避免形成信息茧房等[16]。但是信息茧房的出现本身只是一种现象,而非一种风险,未成年人基于兴趣不断获得具体领域各类信息的同时在具体领域纵深研究并不必然是负面现象。然而,信息茧房会在未成年人特性上衍生出不利于未成年人健康成长的风险。详言之,阅读文献的好坏、阅读文献的选择与偏好都会对未成年人性格、可塑性、延展性、思维方式等产生影响[17]。而一旦未成年人深陷由不利于其全面发展、不符合主流价值导向等负面信息组成的信息茧房中,其未来发展会受到难以预估的不利影响。《规定》第6条提出要传播正能量等要求,某种程度上也可以避免信息茧房放大负面信息的影响力。但是文献信息的审查难度不同于短视频等互联网信息,明确判断文献信息中是否存在可能不利于未成年人未来发展的内容需要更加谨慎。公共图书馆为了避免为未成年人提供文献信息时形成“信息茧房”进而引发负面效应,应当通过举措减少信息茧房的形成,为未成年人提供更加多元的文献信息推荐;尤其应当避免为未成年人推送可能与其认知程度不符的同质化内容。在这一点上,西班牙就曾为避免幼儿阅读过程中经常看到过度模式化内容从而产生刻板印象或性别歧视等不利影响而下架200余本童书[18]。在算法推荐服务提供过程中,就可以严格控制推送这类文献信息的频次,在不影响未成年人可获取文献信息整体范围的基础上避免信息茧房风险。
未成年人网络沉迷是指以娱乐为目的过度长时间使用网络,导致学业与社交功能明显损伤的行为,一般而言未成年人网络沉迷现象易发生在网络游戏、网络直播、网络短视频、网络社交等场景中,但只要以网络为媒介的行为都可能会引发未成年人网络沉迷现象[19]。例如有调研发现,少数未成年人出现了阅读网络小说成瘾的症状[20]。智慧图书馆的基本特征包括知识资源网络化、数据化集成与学习阅读空间虚实交融等,这些特征意味着智慧图书馆中的一部分阅读学习将通过智能终端进行[21]。而这些数字化阅读场景本就容易将未成年人对特定内容阅读成瘾的问题从线下转移到线上。例如,线下有未成年人在阅读涉及吸血鬼、僵尸等内容的童书的过程中会产生成瘾现象,而这些书籍在学校图书馆等场所可以借阅[22];再如,专门面向未成年女生的“意林小小姐”系列书籍也被认为引发了未成年读者的沉迷,实际上这些文献并没有实质性的违法内容,其导致未成年人对其沉迷更多是因为打言情等擦边球进而吸引读者[23]。这些沉迷现象都完全可以在线上发生,进而引发沉迷网络风险。
而在通过智能终端进行的数字化阅读中,算法推荐服务存在扩大网络沉迷风险的可能:一方面,算法推荐会催化人懒惰的天性,通过不断试图以新的有吸引力的内容迎合个人兴趣,进而使未成年人更容易沉迷于新内容的海洋中[24];另一方面,算法设计原理的要素之一是根据未成年人的阅读兴趣为其推荐文献信息,如果该文献信息不断与未成年读者基于娱乐的兴趣深度弥合,就可能会引发成瘾现象,例如网络文学作品的强代入感使部分自制力较差的青少年读者沉迷于其中[25]。实际上,已经有学者开始关注数字化阅读环境下的网络成瘾问题,如有研究指出碎片化阅读与图像化阅读容易产生阅读成瘾[26];网络使读者产生依赖心理甚至成瘾等[27]。在这些情景下,未成年人一旦过于沉迷,也可能导致其在阅读后因遗忘过快而整体效率下降等负面结果[28]。这些负面结果都具备网络沉迷的典型特征,本质上仍属于网络沉迷,只是后果较之沉迷网络游戏等更为轻微。因此,尽管智慧图书馆向未成年读者提供文献信息不同于商业化的网络场景,但是仍然应警惕未成年人在智慧图书馆阅读数字文献信息过程中沉迷网络的潜在风险。为了避免智慧图书馆中算法推荐服务事与愿违、弄巧成拙,在设计推荐算法时必须将防沉迷机制考虑在内,不能因为公共图书馆的初衷是提升文化素养就忽略了智慧图书馆中可能引发的网络沉迷风险。
受自身年龄和所处环境影响,未成年人对不良行为的模仿、学习能力较强[29],周围环境中出现的不良行为都会成为他们的模仿对象,因此面向未成年人的以文献信息为代表的文化产品应当通过重点考虑其认知特点与倾斜式保护政策来避免产生风险[30]。也就是说,公共图书馆为未成年人提供文献信息时应当着重审查文献信息是否会引发使未成年人模仿不良行为等负面影响。反言之,如果不注重向未成年人提供文献信息的科学性,就可能会因未成年人文献甄别能力的不足导致其做出不良行为或与年龄不相符的不当行为[31]。一般而言,为了避免纸质文献引发未成年读者模仿其中不当行为或诱发不良嗜好,公共图书馆可以通过对馆藏书目等文献信息进行逐一审核等方式控制风险。但在智慧图书馆中,由于文献资料的数字化共享,未成年读者可获取文献信息范围大大增加。并且,尽管不同年龄段的未成年人知识水平和行为能力有所区别,但他们都具有一定的好奇心与模仿倾向。
算法推荐服务带来的风险恰恰与此相关,一方面,算法推荐的文献信息如果存在引诱未成年人模仿的内容,且引诱模仿的行为与该年龄未成年人的行为能力等不相符,就可能引发模仿风险并危害未成年人身心健康,例如为幼龄儿童读者提供喜剧式暴力行为内容导致其模仿并伤害身边儿童等。根据江苏省东海县人民法院(2013)东少民初字第0057号民事判决书显示,某十岁未成年人模仿动画片中狼烤羊类似情节时就导致另外两名儿童受伤,并且这一案件发生后,学界也出现了在对影视作品进行分级的基础上敦促服务提供者做好安全警示的建议[32]。未成年人模仿影视作品受伤害的案例不在少数,例如模仿动画片误用斧头将手指砍伤、误用电扇将手绞伤等[33]。当然,这仅代表未成年人更容易受比图书更加生动的动画片影响,而不代表图书等文献信息没有引诱模仿风险。实际上,当图书出现可能诱导模仿不当行为的风险时,社会公众与国家机关都充分保持着警惕性。例如,曾有儿童畅销图书涉及诱导自杀等内容;为了防止酿成大祸,检察机关第一时间与教育行政部门等对图书进行排查[34]。因此,应当重视图书馆提供文献信息服务过程中可能引发的引诱模仿风险。并且,智慧图书馆之间的数据共享会使得文献信息数量大幅增加,一旦产生工作失误,类似情形也可能在提供文献信息的过程中发生,因此智慧图书馆提供算法推荐服务时必须做好面向未成年人文献信息的分级及相应的安全警示工作。另一方面,算法推荐服务可能会因未成年读者对此类文献展现出阅读兴趣而对其他未成年读者进行推荐,从而扩大引诱未成年人模仿的影响范围。根据未成年人保护原理,未成年人容易受到社会影响,在对其教育时加大对其社会关系的重视可以更好地实现保护与教育效果[35],而如果其同学、邻居、朋友等社会关系存在不良嗜好时,未成年人也容易受到更深影响。因此,不仅要警惕算法推荐服务推送与年龄不符的文献信息,也要提防其成为隐性危害结果的放大器与催化剂。在网络信息分级标准制度中,可以随着未成年人年龄增长缩小限制范围,并在不同年龄段对限制内容作不同侧重[36]。而智慧图书馆中通过算法推荐文献信息时可以参照这一理念,并辅以人工审核等机制进一步减少此类风险发生。
为消除算法推荐服务可能带来的潜在风险,应当从法律规范的角度寻求制度支撑。《规定》第18条中专门提到了如何对未成年人的用户权益进行保护:算法推荐服务提供者不得向未成年人推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息,不得利用算法推荐服务诱导未成年人沉迷网络。《公共图书馆法》也在第37条中设置了未成年人保护条款。然而在智慧图书馆中的算法治理领域,《公共图书馆法》与《规定》中未成年人保护条款的效果无法充分发挥。一方面,在对新型潜在风险的规避上,作为公共文化场所的图书馆,其风险比商业环境中的类似风险更加隐蔽,因此在规避新型潜在风险时可能存在落足点的盲区;此外,从法法衔接的角度上看,由于《公共图书馆法》和《规定》归责条款之间的兼容度不够,可能会产生法律责任归属困难的问题。
智慧图书馆中主体工作人员也叫智慧馆员,为了给读者提供更加个性化、专业化、高效化的智慧服务,这些工作人员应当具备危机管理意识、变化意识等[37]。并且,对于智慧馆员而言,其业务重点之一应当是为读者提供人文关怀与情感交流[38]。在这些要求下,图书馆工作人员必须对算法可能在未成年人身上引发的新型风险加以重视。但是,在未成年人保护上,即使图书馆工作人员专门提升对算法推荐服务的重视程度,由于此时具体落足点不够明显,对未成年人保护效果也难免大打折扣。若仅落脚到《规定》中第18条对未成年人保护的规范上,仍难以有效解决智慧图书馆中的具体问题。第一,尽管《规定》第18条并未明确将形成由未成年人难以分辨的负面信息所构成的信息茧房列入危害身心健康的情形,并且出于立法技术考量,《规定》无需将此类小众情形一一列举,但欲强化智慧图书馆对算法治理的重视,必须进一步结合图书馆领域专门规范与理论,而非仅仅依靠《规定》第18条进行风险规避。第二,在智慧图书馆中沉迷网络不同于一般意义上的沉迷网络,因此即使注意到提供算法服务时应避免未成年人因此沉迷网络,相关工作人员也可能会忽略文献阅读等环节中的沉迷风险与其负面影响。值得一提的是,尽管《规定》以“不得利用…诱导”的表述规避网络沉迷风险,但考虑到未成年人自身判断力、控制力的欠缺,算法服务提供者期望发生沉迷结果并不是违反本条规定的必备条件,这一规定实际上是要求算法服务提供者积极避免沉迷结果发生。换言之,只要算法有让未成年人沉迷网络的较大盖然性,就应当视作对《规定》第18条的违反,而算法服务提供者具备何种目的在所不问。第三,数字化共享导致未成年人将接触更加复杂的文献信息,这不仅会增加图书馆的审核压力,也会放大未成年人模仿不当行为的风险,尽管《规定》第18条明确禁止推送此类可能影响未成年人身心健康的信息,但是图书馆的重心仍然很可能放在避免文献信息存在血腥、暴力、色情等法律禁止性内容上,此举无法满足对未成年人进行精准化保护的需求。并且,从合规建设的角度上讲,如果智慧图书馆没有出现违法违规事件,其往往难以准确判断和评估自身存在哪些潜在风险[39]。只有加强事先预防,做好法治教育与合规建设,才可以将潜在风险发生的概率降到最低。因此,无论是从相关工作人员的观念角度,还是从图书馆合规建设角度看,都应探索如何在规范上提升对图书馆算法推荐服务中未成年人保护的精准化程度。《公共图书馆法》是规范层面上图书馆的核心指引,《规定》是算法推荐服务层面的治理准则,在智慧图书馆的建设过程中,可以将《规定》第18条与《公共图书馆法》第37条融合理解,思考智慧图书馆通过算法向未成年人推荐文献信息时如何避免对其产生负面影响。必要时,可以通过扩大解释等法律技术,推动《公共图书馆法》与《规定》中未成年人保护条款的有机统一。
为了保证法律命令得到遵守和执行,并实现和加强有序的、一致的和有效的执法,在法律规范中明确法律制裁后果确有必要[40]。因此,《公共图书馆法》和《规定》都明确了违反具体规范的法律责任。《公共图书馆法》第50条明确向未成年人提供内容不适宜的文献信息由文化主管部门责令改正,没收违法所得。《规定》第32条明确违反第18条时由网信部门和电信、公安、市场监管等有关部门依据职责,按照有关法律、行政法规和部门规章的规定予以处理。也就是说,当算法推荐服务侵害未成年人权益时,执法主体不能根据《规定》的责任条款直接对算法推荐服务提供者进行处罚,而是需要依靠《规定》之外的规范性文件做出相应处罚。但是,从法律规范的角度分析,智慧图书馆中算法推荐服务侵害未成年读者时责任归属存在难题。从《规定》的角度看,在行政主体上,有关部门可以包括文化主管部门,因此文化主管部门有权介入算法推荐服务侵害未成年读者的案件中;但是,《规定》并未直接明确处罚内容,行政主体应当根据《规定》第32条中转致到《公共图书馆法》进行处罚,也就是说,只有从后者中确认了违法性,才会具备处罚空间。然而,从《公共图书馆法》的角度,“内容不适宜”主要指文献信息本身存在问题,或文献信息与未成年人在具体年龄段的可接受程度极度不符,算法推荐服务带来的潜在风险是否属于因“内容不适宜”而引发尚存疑问,因此当算法推荐服务侵害未成年读者时,根据《公共图书馆法》第50条进行追责可能存在法律制裁漏洞。总之,从责任归属角度,也应当思考如何让《公共图书馆法》未成年人保护条款在算法时代能够发挥规范智慧图书馆建设的功能。
《公共图书馆法》第37条明确不得向未成年人提供内容不适宜的文献信息。从文意分析,这一规定包含两个要素,其一,本条规定中的客体是文献信息,根据《公共图书馆法》第2条的定义,文献信息包括图书报刊、音像制品、缩微制品、数字资源等,这些客体都在审查内容是否适宜的范围内,而算法推荐服务并没有带来客体的变化。其二,本条规定中客体的不法原因是“内容不适宜”:承前所述,算法推荐服务可能会产生新型风险,因此对客体审查的要求也应进行一定变化,客观讲,如果不对其进行扩大解释,就很难抑制算法推荐服务为未成年读者带来的新型潜在风险。
对《公共图书馆法》第37条中的“内容不适宜”进行扩大解释是算法时代规范智慧图书馆建设的必然要求,具有充分正当性。一方面,对其扩大解释符合《公共图书馆法》在图书馆事业中所确立的整体秩序价值;另一方面,扩大解释也符合算法时代的未成年人保护理念。
(1)扩大解释符合《公共图书馆法》的价值秩序。我国高度重视图书馆事业,将其与中华民族伟大复兴和解决人民美好生活需要深度绑定[41]。因此,在解读《公共图书馆法》的具体内容时,可以将其放在促进法的角度去分析法律条文背后的意蕴。也就是说,《公共图书馆法》所倡导的图书馆事业秩序价值应当符合图书馆立法的基本宗旨。《公共图书馆法》第1条指出,该法制定目的是为了保障公民基本文化权益、提高公民科学文化素质等,进而该法的所有规范都是在这些立法目的下制定。因此,在对第37条中未成年人条款进行分析时,也应当结合这些立法目的展开。并且,未成年人在各方面都相对弱势,往往处于不利竞争状态,因而为未成年读者在文献信息获取等方面排除障碍,促进他们更好融入社会、顺畅享受文化权益是新时期公共图书馆事业高质量发展的应有之意[42]。而如果图书馆提供的文献信息与未成年人的认识水平、基本观念等客观情况不相符,不仅明显不利于实现第1条中的立法目的,也不利于图书馆事业的高质量发展。因此,对“内容不适宜”进行扩大解释,使“内容不适宜”不再局限于内容违反未成年人保护制度与国家出版制度,而是扩展到内容明显不利于未成年人基本文化权益的保障、未成年人科学文化素养的提升等《公共图书馆法》的价值秩序与立法追求,并不会突破《公共图书馆法》所确立的图书馆价值秩序。
(2)扩大解释符合算法时代未成年人保护理念。算法时代是以算法为主导、以网络为基础、以智能化为基本特征的新阶段。算法的歧视危险性与运算结果难解释性等特征让我们必须重视算法中的数据处理,强化对算法的法律规制[43]。并且,推荐类算法重塑了网络服务中的信息提供规则,这为网络信息传播规范提出了新的要求。《规定》回应了上述需求,强化了算法时代的未成年人保护,一方面,《规定》第18条强调了算法服务提供者的未成年人网络保护义务,对网络保护理念进行了重申;另一方面,对法律规范进行整体分析后可以看出,《规定》对《中华人民共和国未成年人保护法》(以下简称《未成年人保护法》)中网络保护理念进行了延展,例如《规定》第11条提出了重点环节呈现符合主流价值导向信息的要求,这既符合《未成年人保护法》保护未成年人发展权、鼓励支持有利于未成年人成长的信息传播等理念,也结合算法时代信息传播特点进行了适当的制度延展。总之,从《规定》可以看出,算法时代的未成年人保护需要以网络保护理念为起点,结合算法特性以下沉式保护的全新理念展开工作。在图书馆中,算法可能引发的信息茧房、沉迷网络、引诱模仿等潜在风险与网络保护所针对的问题有所交叉。《未成年人保护法》中网络保护规定是解决新型潜在风险的基本制度来源,但是面临基于算法特性的新问题,必须在现有网络保护制度的基础上进行深化、细化与强化。因此,在未成年人保护中结合图书馆特性,对文献信息的管理方式进一步深化与细化,并强化对风险的管控,合理调度文献信息层面的制度资源,即对“内容不适宜”进行扩大解释,符合算法时代的未成年人保护理念。
对“内容不适宜”进行扩大解释剑指算法推荐服务中的潜在风险。但是,如果扩大解释边界不明确或过于宽泛,不仅无法为图书馆未成年人保护工作的开展提供有效指引,也会让图书馆工作人员处于泛在、未知的受处罚风险中,因此必须合理限缩扩大解释的边界。首先应当明确“内容不适宜”的具体内涵,进而再在此基础上进行解释。毫无疑问的是,“内容不适宜”的基本解释范围应当结合《未成年人保护法》展开,即该法第50条中规制的涉及淫秽、暴力、凶杀、恐怖等内容[44]。但是,《未成年人保护法》第50条旨在打击直接危害未成年人身心健康的内容。所谓“直接危害”是指会造成法秩序所不容许的负面后果,即实质上“直接危害”的外延小于“内容不适宜”。《未成年人保护法》第50条与《公共图书馆法》第37条中关于内容范围的定义应当属于一般法与特殊法的关系。按照法的基本原理,在图书馆领域文献信息“内容不适宜”明显可以超过文献信息会产生直接危害的范围,“内容不适宜”不仅包括文献信息中含有违法信息,也包括文献信息本身不含违法信息,但不利于未成年人健康成长的情形。此外,《出版管理条例》第26条禁止以未成年人为对象的出版物存在引诱其模仿违反社会公德和违法犯罪等不良行为的内容,本款规定也可以当做扩大解释的基础之一,即在算法推荐服务视域下,“内容不适宜”的边界不能窄于违反社会公德,引诱未成年人模仿与其年龄阶段所不适应行为的内容也应当被视作“内容不适宜”。
审查是否不利于未成年人健康成长范围,可以结合其他有关规范性文件进行综合分析。《儿童权利公约》于1991年被我国批准,是我国广泛认可的国际公约,其中第17条明确了缔约国应履行保护儿童不受可能损害其福祉的信息和资料之害的职责。也就是说,如果文献信息会影响儿童福祉,就是不利于儿童健康成长。未成年人的全面发展、获取知识时渠道畅通都是其福祉的内涵,因此扩大解释的最大边界可以以福祉为标准进行判断。反之,如果算法推荐服务没有损害未成年人福祉,就不能认为算法推荐服务提供的文献信息内容不适宜。例如,仅仅推荐对未成年人超纲、不符合其兴趣爱好的文献信息或因文献推荐导致其学习压力增加等情形,不能因为是算法介入就认为“内容不适宜”。此外,对图书馆中文献信息“内容不适宜”的扩大解释可以参考博物馆法律制度中内容不适宜的内涵。《博物馆条例》第30条规定“陈列展览的主题和内容不适宜未成年人的,博物馆不得接纳未成年人”。博物馆中部分陈列展览存在环境压抑等非客观要素上的内容不适宜,在儿童心智不够成熟、认知能力不到位时,会让其产生不良反应[45]。在这里,“内容不适宜”的判断充分结合了未成年人的客观特性与博物馆提供展览的直观性等条件,将不利于健康成长的范围超越了展出内容存在黄赌毒或宗教要素等场景,同时也将扩大范围限制在了特定要素上,并未肆意扩张。结合前面两个规范性文件进行分析,可以认为,在算法推荐服务视角下对文献信息“内容不适宜”进行扩大解释时,一方面,最大边界应当紧扣未成年人“福祉”,与福祉无关则无法作为扩大解释的依据;另一方面,限制最大边界需要以负面清单的形式进行明确,结合信息茧房、沉迷网络、引诱模仿等算法影响下的特定潜在风险要素进行扩张,以此为依据将图书馆对文献信息内容本身的审核转移到对算法推荐服务下文献信息内容的多角度审核中。
本文所倡导的对《公共图书馆法》第37条进行扩大解释的方法完全建立在算法推荐服务这一背景上,如果未来出现其他可能使文献信息存在侵害未成年人权益风险的新场景,则可能需要依据该新场景重新对本条进行解释。总之,从立法技术上考量,《公共图书馆法》第37条无需进行修订,根据不同场景对“内容不适宜”进行适当的解释完全可以实现这一未成年人保护条款的最大效能。此外,尽管关于“内容不适宜”的扩大解释无需体现在立法中,但是《公共图书馆少年儿童服务规范》《公共图书馆评估指标》等国家标准或行业标准可以对其进行进一步释明,如专门提出考察是否可能形成信息茧房风险、导致沉迷网络等指标,从标准化的角度为法律的解释提供支撑。
智能社会中,公共机构应致力于实现通过数字化服务取代传统服务[46],而这其中也必然涉及不同场景的算法应用。进一步说,以场景为导向的精准治理模式可以更好控制算法可能引发的风险,助力公共机构的数字化、智能化转型。智慧图书馆是算法推荐服务应用的典型场景,可以着眼于这一具体场景,在“内容不适宜”新内涵的指引下,明确如何细化数据处理规则、完善人工干预机制、优化规则可解释性,从程序性控制的角度避免面向未成年读者的文献信息内容不适宜。而这些程序性控制可以以建立国家标准或行业标准的方式进一步制度化。现阶段,可以在《公共图书馆服务规范》《公共图书馆少年儿童服务规范》《公共图书馆评估指标》等标准中加入算法推荐服务的程序性控制机制,未来出台智慧图书馆的专门性标准时,可以将关于算法推荐服务的程序性控制机制全面写入其中,实现相关潜在风险的集中控制。
我国已经开始重视未成年人阅读工作,在《全民阅读促进条例》中明确应根据未成年人身心发展状况和实际情况开展分类阅读工作,但是由于起步较晚,未成年人阅读分级尚未出台具体标准。《公共图书馆评估指标 第3部分:省、市、县级少年儿童图书馆》A.4.10提出了图书馆分级分年龄段服务的评估指标,但是也未能进行进一步划分。在未成年人阅读分级上,可以考虑的分级基准是,每3岁左右进行一次年龄段划分,将未成年人阅读进行分级,并且在阅读能力达标时允许进行跨年龄段阅读[47]。而算法推荐服务也可以以此类标准为参考进行细化。智慧图书馆中为未成年读者提供算法推荐服务建立在对其个人数据进行处理的基础上。《中华人民共和国个人信息保护法》第31条明确处理未满十四周岁未成年人个人信息应当以专门规则进行,因此在智慧图书馆中,面向未成年人的算法推荐服务的数据处理规则将面临至少二元划分,即未满十四周岁以及十四至十八周岁两个阶段;再结合未成年人在具体年龄的一般智识水平以及基于其阅读倾向、阅读能力的阅读分级基准,当对算法推荐服务中的数据处理进行细化时,可以按照0-7、8-10、11-13、14-18的年龄划分标准,以不同算法规则进行数据处理。之所以将0-7作为年龄跨度较大的划分单独设计数据处理规则,是因为要考虑到未成年人使用算法推荐服务的客观情况,在读者未满7岁时应更多通过人工直接提供阅读推广、阅读引导等服务,而限缩这一阶段算法推荐服务的功能。具体到场景中,智慧图书馆中的推荐类算法在处理未成年人数据时,首先应按照年龄选择不同的处理程序;进而从数据清洗、数据采样等环节入手,力求均衡反映该年龄段未成年人的客观情况,避免因数据源存在问题引发对不同年龄段未成年人的偏见等[48];最后,再根据未成年读者的年级、阅读兴趣、浏览记录、阅读时长等进行分析加工,得出推荐结论。
《规定》第11条向算法服务提供者提出了建立完善人工干预机制的要求。智慧图书馆中,面向未成年读者的算法推荐服务不应完全由算法主导,为了最大程度保护未成年读者的利益,规避算法引发的新型风险,应当在算法推荐环节引入人工干预,并明确图书馆工作人员在算法推荐服务中的具体职责。对算法推荐服务的人工干预不能流于形式,必须让算法的决策结果可以被工作人员在不同阶段、以不同程度直接干预,从而使干预具备实质监督意义[49]。图书馆工作人员对算法推荐服务的干预应当贯穿未成年读者数据收集、加工、分析等数据处理流程与决策后的文献信息推送环节。在数据处理流程中,工作人员应当剔除可能引发歧视或可能产生风险的数据及算法,针对信息茧房风险、过度沉迷阅读风险与引诱模仿风险等进行防范和监控,从算法推荐服务的源头降低风险[50]。在文献信息推送环节,应当由具有未成年人保护与教育专业知识的工作人员主导,通过随机抽查等方式对推送内容是否适宜进行人工评估,并根据评估结果对推送内容进行干预。如果评估认为内容不适宜,工作人员有权对其认为不适宜的文献信息进行删除或屏蔽、调整推荐顺序、替换推荐内容等操作,避免因算法缺陷等原因引发风险,在未成年读者接受算法推荐服务时为“最后一公里”护航。并且,可以进一步明确量化规则,将工作人员数量、工作人员培训、人工干预方式、人工干预参与程度等列入标准规范的评估指标中,从标准化的角度对图书馆开展算法推荐服务进行规范。
《规定》第12条提出,要优化检索、排序、选择、推送、展示等规则的可解释性。智慧图书馆是非商业主导的推荐类算法应用场景,优化面向未成年读者推荐类算法的可解释性不仅可以更好保护未成年人权益,也可以作为智能社会完善算法治理的优质试验田。优化智慧图书馆中算法推荐服务规则的可解释性,本质是保证其算法模型的设计符合法律要求,让文化、网信等监管部门可以知悉算法是否在《公共图书馆法》等法律规范的认知范围内运行[51]。当然,优化算法可解释性也面临着大数据带来的因果关系难题、解释有效性不够等问题[52]。因此,为了更好促进图书馆对其算法可解释性进行优化,必须明确智慧图书馆中的算法解释程度,在比例原则的要求下推动监管需求与图书馆运营成本的平衡。由于图书馆中推荐类算法处理的数据类型较为集中,无需通过高度复杂的算法模型进行数据处理,因此图书馆往往具备对其算法进行充分解释的能力。并且,尽管图书馆中算法可能产生的风险较为隐性,但考虑到未成年人的长远发展,必须要加强对算法推荐服务的监管,因此对智慧图书馆而言,应当鼓励其在能力范围内将算法规则进行解释,以简单易懂的形式向公众公开算法所需要处理的未成年读者信息类别、形成文献信息推荐结果的基本运算逻辑等[53]。如此不仅可以使监管部门充分知悉算法是否合法合规,也可以使未成年读者及家长等社会公众更好地信任、接受与充分利用图书馆中的算法推荐服务,促进智慧图书馆对图书文化事业的赋能。为了敦促图书馆开展算法推荐服务时落实好优化算法可解释性这一社会责任,可以将算法规则的解释程度作为评估对象,纳入智慧图书馆的专门标准或现有图书馆标准规范中,提升图书馆对此的重视程度。
智慧图书馆的建设正在如火如荼,而算法推荐服务是智慧图书馆建设中的重要组成部分。育才造士,为国之本。在未成年人保护中,智慧图书馆责无旁贷。算法推荐服务为未成年读者带来了新的潜在风险,包括形成负面信息组成的信息茧房、沉迷网络阅读、引诱行为模仿等,由于这些风险并非在商业化环境中形成,其往往容易被公众忽视。《规定》的出现为算法治理带来了新的思路,但是在智慧图书馆中《规定》无法与《公共图书馆法》有效衔接,从而带来风险规避落足点不明显、责任归属困难等问题。对此,将《公共图书馆法》第37条中“内容不适宜”进行扩大解释,并通过对算法进行程序性控制避免“内容不适宜”,可以减少新型潜在风险发生的概率。未成年人保护利在千秋,充分保障未成年人发展权利是社会文明的重大进步,从智慧图书馆的角度以算法为切入点进行研究,是智能时代未成年人保护理论的前沿性突破;并且,在智慧图书馆中有效的算法推荐服务可以形成对违法犯罪未成年人教育矫治的社会支持机制,从而为未成年人法治建设提供全方位的支撑[54]。以此为起点,探索智慧学校、智慧社区等未成年人公共服务场所的法治化、智慧化治理,寻求治理成本与治理效果的平衡,将进一步推进智能时代我国法律规范制度体系的完备化与科学化。此外,本文对于智慧图书馆中推荐类算法的研究相对宏观,对新型潜在风险的发现与梳理或无法面面俱到,对算法治理的建议也仅针对当下情况提出。随着算法治理研究的不断深入,应当对智慧图书馆中的新型潜在风险进行深度挖掘,对算法推荐服务提出更加具体、科学的规范建议,推动智慧图书馆为国家和民族的未来贡献更多文化力量。