魏俊斌
(哈尔滨工程大学 马克思主义学院 哈尔滨 150001)
随着人工智能技术嵌入公共治理的程度不断加深,其蕴含的公共行政技术范式正在公共突发事件中不断开辟新的实践场域,为突发事件网络舆情应急处置体系的科学建构与自动化公共行政的价值再造提供了全新的技术路径。当前,网络舆情呈现出技术推动特征并表现社会民意,其数据流动模态、公众感性互动、网民个别化表达的存在形式与智能治理的全过程监测、中立性信任、精准化治理存在逻辑上的耦合,构成了算法嵌入网络舆情治理的立论根基。技术作为“治理者”,工具理性的价值内嵌极易产生压制公众参与、造成治理歧视、侵犯隐私安全等负面价值。法治是社会治理的基本方式,科技自身的发展特点决定了其能够对法治社会建设中暴露出的不足起到补强作用,但技术治理必须置于法律治理的框架之内。特别是在突发事件中,公共行政除了追求秩序、效率和正义等一般价值外,还应对技术衍生的安全、隐私、开放、透明和责任等问题有恰当的关切,避免因技术偏差造成新的不公平现象[1]。近期,《个人信息保护法》《新一代人工智能伦理规范》《关于加强科技伦理治理的指导意见(征求意见稿)》等相关法律与文件的频繁出台,再次确认了加强网络技术法治保障是维护我国网络空间秩序与安全的重要实现路径。基于P2DR动态模型,构建网络舆情智能化治理的法治保障体系,对于防控智能技术风险、完善算法规则、提升公共行政权威具有重要的现实意义。
自媒体创造了一个互动的世界,网络舆情在自媒体的推动下正经历由组织推动向技术推动的复杂过程嬗变,呈现出数据流动衍生、公众感性互动与网民个别表达的全新样态。网络舆情智能治理指使用代码规则和程序化表达等智能技术解决网络公共舆论问题的技术治理方案、策略机制或行动指令。二者在内部技术框架上存在三重逻辑耦合,证明了智能技术嵌入网络舆情治理具有内在合理性。但智能技术应用具有双向性,在有效防控网络舆情风险的同时,却始终未能摆脱技术本身带有的工具理性缺陷,造成治理技术异化风险,成为网络空间法治不容忽视的关键变量。
算法在作为数据价值挖掘工具的同时,因其规范性而不断塑造着网络空间秩序。智能治理技术的全过程监测、中立性信任、精准化治理与网络舆情的数据流动模态、公众感性互动、网民个别表达形成机理、价值和方式上的三重耦合。
1.1.1数据流动模态与全过程监测的机理耦合
大数据时代,个体的网络表达与行为均以数据的形式记录和呈现,线上线下即时互动将网络空间营造成一个开放系统。突发事件中,大量含有公众个人情绪的态度和意见表达形成舆情信息流,在网络自组织作用下,成为群体性的舆论焦点,并在观点数据的持续加入过程中,实现舆论焦点的转移。动态数据流成为网络舆情的新模态,伴随其从生成、演化至消亡的整个生命周期。次生舆情、舆情反转成为常态,网络舆情正经由组织推动向以技术(数据)推动转变,呈现出非线性演化的显著特征。以AI语义、音视频识别等智能技术运用为标识的智能治理技术正在取代传统线性治理模式,实现了由内容向“内容+关系+情感”综合评价目标转向的突发事件网络舆情全景式动态监测与信息实时处理。全景式数据采集下的深度挖掘、智能研判和虚拟仿真能够迅速锁定可能爆发的焦点舆情,消除负面情绪产生的动力机制;全过程舆情监测在系统掌握舆情源头、信息流向、扩散范围等关键节点信息后,能够实现过程阻断;通过认知智能的关联分析、知识建模、关系挖掘,能够实现智能化态势研判与自动化决策推送。依托智能技术进行的网络舆情过程性治理,内隐的数据分析、节点控制、场景能力和以数据流动为特征的网络舆情演化存在运行机理上的耦合。
1.1.2公众感性互动与中立性信任的价值耦合
网络媒介业态更新确立了用户间数字化的交往方式,带来了整体性文化中感性意识的彰显。在主体性意识作用下,公众情绪与信念优先于客观事实和理性思辨的感性认知想像占据主导,寻求群体身份认同与感性互动成为网络空间信息流动的常态,一个个以亲缘、地缘、业缘、趣缘为特征的分众化网络圈群正在形成。在公共事件发生后,分众化的网络圈群成为网络信息传播的基本单元,对网络舆情的形成、发展起到了关键作用。但由于社会公平、医疗教育等客观社会风险的存在,官民之间的共同利益出现认知差异,二者产生信任裂痕,直接反映为公众对公共行政行为的合法性质疑。此时,技术进入通过发挥数据运算、特征挖掘、热点发现、智能评估、自动决策等优势,以客观中性、科学可验证、自执行特征与无差别的理性坚守,为疫情防控打造了人力无法企及的科学的技术解决方案[2]。个人情感影响产出结果的可能性减少,客观上会降低公众对因权力运作不透明、不规范等公共行政人为主观运作的不信任感,增强人们对公共权威的信任,从而增强主体法治自觉[3]。在这一过程中,技术的中立价值起到了弥合公共治理中社会主体间信任不足的作用,实现了公共行政权威在公众社会心理层面的确认,与网络舆情的感性互动特征存在价值上的耦合。
1.1.3网民个别化表达与精准化治理的方式耦合
自媒体时代,网络社会呈现出“去中心化”态势,扁平化信息传播使公共议题从政府机关下沉至社会,各主体均有机会就议题发表观点,进行交流,公众的个别化表达成为网络信息的主要来源。通过个别化表达,公众可以充分行使言论自由和网络监督权,对社会不良现象发表意见,促进治理优化。但囿于公众传媒专业知识与信息来源渠道的局限,在事件发生后往往不能准确辨别信息真伪,在猎奇心理的作用下会第一时间将事件信息公之于众,引发网络信息传播的秩序混乱。智能技术应用为网络舆情精准化治理进行了赋能。一方面,借助数据挖掘、AI语义、音视频识别技术,自动感知、识别和获取热点事件的舆情信息,通过数据追踪与关联分析迅速锁定信息源头,提升了网络舆情监测与应急处置的效能。另一方面,政府部门借助智能语义算法能够监测网民话语表达的情感倾向以及背后隐藏的社会心态和价值诉求,实现网民数据画像。进而,利用个性化算法推荐技术定向推送个体需要的以及应当需要的权威信息和主流内容,实现对用户情感心理和社会关系的多重满足,发挥政府和主流媒体的信息传播优势,提升网络信息治理的效率和精度,最大程度上消弭网民个别表达可能带来的网络舆情风险。
技术优势营造的绝对自由假象,使智能算法成为调配公共资源和确定行为规则的控制力量,自主决策压制公众参与、算法偏见造成治理歧视、数据滥用侵害隐私安全,在科学管理的外衣下造成工具理性负面性价值隐喻的遮蔽。
1.2.1自主决策压制公众参与
以算法为核心的智能技术借助机器的深度学习和自主学习,能够对用户进行持续性的行为调控。智能技术实际上承担了网络空间的日常治理任务,拥有对网络交往违法行为和自媒体失范言论最便利的发现和限制能力,在参与政府治理过程中被赋予某种程度上的行政执法权,突破了传统行政程序规则,深刻影响着公共责任的规范。网络舆情治理过程中,智能技术通过事先设定关键词、定向网站监测,在发现网络言论含有敏感词汇时会第一时间自动判定该言论为不良言论或违法信息,从而做出算法意义上的“科学决策”。但这一过程忽视了意思表达与话语呈现的主观特性,智能技术作为一种工具性存在,即便在深度学习与“类人意识”的助力下也无法真正实现人的理性价值判断。况且,借助算法呈现的舆情样态因“虚假热点”、特殊信息提取技术不成熟、语义迁移等技术因素干扰和监控盲区的存在,并非与真实民意完全吻合[4]。自主决策又无法有效避免情感和语义的分析误差,往往在关键词或敏感词出现时就会发出预警或进行干预,受自动化决策的影响,作为道德主体的公众被算法剥夺了表达意见、质疑和反驳决策的机会和权利[5]。公众表达期望、利益需求、提出建议、实施监督等正常的网络政治参与权利被技术压制甚至剥夺,参与渠道梗阻。决策程序不透明,公众知情权、异议权、监督权无法得到保障,会进一步加剧公众与行政部门之间的对立,造成次生舆论灾害,进而削弱主流舆论观点的传播力和影响力,阻碍社会共识与网络主体间普遍共识的达成。
1.2.2算法偏见造成治理歧视
在数字化媒体时代,个人虽然可以“免费”使用数字服务,但代价却是向服务商提供个人数据和向广告商提供“浏览记录”,二者又可凭借数据“挑出”甚至“识别”具体个人[6]。网络舆情智能治理技术的基础和依据就是公众的个人数据信息。作为一种技术,智能算法本身并不具有社会权力,但其与人的集合蕴含了特定的解释框架与价值偏向,成为一种具有高度社会属性的主体创设,以工具理性和隐形操控等行使着自己的权力。算法的运作过程在技术上仍被视为一个黑箱,算法凭借输入、运算、输出结果,表面上看似客观的过程,但其本质属性仍取决于自然人(设计者)的主观意愿。网络监管过程中,受到工作人员的价值观念、认知偏向、社会经历等潜在因素影响,在程序设计时会将监管人员的治理经验和主观判断预先植入算法框架之中,以个人判断代替集体判断。在治理实践中,对于先前传播过不良信息的重点人群和重点网站,设计程序和监测过程中会有一定的政策倾斜,产生治理歧视。而在这一过程中,用户和网站处于相对弱势地位,算法复杂性抬高了公众的认知成本,算法的运行程序不透明造成黑箱效应,公众因对技术的认知不足在被采取措施时无法提出有效性抗辩,在客观上剥夺了用户的知情权和异议权,造成实际上的不平等。久而久之,对治理行为的不信任和抵触情绪会占据主导,加深网络空间主体间的隔阂,弱化主流意识形态的价值凝聚力和引领力。
1.2.3数据滥用侵害隐私安全
网络舆情治理过程中,相关部门对不良信息源头的排查、舆情态势的研判、传播路径的分析和舆情危机的处置无一例外都以个人信息的使用为基础。《个人信息保护法》对公民个人信息的处理进行了限制性规定,第6条明确指出,“处理个人信息应当具有明确、合理的目的,且收集个人信息,应当限于实现处理目的的最小范围”;第44条、48条对用户在个人信息处理活动中的知情权、决定权、拒绝权以及个人信息处理规则的解释说明权进行了规定。但囿于监管制度不健全、采集程序与存储程序不完善、网民自觉遵守网络规范的法治意识尚未养成,致使在网络舆情治理过程中数据滥用侵犯用户隐私安全的行为时有发生。一方面,由于在网络舆情监测算法设计时很少会因为信息种类的不同区别设置程序,因此在具体的信息处理过程中缺少对用户隐私数据或敏感信息的识别和重视,网络舆情监测和治理缺乏对自动化数据收集行为的规范和矫正,“有用”成为数据收集的唯一标准,数据收集与治理需求之间形成张力。加之智能技术的自动化决策程序本身就缺少外部的规则干预,致使自执行程序违规收集、利用、公开公民个人信息,侵犯信息主体的正当权益。另一方面,信息收集主体或处理主体缺乏对个人信息安全的足够重视,导致部分信息未经脱敏处理就进行公开。利益相关者出于泄愤、报复等目的通过曝光当事人隐私、编造谣言等方式引发群体的道德审判,制造地域歧视、性别冲突,甚至发表仇恨性言论引发网络骂战,“人肉搜索”“网络诽谤”等行为屡禁不止,涉事主体的个人信息安全和隐私安全受到严重侵犯。
在智能技术赋能网络舆情治理呈现双向性的前提下,如何避免智能技术的负面影响、完善技术治理规则,进而通过正确引导并善加利用智能技术实现技术增量,提升公共行政权威,成为网络舆情智能治理风险防控所要解决的首要问题。智能风险产生的本质在于技术反噬与支配下人在追求效率最大化过程中工具理性的膨胀,一方面,P2DR模型的动态安全循环运行机理与智能化网络舆情治理范式高度吻合,另一方面,法治是促进个体自我完善和维护网络空间主体有序交往的现实性与制度性力量,同时又是实现国家治理现代化的基本底色。通过引入P2DR法治模型,发挥法治化安全策略、防护、检测、响应在智能治理风险防控中的重要作用,实现风险防控的重心前置和程序简化,对智能风险进行快速检测与响应,从而有效维护网络空间秩序稳定。
P2DR网络安全动态模型于1995年由美国ISS公司提出,包括Policy(安全策略)、Protection(防护)、Detection(检测)、Response(响应)4个主要部分。该模型突破原有静态安全模型无法有效描述网络动态安全威胁的局限,引入时间概念,对网络安全进行了全新定义,“及时的检测和响应就是安全,及时的检测和恢复就是安全”[7]。提出了解决网络安全的全新对策:提高系统防护时间,降低检测时间和响应时间。在这4个部分中,安全策略(P)是体系的中心,整个系统的运行需要在安全策略(P)控制和指导下,综合运用防护工具(P),利用检测工具(D)对系统安全状态进行评估,在评估的基础上采取有效措施进行响应(R),进而通过适当的响应措施将系统调整到“最安全”和“风险最低”的状态,构成一个完整的、动态的网络安全循环系统[8]。
通过对网络舆情智能治理的全过程监测和动态化治理方案进行剖析,不难发现,其治理框架、价值取向与P2DR网络安全动态模型具有适配性。其一,全过程监测有效降低了检测时间。网络舆情智能治理技术通过全景式数据采集、全过程舆情监测、智能化态势研判,能够在第一时间锁定可能爆发的舆论焦点,简化了危机检测的步骤与环节,从而极大减少网络舆情安全状态评估的时间。其二,精准化治理与自动化决策有效缩短了响应时间。借助数据追踪、可视化呈现技术,智能治理系统能够快速呈现舆情传播的人群特征,实现网民数据画像,进而利用智能算法推荐针对不同群体采取差异化、精准化的主流信息推送,消除网民负面情绪产生的动力机制。缩短了危机爆发后的响应措施选择与开始时间,为网络舆情安全状态的迅速恢复节约了时间。其三,在整体性治理逻辑上,智能治理制定出一套动态可循环的网络舆情安全策略,实现了有效的危险防护。网络舆情智能治理针对当前自媒体环境下舆情传播的非线性特征、可能存在的次生舆情和舆情反转特殊情形,进行动态跟踪、全过程监测与精准化治理,诠释了及时的检测与响应就是安全的治理逻辑。同时,治理措施和治理环节具有可逆性,能够针对舆情的发展情况及时做出对策调整,与P2DR网络安全动态模型存在治理逻辑上的适恰。
正是智能技术框架与P2DR动态模型高度契合的治理优势,使得公共部门在治理过程中过度倚重智能技术,而忽视了其存在的可靠性不足、权力异化及正常程序“屏蔽”等工具理性缺陷。技术异化归根结底是人的异化,法治是促进个体自我完善的现实性与制度性力量,具有塑造行为规范与公共权威的作用。通过法治传导使技术规则在创制时就烙上平等、责任、伦理等价值理性印记,从而创造出明显区别与传统的治理范式,使其在理念选择上更加倾向于对社会开放和自由有利的结果。与此同时,法治作为网络空间治理不可或缺的重要手段,已经融入网络舆情治理的各个环节,任何组织和个人都不能有超越法律的特权,智能治理手段必须要在法治的规范框架进行。将法治理念引入P2DR动态模型规约智能技术,有利于在不影响法治本身运作逻辑的提前下叠加一套技术工具,强化法律的实际效果。
2.3.1实现了网络舆情智能治理风险防控的重心前置
一般意义上风险防控措施可分为事前预防、事中控制与事后监督,三种手段中事前预防更利于在防控和治理风险中占据主动。引入智能风险治理的P2DR法治模型,通过在理念层面,对智能技术的风险特征进行判别,明确防护对象;对技术治理的法治理念进行提炼,树立符合社会主义法治精神的技术治理标准,确立检测规则;将技术治理法治精神内核融入智能治理全过程,剔除与法治精神不符的治理行为,实现风险响应。在实践层面,完善以“技术安全”为重点的准入制度,保障了智能技术进入治理过程前的合规合法。法治理念的渗透与治理主体准入的双重限制,实现了智能治理风险防控的重心前置,防范不安定因素的形成与发展,保障智能治理技术的可靠性与可控性,降低风险发生几率。
2.3.2简化了网络舆情智能治理安全管理的程序
P2DR动态模型以动态安全可调整的安全策略为核心构建安全防御体系,通过安全决策机制与管理系统,在协调管理的调度下实现防护、检测与响应几个环节的协同互动,构成动态循环可调整的风险防御系统。理想状态下网络安全防护系统的构建应找准关键的安全控制点,简化网络安全管理。P2DR法治模型通过实践层面对网络舆情智能治理的准入、通过与保障环节的制度安排与责任设置,抓住了技术安全、权利保护、责任落实等在治理过程中可能出现智能技术风险的关键性安全控制点。通过实时监控治理过程中的异常流量、识别技术异化等错误理念、建立信息监测与处理合规审查制度、合理分配主体责任等方式,以法治化的制度设计简化了网络舆情智能治理的安全管理,发挥好关键节点的监督作用与纠偏功能,便于对网络舆情治理全过程进行监控与审计。
2.3.3明确了网络舆情智能治理中的主体责任
P2DR法治模型在网络舆情智能治理中的应用,形成了一套协同动态的整合式安全策略。在策略中,明确了各治理主体在治理过程中应当进行何种治理和承担何种责任,避免了因责任主体模糊而造成的不作为或乱作为乱象。具体而言,一方面,通过在检测环节建立舆情信息监测综合评估制度和个人信息处理合规审查制度,防止治理主体在网络舆情治理过程中过度依赖大数据造成的权力异化和设计人员在算法设计时因“无意的不公正”造成的治理歧视,有效规避了由于算法决策自身不透明造成的主体责任的模糊与转移。另一方面,通过舆情治理准入、通过和保障全过程的制度设计,对智能治理进行数据留痕,根据不同主体在不同阶段的不同作为义务,合理划分责任,从而降低网络舆情治理过程中风险的产生。
数字社会的本质即规则之治,法律作为定纷止争的理性工具和技术发展的规范框架,任何技术的使用都必须在法治框架内进行。面对智能技术嵌入网络舆情治理产生的算法偏见、权力异化、责任分配不明等对网络法治的挑战,进行外部法治保障具有必要性与可行性。通过引入P2DR法治模型(见图1),一方面将法治理念融入智能治理技术的顶层设计,以融入式渗透发挥法治在技术规则设计时的监督与纠偏功能,实现风险防控的关口前移;另一方面,将法治理念与防护、检测、响应具体的治理运转环节相衔接,以法治框架调适和规约智能技术的治理权限,保障网络舆情智能治理技术的良性运转。通过理念与实践层面的双向发力,系统设计应对智能技术风险的法治方案,从而形成与社会主义法治精神相适应的动态的、开放的网络舆情治理规则。
图1 P2DR网络舆情智能治理法治保障模型
3.1理念层面:法治精神的融入式渗透
法治理念、法律思维本身就属于网络舆情治理技术规则的重要规范框架。在理念层面实现安全策略,需要根据“防护、检测、响应”三个环节分别确立技术治理错误理念的防护体系、法治理念的检测标准体系及应对错误技术理念的响应体系,实现“防御、甄别、引领”三个功能。
3.1.1防护环节(P):对智能技术治理风险的剖析与防御
该环节主要对网络舆情治理安全进行防护设置,定义基本的治理安全标准,定义符合规定的治理规则。具体到智能技术治理,主要表现为对一般意义上可能出现的算法偏见、权力滥用、正当程序屏蔽、数据主义、权力异化、新机器官僚主义等错误技术理念的内在本质及外部形态进行剖析,明确其价值理性缺失与工具理性泛滥的本质,通过科学化的指标设置,构筑起技术治理错误理念的防御体系。
3.1.2检测环节(D):对技术治理法治理念的提炼与甄别
该环节主要运用法治理念的检测标准对网络舆情技术治理存在的不同观点的安全性进行检测,及时甄别出与法治理念相悖的治理方式。其中,最为重要的是要确立起法治理念的检测标准体系。在具体的操作上,应当运用马克思主义与社会主义法治理念的方法论,从对网络空间的技术本质、网络空间技术发展规律、网络空间规则建构的深入认识中;从法治国家、法治政府、法治社会一体建设及网络舆论技术治理实践中;从国外网络舆论技术治理建设的有益成果、经验中,提炼符合社会主义发展要求的网络舆情技术治理法治化的精神内涵。从而,为网络舆情技术法治理念的检测标准体系确立提供丰富的素材。
3.1.3响应环节(R):对技术治理法治核心内涵的渗透与融入
该环节主要是对检测环节发现的问题,在整体性安全策略指导下,动态调整防护策略。具体而言,在智能治理技术风险剖析与网络舆情技术治理法治精神提炼的基础上,以将技术治理法治核心内涵渗透融入到智能技术规则设计框架之中的方式,把法律规制转换成与之对应的法律技术化规制,使治理技术在形成之初就内嵌法治理念,在根本上进行平衡企业商业秘密与公众数据权利的制度设计,压缩智能治理技术异化风险的形成空间。通过法治化智能技术手段引导人们树立法治思维,以更为理性的思维和态度同各种错误思想言论进行对斗争,从而通过规范化的方式来解决网络舆情治理领域的矛盾。
智能技术治理风险的防护工作落实到法治实践,需要在P2DR法治模型下构建以“技术安全”为重点的“准入”制度、以“权利保护”为重点的“通过”制度和以“责任落实”为重点的“保障”制度,实现“防护、检测、响应”三个环节协同有效运行。
3.2.1防护环节(P):以“技术安全”为重点的“准入”制度
首先,健全网络舆情智能监测程序准入,保障数据处理安全。网络舆情智能技术治理程序的运转需要大数据予以支撑,获取数据的程序合法、信息准确、表意真实是保证决策合法性、科学性与周全性的前提。其中,最为基础和关键的问题是舆情监测技术或程序能够在法定框架内合法获取数据。鉴于此,可以根据《突发事件应对法》和《网络安全法》制定出台《突发事件技术治理应急条例》,细化在突发事件网络舆情技术治理中的信息收集的主体、适用规范、责任划分和技术支撑。具体而言,可依据《网络安全法》第21条、第22条规定的“网络信息留存制度”“网络产品、服务安全维护制度”在网信办下设置专门的“技术调查官”,对智能化治理过程中舆情监测的安全性、可靠性和可控性进行评估与核查,重点对网络舆情监测技术、舆情分析、舆情干预、自主决策等的算法框架的技术形式和价值目标进行审查,保障数据处理的安全。
其次,规范信息生产者的准入,保障网络舆情生态稳定。具体可通过完善网络实名制、身份管理制度、信息生产审核、网络安全标准化等切实履行好《网络信息内容生态治理规定》规定的内容生产者义务。对作为信息生产者主力军的网络平台应加强准入性审核,克服私利和偏见对算法设计过程的影响,重点核查是否将主流价值、伦理要求和法律规则转译为代码植入信息生产的重要组织节点之中。一方面,可以通过引入“歧视感知数据挖掘”(DADM)和“机器学习中的公平、责任和透明度”(FAT-ML)技术,自动识别算法是否存在歧视等偏离公正伦理的情形,并将公平等道德约束嵌入其系统中[9]。通过监控重要节点信息内容属性的方式防止算法偏见等权力异化的发生。另一方面,将治理融入关键节点之中,以通过该节点的流量对周边节点进行辐射影响,从而有效地管控网络舆情。与此同时,应要求平台按照《个人信息保护法》的相关规定,探索个性化推荐的反向路径,建立以层次聚类算法为技术支撑的新闻内容推荐系统,平衡相关性与多样性的关系,提供不针对其个人特征的选项,优化公众网络信息获取的环境。
最后,制定“算法顾问”制度,保证算法自主决策的技术安全。自动化决策程序的不透明和算法黑箱是智能技术风险产生的主要因素,也是公众质疑公共决策合法性的根本原因。由于算法的专业性,除了具有足够解码能力的专业人士外,算法公开对于公众而言意义不大。而实际上,公众所关心的也不是算法公开与否的问题,而是用于网络舆情治理的算法决策目标以及实现这些目标的建构逻辑能否被其理解或接受。为了使智能治理技术获得公众的普遍接受,应当强化算法生产者或使用者对算法的解释义务,保障公众对智能技术的监督和质询权利。公共部门往往采取购买服务的方式获取智能技术,针对这一点相关部门应当充分发挥买方优势,要求技术服务提供商在提供技术服务的同时,一并提供用于机器学习的数据集、算法框架的数据标注和代码结构、设计算法时的政策选择和决策逻辑、算法验证的测试记录、可能存在的技术风险及相应防范措施等,便于政府部门对智能技术进行事前的评估和审核[10]。与此同时,可以考虑聘请第三方专业人士(从事算法设计的大学教授、研究人员等)担任公共部门的“算法顾问”,一方面,评估算法的安全性、合法性,对于可能存在的技术风险及时向政府部门进行反馈,以对算法进行修正;另一方面,当技术治理遭受公众质疑时,由其向公众普及智能治理技术的运行机理和决策目标,以获得公众对治理技术的接受。
3.2.2检测环节(D):以“权利保护”为重点的“通过”制度
第一,建立健全“舆情信息监测综合评估制度”,以保障公众言论自由和知情权。《网络安全法》第51条、52条规定了网络安全监测预警和信息通报制度,要求有组织地进行安全状态监控,为相关部门在突发公共事件中监测网络舆情安全、进行信息安全检测提供了法律依据。平台作为聚合了资源、数据、算法和基础服务的技术和商业服务底层架构,成为影响互联网治理规则和监管的重要因素[11]。针对网络平台等网络服务提供者,《网络信息内容生态治理规定》《互联网跟帖评论服务管理规定》等以立法的形式强化了平台的网络信息内容安全管理的主体责任和社会责任,在平台的“不法内容”合理注意义务外,又课以平台对信息的主动监管义务。不难发现,当前有关信息内容安全的监管规定主要从约束“被检测方”的视角进行设计,在这一过程中,公民网络信息的保密性和网络言论自由等权利受到威胁。因此,应当建立起对舆情信息监测的综合评估制度,对网络舆情监测的目的、处理方式等是否合法、正当、必要,对个人权益的影响程度,安全风险以及所采取的保护措施是否有效等问题进行综合性评估,做到检测环节有依据、有程序、有限制,防止“检测”权力的扩大和异化。就当前的法律规定而言,《网络安全法》在规定网络安全监测通报制度时,重点规范了网络运营者的操作规则,但对公权力机关、其他个体的审慎义务仅以原则性条款进行了明确,有必要进行细化,实现依据合法、程序正当、救济充分的闭环制度设计[12]。同时,在舆情信息监测过程中应保障公民个人对其言论信息处理享有知情权和监督权。根据《个人信息保护法》第24条的相关规定,在自动化决策对个人权益有重大影响时,个人有权拒绝个人信息处理者仅通过自动化决策的方式做出决定。因此,在治理实践中,相关部门应履行主动告知相对人“决策为自动化做出”的义务,以便相对人行使其获得算法解释和拒绝自动化决策的权力。
第二,建立“个人信息处理合规审查制度”,以保障自动化决策中公民的隐私权和平等权。智能算法具有预测功能,能够根据在已有样本数据深度学习的基础上掌握舆情发展的一般规律,实现舆情危机的提前预测与应对,有效降低了网络舆情对社会秩序造成的威胁。但基于个人信息的自动化决策系统,在提升治理效率的同时,始终潜存技术权力异化的风险。全自动化的决策系统可能剔除人的能动性、判断力等对于决策程序十分重要的道德(“软性”)价值[13]。而人类的裁量力、判断力和能动性又恰是克服技术规则内生缺陷的关键武器,弃用人类裁量,无疑也将这些能力的闪光点抹杀殆尽[14]。立法是平衡效率与公平的最重要方式,能够为技术设计者、开发者、使用者划定道德底线,关注弱势群体,防范技术决策出现群体歧视或被商业利益俘获。《个人信息保护法》出台,为自动化决策程序透明和结果的公平、公正提供了法律保障,同时也为个人要求信息处理者对处理规则进行开释(解释说明)提供了合法性依据。在合规审查制度的设计上,履行个人信息保护职责的部门应当根据《个人信息保护法》第58条、第60条相关规定,指导提供平台服务等相关服务的个人信息处理者建立健全个人信息保护合规制度体系并成立独立的个人信息评估工作机构,以履行个人信息的保护义务。具体而言,一方面,进行算法投入使用前的许可评估。网络舆情治理涉及限缩公众的言论权利,公共行为需要按照法律规则、法定程序进行严格控制,对此类自由裁量权限制较大的行为需要降低自动化决策的程度。因此,需要事前对算法决策的自动化程度、安全性等进行强制性验证评估,保证投入治理实践的算法符合法定标准。另一方面,对于已经进入治理实践的算法,由独立的个人信息评估工作机构开展定期(事中和事后)抽检,重点检查算法运行过程是否存在技术漏洞;自动化决策结果是否存在歧视、偏见;对公民的隐私、言论自由等权利的影响程度;先前受到过舆论干预或限制言论的个人账号或群体,在新一轮网络舆情中因智能算法预测再次受到相关部门重点监控与技术干预的概率等。通过个人信息处理合规性审查,保障决策程序的公正和网民基本权利受到尊重。
3.2.3响应环节(R):以“责任落实”为重点推进“保障”制度
防护环节抵御技术异化风险因素的进入,检测环节控制利用公民个人信息进行自动化决策不安全技术的通过,其目的是为了更全面的发现问题、预防问题、控制问题,从而进行有针对性的具体响应。在突发公共事件网络舆情治理实践中,主要通过落实网络舆情治理主体的相关法律责任,预防和控制可能存在的智能技术异化风险,以实现网络舆情智能治理的法治保障,维护公众的合法权益。
一是网络平台的内容监管与技术监管责任。在虚拟场域中,算法实际上承担了网络空间的日常治理任务,对网络交易中的违法行为或自媒体中的失范言论,网络平台拥有最便利的发现和限制能力,是成本最低的违法行为的控制者[15]。一方面,作为信息传播载体的网络平台应切实履行好合理注意义务和主动监管责任,发挥好“在线看门人”职责。建立网络信息内容生态治理机制,制定平台生态治理细则,健全用户注册、账号管理制度,健全内容审核机制,充当好网络信息传播的把关人。具体而言,应建立信息内容评价体系,优化信息内容生产与推荐机制,规范话题设置,禁止在平台传播蹭热点、伪原创、造谣传谣、负面新闻等不良信息,严格按照《网络安全法》第47条相关规定,开展信息过滤,发现法律、行政法规禁止发布或者传输的信息,立即停止传输并采取消除等应急处置措施防止不良信息的扩散,并主动呈报主管部门。另一方面,作为信息生产者的网络平台应严格履行智能技术监管责任。算法权力滥用是造成传播技术异化的直接原因,算法设计者可以纠正算法设计中的偏见,但无法解决算法的滥用问题,应从法律角度实现监管重心由算法设计者向使用者的转移,强化对算法使用者的监督和惩治力度[16]。其一,网络平台在自己设计新闻生产算法或使用算法技术服务时,应当履行对信息生产算法的审查与监督责任,重点评估设计算法时的主要政策选择,算法自动化信息生产的标准、程序及信息生产的内测数据记录,以保障智能信息生产的合法与正当。其二,坚持依法合规经营,加强重点功能管理,按要求开展算法备案,保证决策透明度与结果公正,防止算法权力与商业资本结合形成监视资本主义,造成公众被算法驯服,丧失自我感受的表达和自我价值实现的能力。
二是公共部门的技术监管与网络舆情智能治理的主体责任。对于网络舆情智能治理系统输出结果的准确性和质量,由于机器学习训练模型或深度学习的不可控性,决定了个体在客观上并不具备实施有效监督的能力。因此,针对智能技术决策的情形,最为直接和最为有效的监管仍要回归到传统意义上的归责方式,即建立事后惩罚机制,确保决策的可靠性。网信部门等作为突发事件网络舆情的治理主体,在运用智能技术强化舆情治理效果的过程中,应当自觉强化责任意识,切实维护公众在网络空间中的正当权益。一方面,应加强对于网络平台与算法技术的监管。《网络安全法》第50条规定了国家网信部门和有关部门对法律、行政法规禁止发布或者传输的信息二次过滤的监督义务。但就法条本身而言,对于“有关部门”的范围及叫停信息传输的程序应进一步明确界定。严格规范网络平台的采编发稿流程,明确可量化的问责标准,对违法失信的网络平台实施行业禁入、网上行为限制等惩戒措施,加强对不良信息的惩治力度[17]。同时,对于参与网络舆情协同治理的技术平台,网信部门应对其自动化决策程序是否透明、决策结果是否公正,以及个人信息处理规则和程序是否进行事前的影响评估等进行审查。发现个人信息处理行为与网络舆论干预行为存在较大风险或者发生个人信息安全事件的,应当要求其委托专业机构或者由网信部门牵头对网络舆情智能治理行为进行调查,并针对问题进行相应的处罚。另一方面,政府作为网络舆情智能治理活动决策目标的设定者和最大受益者,应当承当网络舆情智能化治理的主体责任。其一,是自身治理行为的具体责任。要求网信部门在对网络信息进行鉴别时,应主动寻求与公共卫生健康部门或疾病预防控制部门的合作,经专业机构确认后方能采取后续措施,从而在最大程度上准确甄别谣言和不实信息,避免不当执法,以专业型协同治理机制提升政府部门科学执法水平。其二,是开展网络舆情治理行为的概括主体责任。原因在于,该种责任承担方式更有利于因治理决策不当或违法而遭受不公正待遇的治理相对人。对于作为公共行政相对人的民众而言,网络舆情治理活动由政府主导开展且是治理的最大受益者,假如由第三方技术服务平台承担责任,不仅会增加算法决策相对人的维权成本,还可能会因为公众对于算法技术的不了解导致维权的失败。而直接将政府等公共部门作为责任方,不仅便于公众进行维权,更能反向倒逼网信部门等切实履行主动参与、监督设计、评估审查智能决策技术的监管责任,提升决策的科学性。
智能技术嵌入公共治理具有创新治理范式与再造公共行政价值的客观效能。但公共管理部门在追求秩序与效率的同时,理应对智能技术衍生的隐私、责任等安全风险做出必要关切,防范因技术偏差造成新的不公,因此,必须将技术治理置于法律框架之内。针对突发事件网络舆情智能技术治理潜存的压抑公众参与、造成治理歧视、侵犯隐私安全等法治风险,引入P2DR法治模型,通过理念与治理实践上防护(P)、检测(D)、响应(R)三个环节设计,形成产生维护网络舆情智能治理安全的策略(P),从而构建一套智能技术嵌入突发事件网络舆情治理的法治保障路径。