人工智能时代互联网诱导行为的算法规制

2019-03-05 23:35
江西社会科学 2019年2期
关键词:业者规制诱导

人工智能时代,经由算法产生的互联网诱导行为已成普遍现象,其负外部性效应愈发显现,具有法律规制的迫切性。这种负外部性效应的本质是纯粹算法中立,即不加限制的算法技术应用带来的风险。由于算法的应用,促使人工智能与互联网诱导行为产生关联,并因其公共属性,使得该风险具有公法风险的特点。因此,算法规制的法正当性,主要是对纯粹算法中立的修正,包含公益优先和文化引导两方面。在传统命令控制型规制存在权利保障疑虑的情况下,基于国家担保责任的兜底,元规制理论下的自我规制有助于改善和提高规制的绩效;并通过算法技术计算公共利益的限度,保障规制活动始终受到法律的拘束。

在人工智能技术日新月异的今天,算法技术的运用是其核心推动力。在技术革新的同时,算法已经深深介入人们的日常生活,并且产生了一些负面社会影响,譬如互联网诱导行为。所谓互联网诱导行为,是指互联网业者借由网站或微博、微信、直播平台等客户端,通过人工智能和算法技术掌握用户的使用偏好,并根据该偏好向人们推送内容信息诱导其浏览的行为。而人工智能时代,个体化推送的技术成本下降很快,互联网诱导行为技术上更易实现,且“效果”更佳。互联网文化产品是此类现象的“重灾区”。中央电视台《焦点访谈》栏目曾通过专题报道,揭批互联网直播领域存在的传播暴力、色情、吸毒等不良信息的乱象,引起广泛社会关注,促使行政部门进行大力整顿。

这些乱象均归因于互联网诱导行为,其存在以下负外部性效应。首先,影响良好社会风气的养成。此类信息不加控制地传播,会对一些辨识能力较弱的用户产生消极影响,甚至误入歧途,尤其是青少年群体。其次,干扰社会主流价值的认识。不良行为并不只是一种孤立的行为方式,不是个别社会成员偶发的错误,其背后往往存在一种错误的价值指引。如不限制,则必然干扰社会主流价值和社会主义核心价值观的树立。最后,破坏社会公共秩序。

因此,面对人工智能时代通过算法进行违反法律法规、败坏社会风气的互联网诱导行为的法律规制是迫切需要大力研究的时代命题。为此,本文从互联网诱导行为负外部性效应的本质展开研究,经分析提出相应规制建议,希冀引起学界研究的进一步深入。

一、算法风险:互联网诱导行为负外部性效应的本质

对互联网诱导行为的规制,核心在于规制算法。互联网诱导行为可能产生的负外部性效应,与人工智能技术中的算法应用密不可分。因此,厘清算法和互联网诱导行为之间的关联,分析算法风险的成因,是正确认识算法规制的前提。

(一)算法应用:人工智能与互联网诱导行为的关联点

人工智能技术建立在对大数据,即海量数据的掌握与应用的基础上。大数据尚没有一个较为统一的定义,但是根据其特点,一般而言具有规模性、多样性、高速性和价值性的特点。互联网环境为大数据技术在互联网诱导行为中应用提供了条件,互联网诱导行为以对数据的占有与分析使用为前提。

从互联网诱导行为的具体类型来看,可以将其分为两种类型。第一类是直接根据信息内容对不特定多数人进行无差别诱导。此类诱导行为不是根据被诱导对象的使用习惯产生数据,而是根据互联网海量信息分析得出数据。譬如,在搜索引擎中由网页主动呈现的热点信息或所谓“热搜榜”,其内容用户可能并未检索过,而是其他用户检索较多或互联网业者根据计算分析认为此类信息内容更容易被关注。第二类是基于用户的使用习惯,对特定用户进行针对性诱导。此类诱导行为以掌握用户的互联网使用习惯为基础,有目的地多次或反复向特定用户推送与曾经浏览过的信息类似的内容。譬如,直播平台根据用户在日常使用中生成的喜好,向其推送近似或相关的周边直播内容。但是,无论是哪种诱导类型,均是以数据和算法为基础。不论何种数据来源,都是互联网用户和业者相互作用的产物,任何一方都不可能单独产生数据。数据一旦生成,便从用户与业者的双方行为转化为由业者实际掌握并使用的单方行为。

数据在使用中,根据对算法的人为操控程度,又会发生两种现象。一种是“数据失灵”现象,即基于数据中立的立场,对算法不进行任何修正,完全由算法根据数据“客观地”计算得出信息,又或客观计算得出信息后,不对内容进行任何筛选便推送给用户。此种现象的风险在于,如果原始数据的质量不高,譬如作为数据源的用户喜好浏览包含不良内容的网页,此时根据计算认为这类信息更易于增加点击量,便向其他用户推送。另一种是“数据操控”现象,即互联网业者在获得数据并经过计算,人为将结果进行修改,又或是在计算过程中直接对算法进行操控以达成特定结果。由此可见,数据风险经由算法而产生,形成互联网诱导行为的负外部性效应。

(二)算法的公共性:数据和互联网诱导行为的公共属性

互联网诱导行为所导致的负外部性问题是一个公共议题,对互联网业者的规制不能仅仅指望其自身的内部规制或整个产业的自发规制。而外部规制的着力点,看似是在规制互联网业者,其实质是规制互联网业者所应用的算法。基于此,算法本身不再是一个私人领域的单纯技术问题,而是一个法律议题。

首先,互联网诱导行为的本质是公共产品的供给。以文化产品为例,业者借由互联网平台向用户推送信息内容并诱导点击,其本质是在互联网社会中提供文化公共服务。虽然业者本身的供给(诱导)行为并不是出于公益的目的,但是在此过程中,互联网业者与用户本身并不是一种有偿的具有商业服务性质的文化产品购买关系。在多数情况下,用户接受了互联网业者的诱导之后,并不需要付费,而是直接阅读、视听其提供的内容。换言之,互联网业者的经济利益不借由用户的使用而直接产生。目前的互联网生态中,多数业者旨在打造公共平台,信息内容并非由其直接提供,而是通过平台对海量信息的梳理,再向用户进行二次供给。由此,互联网诱导行为无疑是一个在公共场域的行为,算法由于在其中具有举足轻重的作用因而由此进入公共领域。

其次,数据的生成过程使用户和互联网业者构成了网络社会的共同体。用户基于对互联网平台的使用而产生使用习惯,业者搜集、掌握并利用其数据,以数据为媒介,以互联网平台为依托,当用户达到一定数量时,便形成了一个互联网社会。以微博为例,微博设有社区管理中心,既向用户提供一些基本服务,也进行一些准司法性质的活动。社区管理中心设有举报大厅,受理对侵权行为或危害公共利益的行为的举报,并按照公开程序进行判定与裁决。判定过程需要利益关系人的举证,判定结果会进行公示,对裁决不服还能通过申诉程序救济。微博运营商在此过程中已经实质性地行使了公权力,这便是互联网社会中的社会公权力。有学者认为:“社会公权力是国家之外的社会组织以‘准公共产品’供给为目的,以社会利益实现为宗旨,对组织成员所产生的影响力与支配力。”[1](P87)这是对社会公权力的一种美好的期许,然而在实际的权力运行过程中,社会公权力可能走偏,互联网诱导行为的负外部性效应便是例证。

最后,数据本身具有公共性。“随着大数据技术的发展,各种涉及数据智能及其算法的场景成为主体生活实践的一部分。”[2](P100)具体而言,数据本质上是个人信息,当下在论述大数据与个人信息保护时,普遍是遵循隐私权保障的路径。对于个人信息是否具有财产属性,尚存在争议。但是,从市场实践看,个人信息的商业价值和作为交易客体存在的事实也充分证明了个人信息具有不可否定的财产性质,并且这种财产性质在市场中早就通过交易得到了事实上的认可。[3](P16)频繁出现的个人信息泄露与交易,在侵害了隐私权的同时,也证明了其作为虚拟财产或虚拟物的功能。在互联网诱导行为中业者所掌握的用户信息,是使用习惯与痕迹。诱导过程中并不存在转卖和泄露信息的问题,如果发生类似情形,则属于纯粹的侵犯个人隐私权,与互联网诱导行为的特性无关。互联网诱导行为利用个人信息进行分析的目的,在于反作用于该用户,或以此为基础推荐于其他用户,此过程本身不涉及信息交换。在网络社会公权力运行的情境下,作为公权力行使主体的业者通过算法掌握并运用数据,数据此时形同网络社会中的公物,而不再是用户与互联网业者之间的私主体关系。所谓公物,就传统行政行为而言,本指为了达致特定公共行政任务之目的,由行政法调整的受行政公权力支配的公用物。据此,在承认网络社会公权力的逻辑前提下,数据成为受网络社会公权力机关(互联网业者)所支配,并用以达成提供公共服务之特定目的之物,是为网络社会共同体中的公物。由于数据与互联网诱导行为具有公共属性,而算法是大数据与互联网诱导行为的关联点,因此其具有公共性就显得顺理成章。

(三)算法的公法风险:算法规制的根本原因

证明算法具有公共性的目的,在于研究通过公法对算法进行规制的必要性。唯有算法与公的属性产生联结,才便于在公法架构中进行规制。经由算法的联结,可以从两个方面审视其在互联网诱导行为中面临的公法风险。

第一,从权力视角来看,其负外部性效应实质上是种公法风险。就前述三类负外部性效应而言,首先,对良好社会风气的影响直指法律上公序良俗原则。公序良俗不仅是民法中的一项重要原则,同样也是行政法上不可忽视的重要价值。“很多国家和地区在行政程序法中规定违反善良风俗的行政行为无效,也是为了保障善意的优先实现。”[4](P98)可见,公共行政中行政行为亦不能突破公序良俗底线。在网络社会公权力运行的情境下,业者在互联网平台这个共同体中所行使的社会公权力,其初衷与行政机关公权力行使的初衷当属一致,即达成特定社会规范治理的目标。据此,业者在行使这项公权力的时候,理应比照行政机关公权力行使的标准,恪守公序良俗原则。而互联网诱导行为所导致的对良好社会风气的负面影响,显然是背离了公序良俗原则对公权力的约束。其次,从对社会主流价值观的冲击来看,我国宪法第24条对主流价值观作出明确规定,载明了国家提倡社会主义核心价值观,提倡爱祖国、爱人民、爱劳动、爱科学、爱社会主义的公德。互联网诱导行为造成的负面影响,显然不符合国家根本法的规范。最后,从对公共秩序的破坏来看,公共秩序主要是通过法律所构筑与保障的秩序。“法律秩序是法律调整下的人类社会的条理化状态,也是法律规范下的主体生活模式,它是任何人类社会法律所共同追求的目的。”[5](P381)互联网社会中的公共秩序也应是以法律规范的指引为基础而建构的法律秩序。

第二,从权利视角来看,互联网诱导行为侵犯了互联网用户的文化权利。所谓文化权利,是“为了满足公民个人的精神需求的一种精神性权利”[6](P21),同时也是“对自身的文化创造享有精神上和物质上的利益的权利”[7](P12)。用户在互联网平台所接受的资讯、浏览的信息、参与的各种论坛或视听活动,均属于文化领域。在接受互联网文化服务的过程中,用户不只产生视听上的直观感受,更加包含精神上的体会。因此,当前述负外部性效应发生时,事实上是未给用户提供优质的公共文化服务,损及互联网用户的文化权利。

二、修正算法中立:算法规制的法正当性

所谓算法中立,是一种理想状态,也就是任由算法技术自身运行发展,而不被任何人为修改控制。透过互联网诱导行为的负外部性效应说明纯粹的算法中立是不存在的,算法具有可规制性。算法风险的存在说明纯粹的算法中立并不能真正实现,但算法中立的价值追求又具有一定正面意义。因此,一种被修正的算法中立才是真正符合社会需要的原则。换言之,算法规制可以视为政府部门运用公权力修正算法中立风险的行为,其法正当性主要包含以下两个方面。

(一)坚持公益优先原则克服“算法独裁”

“算法独裁”的提出,反映了人们对人工智能技术不断发展所表现出的忧虑。所谓算法独裁,是指一部分掌握核心技术手段的人,利用其在技术上的优势干预甚至主宰社会的运转,以至于影响到法律中公平正义价值之实现。因为“这种技术超人作为人工智能时代的最有利者,几乎不会顾及被淘汰者的综合状况和心理反应”[8](P29)。在人工智能愈加发达的社会,掌握算法的人将控制主要社会资源,因其仅为少数人所掌握,因此当失去有效制约与监督时,算法掌控者的权力便可能失控。譬如,当政府掌握数据与算法时,“腐败的技术官僚与逐利的市场精英却容易同流合污,以‘数据独裁’为特征的市场独裁非常容易形成”[9](P63)。同理,在网络社会公权力运行的情境下,互联网业者已经实质掌握和利用了用户数据,并且通过算法进行大数据分析操控由其运营的虚拟社会(互联网平台)。在没有外力作用的情况下,仅仅依靠平台用户的力量,几乎无法对业者形成制约。譬如,当政府有关部门未对一些直播平台进行执法时,各平台为了抢占市场,要么对用户发布的视听内容完全不予监管,要么就是直接由平台提供一些吸睛的内容。此时,业者利用其数据和算法上的优势,已经在其平台范围内形成了算法独裁。

为了因应算法独裁的后果,有关部门已经采取行动,对一些互联网企业进行约谈或关停。政府的行政行为,无疑应当基于公益优先的立场。那么,到底何为公益则是一个需要进行判断的问题。一方面,“公益是一个不确定的法律概念,法律上之用语,相类似的有公共利益,意指最大多数人最高标准之利益而言”[10](P88)。每个人都有对美好生活的向往,在互联网社会亦不例外。用户借由互联网平台想要享有的,于大多数人而言是正向的符合社会普遍道德标准与谨守法律最低限度标准的服务。互联网诱导行为造成的负外部性效应显然不属于“美好生活”的范畴,也不符合大多数人的利益。另一方面,公共利益的判断以公共性为前提,“正义、公正、福利的概念,既是公共性本身,又是公共性的实体性内容,也是公共的理念在具体情况下得以展开的核心问题”[11](P169)。互联网平台、大数据、算法等,均具有公共性,由此产生的是社会问题而不仅是个体问题。于互联网诱导行为而言,在多数人渴望获得更优质服务的情形下,业者为了利益而迎合少数用户的负向需求,又或是借由算法独裁地位,探底每个人内心的阴暗面,这显然是对大多数用户的不公平与不正义。因此,针对互联网诱导行为,政府有关部门采取必要的措施进行干预,具有法律上的正当性。

(二)履行文化引导义务修正“纯粹算法中立”

如果说“算法独裁”是个从字面上看具有负面含义的词汇,那么“算法中立”则是个看起来要正面得多的词汇。因此,“算法中立”的观念看似顺应人工智能技术之发展趋势,相较于需要借助人的技术而言更具进步意义。然而,纯粹的“算法中立”并非在所有情况下都是正面的。算法应用的基础是对数据的占有,而数据本身存在优劣之分。互联网诱导行为的负外部性效应有相当部分的成因,便是数据本身的劣质。此时,“算法中立”并不具有正面意义,且为互联网诱导行为推波助澜。我们必须明确:“‘算法中立’的本意是为保护技术发展以促进行业进步,目的是平衡产业发展与权利保护之间的冲突,但如将‘算法中立’之名作为侵权行为的挡箭牌,则背离了行业规则与司法原则的本意。”[12]事实上,算法也好,数据也罢,一旦进入公共领域便不再是纯粹的技术问题,其必然与价值发生关联。因此,“规制算法是对人主体地位的强化”[13](P146)。尤其是就互联网诱导而言,由于诱导的内容本身具有某种倾向的观念,受到特定价值的指引,其效果与公共文化秩序联系紧密。因此,对“算法中立”问题,也必然需要通过一定的价值观和价值标准进行规范与修正。

政府部门对算法进行规制,可以视为有权主体履行文化引导的国家义务,透过宪法所确认的文化价值观对互联网诱导行为进行行政规制。所谓文化引导的国家义务,是指根据宪法的规定,国家具有保障公民基本文化权利、提供基本公共文化服务和实现全社会文化发展目标的义务。我国是社会主义国家,国家的文化引导义务是我国宪法的特征之一。譬如,我国宪法在序言第一段中对传统优秀文化和革命文化进行了宣誓。又如宪法第24条确认了我国文化的社会主义方向。从这些宪法内容来看,可以发现我国对文化的态度不是中立的,而是存在着一种经由宪法确认的以价值引领为目标的国家义务,即国家必须确保我国文化的发展与文化领域的各种活动都符合社会主义的价值与发展方向。面对互联网诱导行为,政府部门有义务采取必要的规制手段,促使互联网业者回到正确的、符合主流文化价值认知的轨道上。

三、规制再造:算法规制的多元主体与法律限度

尽管对算法进行规制具有现实的必要性和法律上的正当性,但是也不得不承认,目前政府有关部门主导的规制路径是一种传统的命令控制型规制,具有一定的局限性。面对人工智能技术快速发展、互联网社会变化与转型迅猛的新兴规制领域,传统的命令控制型规制的效果存在疑虑。因此,我们需要找寻一种新的更加有效并且充分保障被规制者权益的规制路径。

(一)传统命令控制型规制关涉算法的权利保障之虞

传统的命令控制型规制是由政府有关部门单方主动做出的行政行为,如果采取约谈互联网业者的方式,则属于“违法预警型”的行政事实行为[14](P104),其目的是对潜在的可能发生的或业已发生但情节较轻微,尚不对公共利益造成严重负面影响的行为进行提醒与劝诫,行政公权力行使的强度相对较弱,对行政相对人不产生实体性的权利作用。而如果是采取诸如关停、罚款等行政处罚,对作为行政相对人的互联网业者产生实体权利影响,可能产生权利保障疑虑。

一方面,算法规制应当保持谦抑、防止恣意。所谓规制活动保持谦抑,主要是就行政权的行使而言。“行政权谦抑性是指行政法应秉持谦虚、收敛的立场,在可以采取其他社会管理的手段才是理想时,行政权应让位;或者在行政法最小、必要合理的维度内有强度、力度更弱或更柔的手段可以实现目的时,选择之。”[15](P90)人工智能技术手段具有较强的专业性,行政机关作为规制者,其成员未必来自于行业一线或具备较强的专业技术知识。在此情况下,对互联网领域的公共事务,以政府引导和行业自治的方式达到规制目标是更加适宜的策略;过于主动的强行政干预,会被视为行政权的不正当扩张,违反行政法上的禁止恣意原则。根据算法规制的特质,数据与算法一方面关涉业者在技术领域的知识产权。在算法规制中,行政机关只能对算法所导致的计算结果之应用进行规范,而不适宜借由规制行为直接掌握由业者所享有的算法技术,从而侵犯到业者的合法权益。此外,算法得以应用的基础之一是数据,数据是对用户个人信息的记录,其由业者获得可以视为用户的一种自愿,但这种自愿并不及于行政机关。政府有关部门在进行规制活动时非经法律允许不能获取用户的个人信息从而侵犯隐私。

另一方面,算法规制需要注意公正、衡平利益。算法规制的初衷应当是促进互联网社会充分实现公益和维持互联网产业的积极健康发展,因此,在进行算法规制时,至少有以下三方面的利益需要被关注。第一是衡平业者与用户之间的利益。如上文所举的不正当获取用户个人信息的问题。第二是衡平具有竞争关系之业者利益。譬如,面对同类型的互联网诱导行为,规制应当公平公正,不能针对性地处罚或轻纵包庇特定业者。第三是衡平公益与互联网产业的关系。公共秩序属于公益范畴,而互联网产业的发展也可以促进公益的实现,不能因为互联网诱导行为具有的负外部性而对相关产业过度管控,从而压制业者积极性。譬如,学者指出法院在审理与插件相关的不正当竞争案时,“反映出法院对平台利益的过度保护,忽视了插件软件的公益属性,也失去了平台价格监管的可行的替代方案”[16](P93)。

其实,在数据规制中同样需要厘清何为公益,因为公益是公正与利益衡平时必须考量的因素,也是规制之所以作出的主要理由。而事实上,由于公益的模糊性,使得行政机关的干预行为也会变得随机与不确定,从而损及业者和用户基于期待可能性而产生的利益。

(二)元规制理论下的自我规制与国家担保责任

“命令控制观念,指出政府决定会排除市场活动,政府机构只有十分有限的知识与能力,去通过规则直接控制他人行为,并且法律与政治体系中的沟通能力,会限制其直接干预经济社会生活的能力。”[17](P207)这促使我们思考如何“鼓励行政机关采取成本更少、限制更少的方法进行规制”[18](P513)。换言之,即“针对网络市场的独特问题为其量身定制全新的规制体制和规制手段”[19](P83)。随着规制理论的不断发展,元规制理论被越来越多的学者所关注与提倡。所谓元规制,其并没有一个统一的标准界定。根据权威的《牛津规制手册》,我们可以将其理解为:“外部规制者有意促使规制对象本身针对公共问题,作出内部式的、自我规制性质的回应,而不包括外部规制者的无意而为”[20](P150)。那么,结合算法规制与互联网诱导行为规制来看,可以从以下两个向度进行考察。

规制过程的反身性。所谓反身性,简言之就是规制者与规制对象应当是互动的,而非传统单方的,二者甚至可以是互相影响互相决定的。如果按照元规制的策略,在互联网诱导行为规制中,规制的体系将从原有的单向度变为多向度规制,规制主体也从单一主体变为多元主体。第一种规制关系和传统的命令控制型规制一样:政府部门充当规制者,业者是被规制者。而区别在于,政府部门不再在第一时间直接以行政命令的方式要求业者为或不为某类型行为,而是为其设定一个治理底线或目标,由业者或由其组成的行业协会根据政府的治理底线与目标,在不突破法律的前提下,自行设计和决定规制形式与内容。这个由被规制者主导的过程,称为自我规制,即“规制对象对自身施加命令和结果的规制”[20](P150)。第二种规制关系,是业者或同业协会的自我规制。基于社会公权力的行使,其从第一种规制关系中的被规制者变为了自我规制中的规制者。由于业者是数据的掌握者和算法的应用者,在政府的公共治理目标的指引下,其更加知道何种规制方法或策略更容易结合大数据与算法的客观实际。特别是业者作为一种非政府组织,其没有政府部门科层制在效率上的困扰,至少在理论假设上更容易避免权力的傲慢与偏见。

反身性的另一方面,是为了避免被规制者利用自我规制及其在专业上的优势,而导致政府规制能力的减弱,政府部门更需要提高的不是强规制的手段而是如何运用规制的学习能力。因为,“规制体系中各主体不仅需要了解其他主体的行为,也需要明白自身应当做什么”[17](P215),这一点对政府部门尤其重要。“反身程度更高的治理形式能够提供一些机制,通过允许不同主体表达各自观点、偏好与立场,来解决那些冲突较多的问题”[17](P212-213),而作为树立规制目标和最终承担保障作用的政府部门,更加需要通过加强学习能力,使其在被规制者面前不至于成为“外行”,或者避免其作出不正确不适当的规制行为,从而陷入恣意规制的窠臼。因此,元规制的策略在理论上是一种更为有绩效的治理方式。“当规制者缺少必要资源或信息,无法设计合理的规则来限制规制对象的裁量权时,自我规制与元规制能解决特定问题;当规制问题过于复杂,或某个行业存在异质性,或处于动态演进之中时,更适合去选用自我规制与元规制。”[20](P169)

规制结果的担保性。此处所论之担保,就是国家担保责任。规制中的反身性固然重要,但反身治理与规制学习的根本目的,仍然是提高政府部门的规制能力。换言之,即便是在元规制的策略中,政府的功能不是全然弱化的,其至少应当起到兜底的作用。以互联网诱导行为的规制为例,如果业者的自我规制发生了偏差,达不到预期的效果,类似的诱导行为仍然持续发生,则视为自我规制无效,政府部门还是应当采取必要的手段维护互联网社会的公共秩序,保障公共利益。

(三)以算法规制算法:公共利益的计算与规制的法律限度

公共利益是算法规制得以进行的正当性基础之一,“任何一个公共利益的概念都必定会和社会的主导价值搅在一起,但它不一定非要反映这些价值才能够变得有用”[21](P32)。即便透过一定的由宪法确认的价值作为指引,也只是一种方向性的宏观指引。由于公共利益在利益内容和受益对象上的不确定性[22](P229-235),使其一旦涉及具体的规制个案,很难据此为量化标准进行衡量。在元规制的策略中,具有反身性的规制学习可以为我们提供另外一种思路,来审视公共利益的判断问题。根据这种反身性,在算法规制中,数据与算法是互联网业者的优势,但是基于规制学习的能力,政府部门同样可以学习并掌握这样的方法。

事实上,政府部门透过数据的应用实现社会治理的目标,早已有先例。美国交通安全管理局就通过建立收集网络进行交通数据收集,在保证数据质量的基础上进行数据分析,确定存在的问题,研究新的政策,评估政策绩效,最后进行数据发布并接受社会监督。在数据发布之后,也鼓励民间介入,推动政策的复制并调动政策竞争。[23](P71)同样的规制思路我们也可以应用于互联网诱导行为的算法规制。互联网社会呈现复杂状态,而“多样化的诉求和群体基础的问题看来会给有效规制设定严重障碍”[21](P230)。面对错综复杂的利益关系,公共利益的判断势必引入算法,通过算法计算出既不突破法律底线,又符合多数社会成员期待的公共利益,是一种规制学习的体现。

以互联网诱导行为为例,至少有两个方面的内容是可供政府部门进行数据搜集的。一是业者所意欲诱导的不良信息的各平台种类及其传播覆盖面。不同的平台类型,如微博、微信公众号、手机APP等,在用户范围、年龄层次、使用习惯等方面可能存在差异,政府部门可以借由一定的观测方法进行数据收集。二是用户对不良信息的感知程度。不同类型的平台用户,对不同类型的不良信息,其好恶可能存在偏差,什么样的内容最为用户所厌恶,或最容易被用户继续二次传播,可以通过观察而生成数据。在此基础上,政府部门可以根据特定的算法来计算,何种不良信息传播速度更快、覆盖面更广、影响层次更深。通过算法的应用,可以提供给政府部门一种根据不同规制对象而作出相应规制行为的参考依据。进而判断,何种互联网诱导形态适合先由互联网业者或同业协会基于自我规制的策略,先行进行必要的约束,预防负外部性效应的风险或消除业已产生的负外部性效应;或何种诱导形态是一般性的自我规制难以及时抵御与消除负外部性效应的。此时则需要政府部门基于担保义务,及时指导自我规制主体再进行更加深层次的规制活动,或者直接由政府部门执行规制,以达到规制目标。

但是,即便是元规制策略具有上述优势,其归根结底作为一种行政活动,仍然是应当受到法律的拘束的,不能突破依法行政之原则。就算法规制而言,还是应当以回应型法的路径来规范算法规制的法律限度问题。那么,以下几个问题需要通过法律的形式加以厘清。一是数据收集的法定原则。由于数据在本质上是一种个人信息,政府对个人信息的获取在法律架构内的理解应当是个人向政府让渡部分权利,所以信息获取必须基于法律的授权。二是算法应用的公开原则。政府作为公权力主体,在收集数据之后,其具体的算法关系到计算的结果,而计算的结果又直接影响到政府规制政策,政府规制政策的贯彻会影响行政相对人的实体权利。既然数据和算法本身都具有公共性,那么应当有法律规定政府在应用时必须依法公开,以体现决策的透明度和行政公开的行政法原则。当然,这种公开在坚持法定的同时,也以不泄露或侵犯数据源之私人主体的隐私为前提。三是数据的收集同样根据公开原则,应依法公开进行而非秘密活动。在此,法律需要明确的是政府获取数据的方法、手段、程序等法律限度问题,特别是数据的获得可能会涉及业者或用户的配合问题,此时能否通过法律为其设定义务,需要审慎考量。四是相关立法建议采用促进型立法的方式。因为元规制的策略之所以区别于传统的命令控制型规制,便在于政府部门与规制对象之间是互动的而非单向的,立法应当鼓励政府部门采取必要且适当的方式实现规制目标,譬如引导业者或同业协会采取自我规制或者鼓励合作行政治理。政府部门与规制对象既然是互动的,那么合作行政就更能描述这种关系。有学者提出 “应强化商业搜索引擎和政府数据开放平台的合作”[24](P45),这是一种有益的探索思路。五是法律应当明确政府部门兜底的担保义务。达成算法规制的目标是“刚柔并济”的,规制过程可以是柔性的,但是为了保障公共利益和规制目标的实现,其规制手段的刚性须由法律明确授予。

四、结 语

互联网诱导行为诞生于市场经营活动,是市场失灵的产物,人工智能的技术发展进一步放大了其负外部性。对互联网诱导行为的规制而言,其负面效应直指社会公共利益,传统强监管可能出现规制失灵,需要一种更加具有绩效的规制方式来克服这种失灵。在国家恪尽担保义务责任的前提下,元规制理论提供了一种自我规制的规制改善路径,并借由对算法技术的应用,厘清该规制活动的法律限度,有助于在对互联网诱导行为进行规制的同时,保障相对人的权利,达成规制目标。当然,互联网诱导行为还涉及公共安全、个人隐私、知识产权保护等多领域,因此规制难度也呈现增长态势。相应的正当行政程序完善,算法在行政规制中的应用等问题需要进一步探究。

猜你喜欢
业者规制诱导
齐次核诱导的p进制积分算子及其应用
主动退市规制的德国经验与启示
同角三角函数关系及诱导公式
论我国民间借贷法律规制的发展和完善——从抑制性规制到激励性规制
保护与规制:关于文学的刑法
续断水提液诱导HeLa细胞的凋亡
大型诱导标在隧道夜间照明中的应用
哭嫂
内容规制
美国:加州食品卫生法施行遭批业者称不适用于中餐