智能互联网时代的深度法律变革,是一个没有预设蓝图和结果的探索过程,但这并不表明它混沌无序;相反,它呈现了从工业社会迈向信息社会的制度转型升级的趋向。
其一,数据的公平占有与合理使用。实践中,主要是商家和政府在运用数据挖掘技术来实施对原始数据的抓取、整理、分类、匹配和赋值,并据此为客户设计和提供相应的产品与服务,或者建立起规范新技术的社会管理模式。此时,就会形成基于数据资源的利益关系和社会关系。“如果要避免价值和权力落到少数人手中,我们就必须设法平衡数字平台(包括行业平台)的效益与风险,确保其开放性,并为协作式创新提供机会。”因此,在数据原生者、衍生者、交易者、使用者等角色之间,谁是这些数据权利的主体、数据权利义务如何分配、如何公平占有数据和抑制数据垄断、如何合理使用数据、数据权利和个人隐私受到侵犯时如何进行救济等,都是必须回答的时代课题。
其二,数据阐释的价值判断。大数据分析离不开分析者的技术取舍(如数据清理、数据集成、数据变换、数据归约)、数据赋值和数据阐释,而“数据阐释并不是理性的,这不能测量,也没有是非对错的终极判断。阐释永远是主观的,是依赖直觉的,而且也与周边环境紧密相关。同样的数据在不同的环境内容中可以有截然不同的意义,这些意义并非数据所固有,而是人们在特定环境中分析数据并将意义赋予了数据”。受此影响,面对相同的数据材料常常形成不同的算法,并得出对问题的不同解释和不同的行动方案。这样,数据阐释就不再是一个技术问题,而是内含着一定的价值判断,潜藏着不同的利益诉求和权利主张,需要构建相应的数据正义观予以指引。
首先,代码规制的正当性与合理性。在互联网创生之初,网络自由主义者曾宣称要拒绝国王、总统和投票,他们只坚信基本的共识和运行的代码。但事实上,网络空间从来都不是没有规矩的“自然状态”。其中,在知识产权、隐私和言论自由等方面,制定标准和编写代码就是一种新型的规制形式和控制力量。这就要求代码必须有一定程度的开放与透明,以至于“开源代码的斗争不亚于争取民主的斗争,不亚于反对国家权力可能被滥用的斗争”,它已成为“开放社会的基础”,从而使代码规制能够保持必要的正当性与合理性。
其次,代码编写的价值偏好。从技术上看,程序员按照设定任务(应用)来编写源代码(源程序),并经由编译程序转换为目标代码或可执行代码,进而指挥计算机的每一个动作以解决某个算术或逻辑问题。因此,在代码编写中就必然会带有程序员(或雇主)的思想理念,在这里并没有中间立场。代码编写的背后,是代码所圈定的商业利益和政府管理模式,而广大客户或服务对象则处于话语权缺失状态和弱势地位,在商业建模面前只有选择“用”或“不用”的权利,这无疑都会或隐或显地制造和加剧社会等差与不公平。因此,抑制代码编写的价值偏好就成为实现代码正义的必然要求。
再次,对“恶意代码”的控制。在商业利益和不良动机的诱惑下,仍存在着大量的内核套件、流氓软件、勒索软件、间谍软件、病毒软件等“恶意代码”程序,严重破坏了互联网秩序并侵犯了用户的合法权益。据此,必须开发新的恶意代码分析、控制技术,并扼制恶意代码编写者的技术回应,从而控制“恶意代码”软件的泛滥,维护代码正义和网络秩序。
一是算法偏见或歧视。大数据、人工智能的广泛应用,促使一些制造商和商业平台通过运用数据挖掘和算法,来对用户进行“量身解读”和行为模式归纳,从而做出有针对性的“私人定制”和提供个性化服务,并承诺算法的客观性、精准性、可靠性。这样,用户就把决策权交给了商业算法。然而,美国一些警务实践表明,算法设计者对犯罪威胁或风险预测、违规自动监控等的相关性赋值与权衡带有偏见乃至错误。在我国,同样存在着“数据杀熟”、算法偏见或歧视的问题。由于商家有选择的、利益至上的营销方案,这种算法偏见会在事实上形成一个“鄙视链”,严重侵蚀了社会公平和正义。
二是算法黑箱。“互联网+”、大数据和人工智能的加速融合发展,使“人类正在进入一切皆可计算的时代”。事实上,商家以算法为销售工具的趋向已经势不可挡,各种建模和算法很可能已经巧妙地“将你的生活转化成他人的商机”。在公共政策或公共服务自动化中的算法设计中,“程序员们被赋予了过多的决策权,而且不受到任何审查”,不仅算法黑箱和错误不可避免,甚至还可能出现失控的“算法自主”现象。这样,就需要努力推进算法的透明性、公开性和建立算法审计机制,让“那些对结果抱有怀疑的人可以掀开‘引擎盖子’看个究竟”,而如何通过算法审计机制,来让算法遵循“善法”,就成为维护算法正义的重要方面。
在智能互联网社会,互联网平台、数据公司等新兴商业组织塑造着全新的经济业态、商业模式和交易规则,成为日益重要的新型法律关系主体,它具有此前法律关系主体所不可想象的“准立法权”“准行政权”和“准司法权”。淘宝、京东、腾讯等每年都会处理数十万件纠纷。更为重要的是,人工智能技术的飞速进步,开启了人机共处的新时代,从而不断冲击我们赖以建立传统世界的那些确定性。由此,智能机器人是不是“人”的问题就日显突出。
在全球信息化的秩序转型中,电子技术把所有交易模式都融入到一个巨大的系统之中,数据、代码、算法、炒信平台侵犯的法益、虚拟财产等新的法律客体以及财产类型不断出现。这使得学界曾经公认的“凡是人以外的不具有精神、意识的生物归属于物,是为权利的客体。主客体之间这种不可逾越的鸿沟”现在发生动摇。传统法律关系主体、客体范畴的定义、内涵、外延、法律属性等均遭受着重大的冲击和挑战。
一是新型权利大量出现,突破了既有的权利义务范畴所能界定与证明的范围。这些新型权利义务(权责)关系,尤其是区块链、比特币、自动驾驶等的数字化、智能化发展,难以在既有理论和制度的框架内得到证明和实践。以自动驾驶造成的交通事故为例,它会涉及汽车制造商、软件开发商、程序员、汽车所有者、交通事故当事人,“可能的肇事者链变得越来越长,而且很难再被一一辨析清楚。此外,软件由成百上千名程序员编写,无时无刻不在更新”,其结果很可能是“所有人都会被控告”却“最后无人担责”。而智能系统面对危急时的复杂路况——当交通肇事无可避免时,是优先保护妇女儿童还是老人、车内乘客还是路人、少数人还是多人?倘若要将人类伦理转换成智能系统的决策程序和算法,其所涉及的权利义务(权责)关系将更是传统理论及其制度实践所无法回答和解决的,理论和制度的创新迫在眉睫。
二是传统权利义务关系因嵌入数字化、智能化要素而发生了根本性改变。智能互联网使得数据、代码、算法和建模嵌入了社会关系和社会生活之中,导致“一方面权利被扩大,另一方面权利被削弱”。区块链应用领域中的智能合约,带来了透明、安全、高效、去中心化的信任共识机制,但“危险在于没有人能确保该算法设计准确,尤其是当它与众多算法交互时”,人们只能接受算法的决策和承担相应的后果。这些并不是简单的新生事物利弊问题,其深层正是传统权利义务属性的改变、放大和限缩,展现着“被赋权和剥夺权利”两者间相互作用的趋势。
三是权利义务分配及其实现方式不断被解构和重构。首先,法权观念的更新与重构。移动互联网使人们迎来一个“无分享不生活”的时代,“过去既求所有又求所用的消费观念,变成了不求所有但求所用”。随着发展方式从独享经济迈向分享经济,那些关注财产的实体性、当下性,强调占有、控制与积累的传统法权观念受到重大冲击,而注重信息财产的虚拟性、衍生性和未来性,强调分享、利用与流通的全新法权观念则悄然兴起。近年来迅速崛起的短租平台、分时度假等新业态、新模式,塑造着共享模式的权利义务关系和实现方式,传统法律制度对此难以有效处理,法律制度和社会秩序的顺应变革就成为必然。
其次,法权界定的难题日益增多。任何时代的法律,都会遭遇到新社会关系中的法权界定难题,但它是少量的、偶发的。而当今的普惠金融P2P模式、众筹模式、网络名誉侵权乃至一些互联网犯罪等,则是批量的、经常性出现的。它们所带来的新的交易形式、利益关系、责任归属和救济方式等问题,都难以再沿用以往的权利义务关系理论和制度安排,其法益性质与范围也难以厘清,这些法权界定的难题都需要理论和制度上的创新来解决。
再次,通过软件植入实现了对既有权利义务关系的即时改写。网约车、抢票软件的兴起,其实质是凭借数字化、智能化技术实现了在现有制度中的“植入”。这些“植入”,一方面,通过“创造性破坏”提供了社会进步的便捷与福利;另一方面,也直接“改写”了既有出租车管理制度、购票制度中的相关权利义务关系。这些都使得既有权利义务的分配格局被打破,权利义务的实现方式也被更改,制度规范的效力就难免出现危机,迫使政府不得不进行回应和变革。
其一,私权利与公权力的同步增长。网络空间带来了空前的自由空间和自我赋权,但各国都在凭借技术手段来规制互联网,并导致“监控国家的诞生”。因此,尽管互联网带来的好处是如此惊人,但“在20世纪的所有发明中,它是对个人生活侵犯得最厉害的”,自由与控制、私权利与公权利是双向运动的。
其二,私权利扁平化与私权力崛起相交织。在智能互联网时代,一方面,“集中化的时代已经过去,现在的世界充满了更多的商机,以及更加分散的事物”,呈现分布式、多中心、人性化的分享发展趋势,消费大众及其权利日益碎片化、扁平化;另一方面,平台经济成为当今社会的主导形态,这些商业平台基于自身利益和运营需要,制定了各种交易程序、交易规则和纠纷解决机制,而这些程序和规则呈现在消费者面前的,主要是概括性同意与否而不是菜单式选择。于是,平台就具有了自身运营的管理权和政府转加的公法审查权,形成了日益庞大的、具有某种公权特征的私权力。而“所谓的平台效应也在加剧利益和价值向少部分人手中集中”。
其三,公权力、私权力与私权利之间的复杂博弈。社会权力的崛起改变了传统的国家与社会的二元对立框架,形成了智能互联网时代的公权力—私权力—私权利三元博弈新格局,这就改变了以往国家与社会、权力与权利的关系结构与系统功能。“一种形式的权力或许被摧毁了,但另一种正在取代它”,这意味着迈向多元治理的结构性转向,会引发法律关系的深刻变革。
其一,法律行为后果上的重大差异。在千百年来的现实空间中,人们的法律行为主要发生在可接触、可知情、可理解的人与人、人与物之间;而如今,网络虚拟空间则是具有扁平性、匿名性、分布性、流动性的无限场域,是“一个与现实世界有些相似的世界,是一个既存在于现实世界,又存在于现实世界之外的无法界定的地方”。这样,法律行为的社会影响就会被无限量放大,甚至会发生实质性改变。同一法律行为在虚实不同空间中的不同行为后果,是因为行为的表现形态和社会影响程度发生了根本改变。
其二,法律行为的动机、目的和因果关系复杂难辨。由于网络虚拟空间具有扁平化、自由化、匿名化等特殊属性,发生其中的法律行为的动机、目的和因果关系呈现出快速流变性、深度隐蔽性和边界模糊性,对很多法律行为都难以套用传统理论和司法实践经验来应对。其中电子化、信息化、数据化且虚实交错的意思表示、行为表现、证据链条和因果关系就显得十分复杂。
其三,社会行动方式上的深刻改变。“网络空间不是一个同质的场所,在各种不同网址上发现的群体和活动都是独具特征的,因而每一区域都会发展一套独特的规则。”相应地,价值观念和行为方式也出现了巨大分化,社会交往更加自由、便捷和展现个性,使得特定的人群不再一致,一致的人群不再特定,这就使得集体行动的成本大幅降低,而动员能力却急剧提升,促进了互联网运动和亚文化的扩展与繁荣。因此,互联网一定程度地从技术上突破了代议民主的限制条件,使直接行动、直接参与、直接民主成为可欲的目标,但网络民粹主义和多数人的暴政相互助长也成为了它的副产品,甚至还会扭曲民主的精神实质和现实途径。
首先是意思衔接。自工业时代以来,人们就一直跟机器打交道,包括自动化的机器。然而,智能机器人与以往机器的根本不同在于,它们被赋予了人工智能(算法),在人类的设计规划下接替人类的一些工作。于是,人类的研判和决策就通过智能机器人得到了广泛延伸。此时,算法黑箱、算法自主、智能机器人的深度学习等问题,就使得一些法律上的意思表示出现了人机衔接问题,机器人自主学习则是人类智慧的技术延伸,它“破坏了机械和有机之间的界限”,会出现连程序员都无法理解的高度不确定性和难以控制性。这种“不按套路出牌”的自主学习,已远超行为人可以理解和预知的范围,会给法律行为的认定带来重大挑战。
其次是行为协同。随着智能互联网的深度发展,“计算机系统从一种工具变成了代理人”,甚至在劳动力与服务业等很多方面都已经取代了人类。“既然认识到计算机已经取代了那些本该具有道德约束的人类服务人员,再去避免谈及对计算机系统类似的道德约束就显得不合适了。”之所以如此,很大程度上是因为人机共处背景下的行为混同。人机配合、协同和传递的问题,在理论和实践上对法律行为理论和制度提出了挑战。
再次是后果混同。“随着机器在普通人的生活和工作中的普及,通过机器使行为和责任脱钩日益成为普遍现象。越来越多的人将失败的责任转嫁到机器身上。”在利用智能机器人的医疗事故、自动驾驶的交通事故、智能交易的重大失误、无人机误判恐怖分子错杀平民等问题上,“谁来为机器的行为负责”,是技术故障、操作不当、还是设计缺陷?遗憾的是,“我们都知道一个产品可以追踪属于哪个厂家,但程序是不一定的,有可能是由众多的人共同开发的,程序的产生可能无法追踪到某个具体的个人或组织”。这样,人机共处和协同所产生的后果问题就陷入了困境,人机混合必然要求进行相应的理论创新和制度重构。