薛林蔚 王 哲 高亚男
(温州大学,浙江 温州32500)
在人工智能时代,会出现人格权保护风险,知识产权保护风险,数据财产保护风险和侵权责任风险。[1]政府合同治理中,会存在以下五个风险:一是逆向选择,二是道德风险,三是寻租风险,四是责任风险,五是政治风险。[2]人工智能一般分为三个阶段,弱人工智能,强人工智能和超人工智能。[3]在弱人工智能阶段,人工智能通过对信息的收集,来辅助帮助政府委托人进行决策,看政府合同签订到履行是否存在重大的风险,是否需要采取必要的措施。而到了强人工智能阶段,人工智能在不断深度学习后,可以模仿政府委托人的思维模式,对出现问题的政府合同作出决策,强人工智能不断发展,到了超人工智能,这时候人工智能不仅是作出决策,而且会创造一套比较好的方案去处理出现问题的政府合同。
目前,我们处在的阶段是在弱人工智能向强人工智能发展阶段,人工智能辅助监管为主,独立决策为辅的阶段。所以在这个阶段,人工智能还不能完全独立,所以不会出现人格权风险,即侵犯人工智能人格的风险。而在人工智能参与政府合同监管时,人工智能并不需要其创作作品,亦不会出现人工智能知识产权的风险。在人工智能运用于政府合同监管时,最有可能出现数据财产风险和侵权责任风险。在应对数据财产风险,政府需要对代理人和相对人进行评价,而且要对一些资金的信息予以公开,这可能会侵害到代理人和相对人的数据隐私。而在侵权责任风险中,应对政府合同的逆向选择风险、道德风险、寻租风险、责任风险和政治风险都会存在。因为在应对政府合同上述五种风险时,人工智能的介入,可能会造成代理人或相对人权益的侵害。这些原因可能是数据输入的不真实,或是人工智能本身设计时评价程序的缺陷。
具体而言,个人或组织在政府合同中充当的角色是代理或相对人。人工智能收集数据时,需要对代理人或相对人的各种信息进行汇总,代理人的各种信息大多是公开的,如人工智能将这些收集的数据不当泄露,并不会直接对代理人或相对人造成一定的影响,但在信息汇总后得出的结论可能是不利于代理人或相对人。就相当于人工智能对这些代理人或是相对人进行了负面评价,这些代理人或是相对人是相对较差的,这个评价对代理人或相对人日后参与其他的政府合同或是社会上的经济活动,是有较大的影响的。在政府层面,人工智能所做的是收集数据信息,帮助政府进行决策和监管。如果这些信息一旦泄露,例如在应对道德风险中,公民发现政府不能按约履行政府合同;在寻租风险中,公民发现政府官员有腐败现象;在应对责任风险中,公民发现政府选择的相对人在履行政府合同出了问题,政府监管不力;在应对政治风险中,公民发现政府在了解民意后未遵循民意,这就可能使得公民对政府整体评价为没有信用的政府,或是不值得信任的政府。这就会造成政府的信任危机。
政府合同以及人工智能合同监管工作之所以会存在多重风险,政府方面的信息不对等与公开不全面是一大原因。加强政府信息公开,将权力的行使过程置于阳光之下,不仅是政府自我约束确立的一种制度安排,而且是公民可以参与的监督行政权力的一种方式。[4]在目前的弱人工智能阶段,人工智能还仅仅只能够通过算法来归纳学习合同监管方式,无论是算法的正当性还是输出结果的正确性,事实上还是由政府工作人员来决定。由于政府与人工智能开发者之间是平等的买卖合同关系,开发者对于政府具体如何使用人工智能来进行行政工作,输出结果是否得到正确实施都不知情,此时仍然需要合同相对人对行政合同监管工作提出质疑,启动对于人工智能工作的追溯程序并要求政府信息公开,从而让人工智能及其操作者得到有效监管。至于政府方面,自然应当提前做好信息公开工作,积极与开发者进行联系,将人工智能系统设计为可视化系统,帮助合同相对人理解人工智能的处理过程与结果,提升政府公信力。另外,由于政府合同涉及政府各个部门的不同职能,许多合同还存在职权交叉或联合的情况,因此政府进行信息公开工作时应当做到整合各部门共同参与的项目合同,将合同各个环节的行政主体整理分类记录,确保人工智能合同监管的透明度与权威性。
算法的本质是逻辑推理,监管系统输出的监管结果清晰明确,但其过程往往难以监督,监管人员向软件公司索要源代码进行分析既费时费力又缺乏相应理论知识,不具有可行性。因此应当督促软件公司相关人员尝试对监管软件的运行过程进行可视化尝试,在何环节通过何判断最终导向何结果,这个可视化不必以计算机语言的精确度为准,只要能够从自然语言的角度达到推理的合理性即可。人工智能系统在政府合同监管中必须以工作原理能够以较为通俗或直观的方式进行阐明为前提,否则在行政诉讼与行政监督阶段必然将遭受极大阻力,合同相对人也难以得到对于系统的有效预期,将会有损于政府公信力。当然,软件运行过程的可视化是一个相当具有难度的项目,也可能导致软件预算成本的大幅上升,这在政府的采购过程中是无法避开的现实难题,因此该项仅仅是作为一个可能的尝试,由监管单位与软件公司进行洽谈确定最终的方案。
目前的监管系统仅仅对应弱人工智能,对于输入的合同具备一定的联想与学习能力,但还不足以达到自我学习更新不需要外部帮助的地步,因此仍然需要软件公司长期跟进,随着法律法规的更新对系统进行维护,这有助于延长系统的使用寿命,也能够保证合同监管系统输出结果的正确性,并能帮助系统收获质量更高的分析样本数据库,最终通过不断收集分析数据使监管结论与意见更具有使用价值,因此是一个良性循环的过程。
要做好合同监管系统数据库的保护与备份工作。目前全国司法系统都在推进无纸化办公工程,无纸化能够提高工作效率,也能够实现节约环保,但必须警惕电子化办公可能带来的一些问题,例如数据泄露或者断电等原因导致的数据丢失。因此对于合同监管系统这类以政府合同为监管目标的系统,更要做好保密性与安全性工作,由政府部门牵头,软件公司承接,为系统设计一个较为妥善的保护方案,包括数据库的储存转移以及断电数据保护等方面。在目前纸质档案管理与无纸化办公更替的关口,采用纸质档案备份也是一种可以选择的较低成本妥协方案,并可以在技术更为成熟之后全部转为电子化管理。没有保护程序的数据相当于无根之木,是不能够承接监管这种具有高度保密性特点的工作的,因此必须做好相关工作,助力政府合同监管安全。此外对于被采集数据的公民来说,政府合同监管系统的安全性更加重要。公民的信息要做到及时处理,对于需要留存的信息做好保护工作,对于已经失去作用的信息要进行彻底销毁。
由于人工智能系统在中国目前尚处于初级阶段,相关开发者的经验稍显稚嫩,对于面向政府合同监管的系统开发工作经验更是少之又少,因此相关系统出现问题是有较大可能的。在人工智能系统作出错误分析或者结论,导致侵害政府合同相对人甚至公民的利益时如何进行侵权的追责工作是事实存在的难题。笔者认为在目前的弱人工智能阶段,人工智能仅仅作为分析工具存在,自身是不可能承担任何责任的。生产者担当人工智能产品的“启蒙”,理应适用严格责任。使用者与生产者不同,他们不介入人工智能系统的设计与生产过程,也完全不掌握算法、程序或指令,因而无必要对系统自身缺陷承担责任,仅需依据各自的注意义务范围,承担有限的过错责任。[5]但如果进入强人工智能时代后,人工智能就将获得承担责任的义务,此时政府的责任转变为对于雇员的侵权行为向受害人承担侵权责任,随后政府有权向人工智能进行追偿,而开发者作为人工智能的制造者其承担责任与否则取决于人工智能的侵权行为是否基于自身完全的独立意志还是受到开发者的影响而决定,开发者承担责任必须以人工智能受其影响为前提。
政府合同已是政府管理社会事务比较普遍的模式,其有着巨大的优势,能充分调动社会资源,参与到公共事务的管理和建设当中。在政府合同监管过程中,常见有五大风险:逆向选择风险、道德风险、寻租风险、责任风险、政治风险。而人工智能应用过程中,其本身也会出现风险,常见有四大风险:人格权风险,知识产权风险,数据财产风险和侵权责任风险。这就出现了交叉风险,鉴于目前处于弱人工智能阶段,所以最有可能是数据财产风险和侵权责任风险与政府合同常见五大交叉风险。为了应对这些出现的新的交叉风险,要做好信息公开。努力做到监管系统的处理程序可视化。监管系统需要定期进行维护升级。要做好合同监管系统数据库的保护与备份。要做好人工智能系统侵权时的追责。