我国司法人工智能建设的问题与应对

2018-05-28 05:26程凡卿
东方法学 2018年3期
关键词:司法机关工作者证据

程凡卿

内容摘要:随着人工智能技术的飞速发展,司法领域已经开始出现人工智能的身影。在国家人工智能发展战略的号召下,我国司法机关纷纷建立了各自的人工智能办案系统。时至今日,人工智能建设在我国司法中已初具成效,大大提高了办案质量和效率。然而,人工智能在为司法带来便利的同时也带来了新问题。例如,人工智能辅助定位与全面发展如何平衡?如何避免人工智能建设陷入“法定证据制度”误区?如何防范司法数据造假与智能算法的暗箱操作?等问题都有待解决。通过立法建立司法工作者终审原则与证据审核制度,配合科学合理的鉴真规则和统一现代化司法数据库保障人工智能建设的全面发展。同时,培养算法监督专员,规范算法制度,透明决策过程,明确人工智能工作失误归责制度,加强司法员工素质培养与考核监督,进一步规范人工智能的司法运用,确保人工智能从事司法工作的客观与公正。不断完善我国司法机关人工智能建设,为早日实现人工智能强国梦而服务。

关键词:司法人工智能算法人工智能办案系统司法数据库

人工智能(ArtificialIntelligence,AI),它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。〔1 〕在国外,人工智能系统不仅在医学、围棋领域取得了骄人的成果,更开始逐步进入司法领域从事司法工作。2015年,美国的ROSSIntelligence公司率先推出了人工智能律师ROSS,提供24小时网络在线法律咨询服务。2016年,英国伦敦大学学院、谢菲尔德大学和美国宾州大学的科学家组成研究小组开发了人工智能审判预测程序,已经实现了对审讯结果的预测,准确率达到79%。2017年7月,国务院发布《新一代人工智能发展规划》(以下简称《规划》)将发展人工智能建设提升至国家战略。我国司法机关也对此作出了积极回应。最高人民法院、最高人民检察院相继发文表示将加快人工智能在司法领域的建设。全国各级司法机关也陆续推出了自己的人工智能办案系统。例如北京市法院的“睿法官”、北京市检察院的“检立方”、上海市法院的“上海刑事案件智能辅助办案系统”、江苏省检察院的“案管机器人”等。在这些人工智能办案系统的协助下,司法工作的效率和质量大大提高。但是我们也应当意识到,人工智能为我国司法机关提供便利的同时,也带来了新的问题。例如,人工智能辅助定位与全面发展如何平衡?如何避免人工智能建设陷入“法定证据制度”误区?如何防范司法数据造假与智能算法的暗箱操作?人工智能工作失误责任如何承担?司法数据库是否符合人工智能建设需求?等等。这些新挑战都急需相应的完善措施予以应对。笔者将对此展开讨论。

一、我国司法机关人工智能建设面临的新问题

自国务院印发《规划》以来,我国司法机关人工智能的建设已经取得了阶段性的战略成果。人工智能办案系统已经实现了司法文书、电子卷宗自动生成,证据校验、审查判断自动提醒、类案智能检索等便利的功能。但是司法人工智能的建设依然要面对一些新的问题。

(一)人工智能辅助定位与全面发展如何平衡

人工智能在司法工作应当处于何种地位?扮演何种角色?我国理论界与实践界普遍认为,人工智能是司法工作者的重要辅助力量,但不能完全取代司法工作者。司法机关如果让人工智能超出辅助性手段的范畴而全面应用于审判案件,甚至在很大程度上取代法官的判断,那就很有可能把司法权引入歧途。因为在案件事实曲折、人际关系复杂、掺杂人性和感情因素的场合,如何根据法理、常识以及对细微的洞察作出判断并拿捏分寸进行妥善处理其实是一种微妙的艺术,不得不诉诸适格法官的自由心证和睿智,即使人工智能嵌入了概率程序,具有深度学习能力也很难作出公正合理、稳当熨帖、让人心悦诚服的个案判断。〔2 〕但是,一味避免让人工智能全面应用于司法工作,又会与《规划》要求相违背,并大大限制人工智能处理司法工作的潜力。《规划》对智慧法庭的建设要求是:建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。最高人民法院院长周强在全国法院第四次信息化工作会议上强调:“以是否达到‘全业务、全流程、全方位作为评价智慧法院的基本标准和主要依据。” 〔3 〕这都说明智慧法院的建设必须将人工智能全面应用于司法工作。这就会给司法机关人工智能建设造成困扰,如何在保证人工智能辅助地位的同时又能使人工智能符合《规划》的要求全面参与司法工作?实践中,多数司法机关的做法是将辅助办案系统“有限智能化”,〔4 〕即牺牲人工智能的判断、决策能力来保证人工智能的辅助地位,以便全面参与各种司法工作。这种“有限智能化”会导致我国司法机关的人工智能建设停留在智能搜索、智能对比、智能识别等“弱人工智能”层面,无法成为能对司法工作进行综合性、整体性预判的“强人工智能”。《规划》的战略目标指出:“到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心”,“有限智能化”的建设方式将会严重拖累司法机关人工智能赶超国外同行的步伐,无法实现达到世界领先水平的目标。

(二)人工智能建设易陷入“法定证据制度”误区

人工智能协助司法机关工作的优势之一就是可以依照统一的证据标准运用证据。通过将法定的统一证据标准嵌入到公、检、法三机关的数据化刑事办案系统中,并且连通了公、检、法三机关的办案平台。这将极大地促進公检法三机关办案人员执行统一的证据标准,“倒逼”侦查、审查起诉、审判各个诉讼环节严格按照法律的规定办理刑事案件,把刑事诉讼的各项制度落实到每个办案环节中,确保侦查、审查起诉的案件事实证据经得起法律检验,有效解决刑事诉讼中适用证据标准不统一、办案程序不规范等问题。〔5 〕但如果证据运用的指引标准设定不当就会使人工智能建设陷入法定证据制度的误区。在欧洲中世纪之后,由于包含单方神意裁判、双方神意裁判(司法决斗)及宣誓涤罪等“非理性”因素的宗教证据为所有欧洲国家摒弃,以发挥法官理性智识为核心的理性证据制度开始盛行。其中,由于罗马教会证据制度在刑事证据立法上确立了十分精确的证明力等级体系,详细规定了每种证据形式的可采性、不同种类证据在诉讼中的证明力以及证据间出现证明力冲突时的优先取舍问题。近代学者又将罗马教会刑事证据制度概称为“法定证据制度”。〔6 〕“法定证据制度”要求每一种证据的证明价值都是由法律明文确定的,而不是根据证据的实际情况来确定,法官没有评判的自由,也不能根据其内心确信和良知意识作出认定。刑事案件只要存在那种符合法定证明力要求的证据,法官即应作出有罪判决。〔7 〕这是一种形而上学的证据制度,它限制了法官的理性,使他不能按自己的思维逻辑和信念来认定案件事实。它只能在诉讼中达到法律所要求的“形式真实”,而不可能真正查明案件事实。因此,“法定证据制度”又被称为“形式证据制度”。人工智能对证据的运用与法定证据制度非常相似。任何法律专家系统软件都意味着作出一种纯粹的法律实证主义预设。计算机可以处理法律条文内容中的三段论推理以及关于“要件—效果”的条件式推理,也可以处理案例特征与数据库检索到的基础案例特征之间的类似性并进行倾向性推理和判断,但却无法适当表现那些决定有效规范在适用上的优劣顺序的元规则。〔8 〕诸如自然法、权利保障、天理人情、有教少诛重预防之类的思辨性要素都会被排除在人工智能的判断标准之外。这就如同法定证据制度将法官的“自由心证”排除在证据判断规则之外。人工智能判断证据的指引标准设定如果只注意统一规范化,而忽视了证据判断所需要的经验法则、逻辑规则和理性良心等思辨性要素。人工智能对证据的判断必然会走入法定证据制度的误区而无法实现实质上的司法公正。

(三)数据真实性缺乏保障,算法“暗箱”缺乏监督

人工智能发展的基石是算法与数据,建立并完善围绕算法和数据的治理体系与治理机制,是人工智能时代公共政策选择的首要命题,也是应对治理挑战、赋予算法和数据以主体性的必然要求。与司法工作者不同,人工智能对证据的审核与运用完全依托于电子数据。如果电子数据本身无法保证客观、真实,那么人工智能所得出的判断结果也不再具有参考价值。如何保障电子数据的真实性一直以来困扰着司法实践。区别于传统证据,电子数据的真实性不能依靠传统方法来确定,而需要从数据信息的技术角度进行分析。目前,我国司法机关尚未针对电子数据的校验技术出台专门的规定。2016年《最高人民法院、最高人民检察院、公安部关于办理刑事案件收集提取和审查判断电子数据若干问题的规定》(以下简称《电子数据若干问题的规定》)中虽对电子数据类证据的审查与判断作出了較为详细的规定,但是对具体采用何种技术手段审查数据的真实性没有说明。随着技术的不断革新,电子数据的防伪和校验技术不断变化,司法工作者在面对日益增长的海量信息和不断变化的技术时,难免力不从心。而实践中又缺乏专门的技术团队来确保数据的真实性,人工智能建设所依赖的数据随时都面临虚假的风险。除了数据本身的真实性难以得到有效保障外,人工智能运用分析数据的核心算法也可能存在暗箱操作的风险。人工智能的建设离不开核心算法的编辑,而司法机关本身对这些技术又不甚了解。实践中,司法机关将核心算法的编辑任务大量外包,造成数据处理公司、电脑工程师对人工智能的影响超过了司法机关。不仅如此,由于司法机关本身不擅长人工智能核心算法的编辑,也就无法从技术层面上对数据处理公司、电脑工程师的编辑工作进行有效监督。这就给核心算法的暗箱操作留下了空间。一旦司法机关人工智能的核心算法被部分别有用心的技术开发者利用,“司法公正”就难免会被算法绑架,而司法机关却因存在技术短板而对此无能为力。

(四)人工智能工作失误的责任承担主体不明

人工智能从事司法工作如果产生了错误,责任由谁承担?这是司法机关人工智能建设必然会遇到的一个重要问题。依据各国的实践来看,有些国家和地区对人工智能承担法律责任的问题采取了较为超前的态度。例如,2017年10月沙特阿拉伯授予美国汉森机器人公司生产的机器人索菲亚公民身份。再如,2016年,欧洲议会向欧盟委员会提出报告,要求制定民事规范来限制机器人的生产和市场流通。其中第50(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。”而多数国家采取了保守的做法,没有对人工智能是否可以独立承担法律责任作出明确答复。目前,我国也没有针对人工智能的责任承担问题出台专门的法律或解释。尽管《规定》明确要求:“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。”但有关人工智能从事司法工作的失职责任如何承担,理论界与实务界也未形成统一意见。人工智能失职责任的承担问题直接与司法责任制密切相关。建立和完善司法责任制是司法改革的关键环节。党的十八届三中全会决定中指出,要“完善主审法官、合议庭办案责任制,让审理者裁判,由裁判者负责”。党的十八届四中全会决定进一步强调,“完善主审法官、合议庭、主任检察官、主办侦查员办案责任制,落实谁办案谁负责”,“实行办案质量终身负责制和错案责任倒查问责制”构建和完善司法责任制,是司法公正的重要保障,是权责统一原则的必然要求,也是中西方司法文明共同的经验汇集。而人工智能的失误责任承担不明会对司法责任制的贯彻产生一定的困扰。责任主体不明确不但会造成过错无人承担,还可能造成过错主体之间相互推卸责任,不利于维护司法责任制的贯彻与落实。

(五)对人工智能过度依赖可能破坏法治制度

人工智能的智能程度越高,越有利于其更好的完成司法机关交办的任务。但过于完善的辅助功能又会致使被辅助者产生依赖。假若司法机关的人工智能可以实现证据自动调取、判决自动生成,司法工作者虽对人工智能的预判结果负有审核的义务,但在案件数量激增或办案期限有限等压力下,难以保证自身在长期的工作中不会对人工智能产生依赖。而随着依赖程度的增长,司法工作者本身的办案能力也会逐渐退化,最终成为人工智能“奴役”的对象。一旦这种现象普遍出现,司法工作的核心将被严重颠覆。人工智能的算法将成为司法工作的主导,司法数据库也会成为案件审理的主要“场所”。司法工作者的“自由心证”在整个审判过程中无足轻重,法庭审理流于形式,法庭辩论、上诉审、专家酌情判断的意义都会相对化,最终导致法官的物象化、司法权威的削弱、审判系统的解构,甚至彻底的法律虚无主义。〔9 〕更为严重的是,对人工智能的过度依赖可能导致现代法治的制度设计分崩离析,引起社会结构出现矛盾、混乱乃至失控的事态。司法工作者是连接国家公权力和公民私权利的纽带,是代表司法机关维护司法公正和权威的直接行动者。为此,我国法治制度赋予了司法工作者独立行使司法权而不为其他力量所干涉的特权,并在合法的前提下给予必要的职业保障。为了规范司法工作者严格行使司法权,我国司法制度还建立了最严格的遴选标准,确保司法工作者具备专业的学识和优秀的品格。同时,为了保证司法工作的公开、透明、公正,我国法治制度设立了严密的司法工作程序,防止无原则的妥协和暗箱操作。任何判决都必须经历对抗性辩论和证明的洗礼,通过三审终审的形式,使案件审判经过充分的法律推理和审议,最终得出公正的判决。而对人工智能的过度依赖会打破这种合理的架构。司法工作者的核心作用将被人工智能所取代,严密的工作制度在算法绑架下失去作用。现代法治制度也会因为过度依赖人工智能而全面解构。

(六)司法数据库无法满足人工智能建设需求

数据库建设是人工智能建设的基础,任何一个人工智能的发展都离不开海量数据的辅助。如果将人工智能比喻成一个学习成长的儿童,数据库就是供其学习的书籍。得益于当今信息采集技术的发展,数据收集的深度与广度较几十年前都有了巨大进步。正是凭借自身海量数据的优势,谷歌公司成功超越了其他科技公司,成为美国人工智能行业的领头羊。反观我国的司法数据库,其搜集的信息范围与规模十分有限。以北京市检察机关的“检立方”大数据平台为例,自2014年起该大数据平台收集了案件信息60万件,业务数据1.1亿项,整合了四大资源数据库和160个系统功能。但是该数据平台仅仅是整合了北京市三级检察院内部的案件信息和文书,没有将其他司法机关的数据收纳其中。上海市法院的“刑事案件智能辅助办案系统”也只是建立了基于本市刑事法律文书、典型案例和司法信息资源的数据库。〔10 〕而美国司法机关早在1930年就开始了建设统一刑事司法数据库的准备工作。美国众议院于1930年通过一项法案,授权联邦调查局向全国地方警察局以自愿为前提,收集它们的犯罪记录。这些资料随后被汇编成《统一犯罪报告》(UCR)。在推进过程中,美国一直重视利用科技的力量。从2013年起,美国《统一犯罪报告》主管部门要求所有统计数据直接采用网上填报,并规定2013年7月之后,美国司法部管辖下的《统一犯罪报告》统计部门将不再接受任何纸质报表以及数据文档。如今,美国的绝大部分刑事司法数据都保存在政治和社会研究校际联盟中,为其他社会科学研究团体进行数据分析提供服务。相比较之下,我国司法机关数据库的建设不仅起步较晚、缺乏统一的法律规范和管理主体,在信息范围上也存在不足。这大大限制了人工智能系统的计算、分析能力,无法向更高的智能层次发展。

二、如何审视司法人工智能建设存在的问题?

德国著名社会学家,慕尼黑大学和伦敦政治经济学院社会学教授乌尔里希·贝克曾经指出,任何新技术的运用在给人们带来便利时,也可能带来安全风险与挑战。“那些生产风险或从中得益的人迟早会受到风险的报应。风险在它的扩散中展示了一种社会性的‘飞去来器效应,即使是富裕和有权势的人也不会逃脱它们。” 〔11 〕但这并不是让人们放弃新技术的使用,而是要理性的分析新技术的利弊,进一步提升控制风险的方法和标准。在面对人工智能建设产生的新问题时,我们如何进行审视,以便为进一步完善司法人工智能建设打下坚实的基础。

(一)人工智能威胁论影响人工智能的全面应用

当人工智能技术开始普遍运用人们的生活之中并给人们带来极大便利时,许多知名公众人物却开始担忧这种革命性的新技术将会威胁人类的生存。其中著名物理学家斯蒂芬·霍金就是人工智能威胁论的支持者之一。霍金教授在2017年北京举行的全球移动互联网大会(GMIC)上,通过视频表达自己对人工智能发展的担忧。他认为基于“计算机在理论上可以模仿人类智能,然后超越”这一原则,人工智能从原始形态不断发展,并被证明非常有用的同时也会导致最坏的结果:人工智能一旦脱离束缚,将以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。〔12 〕美国太空探索技术公司SpaceX创始人伊隆·马斯克也表示“人工智能是人类有史以来最好也是最糟糕的发明”。马斯克认为,人工智能不仅在将来会迫使大部分人失业,而且可能引发第三次世界大战。人工智能的威胁远超朝鲜核武器,“人工智能是关系人类文明存亡的最大威胁,这是汽车事故、飞机坠毁、滥用药物或劣质食品都比不了的威胁”。 〔13 〕上海交通大学科学史与科学文化研究院院长江晓原教授也对人工智能的运用发出警告。他认为,人工智能将引发大规模失业,加剧贫富分化,激化社会矛盾。人工智能在军事领域的运用将会生产更高效率的杀人武器。从长远来看,人工智能一旦脱离人类的控制,就有可能主导世界的控制权并消灭人类。因此,江晓原教授主张:“在某些领域中,可以考虑保留低级的人工智能,保留人工智能的某些初级应用。”必须限制人工智能在社会领域的全面运用,才能延长人类文明。〔14 〕正是在这些知名公众人物的呼吁下,人工智能威胁论逐渐引起人们对人工智能的担忧和抵制。也正是在这种观念的影响下,我国部分司法机关选择了“有限智能化”的建设方式来防止人工智能主导司法工作。

(二)感性思维的缺陷使人工智能无法全面胜任司法工作

当前,尽管人工智能技术发展迅猛,但仍处于不具备感性思维的低级阶段。司法工作的特殊性决定了其不是单纯依靠法律适用便能完成。以法官的审判工作为例。美国大法官霍姆斯有句名言:“法律的生命不在于逻辑,而在于经验。对时代需要的感知,流行的道德和政治理论,对公共政策的直觉,不管你承认与否,甚至法官和他的同胞所共有的偏见对人们决定是否遵守规则所起的作用都远远大于三段论。”这说明,法官的审判工作决不能只依据法条,审判应当注重法律与道德、政治等多种因素融合。一件案件的公正审理不仅要遵从法律基本原则指导,还需要接受实质正义说的指引、接受传统文化司法经验与智慧的导引,受到利益衡量理论拘束与社会分配公正理论的规制。必须尊重民众的朴素感情和道德诉求,反映社会的普遍正义观念,才能避免案件裁判法律效果与民众的朴素情感发生较大偏离,实现法律效果与社会效果的统一。〔15 〕这都需要法官依据感性思维作出综合判断,而人工智能尚无法通过算法重现人类的感性思维。感性思维之所以难以被算法所重现,关键在于它没有明确的规则。区别于下棋、图像识别等行为有一个大的框架以及非常细致的规则,感性思维的特点是有跳跃性,与逻辑思维是相互矛盾的。当人类在面对相同的事情时,如果场合不同或者时间不同就可能作出相反的应激反应,进而产生完全不同的应对行为。因为具备了感性思维,人类才不会被逻辑所禁锢。而人工智能是依靠逻辑算法堆积而具有强大的推理能力,在面对相同或相似的问题时,很难摆脱逻辑算法而形成不同的对策。因此,人工智能无法独自面对错综复杂的利益冲突,它只能按照设定的程序选择法律适用,而无法将技巧、经验和平衡等隐形审判技艺有机结合,所形成的判断结果也是千篇一律。任何一个案件的判决都是独一无二的,因为它不仅包含了法律规范的适用,还要求法官结合大量实践经验、非法律知识和法理、常识、情理进行感性思维的处理和升华。即使让人工智能掌握了所有的法律知识和逻辑规则,也無法取代法官的感性思维在公正审判中的作用。除了审判之外,司法工作中还有许多需要感性思维才能胜任的工作,例如调解、讯问、舆情处理等。而缺乏感性思维能力的人工智能无法胜任这些工作。因此,司法机关也无法让人工智能全面负责司法工作。

(三)证据规则的“法定证据制度”特征易误导人工智能建设陷入误区

我国当前的证据规则具有“法定证据制度”特征,这主要体现自以下两方面。

首先,我国的证据规则对不同证据的证明力进行区分。根据2001年最高法院发布的《关于民事诉讼证据的若干规定》第77条对数个证据对同一事实的证明力的强弱顺序作出了区分,以指导法官对不同证据的适用顺序。2010年6月,最高人民法院、最高人民检察院、公安部、国家安全部、司法部联合发布了《关于办理死刑案件审查判断证据若干问题的规定》(以下简称《办理死刑案件证据规定》)和《关于办理刑事案件排除非法证据若干问题的规定》,其中对于没有直接证据证明犯罪事实但间接证据确实、充分的案件,虽然“可以认定被告人有罪”,但是“判处死刑应当特别慎重”。这体现出间接证据证明力低于直接证据的观念。这种将不同证据的证明力明确规定了大小强弱的标准,并使之上升到法律规范的做法与法定证据制度将不同证据的证明力进行严格区分的做法具有一定的相似性。

其次,我国证据规则对法官的“自由心证”作出了明确限制。自由心证原则要求法律不得对于单个证据的证明力大小强弱以及法官对案件事实内心确信的标准作出限制性规定,而是由法官根据自己通过法庭审理所形成的直观印象,根据经验、理性和良心,来对证据的证明力和案件事实作出裁判。而我国现行证据规则没有赋予法官完全的心证自由。这主要体现在“证据确实、充分”的标准之上。现行《刑事诉讼法》第53规定:“证据确实、充分”应当符合以下条件:定罪量刑的事实都有证据证明;据以定案的证据均经法定程序查证属实;综合全案证据,对所认定事实已排除合理怀疑。这种对证据标准的明确规定严格限制了法官“自由心证”的发挥。即便法官凭借自身的主观印象对证据进行了内心确认,还必须依据诉讼法规定的客观标准才能最终确定证据的证明力,这与欧洲中世纪盛行的法定证据制度有一些相似之处。比如德国《卡洛琳娜法典》就规定,被告人自白具有“全部证明力”,可以成为法官唯一的定罪根据;而一份证人证言只具有50%的证明力,法官只有根据两份以上的证言,才能作出有罪裁决。〔16 〕

“自由心证”是预防我国证据制度陷入法定证据制度误区的重要保障。“自由心证”的理性基础在于,它适应并反映了证据与事实之间即证明根据与证明目的之间逻辑关系的多样性,反映了影响事实判定各种因素的复杂性,更重要的是,它充分尊重了人的理性能力,即作为个体的认识主体认识把握客观事实的能力。〔17 〕尽管我国证据制度没有完全采纳自由心证证据制度,但是自由心证所提倡的直接原则和言辞辩论原则对我国诉讼制度中的人权保障影响巨大。它们要求法官在查证中,务必与被告或其他当事人、证人有过直接的接触,而不可仅就文书卷宗之记录,从事间接的采证工作。唯有当事人在法庭以言词陈述所提供之诉讼资料,方能作为判决之依据。而当前,人工智能在分析证据数据时尚无法复制司法工作者的“自由心证”。一方面,司法工作者的“理性和良心”无法通过算法再现。“理性和良心”属于人类的感性思维,而目前人工智能的算法还不能实现情感功能。另一方面,人工智能分析数据的模式并不依托于庭审与言证,不利于当事人诉讼权利和实体权利的保护。其相对封闭的数据分析模式与“卷宗主义”十分类似,不利于外部的有效监督。在缺乏“自由心证”功能的前提下,人工智能分析证据数据的唯一标准就是人类给其设定的证据适用规则。这种规则如果仅仅是照搬诉讼法中的证据制度,必然会只体现“法定证据制度”的特征。而缺乏“自由心证”矫正的人工智能极易陷入“法定证据制度”的误区。

(四)司法数据库建设与数据鉴真机制不完善

我国人工智能司法数据面临的首要问题就是信息总量偏低。信息总量偏低现象产生的主要原因包括以下两方面。一方面,司法机关内部的数据信息共享不畅通,数据资源利用率低。我国各级公安、检察院、法院都有自己的数据库,但这些数据库出于保密原因,不能在各个司法机关之间随意流转。甚至在本单位内部,也不是每一个员工都能完全接触到本单位内的所有数据。再加上考核评价指标设计不合理、缺乏集中处理机构和整合机制等原因,各地不同司法机关之间的数据共享普遍存在壁垒。由壁垒所产生的信息不对称,导致各个司法机关不得不对相同案件进行反复调查,造成司法数据资源利用的极大浪费。另一方面,没有与社会科研机构的数据库开展合作。我国科研机构司法数据库的建设始于20世纪80年代。北京大学于1985年创建涉外法规查询系统,并发展为当今知名的中国法律信息检索系统“北大法宝”。1993年武汉大学法学院赵廷光教授主持开发了实用刑法专家系统,具有检索刑法知识和对刑事个案进行推理判断的功能。曾经被一百多家法院、检察院、律师事务所采用。〔18 〕与司法机关的数据库相比,这些知名科研机构的司法数据在建设时间、数据规范、通用性等方面都具备了优势,且也被我国司法机关广泛使用。但是在人工智能的建设过程中,司法机关却未借助这些社会科研机构的数据库来扩大司法数据库的信息量,令人遗憾。

对于司法数据真实性的鉴定,目前比较通行的做法是依照《电子数据若干问题的规定》中有关电子数据的鉴真规则进行鉴定,但是这个鉴真规则本身并不完善。首先,电子数据的真实性鑒别依靠是各种笔录证据和情况说明等间接方式,而不是对电子数据本身进行鉴别。如果电子数据本身的数据信息是虚假的,那么即便制作再多的笔录,笔录上有侦查人员、证据持有人、提供人、见证人的签名或盖章,也并不能保证电子数据的真实性。其次,对未能鉴真的电子证据,即不确定具有关联性和形式真实性的电子证据,仍然允许通过“补正”“合理解释”的方式进行补救。这就给本不能鉴真的电子证据留下了后门和隐患。〔19 〕而人工智能本身又缺乏对电子数据进行真伪辨别的能力,司法数据的真实性更加难以保障。

(五)人工智能的法律人格尚存争议

人工智能工作失误责任承担不明的原因在于其独立法律人格地位的不明确。如果各国政府都如同沙特阿拉伯政府一般赋予人工智能公民身份,那么其责任承担便不会引起争议。但多数国家并没有赋予人工智能独立的法律人格,于是人工智能侵权责任的承担问题就成为学界争论的焦点。围绕着人工智能是否具有独立的法律人格?学界存在多种意见。否定人工智能法律人格的学者认为,人工智能是人类为生产生活应用而创设的技术,其本质是为人类服务的工具;人工智能无独立的意思表示能力,并不承认人工智能具有独立的法律人格;人工智能不具有人类特殊的情感与肉体特征,在工作时无休息等现实需要,可以认作不知疲倦的机器,有行为能力但没有权利能力;人工智能的所有行为均是为人类所控制,其作出的行为与引起的后果最终必须由被代理的主体承担。〔20 〕而支持人工智能具备法律人格的学者则认为,人工智能的法律人格与法人相似,赋予人工智能法律主体资格能够更好地拓展人类的社会能力,可能更好地服务社会、造福于人类。〔21 〕人工智能是人类社会发展到一定阶段的必然产物,具有高度的智慧性与独立的行为决策能力,其性质不同于传统的工具或代理人。在现实条件下,将人工智能定义为具有智慧工具性质又可作出独立意思表示的特殊主体较妥。〔22 〕还有学者认为,应当依据人工智能的不同种类来区分责任承担的主体。如果违法人工智能属于不具有辨认能力和控制能力的弱人工智能,其违法责任由人类承担(如设计者、使用者)。如果人工智能可以有辨认能力和控制能力(既可能在设计和编制的程序范围内进行独立判断并自主作出决策,实现设计者或使用者的意志;也有可能超出设计和编制的程序范围,进行自主决策并实施相应行为,实现其自身的意志。)就具备承担违法责任的可能。〔23 〕上述三种观点都有一定的合理性,但是都不能妥善处理人工智能的责任承担问题。首先,如果采用法律人格否定说的观点,人工智能的失误责任由与之关联的人类承担,那么具体是由使用者承担、还是由设备制造者或软件开发者承担?三者间是否具有连带责任?尚无法律说明。其次,如果采用法律人格否定说的观点,人工智能的处罚又会出现盲区。我国现有的法律没有专门针对人工智能这类特殊主体的惩罚方式。有学者建议采用数据封存、数据删除的方法对人工智能进行类似“有期徒刑”、“死刑”的惩罚。〔24 〕但是这种惩罚方式是否能有效防止其他人工智能出现同样的错误?尚无从得知。如果有效,是否应当对具有技术同源的同类人工智能也进行过预防性惩罚?如果无效,由人工智能承担法律责任的意义何在?再者,即使将人工智能进行分类对待,弱人工智能的失误责任由人类承担,强人工智能的失误责任由其自己承担。同样会面临人类关联主体不确定、人工智能处罚方式不明确的问题。因此,上述三种观点均未得到我国学界的普遍认可,也未得到实务界的采纳。司法机关人工智能工作失误的责任承担问题依然缺乏可行的参照。

三、推进我国司法人工智能建设的路径

基于上述分析,司法机关应当进一步完善人工智能的建设,克服人工智能运用产生的困难,使其更好的为法治事业服务。

(一)通过立法确立司法工作者的终审原则和证据审核制度

“有限智能化”不是平衡人工智能辅助定位与全面发展的最优方案。人工智能的智能提升与其在司法工作中的辅助定位并不会产生必然矛盾。人工智能在司法领域的全面应用也不应过度理解为取代人类办案。信息化和人工智能的初衷,是替代人的重复劳动,而非人本身。人工智能、移动互联网和司法大数据作为主要技术元素的“智慧法院”,也绝非科幻文艺作品中想象的那样以机器判断替代人类司法。智慧法院的本质是审判体系和审判能力的现代化,其核心是人的智能现代化,而非以人工智能等技术替代人类智能。智能辅助办案系统不是要取代线下刑事诉讼活动,也不是要替代司法人员独立判断,而是发挥人工智能在数据采集、整理、分析、综合方面的优势,帮助司法人员依法、全面、规范收集和审查证据,统一司法尺度,保障司法公正。〔25 〕司法机关在建设人工智能时无需产生人工智能取代人类的担忧,也不必采取“有限智能化”的方式限制人工智能在司法领域的潜力。人工智能的司法辅助地位应当从立法角度予以固定,同时确立司法工作者的終审原则,将司法工作的最终决定权赋予司法工作者,而人工智能通过分析形成的判断结果只能作为司法工作者实施最终决定权的参照。对此,司法机关可以参照我国医疗管理部门的做法。2017年2月14日,国家卫生计生委办公厅发布了《人工智能辅助诊断技术管理规范(2017年版)》明确规定:“人工智能辅助诊断技术为辅助诊断和临床决策支持系统,不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。”我国司法机关也可以通过制定规章的方式在司法工作制度中明确规定司法工作者的最终决定权。如此,既可以让人工智能全面参与司法工作而不受“有限智能化”的约束向更高的智能层次发展,又能保证人工智能参与司法工作的辅助定位,是平衡人工智能发展和人类主导司法工作的可行方案。

通过建立司法工作者证据审核制度,将司法工作者的“自由心证”与之人工智能的证据审核相结合,是避免人工智能建设陷入法定证据制度误区的有效途径。鉴于当前人工智能的技术局限,人工智能本身尚无法通过算法来重现司法工作者的心证过程。那么就需要司法工作者予以协助。笔者建议在人工智能证据分析过程中设置司法工作者审核环节。人工智能系统将其搜集的所有证据进行证明力初步评估后,交由司法工作者进行审核。由司法工作者依据职业道德、逻辑推理和日常生活经验等心证要素对人工智能的评估结果进行审查和修正。再将审核后的证据评估结果反馈给人工智能系统,由其继续进行案件的整体预判工作。司法工作者在对人工智能的评估结果进行审查时,应当将修正的原因和依据用备注的形式记录在人工智能的评估结果中。一方面有利于判断理由的公开和监督;另一方面也有利于技术开发者进行参考对比,不断改进人工智能的分析算法,减小判断误差,提升证据评估的准确性。只有通过司法工作者的心证协助,人工智能建设才能在现有的证据规则下避免“法定证据制度”的误区。

(二)建立科学合理的鉴真规则保障司法数据库的真实性

在国外,电子数据的鉴真主要通过三种方式进行。一种是基于计算机系统正常运行的推定鉴真。如加拿大《1998年统一电子证据法》第5条第1款规定:“在任何法律程序中,如果没有相反的证据,则可以通过那些支持如下裁定的证据,推定记录或存储电子证据的那一电子记录系统具有完整性,即:裁定该计算机系统或其他类似设备在所有关键时刻均处于正常运行状态,或者,即便不处于正常运行状态,但其不正常运行的事实并不影响电子记录的完整性,并且没有其他合理理由对该电子记录系统的完整性产生怀疑。”另一种是基于电子签名技术的鉴真。如菲律宾《2001年电子证据规则》规定,私人电子文件可通过曾经使用过的电子签名方式予以鉴真(规则5第2条第1项);通过鉴真的电子签名或数字签名,具有等同于手写签名的同样功能(规则6第1条)。还有一种是基于可靠程序和系统的鉴真。如美国《联邦证据规则》901(a)(9)规定,证据提出者基于正当理由相信计算机程序是可靠的,并能提举输入数据及打印的程序合适等基础证据,即满足鉴真要求。〔26 〕这三种方式都值得我国借鉴。此外,中国人民大学刘品新教授提出的电子证据印证体系规则的部分观点也值得参考。刘品新教授认为,任何电子数据的生成都会形成一些附属信息(如文档的创建时间、修改时间、访问时间、保存者、类型、格式等),还会同步留下一系列关联痕迹(如WINDOWS系统的日志文件、休眠文件、页面文件、删除指针或数据存储规律等)。无论哪一种情况,从理论上讲都能找到相互印证的电子证据并构成体系。对于网络空间的电子证据,通过将网络上多台电子设备视为不同的节点,从不同的节点中获取到了电子证据,而且它们是相互印证的,那就满足了印证的基本要求。

基于上述国外经验和学者观点,司法数据的鉴真规则应当以校验电子数据的本身为主。一方面,司法数据的鉴真规则应当保证司法数据信息来源的真实性。司法数据信息来源既有传统证据,又有电子数据。对传统证据的检验可以依照传统的检验方法进行。例如物理特征识别、多类证据互证等。而对于电子数据的印证则要坚持以技术验证为主,通过电子签名验证、附属信息印证、关联痕迹印证、网络节点印证的方式进行鉴别。传统证据的验证方法与电子技术验证方法并非相互割裂。在面对司法数据多样化的来源信息时,应当注重将传统司法经验与专门科学知识相融合,才能确保司法数据的原始真实性。另一方面,司法数据的鉴真规则要保证司法数据在使用过程中的真实性。这个步骤必须建立在保证司法数据原始真实性的基础之上。由于司法数据生成之后,所有的信息都是以电子数据的形式呈现,因此其鉴定的方式也应以技术鉴定为主。司法机关应当在司法数据生成时对其进行电子签名,并对附属信息、关联痕迹进行加密固定,同时将其备份至不同的网络节点(机关内网)中,以便日后进行核对。如果遇到司法数据需要进行修改更新的情况,必须将变更的具体情况记录在案,并对每一次更新的版本进行多节点备份和加密封存,以保证数据变更记录的连续性和可查性,消除篡改的空间,确保司法数据的真实、完整。

(三)培养算法监督专员,规范算法制度,透明决策过程

司法人工智能的算法暗箱操作行为可能有以下几种。第一,技术开发人员利用司法工作者尚无法深度掌握计算机算法技术的劣势,故意在人工智能平台的建设中暗藏系统后门、漏洞,并通过这些系统后门或漏洞操控人工智能的判断结果,或者其他技术人员利用人工智能系统开发者的疏漏,通过系统本身的漏洞控制操控人工智能的判断结果。第二,利用人工智能分析数据运行过程的不透明,暗中改变人工智能的算法规则,操控人工智能的判断结果。第三,利用自身掌握算法技术的优势,在对人工智能的判断行为和判断依据进行解释时,以专业技术知识掩盖非法目的,实现对人工智能判断结果的操控。上述行为都是基于技术人员对人工智能算法技术的垄断而产生。因此,算法暗箱操作的源头就是算法技术垄断。破除人工智能算法暗箱操作的最佳途径就是打破算法技术的垄断。2016年英国政府发布了人工智能报告《AI:未来决策的机遇与影响》。在这份报告中,英国政府对人工智能算法的安全与监督提出了一些建设性意见。首先,人工智能的算法需要制度化。依此可以保证人工智能按照既定的计算机算法运行,而不出现不必要的行为或者功能上的改变。同时还需将让人工智能系统处于不间断的人类监管干预之下,防止其脱离控制。其次,将算法的决策过程透明化。为了维护人工智能的公正与诚信,必须明确其使用了哪些算法、哪些参数、哪些数据,实现了什么目的,这样才能确定人工智能技术是否被负责任地使用。〔27 〕英国政府的这些意见对打破算法技术的垄断具有很强的实践指导作用,但这些方法必须与掌握算法技术的监督者相结合,才能完全发挥应有的功效。因此,司法机关必须培养自己的人工智能监督人才,才能有效防止算法的暗箱操作。在此方面,我国部分知名政法院校已经走在了时代的前列。2017年12月、2018年1月,西南政法大学、北京大学先后成立了人工智能法学院,通过与科大讯飞、北大英华等人工智能公司以及最高人民检察院检察技术信息研究中心、最高人民法院信息中心等实践部门合作,联合培养复合型法治人才,为人工智能時代背景下的法治建设服务。司法机关可以通过借助人工智能法学院的力量培养自己的算法监督团队,结合算法制度化、决策透明化,进一步铲除算法暗箱操作的空间,确保人工智能从事司法工作的公开、公正。

(四)明确人工智能工作失误的归责制度

试图以法律人格的有无来准确定位法律责任的归属,并不能妥善解决人工智能的担责问题。于是,国外实务界另辟蹊径,即将人工智能视为“产品”,以产品侵权责任的承担方式来解决人工智能责任承担的问题。例如,2015年,联合国教科文组织与世界科学知识与技术伦理委员会的报告对智能机器的损害责任承担问题进行了探讨,并援引了阿萨罗提出的结论,即机器人以及机器人技术造成的伤害,很大一部分由民法中产生责任的相关法律调整,因为机器人一般被视为通常意义上的科技产品。从这个角度看,机器人造成的伤害很大一部分被归责于机器人制造者和零售商的“过失”“产品警告的缺失”“没有尽到合理的义务”。〔28 〕再如,2016年英国议会提出一份有关无人驾驶汽车法律责任问题的提案,对人工智能的责任承担问题作出解答。该提案认为,应当将汽车强制险的适用扩大到产品责任,在驾驶者将汽车控制权完全交给自动驾驶汽车的智能系统时为他们提供保障。而这些驾驶者(或者投保人)需要依靠法院根据现行《消费者保护法》的产品责任和普通法下的过失原则的裁判,来确定哪一方应该对事故的发生负有责任。〔29 〕

无论是依据独立法律人格的有无确认责任归属,还是将人工智能侵权视为“产品”侵权,其责任承担的方式都是依照过错责任原则寻找侵权行为的主体,以便确认责任承担的主体。但司法工作的失误责任与一般的民事侵权行为不同,它损害了司法工作的公益性。司法工作不同于普通的民事行为,它以为保护人民群众的公共利益为目标,不能只为单一个体服务,而是为全体社会成员服务。因此,人工智能司法工作失误的责任承担必须以保护公共利益为优先。对其失误责任的承担,应当适用过错推定原则,由使用人工智能的司法工作者优先承担。原因主要有以下两个方面。一方面,司法工作者、软件开发者和设备制造者虽都与人工智能有着密切关联,但只有司法工作者与公共利益联系最为紧密。如果司法工作者逃避责任,对公共利益的侵害也最直接。另一方面,司法工作者在使用人工智能时还负有监督审核的义务,一旦人工智能办理的司法工作出现失误,司法工作者有责任于第一时间进行矫正。适用过错推定原则,由司法工作者优先承担失误责任可以有效督促司法工作者认真审核、监督人工智能的工作状况,及时发现问题、及时改正失误,有效防止因司法工作失误危害社会公众利益。同时又能防止人工智能的关联主体之间相互推卸责任,影响司法工作的正常运行。因人工智能的司法工作失误导致了损害结果,司法工作者如不能在第一时间证明工作失误是由技术开发者或设备制造者造成,就必须先对人工智能的失误承担责任。之后可根据实际情况由司法机关向技术开发者或设备制造者进行追偿。

(五)加强员工素质培养与考核监督,消除过度依赖的隐患

人工智能的智能水平高度发展,实现独立、准确办案,是司法工作者对人工智能产生过度依赖的原因与前提。那么,是否就可以简单得出限制人工智能的智能或降低其准确率,就可以有效杜绝司法工作者对人工智能的过度依赖?或许结果符合,但就如同“有限智能化”一样,这些方法与我国司法机关建设人工智能的初衷不符,也违背《规划》的战略目标。因此,通过劣化人工智能办案水平,强迫司法工作者摆脱依赖的方法不可行。促使司法工作者摆脱过度依赖人工智能的有效路径就是关注人类自身能力的培养,并建立长效的监督机制。首先,树立正确的人工智能发展观。国家大力发展人工智能的目的是为了帮助人们从低端、重复、僵化的机械式劳动中解放出来,给予人类更多的空间向更高的劳动层次发展。司法机关发展人工智能建设的目标也是将司法工作者从事务性、琐碎性、巨量性、基础性工作中解放出来,使其拥有更多的精力专注于断罪、量刑等核心事务,依此来提高司法工作的效率和质量。司法机关必须帮助司法工作者清楚认识到国家人工智能发展战略的前瞻性和科学性,排除“人工智能威胁论”的负面影响,促使司法工作者转变思路,理性看待人工智能协助司法工作的社会趋势,全力支持司法机关的人工智能建设,助力早日实现我国人工智能强国梦。其次,注重人工智能专业知识的普及,培养法律与人工智能的复合型人才。人工智能既是司法工作者的得力助手,也是竞争对手。司法工作者如不能顺应时代需求,很可能面临被人工智能淘汰的命运。司法机关应当为司法工作者提供学习人工智能专业知识的机会,帮助其充分掌握人工智能的核心技术,认清人工智能的优势和缺陷,并据此进行有针对性的业务训练,才能做到“知己知彼百战不殆”。再者,建立与人工智能工作失误归责制度配套的监督考核机制。遵循司法工作者优先承担责任原则,建立长效的工作考核制度,督促司法工作者认真履行最终决定权和监督义务,防止司法工作者在长期的工作实践中怠于履行职责、过度依赖人工智能。

(六)构建统一的现代化司法数据库

2016年,时任中央政法委书记孟建柱同志在全国政法队伍建设工作会议上强调:“将探索建立跨部门的网上执法办案平台,形成网络互联互通、资源共享的执法司法信息化综合系统。实现立案、流转、办理、审核、法律适用、生成文书和监督、考评一体化的全流程、信息化管理。” 〔30 〕这就要求司法机关在数据库建设上必须打破传统,实现跨区域、跨部门的统一司法数据库建设。统一司法数据库的建设不仅能满足我国司法机关人工智能建设的需要,还能满足公众、学界对国家司法运行状况知情,便于各级党政机关及时、准确、有效的掌握司法信息,以此来制定出科学、合理、有效的司法决策,推进法治中国实现。因此,解决我国司法机关数据库信息量不足的有效途径就是构建现代化的统一司法数据库。

首先,制定法规,打破司法机关内部的信息壁垒,实现司法数据共享。单从技术角度来看,司法机关之间的数据具有互通性,共享障碍较少。实践中,司法机构内部已经搭建了内部局域网,实现了办公的网络化和数据化。只要将司法机关之间的内网互联,便能实现信息共享。然而,司法机关之间的信息互通仅靠消除技术障碍难以实现,还必须有法律规范予以保障。例如,司法数据的统计口径和范围、数据的来源渠道和采集方式、每项数据含义和计算标准等都需要统一、明确的操作流程规范来指导。只有建立统一法律规范,才能使司法机关的信息共享有法可依,有效破除全国范围内的司法数据壁垒。

其次,从政治体制架构方面考虑,构建现代化的统一司法数据库还需要一个适合对各司法机关进行统筹引导的部门牵头。全国人大法律委员会或中央政法委比较适合担当这个角色。一方面,这两个机构都有某种程度上的协调、监督职责;另一方面,由人大法律委员会或者政法委牵头可以保障运营经费投入到位。

再者,建立与科研机构司法数据库的共享机制。在不违反国家保密法的前提下,可以将除涉及国家秘密、商业秘密和个人隐私之外的司法数据与科研机构进行共享。一方面,可以利用科研机构司法数据库的先发优势,将司法机关人工智能建设之前的司法数据进行补全;另一方面,可以充分利用科研机构的决策智囊或者社会智库的服务功能对司法数据进行研究分析,以便司法机关在人工智能的建设中进行参考。

结语

人工智能进入我国司法机关协助司法人员办案,为公众提供法律服务,是社会发展的必然趋势。我们应当充分重视人工智能在司法机关中的发展与应用,及时发现我国司法人工智能系统建设面临的新问题,积极借鉴国内外人工智能发展的先進技术与理念,弥补我国司法机关人工智能建设的不足,不断改进、不断完善,努力建设让人民群众满意、具有世界领先水平的司法人工智能系统。

猜你喜欢
司法机关工作者证据
5·30,致敬最美科技工作者
2019年度山西最美科技工作者
中国审计署:2015年逾二千人遭撤职停职处理
亚健康科技工作者
手上的证据
家庭暴力证据搜集指南
手上的证据
司法网络舆论的分析与对策
“中华慈善优秀工作者(志愿者)奖(共152名)