进入新世纪,尤其是2010 年之后,随着人工智能、大数据时代的快速到来,以大数据为算料的预测算法应用在我们的日常生活中无处不在,而刑事司法领域也不能在算法运用的大潮中“独善其身”。 目前,预测算法的司法应用主要集中于司法资源的有效分配、潜在危险个体的预警通报、法官的量刑建议与指导等方面
。 刑事司法领域更是由算法技术衍生出了诸如COMPAS
分析预测工具和智能辅助系统
等一系列应用。 尽管如此,算法技术依旧存在诸多争议,算法黑箱、算法歧视、系统性偏差等问题仍是其目前难以逾越的鸿沟
。 一方面,人们对预测算法的质疑态度、传统刑事司法模式与数字时代算法技术对接难题以及数据孤岛等因素都会阻碍预测算法在刑事司法领域的实际应用,另一方面,随着人工智能的快速发展,预测算法在刑事司法领域又被期待和赋予了更多的可能性,基于刑事领域的特殊性,算法在此领域的应用理应被投以特别关注。 因此,本文拟分析预测算法在我国刑事司法领域中应用的阻力与痛点,并尝试提出解决路径来权衡技术理性与价值理性的天平,协调激励发展与合理监管的目标。
2.2 分组患者HEART、MEWS评分比较 急诊住院者HEART评分及MEWS评分均显著高于留院观察者(P<0.05);30 d死亡患者 HEART和 MEWS评分分值均较急诊住院患者有进一步增高,且两者分别与存活者比较,差异有统计学意义(P<0.05)。见表1。
2016 年是我国的“智慧法院”元年,也是预测算法技术在司法领域运用从构思到落地的重要开端。 2016 年1 月29 日,最高人民法院院长周强在全国法院信息化建设工作会议上首次提出了建设“智慧法院”的新概念。 迎合目前人工智能发展的大趋势,将5G、大数据、预测算法、区块链等技术融入司法审判,力图构建智能化、高效化、科学化、公平化、现代化的司法审判体系。 同年7 月,中共中央、国务院办公厅印发了《国家信息化发展战略纲要》,提出“科技强检”,推进检察工作现代化,并将建设“智慧法院”作为国家信息化发展的重要一环,提高案件受理、审判、执行、监督等各环节智能化水平,推动司法信息公开,保障司法公平正义。 同年11 月的《乌镇共识》再次明确了“智慧法院”建设的基本宗旨,即将算法技术、司法大数据分析技术、5G技术目标列为司法智能化建设的重要通路。2017 年5 月,全国首个“刑事案件智能辅助办案系统”在上海诞生,该系统以大数据、预测算法和人工智能为技术内核,具备初步的证据信息抓取、校验和逻辑分析能力,标志着中国首个预测算法技术在刑事司法领域落地应用。 2022 年3月起正式实施的《互联网信息服务算法推荐管理规定》,在广义上对算法歧视、算法黑箱、算法壁垒等问题进行了规范,将道德与法治相结合,既为算法的运用构筑了道德底线,也为算法的实践设立了法律红线。 虽然起步较晚,但庞大的运用基数和不断完善的算法设施基础建设正在使中国逐步成为算法应用超级大国
。
虽然目前我国的预测算法应用已经粗具规模, 但是其在刑事司法领域的推行依旧阻碍重重。 首先,来源于一种对预测算法的质疑:算法能否取代人类对司法程序进行决定与裁判? 即便我们能够证明刑事司法系统中的预测算法能够产生比人类判断更公平、 有效和准确的决断,我们也习惯且倾向于相信这些自然人决策者,并且在很大程度上接受他们决策的合法性。反对预测算法介入刑事司法程序的人指出:尽管没有任何预测算法会直接将犯罪前科、性别、职业、经济状况等作为决策的因素,但在决策和判断中,使用预测算法仍然可能存在预先的偏差与歧视。 由于许多预测算法依赖于先前的逮捕、定罪或其他前科作为预测未来犯罪活动的一个因素,算法无形中将这种间接性差异永久化,其创造了一种虚幻的“技术科层框架”,即谁是危险的,谁应该受到更大的惩罚
。 我们已经看到预测算法有可能彻底改变刑事司法系统,但他们必须尽量减少其使用数据的歧视所造成的影响,这将需要更大的透明度,以便警察、检察官、法官等司法决策者能够评估算法是否符合这些标准
。 但是,即使预测算法克服了这些
《残疾人康复服务“十三五”实施方案》中指出到2020年,有需求的残疾儿童和持证残疾人接受基本康复服务的比例达80%以上。为实现这一目标,提出了“实施残疾人精准康复服务、提升残疾人康复服务专业化水平”等措施。同时提出“加强康复医院、康复医学科规范化建设”。在《残疾人精准康复服务行动实施方案》中也指出为每个社区(村)配备一名社区康复协调员,与社区(村)医生共同组成残疾人精准康复服务小组。可见,康复医学将在当前推进残疾人小康进程中发挥着不可替代的作用,在基层康复服务实践其重要意义也不可或缺。
在程序正义领域,信赖可以通过两种方式建立。 第一种方式是:参与者可以感受到与决策者的个人联系。 例如,参与者可能认为决策者与参与者来自同一个群体。 第二种方式是:决策者能够清晰透彻地解释自己的决策。 大数据算法很少会依靠个人连接来获得可信度,因为大多数被告不会感觉到与计算机程序有任何亲缘关系。 因此,想要实现算法体系的程序正义,必须使被告能够理解推算原理并支持预测算法。 与人际尊重因素一样,对于预测算法来说,这个因素比人类决策者更难实现。“心理理论”(theory of mind)的概念
揭示了人类如何理解心理状态,从而理解他人的决定和行为。 因此,只有当刑事被告理解并证明算法达到了它的决定时,它才会显得可信。 这将意味着人类决策者需要向被告解释算法背后的推理,这反过来意味着人类决策者必须能够理解算法是如何工作的。 因此,与人际尊重和中立因素一样,算法的更大透明度对于确保被告相信程序是公平的至关重要。
本文重点研究了社会福利政策质量标准、社会福利政策质量评价的原则及其评价体系建设,但笔者认为对于保证社会福利政策质量来说,这只是技术问题,如何将这些技术真正能够服务于提高社会福利政策质量,更重要的是实现社会福利政策质量评价的制度化,这是有效地进行政策评价的保障。
数据算料作为预测算法刑事司法运用的基础性元素, 对于预测算法的应用与普及起着根本性的支撑作用。 预测算法应用效果的好坏、分析研判结果的正确与否、侦控审各个环节的智能化开展都是与基础数据算料安全密切相关。 因此,保障数据算料安全是预测算法决策与运用的前提。 随着以大数据为基础的算法方式不断普及,相对应的数据安全问题所带来的风险也会与日俱增。 如果基于错误或是被篡改的数据进行算法分析,在刑事司法领域,很可能会造成严重的司法事故,延伸到智慧医疗、自动驾驶等民生领域,则会对人的生命安全造成重大威胁。 因此,推广预测算法在刑事司法中运用的首要任务就是针对数据的源头收集、过滤筛查、分门别类、应用落地、后期维护做好扁平化链条式的监管与保护,可以仿效区块链技术,对基础数据进行可溯源、不可篡改、条条上链的优化与改造。 与《数据安全法》《个人信息保护法》《网络安全法》相对接,保证数据收集、筛选、使用过程的透明度,将“公开”与“必要”“有限”原则相融合的基本宗旨贯彻始终。 对于数据的生成流程改造要求大致如此,但是不可忽视的是在自然人的操控环节同样要受到重视,通过上文美国COMPAS 对于黑人与白人犯罪率的差异化分析,可以看到,算法歧视的根源来自人的歧视,在这种歧视之下就会扭曲篡改数据算料的原本样态,给别有用心之人以可乘之机,那么此时无论是数据还是算法都将变得不再客观。 因此,更应该防范在数据采集与抓取过程中人的过错风险,防范本应客观的数据源头被不该有的主观价值偏好所污染。 “智慧司法”也好,“互联网法院”也好,大数据算法无论怎样应用都是离不开人的基础性作用和专业的刚性队伍建设
。
技术问题,它们仍将面临最后一个挑战:它们是否会被接受为刑事司法系统的合法决策者,或者它们的运用是否会破坏程序正义? 如果预测算法的支持者希望看到这些程序被法院和执法机构广泛采用,他们必须做的不仅仅是提高其公平性和透明度。 他们还必须使普通民众,甚至是受这些算法影响的被告去接受司法刑事系统算法应用的合法性。 其次,我国传统的刑法规制模式与现代智能化的算法技术对接难题,传统的刑法规制模式在面对现代智能化社会层出不穷的“新型”犯罪时显现出了明显的僵硬和滞后性,以新型网络犯罪为例:旧有的刑事司法模式针对传统的网络犯罪治理已经显得捉襟见肘,那种“头痛医头,脚痛医脚”的治理模式使得其在面对“日新月异”的犯罪时疲于奔命,处理犯罪的方式往往都是采取亡羊补牢的“补救模式”,先出问题,再想办法治理,理想化的“预防模式”远远没有达到。 而在面对被人工智能、大数据、算法催生强化后的“网络犯罪2.0”时,旧有的刑事司法模式更是对其“闻所未闻,见所未见”,这就很难对“数字时代”的新型犯罪进行及时有效的治理。 相较于传统的刑事司法手段,经过人工智能与算法技术赋能加强的刑事司法程序在技术层面拥有了更科学的信息抓取与分析方式和更强大的数据筛查与运算能力。 当技术不断革新,手段不断丰富的同时,就难免出现旧有的刑事司法程序与之脱节的情况。 我国目前“智慧司法”推行相对较好仅有浙江、上海、北京等几个经济相对发达的省市,而这些省市对于算法技术也仅仅是处于一种探索和局部应用的阶段,没有与旧有的刑事司法程序形成有效完整的对接体系
。 其余省份的“智慧司法”,大多数仅是将纸质办公升级为网上办公而已。 因此,想改变旧有的刑事司法程序与模式更需要强大的耐心与必要的时间,二者的磨合与适应注定是一个无法省略的过程。 当我国的智慧法院、人工智能、预测算法在短短几年间不断从1.0 升级到2.0,从2.0 升级到3.0 时,传统的公安侦查模式、检察公诉模式与法院审判模式想要追赶并与之对接就需要更长的时间和更多的精力来进行适应与弥合。最后,数据孤岛现象严重。各地区、各部门、各环节的算法应用呈现点状碎片化分布,与智能互联的构想相比,我国的预测算法在刑事司法中的运用并没有形成系统网络,超前的制度设计与系统化的全面实施还有相当距离
。纵观我国近些年的数据预算法在司法领域的实践与应用,无论是吉林法院的“智能司法服务平台”,还是四川成都中院创建的“‘和合智解’多元化解纷平台”,抑或是天津法院“审判信息化平台”都仅是停留在较为粗浅的技术层面,并且这些平台、模块、技术都是停留在办案的具体某个局部环节,或诉种分类,或所前调解,或案后执行,非常零散,远远没有达到“智能化,全覆盖”的深层次构想要求。 案件的“智能化”运用还处于对数据的收集和简单分类阶段,没有将更具实效的分析结果系统全覆盖地应用, 程序与应用之间的数据大多数情况下是不能进行互通的,“各自为政”现象严重,这就造成了数据孤岛与数据浪费,进而导致算法技术的异化。 诚然,大数据预测算法的系统化应用可以提高司法效率,但是如果各个系统与环节达不到统一,各种程序与应用之间没有固定标准,各类数据与算法运用无法系统互联,那么这种冗余、重复、孤立的数据算法“智能化”反而会对正常的刑事司法程序运行造成不必要的阻碍。
基于技术理性与价值理性相平衡的目标,激励发展与合理监管相协调的追求,刑事司法程序中的算法运用更应该坚守法律红线,释放技术红利。 根据我国《新一代人工智能发展规划》提出的技术问责与应用监督并举的要求,结合算法技术的实际发展与运用,实行全面化覆盖、系统性嵌套与及时性革新。
在式(5)两边同时乘以QH,由于正定矩阵具有保范性,因此,当Nt ≤ Nr时,经典球形译码检测可以转换为Tx-SD,其描述如下:
如前所述,实现真正中立决策的唯一方法是从预测算法中删除各种“标签”,或从人类决策者中删除所有隐含的偏见。 但前者一定比后者容易,因为从理论上讲,算法可以被编程来消除任何先前种族歧视所带来的因素。例如,假设一项研究表明,黑人居民和白人居民犯下某种类型的罪行的频率相同,但由于制度上的不公平,黑人居民更有可能被判有罪。 因此,如果使用未经调整的先前定罪数字,黑人被告的累犯率将不准确(不公平)地高于白人。 一旦这一事实被证实,程序员就可以改变他们的算法来消除先前存在的不公平,对黑人被告来说,通过适当的数量来减少这一罪行的先前定罪的数量,或者对白人被告来说,通过适当的数量来增加先前定罪的数量。这种调整可以针对记录了过去种族偏见的所有因素进行,并可以纳入各级决策过程,从确定逮捕的原因到选择量刑幅度,再到形成适当的判决。 即使我们可以相信每一位人类法官都知道这些先前存在的种族偏见的例子,即使我们可以相信每一位法官都会同情适当调整裁判的必要性,但任何人都不可能考虑到所有这些潜在的折扣,只有预测算法才能有效地做到这一点
。因此,如果它们被设计得适当,预测算法至少有可能实现比人类更优的中立性。
3.3 发枝促花剂对幼树骨干枝侧芽萌发及新梢类型的影响 从表3看出,处理显著提高了分枝侧芽萌发率,达到825.1%,比对照提高27.3%;并且抽生的新梢多为中短枝,比例占83.3%,比对照提高166.1%,说明处理能够有效促进中短枝的形成,为花芽孕育做好准备。
决定一个人是否会认为程序公平的首要因素是程序是否被有尊严地尊重或对待。 这存在于在侦查期间与警察的互动,公诉阶段与检察官的沟通,以及在审判过程中与法官交流的各个阶段。 然而,在评估大数据算法的感知合法性时,这个重要因素往往被忽略掉,因为服从算法决策的个体不会直接与算法或其设计者交互。 相反,当事人将与根据算法建议行事的人类警察、检察官和法官进行交流。 不管这些行为人是否使用预测算法来指导他们的决定,为了实现程序正义,他们必须要坚持有尊严地对待被告。 但是,伴随着预测算法在刑事司法中的不断渗透与普及, 依赖于预测算法的司法人员趋向于将刑事被告仅仅视为数字和概率的集合,他们更像是流水线上的物体,而不是自然人
。 如果做出的决定部分是基于预测算法,当局应该向被告解释算法的细节,而不是仅仅解释为机器强制做出的决定。 这将要求算法本身是透明的,以便警察、检察官和法官了解导致算法决定的因素,并要求当局做出额外努力,向被告努力解释这些因素,这种额外的努力也将有助于建立信任,这是另一个程序公正实现所需要的至关重要的因素。
程序正义是一种法律技术得以施行的前提条件。 它更关注感知的公平, 而不是实体的公平。 人们遵守法律不仅仅是因为他们害怕违反法律会受到制裁,主因还是他们相信法律是更为公平且合理的。 所以,预测算法在刑事司法程序中的平顺嵌入不能仅依靠制裁的恫吓,它必须是根植于民众内心的自愿认可。
预测算法对于提高决策者的实际中立性和感知中立性具有良好的应用效果, 因为算法的每一个决策都遵循相同的规则
。 然而,正如本文第一部分所讨论的,预测算法目前在我国刑事司法领域的应用依旧面临着巨大的挑战,我们在运用该项技术的同时也在不断深化固有的歧视与偏见。 社会中的特定群体更有可能因其犯罪前科、经济状况、甚至是性别而被定罪。 一个算法判决若将犯罪前科、自身经济状况、性别等作为定罪量刑的关键数据,将加剧现有的不平等,破坏法律所追求的中立性。 以美国的一项数据调查为例,即使算法避免使用前科或者种族作为确定行为风险的因素,其结果仍可能对黑人被告产生一定的影响。 事实上,对这些预测算法最常见的批评是,他们预测黑人被告比白人被告有更高的累犯率,COMPAS 算法评估数千名被告的风险得分,结果显示,黑人被告的假阳性率是白人被告的两倍
。 评估预测算法中立性的部分问题在于,不同的人可能对什么是“中立”有不同的定义。 在风险评分相同的被告中,黑人被告和白人被告的实际累犯率是相同的。 这有力地证明了算法是“中立的”,因为它的结果在种族间是相同的。 然而,由于黑人被告的总体累犯率确实是高于白人被告,因此从统计学上说,若想为了在结果上保持所谓的“种族中立”,预测系统就必须进行“调整”,对黑人的误报率必须高于白人。 很难说这两个相互对立和不相容的价值观——结果“中立”与相同的假阳性率——是如何转化为程序正义的。 从实质正义上讲,中立的结果应该是最重要的因素,也就是说,必须使黑人被告相信,系统给定的预测分数是中立且平等的。 但基于假阳性率的差异,加上低收入水平或犯罪前科记录增加了其被告评估的风险得分,极有可能会导致黑人被告认为这些算法对他们的种族不“中立”,存在严重的种族歧视。
2018 年7 月,《人工智能深度学习算法评估规范》将“深度学习(Deep Learning)”
认定作为算法真实性的考量因素,并针对预测算法形成了一套较为完整的评估体系。 在算法应用与监管的体系构建中,结合不同算法目的、运用场景、效果分类、程度要求等因素的场景化、系统化、精细化的算法治理机制正在不断生根发芽。 随着预测算法在刑事司法领域应用的不断深入,黑箱裁判、算法歧视的问题也愈演愈烈。 目前,出于对算法商业秘密的考量,预测算法的推演过程往往是不会被公开的。 算法应当坚持权利本位,坚持人的主体性地位,人在算法的审核中必须起到不可替代的作用。 想要规制算法,就必须去发现预测算法问题出处,并以人为主体进行最后的核查。 算法立法的核心原则是透明性原则,也就意味着我们需要知道算法是如何运作的? 算法体系接受哪些数据输入? 具体的数据算料是什么? 算法在决策中所占的权重几何? 我们可以将不同的分析事项进行细化与分类,完全市场化的商业大数据算法推演可以采用黑箱算法模式,但是涉及司法程序、社会公益、政务服务等关涉民众基本权利义务之事就必须提高算法公开性、透明度及可解释性。 与上述领域相关的算法系统投入使用之前必须进行严格的公共审计,大量的算法测试,逐渐形成一整套集合大数据采集、预测算法选用、结果输出、问责响应的完备体系,保障正当程序的实现。基于此,可以引用马克思·韦伯(Max Weber)“价值理性”与“工具理性”的观点来看,司法裁判并不存在非彼即此、非黑即白的二分法,他既需要对目的、手段、后果进行功利性的考量,也要有对司法公正、正直等价值的关怀。“工具理性”使得司法裁判具有客观、规范、可预测的特征,而“价值理性”使得司法追求真与善的统一,具有人性的温度,二者应在司法裁判的场域内实现微妙的平衡。 可以在刑事司法程序启动之前设置算法的解释说明的前置程序,从算法的角度而言,“深度学习”算法的优点在于推演与预测,但其在解释力方面存在短板。与“深度学习”相比,“知识图谱”(Knowledge Graph)
虽然无法精准在纷繁复杂的案件中给出完全正确的结果,但却拥有“深度学习”无法具备的优势,即高度的透明性。 我们不妨尝试通过交互式的方式分析预测算法模块的运行状况,将“深度学习”与“知识图谱”相结合,真实重现该决策结果所做出的计算过程与该过程的执行情况
。 从公权力的指引角度来看,如果公权力能够设置涉及公共事务算法的准入门槛,鼓励企业对算法的计算过程与所做出的具体决策进行详细释明,侦查、公诉、审判等各个阶段在办理案件的同时能够抵制无法做出合理解释且不透明的算法技术,赋予公众对预测算法所做出的决策提出质疑并获得救济的权利,那么预测算法的透明度乃至算法适用环境将得到巨大 改 善
。
刑事司法裁判中的预测算法运用可能对既有的诉讼结构造成冲击, 公权力机关的力量会由此大幅度提升,进而破坏诉讼环境的生态平衡,因此,在当前人工智能、预测算法不断应用与发展的大趋势下,可以尝试对当事人诉讼权利进行补强,来应对因科技导致的公权力漫溢,实现诉讼结构的重新稳定。 要想保障当事人诉讼权利,首先,要扩大诉讼中的信息获取能力,将
刑事诉讼中的阅卷权逐渐升级为“数据查阅权”。 就刑事阅卷权而言,基于保障被告受辩护以及自我辩护权的要求,公诉机关、审判机关在刑事诉讼的全过程都被要求向辩方进行证据公示,并为辩方查阅、复制、摘抄证据材料提供必要的便利条件。 随着大数据时代的不断发展,证据形式也在不断更新迭代,公权力机关不论在侦查、公诉抑或是审判阶段,其所能获取的相关数据远远超过了传统意义上的“案卷材料”,针对如此海量的数据,有很大一部分数据是不会被随卷移送的,使得辩方在传统阅卷权模式之下出现了“查阅空白”的现象,这就有违法律规定的初衷,很难从真正意义上保障被告人的合法权益。 基于此种脱节现象,我们应该适时考虑将传统的阅卷权升级成“数据查阅权”,顾名思义,该项权能即赋予数据主体及其辩护人查阅其涉案数据是否被正确解读、是否被扩大适用、是否对于案情具有重要影响,等等。 如此一来,数据查阅权既可以运用预测算法体系明确数据权利主体,进一步保障当事人合法权益,又可以扩大被告人获得数据的范围,超越原有“案卷材料”的范围限制,作用于刑事诉讼的各个阶段乃至法官的自由心证。 其次,应当为当事人提供技术层面专业的帮助,建立“专业保障权”。术业有专攻,面对预测算法、人工智能飞速发展所带来的刑事司法裁判的变革,无论是当事人抑或是其辩护人、代理律师都无法从容应对纷繁复杂的算法程序和浩如烟海的司法数据。 为了保障当事人的诉讼权利,推进预测算法的司法应用,急需专业人士来帮助当事人进行算法开示与数据甄别
。 从经验论的角度来讲,法律规定专业人士提供帮助早有制度基础,我国刑事、民事诉讼法均有规定“有专门知识的人出庭”制度,为专家辅助人参与诉讼提供了法律依据。 故而可以据此对该制度进行扩大解释,允许当事人及其辩护人、代理人向专业人员寻求算法分析或数据筛选等方面的帮助,从而为预测算法等技术的司法运用减少适用阻力。 最后,大数据时代背景下国家成为个人信息最大的收集、处理、存储和利用者,迫使隐私权保护走向个人信息保护成为必然的社会和法治变迁过程
。 完善预测算法之下数据的使用权能,赋予当事人更全面的数据权利,特别是被“数据遗忘权”显得尤为重要。 司法裁判中引入预测算法、人工智能等技术,虽然强化了国家通过诉讼收集使用个人信息的能力,增强了诉讼效率,但个人相关数据信息也毫无保留地在公众面前“裸奔”。 那么,如何疏解此难题? 以欧盟的《一般数据保护条例》(GDPR)为例,其赋予公民大量相关数据保护权利,即可被视为对此问题的应对。 在各种信息权利中,“数据遗忘权”是防止当事人个人数据信息在预测算法中被滥用的有效救济途径。 在刑事司法领域赋予当事人此项权利,允许信息主体在案件审结后的特定情形下,以申请的方式要求封存或删除涉诉个人信息,会减弱因预测算法的司法运用带来的公权力对公民个人数据信息的过分侵蚀。 诚然,旧有的刑事司法模式想要完美对接快速发展的算法技术,的确需要一个较长的适配过程,我们可以从各个关键节点出发,坚持以权利为本位的基本宗旨,逐步升级旧有的法治运行模式,以点带面,在刑事司法智能化整体不断加深的前提下,以权利的更新迭代创造出新技术与旧模式的对接接口。
以美国卢米斯案
为首的算法争议反映出来的对于预测算法刑事司法应用的系统性互联问题对整个算法生态系统都具有普适性价值
,由此,一整套体系完备、打通数据壁垒、联通数据孤岛的预测算法运用与规制的法律规范体系呼之欲出。 在刑事司法程序各个环节“各自为政”的状况下,首先要做的就是提高预测算法技术的透明度。 只有在保障预测算法透明度的基础之上,或者说至少在一定程度上提高算法的公知性,降低技术壁垒才能降低数据孤岛带来的影响度,使算法歧视、算法黑箱等问题充分暴露出来
。 由此,初期的立法可以先尝试进行原则性的规定,通过在司法实务中的应用与积累,综合考量预测算法刑事司法应用中不同场景所涉及的利益冲突,预测算法的披露方式、披露对象以及披露范围,预测算法的披露可能引发的诸多难以控制的后果。 努力平衡权利保护与技术进步之间的冲突,并且,预测算法在刑事司法程序中的应用相较其他程序更为敏感,算法产品涉及重要的人权、个人信息、商业秘密等敏感问题, 应当提高司法程序算法运用的准入门槛, 从算法源头保障数据的安全与清洁。2021 年9 月29 日,国家互联网信息办公室发布了《关于加强互联网信息服务算法综合治理的指导意见》,《意见》提出“利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”的重要目标,重点强调要“建立健全多方参与的算法安全治理机制”,形成“多元协同、多方参与的治理机制”。 在联通数据孤岛的道路上,技术力量是必不可少的,我国也涌现出很多司法技术产品,阿里的“司法云”、icourt 数据平台、无讼案例、聚法科技等一系列依托算法技术兴起的应用都在反哺着司法程序的高效运行。 基于此,我们可以尝试引入这些社会技术力量,所谓“高手在民间”,市场经济之下这些科技企业对于算法的更新迭代是最具前瞻性的,利用这些对算法、数据最敏感的企业来提供技术支持,助力司法系统建立统一互联的算法应用,联通数据孤岛将是一项有力举措。 将这些科技公司的智力成果融入刑事司法环节,为技术的更新持续提供支持。 当然,在强调建立统一的算法应用体系的同时,必须要坚守的核心原则是:算法决策工具决不能完全替代法官,归根到底,其只是对法官的量刑裁判起到辅助性的作用。 运用与解释法律本身就具有丰富的价值判断要求,法治需要与德治相融合,法律赋予法官的自由裁量权也是基于此目的。 法律僵化性的弱点需要法官来运用同理心来化解,自由心证的运用在刑事司法审判环节必不可少,算法技术无法应对诸如“药神案”“掏鸟窝案”“许霆案”等法理与情理交融的特殊案件,司法裁判不能完全诉诸纯粹的理性技术,使判决失去人性的温度。 尽管可以通过编辑、运算、设计等方式使算法识别尽可能多的相关关系,容纳尽可能多的数据参量,从而披露影响案件判决的各类个体性特征,但是由于目前数据质量、数量、算力等方面存在着诸多技术性局限,无法完全捕捉到所有个案中不可控的意外因子,必然不能揭示出人类意识中的所有的变量
。
尽管我们力图通过打造统一互联的算法刑事司法运用体系、 升级数据权利与算法技术来构建预测算法的规制与实施进路,但需要明确的是,无论预测算法多么精确和公平,我们始终需要一个人作为最终决策者。 法学是一门实践智慧,司法更是一种人事,司法决策依赖于人的实践理性,法律案件只能以特定的程序,通过中立的第三人(司法工作者)运用法律规范以及其他的人类的正义标准抑或是道德标尺来进行评判,只要这样的范式不发生变化,预测算法的刑事司法运用就不会偏离基本轨道。 司法实践的知识和技能往往是在司法实践中逐渐学会的,这种学习过程难以被形式化为计算机语言输入电脑,也无法从大数据中精确地分析得出。技术始终无法取代法律实施中法官、检察官和律师所拥有的司法知识、诉讼经验以及专业技术的深度。 法官裁判案件不仅仅需要法律知识,还需要其作为客观的自然人对社会效果的评价,源生于对基本道德判断与价值取舍的自由心证。 除了专业的法律知识外,对这些案件或事实进行区分所需要的往往是人类的判断以及鲜活且自然的同理心,这最重要的一点也恰恰是所有算法都难以模拟的判断与计量的情感
。
[1] 马长山.司法人工智能的重塑效应及其限度[J].法学研究,2020(4):23-40.
[2] 张玉洁.智能量刑算法的司法适用:逻辑、难题与程序法回应[J].东方法学,2021(3):187-200.
[3] 郑戈.在法律与科技之间——智慧法院与未来司法[J].中国社会科学评价,2021(1):80-92.
[4] 陈锐,孙庆春.人工智能司法决策的合法性辨疑[J].西安交通大学学报(社会科学版),2021(3):123-130.
[5] 吴习彧.司法裁判人工智能化的可能性及问题[J].浙江社会科学,2017(4):51-57.
[6] 刘艳红.人工智能技术在智慧法院建设中实践运用与前景展望[J].比较法研究,2022(1):1-11.
[7] 李鑫.智慧法院建设的理论基础与中国实践[J].政法论丛,2021(5):128-138.
[8] 杜宴林,杨学科.论人工智能时代的算法司法与算法司法正义[J].湖湘论坛,2019,32(5):64-74.
[9] 侯东德,张丽萍.算法推荐意识形态风险的法律防范[J].重庆社会科学,2021,No.321(8):77-90.
[10] HOWARD ROSENBAUM,PNINA FICHMAN. Algorithmic accountability and digital justice: A critical assessment of technical and sociotechnical approaches[J]. Proceedings of the Association for Information Science and Technology,2019,56(1).
[11] 刘东亮.技术性正当程序:人工智能时代程序法和算法的双重变奏[J].比较法研究,2020(5):64-79.
[12] 杜前.互联网司法实践与探索(杭州互联网法院)[M].北京:人民法院出版社,2021:31.
[13] 洪凌啸.误区与正道:法律人工智能算法问题的困境、成因与改进[J].四川师范大学学报(社会科学版),2020(1):58-70.
[14] 谢澍.人工智能如何“无偏见”地助力刑事司法——由“证据指引”转向“证明辅助”[J].法律科学(西北政法大学学报),2020(5):109-119.
[15] 郑曦.人工智能技术在司法裁判中的运用及规制[J].中外法学,2020(3):674-696.
[16] 李延舜.位置何以成为隐私?——大数据时代位置信息的法律保护[J].法律科学(西北政法大学学报),2021(2):107-118.
[17] 江溯.自动化决策、刑事司法与算法规制——由卢米斯案引发的思考[J].东方法学,2020(3):76-88.
[18] 姜野,李拥军.破解算法黑箱:算法解释权的功能证成与适用路径——以社会信用体系建设为场景[J].福建师范大学学报(哲学社会科学版),2019(4):84-92.
[19] 桑本谦.从要件识别到变量评估:刑事司法如何破解“定性难题”[J].交大法学,2020(1):29-46.
[20] 宋旭光.论司法裁判的人工智能化及其限度[J].比较法研究,2020(5):80-92.