文/陈霖煊
人工智能在警务领域的不断深化应用,使得执法效率和执法科技水平大大提升。人工智能要在执法环境中获得社会公众的信任,不仅要遵守法律规定,还应当符合伦理原则。
因此,2018 年12 月,欧盟执法效率委员会(CEPEJ)在现有监管制度的基础上,通过了第一个欧洲文书指引——《关于在法律系统及其执法环境中使用人工智能的欧洲伦理宪章》(以下简称:欧洲伦理宪章),以确保人工智能不仅纳入公共政策,而且也纳入伦理道德框架。
欧洲伦理宪章不仅阐述了在执法系统中使用人工智能(AI)的伦理原则,还为政策制定者、立法者和执法专业人员如何应对国家执法程序中人工智能的快速发展提供了指导框架。
欧盟执法效率委员会指出,在法律系统中使用人工智能工具和服务,旨在提高司法的效率和质量,值得鼓励。然而,它必须以负责任的方式,尊重个人的基本权利,符合《欧洲人权公约》(ECHR)和欧洲委员会公约108 号保护个人数据条例,以及其他基本的原则。
欧洲伦理宪章指出,人工智能发展应以增进人类共同福祉为目标,应保障个人基本权利,促进人机和谐。执法决策和数据的处理必须目标明确,且完全符合欧洲人权公约保障的基本权利和公约保护个人数据条例。当人工智能作为工具用于解决法律争端或作为工具来协助执法决策或指导公民时,其核心宗旨是保障公民权利和获得执法公正、公平审判的权利。使用人工智能时还应尊重法治原则,确保执法机关在决策过程中的独立性。因此,应优先按伦理和人权考虑设计人工智能法律工具,符合基本社会价值观。
鉴于人工智能数据处理方法可能会通过分组或分类处理个人或群体数据,从而揭示现有社会的歧视,公共政策执行者必须确保人工智能处理法律数据不再产生或加剧现有社会歧视,保障人工智能法律数据不会被歧视性分析或使用。此外,在部署人工智能研发时需要特别注意社会敏感数据,其中可能包括所谓的种族或族裔出身、社会经济背景、政治观点、宗教或哲学信仰、遗传数据、生物特征数据、与健康有关的数据或有关性取向的数据。如果权威部门和行政执法部门发现这种歧视后,有必要采取措施纠正,以限制风险,并考虑提高利益攸关方的认识。最重要的是,相关部门应该鼓励使用人工智能模型和多学科科学分析来打击这种社会歧视。
欧盟执法效率委员会指出,人工智能法律数据模型的设计应该能够广泛地利用相关执法专业人员的专业知识,并邀请法律和社会科学领域的研究人员、经济学家、社会学家和哲学家等,参与到人工智能执法程序设计环节中,推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中协调互动。在充分尊重人工智能道德伦理原则和实践的前提下,由项目团队共享共建共治,并通过实践反馈不断加强。
在安全性能方面,执法决策的数据被输入到人工智能算法的程序中时,应确保法律数据认证来源,保证法律数据实际使用过程真实可靠;人工智能法律应用过程必须可追溯,以确保法律实施的质量和安全;所创建的数据模型和算法必须能够在安全的环境中进行存储和执行,以确保系统的完整性和安全隐秘性。
人工智能要坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。透明、公正、公平的原则要求:使用数据工具时必须平衡知识产权和信息透明度之间的关系,保证公正性和知识完整性,以免产生法律后果;必须符合法律程序,形成科学闭环设计,因为法律数据选择过程和法律数据的质量和准确性直接影响到法律执行阶段;必须保证数据处理方法公开透明,以便接受外部监督审计。除此之外,人工智能系统还可以用清晰的专业语言来解释所提供的服务、已开发的智能工具和可能潜在的法律风险。国家法律部门或法律专家可以负责认证和监督审计,并提供建议。行政司法部门可以颁发认证,并定期进行审查。
一是必须通过使用人工智能工具增加服务而不是限制服务。二是执法系统的专业人员在任何时候都应能够审查执法决策和法律数据,并根据特定案件的具体特点,不完全受到司法结果的约束。同时人工智能工具提供的解决方案必须具有法律约束力,且必须以清晰可理解的语言告知公民。公民有权获得法律咨询、有权进入法庭、有权在执法过程实施前或期间获得由人工智能告知的对案件事先处理方式,并有权提出异议。三是当使用任何基于人工智能的信息系统时,都应该为公民提供人机结合方案,并与来自执法系统的执法人员进行商议。
在这些原则中,尊重人权和不歧视是根本性原则。