王建文 方志伟
(河海大学 马克思主义学院,南京 211100)
提要: 人工智能辅助地方立法是“人工智能+法律”的一种有益探索,可提高地方立法的科学性和民主性。但人工智能赋能地方立法的同时也可能带来立法信息过度收集、立法过程隐含歧视、立法结果无从考证等风险。对于人工智能辅助地方立法的风险治理,伦理规范具有先导性作用,但治理人工智能辅助地方立法的风险,须构建有别于宏观伦理原则的伦理框架。文章以人工智能辅助地方立法的基础设施提供者、信息提供者、信息处理者、系统协调者为伦理主体构建伦理框架,确立各主体相对具体且可供执行的伦理规范,并在人工智能辅助地方立法数据采集模块、数据挖掘模块、数据管理与存储模块的建设中嵌入伦理规则,确保人工智能立法平台可追溯、可审计、可解释,从而消解人工智能辅助地方立法的风险。
党的十九大报告提出全面增强执政本领,强调要善于运用互联网技术和信息化手段开展工作。2018年10月,习近平总书记在中央政治局第九次集体学习人工智能发展现状与趋势时明确指出,要加强人工智能同社会治理的结合,开发适用于政府服务和决策的人工智能系统[1]。近年来,国家层面的大数据和人工智能战略逐步实施,各类法律大数据和人工智能平台陆续建立①,大数据与人工智能推动中国法治事业不断进步。
《立法法》修改后,所有设区的市均有地方立法权。伴随着依法治国进程的持续推进和社会治理的精细化,地方立法工作量持续增加,但立法人才储备严重不足,人力工作的传统立法方式很难实现十九大报告中提出的地方立法要求。在时代诉求中,“人工智能+法律”已经成为新一代人工智能技术发展和我国法治建设的重要课题,并对立法、执法、司法等方面带来深远影响。在人工智能辅助地方立法领域,人工智能通过对立法大数据的搜集、挖掘与处理,辅助地方立法的功能日益增强,不断促进地方立法质量和立法效率提高。不过,人工智能辅助地方立法的同时,人工智能技术给地方立法带来安全风险同样不容忽视。
地方立法应遵循法治性、民主性和科学性。立法的法治性是指立法主体、立法内容、立法程序等应在法治的框架内;立法的民主性一方面指参与主体广泛、多元,另一方面指立法内容、立法过程和立法程序具有人民性,代表人民的价值取向;立法的科学性是指立法观念、立法制度、立法技术的科学化[2]。质言之,立法应当立足实际,回应社会现实需要,满足人民群众的呼声和诉求。但在地方立法实践中,除立法的法治性相对比较容易把握外,立法的科学性与民主性往往存在较大的“实践弹性”。而人工智能技术将有效促进地方立法的科学性与民主性。
在人工智能技术出现以前,立法信息主要通过官方渠道获取,非官方渠道信息很少被采用。即使立法部门设置门户网站搜集和统计民间立法意见,但较之有针对性采集立法信息的做法,且不说立法部门设置网站的使用程度是否有限,仅从地方立法意见搜集与处理的方式而言,该网站的功能也是有限的,因为不少地方立法者依旧沿袭传统立法技术模式,依靠人力来完成地方立法资料检索、资料比对、校对、规范性文件备案审查等任务,地方立法信息处理的效率和准确性难以得到保障。因此,公众意见征集渠道不畅通,地方立法公众参与程度有限,所获取的立法信息自然难以保证客观性与全面性[3]。问题的另一面,在信息化时代,因地方立法者信息处理能力有限,使得立法决策经常负担着“信息过载”的压力,也是立法权分散化和碎片化运转的重要原因[4]。尤其是面对大数据时代的“海量”信息,由于地方立法者获取和处理有效信息的效果不佳,导致地方立法工作呈现出立法信息不充分的假象,而这可能带来的严重后果是立法决策者依靠强权或者利用权力来使自身免受立法困境的影响。
人工智能技术出现后,地方立法所需的数据收集、存储、使用和挖掘等开始实现智能化,丰富了地方立法信息的获取途径和价值。目前,人工智能技术正被加速融入立法活动中,人工智能辅助地方立法的价值和成效正在凸显。其一,在“人工智能+法律”中,人工智能技术驱动的大数据生产,更能让地方立法制度成果真实快速地反映客观规律,同时数据思维的精确性也能最大限度地保障立法的中立性,从而破除立法中的部门利益壁垒[5]。其二,深度发挥人工智能等技术在资料获取方面的优势,辅助立法机关客观、整体、广泛的获取立法数据,征求立法意见,最大程度反映社情民意。其三,海量数据和人工智能的算法模型丰富了法学实证研究的分析工具和方法,让研究结果能更准确的展现事物发展规律[6]。此外,随着人工智能技术在地方立法中的不断应用,还可有效应对和处置地方立法中可能发生的舆情,实现地方立法与社会的良好互动。
民主性在地方立法过程中的重要体现即让广大人民群众参与其中,倾听人民群众心声和诉求,集纳人民群众智慧。为此,在地方立法实践中,立法者通常要通过召开专家论证会、利益相关方座谈会等形式征询意见。但问题是,能够参加各种论证会、座谈会和研讨会的专家学者以及利益相关者数量毕竟相对有限,多数普通民众参与地方立法的通道并不十分顺畅。这决定了地方立法草案中广大普通人民群众的诉求或意见,未必具有最大化的“代表性”。同时,在地方立法草案意见征集过程中,由于不少地方仍然借助传统意见征集模式,多数普通民众难以拥有较为便利的渠道和方式来发声,导致地方立法草案意见征集的民主性也会大打折扣。即使随着互联网的普及,现实中往往也只有少数民众会登录网络平台来反映对法律草案的修改意见,导致这种方式获取的意见并不具有较强的代表性。现实情况是,除北京、上海等少数地区外,地方人大官网鲜有设立立法意见征集系统[7]。如2013年《南京市生活垃圾分类管理办法》公开征求意见时曾出现无人提交意见的窘况[8]。再如《湖南省物业管理条例(草案)》在公开征求意见过程中,于全省范围内也仅征集到150条立法意见[9]。因此,地方立法机关在扩大立法民主性的努力中,尚需技术辅助。换言之,地方立法须通过现代技术手段扩大立法意见的收集面,尤其要通过人工智能技术赋能,让立法草案修改拥有更加充分的民意基础,这也是信息时代科学立法、民主立法的客观需要。
目前,人工智能辅助地方立法的参与程度尚浅,其对地方立法多为正面、积极的影响。不过,随着人工智能技术的发展,其在地方立法过程中参与程度愈发深入,可以想象未来地方立法将实现智能化生成。在缺乏有关制度规范的背景下,人工智能技术赋能地方立法的同时也可能存在如下风险:
立法信息收集检索是立法工作的基础与前提,贯穿于整个立法过程。人工智能技术凭借其超强信息数据处理能力,可以快速完成立法信息的归总。在人工智能辅助地方立法过程中,不仅要收集法规文本、判决文书以及相关立法建议等基础信息,还需要收集相关法律问题的评论文章、新闻报道、公开论坛上的留言评论等公开信息,甚至还需要使用日志搜集等技术对相关软件的后台运行数据等非公开信息进行采集。无论是何种渠道获取的立法信息,其中必然包含个人信息甚至隐私信息等。为追求立法效率,人工智能辅助地方立法平台的开发者可能忽视甚至主动规避个人信息收集的目的限制②,对个人信息进行深度挖掘和利用。例如,在地方立法草案的意见征集环节,一般须对有关意见对象的数据进行挖掘和分析,描绘数据画像,最后依其数据画像决定对该意见对象的建议或意见采纳与否,这显然超出了个人信息的使用范围。随着人工智能介入地方立法工作程度越深,个人数据过度采集的风险就越大,导致诸如大数据挖掘涉嫌隐私权侵害和采集个人信息的合法性问题的可能就越多,因此,人工智能辅助地方立法的立法信息过度采集风险也将随着人工智能介入的深度和广度而不断增高。
正义是法律的核心价值之一,在地方立法过程中应一以贯之,具体至人工智能辅助地方立法平台之中,其应无差别地吸收社会群体意见,平等对待立法生效范围内的各类群体权益。但在人工智能应用实践中,以算法为核心的人工智能普遍存在偏见和歧视[10],反映在人工智能辅助地方立法的具体应用中可能表现为忽视部分群体利益、漠视部分群体的意见。这主要因为:
其一,既有社会偏见的平台设计者。在人工智能立法平台构建中,从算法设计到数据搜集,再到数据挖掘及利用,系统开发者自身的价值判断会始终贯穿其中,系统开发者自身的主观偏见可能会融入人工智能辅助地方立法的模型之中。人工智能辅助地方立法平台也因由人类自己设计和开发,期间必然会有意或无意、或多或少地嵌入了开发者的主观价值判断。例如,人工智能辅助地方立法平台因信息采集和处理的需要,会将相关立法建议数据化、条理化和结构化,并进行相关分类和赋值,而这一人工智能数据挖掘过程中的分类标准、赋值方法均由能动主体的人类开发者来设定。此时,人工智能辅助立法过程中则必然带入了设计者对部分群体的歧视。
其二,暗含社会偏见的数据信息混入人工智能辅助地方立法系统。人工智能辅助地方立法平台的开发需要大数据的支撑,而数据的质量将直接决定人工智能辅助地方立法平台的质量。对于大数据而言,其本身所折射出的人类价值观或观念往往是混合而多元的,既可能蕴含先进的社会价值观念,也会夹杂落后的社会价值观念。此时,立法平台可能将一些带有落后或歧视性的社会观念纳入人工智能辅助地方立法平台之中,从而进一步强化了现实社会落后的价值观和既有歧视。这种囿于数据本身的偏见和歧视而导致的算法偏见与平台歧视等问题,也被称为病毒性歧视(Viral Discrimination)[11]。与此同时,通过人工智能辅助地方立法平台技术采集到的不完整、不正确或过时的数据,也可能会导致系统的歧视和偏见。此外,对于信息化较为落后的偏远地区或是对现代信息技术接受程度较低的人群因该部分立法信息数据的缺失无法反映该部分民众的合理诉求,进而在立法过程中对该部分群体产生隐性歧视风险。
所谓立法结果即立法机关经由特定程序制定的规范性法律文件及其体系[12],是立足社会现实和社会治理需要,综合多方立法意见得出的规范性文本。因此,为保证立法科学性、合理性,地方立法条例均会规定立法过程中应采用条旨和条文说明相结合的方式阐明立法理由、依据;对关涉社会公众切身利益的应当征求意见并说明意见采纳情况③。但在人工智能辅助地方立法平台中,由于人工智能“黑箱”的存在,立法结果的合理性变得无从考证。立法平台将各种立法意见、社会现实、立法经验等立法依据、理由清洗、挖掘、形塑为结构化的立法数据,并通过一系列的算法运算后得出立法结果,但立法者却并不知悉其经历了怎样的运算过程,对立法意见是如何分类、挖掘,吸收了何种意见,为什么吸收,人工智能也无法给出明确答案。此外,由于机器语言向自然语言转化的“技术鸿沟”的存在,即使公开人工智能辅助地方立法的算法模型、要素权重、算法记录甚至是源代码,也仅仅让社会公众知其然,而无法知其所以然。质言之,由于人工智能黑箱及技术鸿沟的存在,人工智能辅助地方立法平台无法对立法条文的合理性予以阐释,立法结果的合理性也必然无从考证。
毋庸置疑,随着人工智能技术不断发展进步,人工智能技术介入地方立法的维度和深度会越来越广泛且深入,人工智能辅助地方立法的风险也充满不确定。事实上我们无法预测未来,科技发展的结果总是不确定的[13]。但这并不代表就我们对人工智能的各种挑战只能坐以待毙,一个较好的方法即将伦理风险评估和合规体系建设作为人工智能应用系统开发建设的一部分[14]。
当前,大数据、人工智能等技术在地方立法领域的应用尚处于初步阶段,技术对立法的参与度尚不深入,对立法的影响多为正面影响。然而,随着技术在立法应用中的不断深入,信息过度收集、立法过程隐含歧视、立法结果无从考证等风险有可能逐步加剧,若不加以限制极易滑向“科林格里奇困境”④。法律和伦理(道德)作为社会治理规范体系中最为基础的调整手段,以不同方式和机制对不同领域予以调整规制,但由于法律的滞后性,对于人工智能辅助地方立法的规制,伦理规范具有先导性作用[15],社会治理的历史经验也告诉我们,由人类自己创造技术并使用技术而衍生的风险,在得到成熟治理之前,往往是需要通过伦理道德的准则来规制和约束。在人工智能技术发达国家,如美国、欧盟、韩国、日本等对人工智能的治理研究多从伦理规范开始,并纷纷制定出台人工智能治理的伦理规范⑤。因此,在人工智能辅助地方立法中,防范和治理风险的基础性工具便是伦理规制。
2017年,国务院在《新一代人工智能发展规划》中提出“制定促进人工智能发展的法律法规和伦理规范”[16],2019年进一步提出人工智能的治理框架和行动指南,提出八项治理原则⑥,但这些基本伦理原则对规制人工智能应用过于宽泛。鉴于伦理规制的对象与价值,自起点到终点,都是由人类作为能动性的主体来承载或发挥作用。因此,在人工智能辅助地方立法风险治理中,若要发挥伦理的规制价值,核心问题是要回答到底是谁的伦理,或要用伦理规范谁来承担义务的问题。审视人工智能辅助地方立法的技术路径,主要由处理立法信息的软件系统和提供算力、载体的硬件系统构成。其中软件系统的核心是对有关立法信息搜集、清洗、挖掘、分析,是地方立法信息从混乱的数据转化为立法智慧的“信息价值链”;硬件系统则是由人工智能辅助地方立法系统的底层基础设施构成,是人工智能地方立法软件系统运行的物理基础。由此,人工智能辅助地方立法的能动性主体可从“角色—功能”角度划分,主要由基础设施(硬件)提供者、信息提供者、信息处理者和系统协调者四个角色组成。因此,前述四类主体便建构了人工智能辅助地方立法风险治理的伦理框架。
基于人工智能辅助地方立法的技术逻辑特点,人工智能辅助地方立法系统中的基础设施提供者,为人工智能辅助地方立法提供算力支撑,是实现立法信息从原始数据到立法文本转换的载体。具体而言,人工智能辅助地方立法算力来源主要由各种智能芯片提供,如中央处理器(CPU)、图形处理器(GPU)及硬件加速器(FPGA)等芯片;信息转换的载体则主要通过构建分布式数据库实现,也可通过云存储、云计算实现。无论采用何种部署方式,基础设施提供者的主要作用旨在提供算力支持的智能芯片与信息转换载体的数据库或云服务。因此,在人工智能辅助地方立法的伦理框架中,基础设施提供者的功能主要在于提供合格的产品与服务,在人工智能辅助地方立法风险治理中,该主体承担的伦理责任接近于“产品责任”[17]。易言之,在人工智能辅助地方立法风险治理中,规制基础设施提供者的伦理旨在至少要保证人工智能“产品合格”,符合“产品质量”要求,即人工智能辅助地方立的基础设施提供者负有避免和承担“产品不合格”的伦理义务和责任。
地方立法在立项调研、立法评估等环节离不开如地方政府(部门)、企事业单位等积累的业务数据的支撑,如在垃圾分类立法的前期调研中必然需要环保部门提供本地垃圾的存放、回收、运输等数据。在人工智能辅助地方立法平台中,持有相关立法数据的群体或个体通过平台提供其记录或观测到的有关业务数据。这些提供地方立法数据信息的群体或个体作为人工智能辅助地方立法伦理框架中的具体主体,其行为同样要接受伦理的规制。因此,人工智能辅助地方立法中信息提供者伦理,自然成了人工智能辅助地方立法伦理框架中一个不可或缺的重要组成部分。具言之,人工智能辅助地方立法中信息提供者伦理,旨在保证信息提供者所提供的信息满足程序合法、内容真实、无权利负担等基本伦理义务要求。
信息处理者,主要指人工智能技术和服务提供商。在人工智能辅助地方立法中,信息处理者主要任务是承担信息处理活动,其具体职责主要包括人工智能辅助地方立法中信息的分类、清洗、挖掘、分析等,是立法决策输出的关键节点。就能动性行为主体而言,人工智能辅助地方立法中的信息处理者,通常表现为技术工程师,但实际中也可能包括法学专家为立法数据的分类、赋权等提供智力支持。他们在人工智能辅助地方立法平台中的主要业务,一是对有关原始数据分类、清洗、标注使其符号化、结构化;二是利用结构化数据分析、建模,运用机器思维求解有关问题,如敏感词查询、上位法比对等;三是信息处理后的可视化展示,实现立法者与立法平台间的交互。显然,在人工智能辅助地方立法伦理框架中,信息处理者是作为人工智能辅助地方立法信息处理中坚力量存在的。对人工智能辅助地方立法中信息处理者的伦理规制,对防治和避免“算法黑箱”,或追求“算法透明”乃至实现“可解释性”等具有十分重要意义。因此,赋予人工智能辅助地方立法中信息处理者的伦理义务的最低要求,便是信息处理者不能突破信息“善良处理”的底线。
在人工智能辅助地方立法平台的组织架构中,系统协调者类似于“大管家”角色[17],其角色定位是为人工智能辅助地方立法活动提供政策咨询、组织协调各主体任务分工,统筹管理立法资源等服务,从而满足人工智能辅助地方立法的整体要求,保障人工智能辅助地方立法的正常运转。人工智能辅助地方立法涉及多学科、多部门,为实现人工智能辅助地方立法的顺利开展,其系统协调者理应是庞大而开放的,既包括宏观管理层面的协调者,也包括微观技术层面的协调者。因此,在人工智能辅助地方立法的伦理框架中,系统协调者伦理义务可区分为宏观和微观两种能动主体予以规制,以便提升人工智能辅助地方立法风险治理的精准性。为此,人工智能辅助地方立法中的系统协调者伦理义务,在共性上须遵循“善良”“人本”“合法”“公正”“平等”等基本原则性伦理规范,同时要承担“个性化”伦理义务。例如,要求引导和管理人工智能辅助地方立法活动的有关国家机关,在涉及人工智能辅助地方立法政策和相关制度的供给与服务,须践行宪法引领下的合法性要求且须促进社会发展进步的基本职责。对于服务于人工智能辅助地方立法中的其他系统服务者而言,则要求他们的服务行为、过程及结果等须符合必要的规范或具体标准等。
通常在面对“人工智能+”领域风险治理的伦理规制问题,多数研究者会习惯性提供包括诸于“善良”“公正”“安全”等内涵的宏观层面的版本[18],来作为相关领域“人工智能+”伦理原则建构的内核。诚然,这种建构是必须且富有价值的,但立足伦理义务最终能要在实践层面发挥功能的维度看,宽泛意义上的伦理原则需要通过尽可能“具化”或“可操作性”的伦理义务来达到规制人工智能主体行为的目的。基于此,本文在“人工智能+地方立法”的具体领域,即于人工智能辅助地方立法的风险治理中提出伦理框架,通过将伦理主体分解并结构化,以及有针对性地赋予他们既有共性又有区别且相对具体的伦理义务,将有助于人工智能辅助地方立法风险治理中主体伦理义务的实践。
从科技哲学的视角来看,人工智能辅助地方立法风险的伦理规制的实质是如何在人工智能技术应用过程中嵌入伦理规范,并据此制定相应的行为规范,从而规范各相关主体的开发、利用行为[19]。质言之,人工智能辅助地方立法风险的治理,即如何将本文提出的伦理框架范围内所涉主体的伦理义务付诸实践而完成对失范行为的规制。如何实现这一目的,关键是要在人工智能辅助地方立法的重要环节嵌入伦理或法律义务。由于人工智能的设计开发缺乏跨学科间的合作,且在跨学科语境下因通常使用宏观的伦理术语或伦理原则,导致有关践行伦理规范来治理人工智能技术风险的努力被“搁浅”。
人工智能辅助地方立法的核心技术即在于对立法收据的收集、分类、比对、挖掘并生成相关文本,因此该系统设计将以数据信息的流转为主线,分为数据采集模块、数据挖掘模块、数据管理与存储模块、数据可视化(发布)模块等业务模块,实践中数据可视化(发布)模块主要是呈现立法草案等处理后的数据,其对地方立法产生的风险较小。因此,在人工智能辅助地方立法中,本文选取其中最为核心且伦理主体相对固定的功能模块,即数据采集模块、数据挖掘模块、数据管理与存储模块予以阐释,如何将各伦理主体的伦理和法律义务廓清并嵌入各业务模块开发过程,以便于技术专家理解并内化于人工智能辅助地方立法的模块之中。
根据数据来源主体的不同,地方立法数据主要有外源型数据和内部数据。其中,外源性数据是指非由立法部门的其他信息提供者如地方政府(部门)、企事业单位等积累的业务数据。内部数据是指立法部门自身通过对个体或群体行为进行观测和记录得到的数据。针对外源型数据,在数据采集模块设计之时即对信息提供者所提供的立法信息的程序合法性、内容真实性、无侵权性等予以审核,如设计双份信息提交制度,即某信息提供者应由双人分别提交,核验信息的内容真实性等。针对内部数据,立法部门在数据采集过程中除遵守信息来源程序合法性、内容真实性、无侵权性等伦理义务外,还应着重注意“公正”“平等”等基本原则性伦理规范。在模块开发之时,应该硬性设计多渠道、多维度的获取数据,让不同身份主体的立法建议、民意等数据能够进入数据采集模块,确保立法的内容没有歧视和偏见。如在立法征求意见时可从网络舆情和实际观测两个角度分别采集立法过程中所需要的数据,并进行审核和清洗以剔除质量低、真实性差的劣质数据。此外,数据采集模块的设计开发还应当嵌入相关法律规范和技术标准,如数据采集应符合《信息安全技术个人信息安全规范》等技术标准。
数据挖掘模块的主要功能是对前述数据采集模块获取的大数据予以分析,挖掘出其中的隐藏信息。目前,数据挖掘的主要方法包括分类、估计、预测、聚类、相关性分组和关联规则挖掘等。通过使用上述方法对已有数据进行计算和处理,使原本看来毫不相关的两组数据呈现出一种关联规则,或者一系列杂乱的数据可能呈现出一些走势规律。
数据挖掘分析是信息处理者的主要业务范围,也是整个业务流程最为核心的环节。具言之,数据挖掘即通过数据挖掘技术,使地方立法者对立法环境或社会背景有更清晰更深刻的认识,从而有机会在立法过程或法律文本中体现出来。在数据挖掘、分析的过程中,信息处理者应遵循其最基本的“善良处理”伦理义务。具体至模块设计而言,一是信息处理者对数据的分类标签应公平、公正。为确保系统的分类、分组标准无暗含歧视风险,规避信息处理者的自身社会偏见,该模块的有关数据挖掘的分类标准等还应当予以公开。二是信息处理者不可以相关性替代因果关系。数据挖掘可让某些立法数据的走势规律清晰呈现,并提供未来的数据走势预测,为立法者在制定法律时能够做出一些前瞻性的考虑,但此举仅可为立法者在后续评估、修法提供参考。三是信息处理者应赋予个体数据(个人信息)“被遗忘权”[20]和“差别隐私”[21]对待。在数据挖掘模块中,人工智能辅助地方立法平台应赋予数据主体以“被遗忘权”,单次立法结束后,数据主体对其发表的立法建议及被采集的个人信息等应有权选择删除,这是对个人信息保护的惯用做法。对个人信息“差别隐私”,即信息处理者应当模糊化处理个体数据(个人信息),隐藏确定个人与特定数据的关联关系,从而保护公民的个人信息和隐私权。
目前Hadoop云计算技术、大规模并行处理架构新型数据库集群等技术,实现海量数据的存储,使得大数据作为人工智能辅助地方立法成为可能。人工智能辅助地方立法数据的存储和管理是实现智慧立法的基础。实践中无论基础设施提供者使用何种数据库,如何设计数据库,都应遵从一个原则:数据安全和性能稳定,此即基础设施提供者“产品合格”伦理义务在数据存储和管理模块中具体体现。
具体至人工智能辅助地方立法平台的设计,一是建立数据容错机制。基础设施提供者在构建数据存储模块时需采用多种应对方案确保立法数据库稳定运行,如独立硬盘冗余阵列(RAID10)、CPU冗余设计、双机热备份等容错方案,确保地方立法数据库服务器至少要实现99.99%的平均无故障运行时间;二是建立数据容灾机制。仅靠数据容错机制也许尚不足以面对各种猝不及防的突发事故,基础设施提供者还应设计更多的容灾应急预案保障人工智能辅助地方立法平台符合产品质量要求。以电力供应为例,地方立法数据库应符合国家数据中心设计规范,如A级数据中心应配备双电源供电并设置独立备用电源(UPS)⑦。此外,根据人工智能辅助地方立法平台的需要,还可采用更高级的容灾策略,如可考虑在同一个立法效力范围内的不同地区或不同城市建立多个数据中心,相互连通、互相备份。
此外,在人工智能辅助地方立法系统的开发、部署过程中还需注意:首先应将个人隐私和数据治理贯穿于系统的整个生命周期,在数据利用过程中确保数据的完整性,并记录人工智能辅助地方立法平台数据处理的全流程。立法行为在人工智能时代就是对数据的处理和利用过程,通过记录立法数据的流转、运算,实现立法行为可追溯。其次,人工智能辅助地方立法系统的开发、部署过程应保持全程透明,确保系统中的数据标注,算法及其决策过程公开透明,结合数据可追溯性实现立法过程的可审计。最后,人工智能辅助地方立法系统的开发、部署过程中其核心业务应采用可解释的人工智能技术(Explainable AI),避免采用关联性数据和深度学习模型,结合数据、过程等追溯和审计,就立法结果实现对不同利益相关者不同之解释,确保立法结果可解释。
新时代地方立法如何做到合法性、科学性和民主性?人工智能辅助地方立法便是“人工智能+法律”融合形式在地方立法上的探索。不过,我们在享受人工智能辅助地方立法带来的技术红利同时,也需要对其可能带来的风险和挑战予以应对。
在治理人工智能的法律制度尚未出台并发挥作用之前,通常需要借助伦理道德规范的基础力量来规制和引导人工智能发展。而当前的现状是,我们在伦理道德层面提出的伦理规范往往停留于宏观的伦理原则层面,该伦理层面的“文本规范”或“纸上义务”如何真正有效地转化为“人工智能+”领域的风险治理实践,则仍需要我们继续探索和努力。因此,在人工智能辅助地方立法的风险治理中,我们仍坚持要发挥伦理规范的基础性作用,但较之以往“善良”“正义”“人本”等伦理原则的规制作用,我们在此基础上提出要构建不完全等同于宏观伦理原则的人工智能伦理框架,在既追求共性又强调个性中设定人工智能辅助地方立法的基础设施提供者、信息提供者、信息处理者、系统协调者相对具体明确且可供执行和便于落地的伦理义务,并将其嵌入到人工智能辅助地方立法平台建设的关键环节,确保人工智能辅助地方立法平台可追溯、可审计、可解释,最终达到人工智能辅助地方立法风险治理的目的。当然,随着法治进程的加速,有关“人工智能+”领域的治理问题最终要走上法治的轨道,实现人工智能的依法治理。
注 释:
①2014年,天津市人大常委会法制工作委员会开始使用北大法宝智能立法支持平台;2014年,南京邮电大学、北京大学法学院、清华大学信息科学技术国家实验室、中国政法大学企业法务管理研究中心等多家机构联合成立“中国法律大数据联盟”;2018年,上海政府立法信息平台投入使用;2018年,浙江省人民政府联合浙江大学成立浙江省立法研究院探索打造“智能立法”。
②关于个人信息处理的规制,目前并无明确的法律依据,学术界一般认为公权力对个人信息使用应遵循合目的性原则,即对个人信息的利用不应超过个人信息收集处理目的。(参见赵宏:《从信息公开到信息保护:公法上信息权保护研究的风向流转与核心问题》,《比较法研究》2017年第02期。)
③《甘肃省地方立法条例》第三十一条、第三十二条。
④科林格里奇困境是1980年由英国学者科林格里奇提出,是指新技术在发展初期应予以充分规制,避免日后发展无法控制。(参见陈凡、贾璐萌:《技术控制困境的伦理分析——解决科林格里奇困境的伦理进路》,《大连理工大学学报》(社会科学版)2016年第1期。)
⑤如欧洲机器人研究网络发布《机器人伦理学路线图》,韩国工商能源部发布《机器人伦理宪章》,日本起草了《下一代机器人安全问题指引方针》,美国设立专项基金对“机器人伦理学”进行研究,(参见腾讯研究院:《全球人工智能政策及对我国的启示》,2017年1月发布。)
⑥2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》明确了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则,加强人工智能法律、伦理、社会问题研究,积极推动人工智能全球治理。(参见《发展负责任的人工智能:我国新一代人工智能治理原则发布》http://www.most.gov.cn/kjbgz/201906/t20190617_147107.htm.2020年6月17日最后访问。)
⑦《数据中心设计规范GB50174-2017》第8.1.12条。