人工智能的法律伦理建构

2019-03-05 23:35
江西社会科学 2019年2期
关键词:伦理人工智能法律

在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。

作为一个专业术语,“人工智能”可以追溯到20世纪50年代。美国计算机科学家约翰·麦卡锡及其同事在1956年的达特茅斯会议提出“让机器达到这样的行为,即与人类做同样的行为”被称为人工智能。[1](P4)不同于以往的其他技术,人工智能由于其特有的深度学习①能力,“技术乐观派”认为 “未来的超级人工智能可能与人类智慧媲美甚至超越人类智慧,拥有与人类相同的价值观”。同时,“技术怀疑主义者”坚信“建造超人类水平的通用人工智能实在太困难了,没有几百年的时间,根本无法实现,担心人工智能的崛起,就好像担心火星出现人口过剩一样”[2](P41)。我们无意去做技术发展进程中的“卢德分子”②,因为无论人工智能未来发展的进程如何,可以肯定的是技术赋予了生命一种进化的力量,让我们去面对技术进步带来的一次次惊喜与考验。

具有道德和伦理意识是我们人类区别于其他生命体的特征之一,人工智能目前乃至未来是否具有自我意识,我们尚不可知。人类在面对人工智能带来的各种挑战时,连最基本的何为“智能”的概念都无法达成共识。但是,当我们面对人工智能技术的迅猛发展,例如“电车难题”③这样的伦理问题在以技术为驱动的无人驾驶汽车领域成为程序设计者们不得不面对的伦理拷问。当我们人类面对这样的伦理难题无所适从时,如何在算法中嵌入我们认为普适的人类价值观,从而引导人工智能作出符合人类法律伦理准则的决策。除此之外,算法引发的种族和性别歧视、算法杀熟等问题如何解决都是需要我们直面的法律和伦理困境。现有的法律体系和法律框架可以解决由人工智能引发的部分法律难题,例如自动驾驶引发的责任分配等问题可以在现有的侵权法和产品责任法框架内找到部分答案;人工智能创作物是否可以受到法律的保护,依赖著作权法的法律路径可以部分得以解答。但是,人工智能技术对现有法律体系的冲击引发的最棘手的问题是法律伦理的考量,当理性的法律面对需要拷问人性本真的道德和伦理时,如何在现有的法律框架中进行适时的调整,是本文待解之题。

一、人工智能面临的法律伦理难题

人工智能因其自主性和学习能力带来不同于以往任何科技的新的伦理问题,对人类社会各方面将带来重大影响。让人工智能符合人类社会的各种规范和价值并实现全球普惠发展,是构建普惠人工智能和有益人工智能必须解决的问题。2016年以来,人工智能伦理问题日益得到重视。2016年8月,联合国下属的COMEST(科学知识和科技伦理世界委员会)发布《机器人伦理初步报告草案》,认为机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准则编写进机器人中。同年9月,英国政府发布的人工智能报告《机器人学与人工智能》呼吁加强人工智能伦理研究,最大化人工智能的益处,并寻求方法以最小化其潜在威胁。之后,美国白宫在其发布的《国家人工智能研发战略计划》中提出开展人工智能伦理研究,呼吁研究新的方法来实现人工智能与人类社会的法律、伦理等规范和价值相一致。2017年1月,人工智能研究机构——未来生命研究所(Future of Life Institute)召集人工智能、法律、伦理、哲学等领域众多专家和学者召开阿西洛马会议并形成了23条人工智能原则,作为人工智能研究、开发和利用的指南。[3](P22)此外,各国政府及产业界已经斥巨资设立了多个研究基金,推进对人工智能伦理问题的研究。

但是,也有观点对人工智能发展过程中伦理因素考量的必要性存疑。例如斯坦福汽车研究中心的执行总监Stephen Zoepf认为,对电车难题的讨论是没有意义的。德国汽车制造商梅赛德斯公司更是直接给出自己对于电车难题的答案即梅赛德斯公司将优先保护车上人员的安全。计算机编程无法完全模仿人类的心理活动,例如情绪等因素无法量化衡量,因此无法实现真正意义上的伦理编程。人类的道德判断和决策并非完全基于理性、经验,更多的是一种感性且随机的直觉反应。因此,整个社会的道德框架一般是稳定的,但是当不同的主体面对利益取舍时,却会因人、因事的差异而作出不同的选择,也就是说,人类的道德决策过程本身就兼具有意识性和无意识性的特征。人工智能发展过程中,我们必须要考虑的伦理问题概括来说包括以下内容。

(一)人工智能算法的可解释性和透明性问题

人工智能系统进入人类社会,必然需要遵守人类社会的法律、道德等规范和价值,做出合法合道德的行为。易言之,被设计、被研发出来的人工智能系统需要成为道德机器。在实践层面,人工智能系统做出的行为需要和人类社会的各种规范和价值保持一致,也即价值一致性或者说价值相符性。由于人工智能系统是研发人员的主观设计,这一问题最终归结到人工智能设计和研发中的伦理问题,即一方面需要以一种有效的技术上可行的方式将各种规范和价值代码化,植入人工智能系统,使系统在运行时能够做出合伦理的行为;另一方面需要避免研发人员在人工智能系统研发过程中,将其主观的偏见、好恶、歧视等带入人工智能系统。2015年谷歌公司的图片识别服务错误地将某些黑人标记为大猩猩后,被批评种族主义事件的谷歌公司立刻采取措施在搜索结果中删除了这一标签。

算法如何作出这样的匹配我们尚不可知,可以肯定的是这种算法歧视与算法本身的构建和其基于的数据样本数量及样本性质密不可分。算法歧视问题其实取决于底层数据的积累,数据积累越多算法计算就越准确,对某一人群的算法描述就越精准。同时,随着算法复杂性的增加和机器学习的普及导致算法黑箱问题越来越突出。美国计算机协会公共政策委员会在《算法透明性和可问责性声明》中提出七项基本原则,第一项基本原则即为解释,其含义是鼓励使用算法决策系统对算法过程和特定决策提供解释,并认为促进算法的可解释性和透明性在公共政策中尤为重要。未来人工智能系统将会更加紧密地融入社会生活的方方面面,如何避免诸如性别歧视、种族歧视、弱势群体歧视等问题,确保人工智能合伦理行为的实现,这需要在当前注重数学和技术等基本算法研究之外,更多地思考伦理算法的现实必要性和可行性。

(二)人工智能算法的正义问题

依托于深度学习、算法等技术,从个性化推荐到信用评估、雇佣评估、企业管理再到自动驾驶、犯罪评估、治安巡逻,越来越多的决策工作正在被人工智能所取代,越来越多的人类决策主要依托于人工智能的决策。由此产生的一个主要问题是公平正义如何保障?人工智能的正义问题可以解构为两个方面:第一,如何确保算法决策不会出现歧视、不公正等问题。这主要涉及算法模型和所使用的数据。第二,当个人被牵扯到此类决策中,如何向其提供申诉机制并向算法和人工智能问责,从而实现对个人的救济,这涉及透明性、可责性等问题。在人工智能的大背景下,算法歧视已经是一个不容忽视的问题,正是由于自动化决策系统日益被广泛应用在诸如教育、就业、信用、贷款、保险、广告、医疗、治安、刑事司法程序等诸多领域。[4](P60)从语音助手的种族歧视、性别歧视问题,到美国犯罪评估软件对黑人的歧视,人工智能系统决策的不公正性问题已经蔓延到了很多领域,而且由于其“黑箱”④性质、不透明性等问题,难以对当事人进行有效救济。例如美国的人工智能软件系统Entelo可以帮助招聘公司搜索社交网络上的信息,寻找到那些在公共场合表达想要跳槽的潜在员工。又如HireVue等系统能够通过分析面试视频数据评估应聘者的人格特点以及合适度,在视频面试的情境下,这类智能系统可以迅速对应聘者的面部活动、表达以及肢体语言进行分析,并且与其他的应聘者进行比较,为招聘公司找到“最合适的人选”。像Mya、JobBot等智能系统甚至可以实现面试环节完全自动化,通过让应聘者与智能聊天系统互动来安排面试时间,即时产生应聘者排名,节省超过75%的时间,大幅度地提高招聘效率。但是效率的提升并不意味着公平。智能系统中潜存着多种类型的偏见,可能会对应聘者带来决定性的负面影响。在很多情形下,应聘者甚至不知道自己正受到机器偏见导致的不公正对待。

美国很多州的法院尝试基于智能的犯罪管理分析系统(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)预测作出关乎罪犯命运的司法判决,例如量刑轻重、保释金数额、是否允许以及在何时假释等。系统对关押的一万多名刑事罪犯的刑事判决展开了对比分析。这些罪犯在被关押进监狱之前,需要填写一份COMPAS问卷,他们的回答将会被录入COMPAS软件中,随即系统会得出某一罪犯在若干方面的分数,例如累犯的风险、暴力犯罪累犯的风险,等等。将这些系统得出的预测累犯率与在两年内这数万名罪犯实际发生再次犯罪的情形进行了对比分析后,发现COMPAS算法的准确率达到了60%左右(其中白人罪犯是59%,而黑人罪犯是63%)。其中,由于机器偏见导致白人与黑人的犯罪率产生了鲜明的对比。一方面,在错误预测的情形中,黑人被错误识别为高风险再犯的几率要比白人高出几乎两倍。另一方面,实际发生再犯的白人被标识为低风险再犯的几率要比黑人高出20个百分点。[5](P74)这一事实很好的验证了罗尔斯在其《正义论》中提及的观点:“正义是社会制度的首要价值,某些法律和制度,不管他们如何有效率和有条理,只要他们不正义,就必须加以改造或者废除。”[6](P3-4)以往的法律体系中我们通过程序正义保证实体正义,那么进入人工智能时代,我们不得不考虑如何实现“数字正义”。数字正义本身比任何的规制和原则范围更广,它对法律的各个领域都带来了挑战。它的目标不仅仅限于澄清技术的发展如何引发各种新问题,更在于运用技术来解决新问题,从而使得社会中的每个个体都可以运用技术来解决纠纷。[7]

(三)人工智能的道德及法律地位

技术的发展使得人工智能系统的外在表现形式和内在机理方面越来越像人,如何在未来的法律框架体系中看待人工智能系统,其是否可以享有一定的道德地位或法律地位至关重要。主张不能赋予其道德和法律地位的群体,他们的观点主要基于两大理论:道德主体和道德痛苦。前者是普遍人权的基础;后者则是动物权利的基础,因为动物被认为可以感受到痛苦,所以需要给予一定的道德权利,而人工智能系统不具有道德痛苦的感知力,因此不应赋予其独立的道德和法律地位。早在17世纪,随着人文主义和启蒙运动的兴起,围绕自然人的主体意志和法律行为,创设了主客体两分的法律人格理论,以此打破了罗马法体系下根据实践的需要设置不同的法律人格的传统。[8](P74)但是工业革命的进程促进了机械大工业的发展,具有拟制法律人格的法人的出现,一定程度上可以说是复兴了罗马法关于不同法律主体的法律地位。法人的出现让非自然人以外的主体开始拥有法律主体地位。

人工智能时代,大量电子契约的成立及由人工智能引发的各种侵权行为的发生,对我们如何规制人工智能的侵权问题提出了挑战。美国法学家大卫·弗拉德克认为,如果无人驾驶汽车发生了交通事故,应由汽车自己对其行为负责。他提出应该允许无人驾驶汽车持有相应的保险,安全记录良好的无人驾驶汽车可以支付较低的保险费用,相反,安全记录不好的无人驾驶汽车则需要支付高额的保险费用,从而抬高该种车辆的整体价格,被市场淘汰。如果我们认为可以让无人驾驶汽车拥有保险,那么是否意味着我们同时应该允许他们拥有相应的财产?进一步,如果人工智能可以拥有财产,也就意味着法律上赋予其独立人格具有理论和实践意义。在现有的法律框架下各国立法都有法律拟制主体“法人”的存在,其独立存在的意义在于其很好地完成了从封建社会以个人为本位的社会法律体系到资本主义社会以资本为核心的公司制法律体系的重构。那么,我们有理由相信人工智能这一拟制主体的出现会促使我们重新审视现有的法律主体类型。在现有的法律框架中意图为人工智能体设立独立的法律地位,其首先需要满足“道德行为体”即该主体必须有能力感知到他们行为后果中与道德相关的部分,而且必须有能力在行动方案之间作出选择。[9](P78)目前人工智能体尚没有能力感知其行为后果并作出相应的选择,但是随着人工智能体硬件和软件的不断进化与发展,未来法律的建构需要为其预留相应的法律空间。

(四)人工智能对个人隐私、自由与尊严的影响

人工智能系统对数据的大量收集、利用,数据分析的自动化、智能化,以及隐私与数据保护提出了挑战。当前基于机器学习的人工智能系统在训练和运行过程中,需要使用大量的数据,其中很多是个人数据,在人工智能时代,如何重新定义隐私显得尤为重要。一方面,人工智能由于有大数据作为学习和分析的基础,可以清晰分析出个人的消费习惯、收入状况等隐私内容,基于这些数据分析形成的“算法杀熟”现象会导致不同人在获得相同服务时花费不同的价格,加剧了社会不公平现象。人工智能系统对个人数据的自动化智能化的分析和决策,可以形成个人画像或者形象,进而影响个人的投资和收益。例如基于人工智能技术的智能投顾,可以根据客户的财产状况等提出合理化的投资建议。但是如果投资失败,客户的权益如何保障,银行等商业性金融机构如何实现数据商业利用与个人数据管理之间的平衡,就成了新的难题。另一方面,在司法活动过程中,机器学习技术可以通过分析脑部传感器收集的大脑数据,尤其是在测谎等方面的能力变得越来越强。在司法审判过程中,现有的还原案件真实情况的过程将极大地简化,但随之而来的问题是我们的思想是否应该接受司法的检查,我们的人格尊严和个人权利随着技术的进化是否会逐渐丧失。人工智能时代我们个人身份范式已经从现实空间延伸到数字空间,每个人在以数字身份生存的时候,个人尊严和自由如何获得保障,在人类决策受到人工智能左右时,我们的选择自由或许会受到威胁,从而威胁到我们人类之所以为人的尊严问题。

二、人工智能法律规则中的伦理体系建构

法律与技术的双向互动性,要求技术对伦理的考量转化为法律的内在道德。人类有偏见,机器也有偏见。最近美国的一个网站设计了一系列无人驾驶汽车设定程序时需要回答的道德问题,面对这样的难题,功利主义者认为,实现最大多数人的最大幸福是判断是非的标准;自由主义者认为,违背一个人的自由意志而让其牺牲是不可接受的。[10](P117)这些道德问题是人类需要预先设定并回答的,但是伦理问题因各国文化、宗教和信仰等的不同而存在差别。如何研究出新的算法从而确保人工智能作出的决策与现有的法律、社会伦理一致,是一项具有挑战性的任务。

技术伦理走入人工智能研究者的视野,谷歌、脸书公司、亚马逊等硅谷企业也开始关注技术伦理问题,纷纷在其公司内部成立专门的伦理中心或伦理委员会进行相应的研究。更有部分的美国高校将技术伦理课程引入校园,例如哈佛大学和美国麻省理工学院合作开设了“伦理与治理”课程,德克萨斯州大学创设了名为“计算机科学的伦理”基础课程,此外,斯坦福大学、纽约大学、康奈尔等大学也设置了类似的课程,从而引发下一代技术人才对人工智能伦理问题的关注和思考。如果说在人工智能技术的研究和开发过程中嵌入伦理学的考量是保证技术中立、无歧视的先前步骤,那么在法律活动中对技术伦理的考量则更需要考验法律人的智慧。我们需要从以下几个方面着手来建构人工智能的法律伦理规则。

(一)立法过程要求立法技术具有伦理正当性,促进算法可解释性

人工智能系统对于人类而言就像是一个黑匣子,我们只能看到其通过复杂运算得到的 “最优”结果,但是对于结论是如何作出的我们却毫无头绪。2017年初,英国政府的独立评估小组对人工智能在英国的发展进行评估并发布了一份名为《发展英国人工智能产业》的报告。报告中提出,治理人工智能的主要目标是保障所使用的算法足够的公平、公正和透明。在这几项治理目标或原则当中,算法的透明度无疑是保障算法结果的公平和公正的前提。这份报告提出了十八条建议,其中一条就是建立一个人工智能的解释机制,让编程者提供必要的信息,解释人工智能系统的构造和机理,帮助公众了解这些智能系统是如何得出结论的。为了解决这个认知难题,很多学者提出了这样的治理方案:我们首先需要让算法的创造者帮助我们理解算法的形成以及运行逻辑。要满足这样的需求,解释权制度应运而生。欧盟在其《一般数据保护条例》(GDPR)中首创该制度,即公众有权要求与其个人相关的自动决策系统对其算法决策作出必要的解释。[11](P104)通过行使这种权利,个人在理论上就可以了解算法是怎样运行的,也就可以利用法律赋予的其他权利来调整算法在个人生活中所扮演的角色。

算法虽然可以在司法活动中辅助司法并进行决策,但是算法决策也存在着算法目标不确定、使用的数据不完整以及算法对偏差的固化和放大等问题。因此,有必要在算法进入司法决策过程之前就进行干预,也即如何在立法前置阶段解决人工智能所带来的法律难题。分析法学派的奠基人约翰·奥斯汀就曾说过“立法科学是伦理学的一个分支,其作用在于确定衡量实在法的标准以及实在法为得到认可而必须依赖于其上的原则”[10](P132)。因此,立法活动也是将伦理学中的道德因素转化为实然法的过程。目前,虽然全球各主要国家和地区如美国、欧盟、英国、日本等都出台了相应的人工智能国家战略和前沿立法,但是目前的立法中并没有明确嵌入伦理和道德规范。美国著名法学家德沃金认为:“原则是一个社会中人们所公认的政治理想和道德观念,是规则背后把分散的规则联结为一个整体的东西。”[12](P18)我国在人工智能相关的立法过程中,可以将人工智能的伦理原则和道德规范通过法律原则的形式体现。将人工智能伦理建构中的普遍原则转化为立法形式,需要运用法律原则、法律规则等形式指导立法,而这些法律原则、法律规则也必须是各国立法中所共同承认的、可以普遍得到遵守的基本法律原则。

(二)司法裁判过程需发挥主观判断,避免形成对人工智能的路径依赖

我国在2017年发布的《新一代人工智能发展规划》中指出:“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。”[13](P53)英国伦敦大学学院、谢菲尔德大学和美国宾夕法尼亚大学的最新研究成果显示,人工智能已经可以进行法律证据与道德问题的判断,从而协助法官提高庭审的准确性。我国也在智能辅助审判方面积极探索,根据最新公布的统计数据,北京法院智能辅助系统的应用将法官的案情分析效率提升75%以上,文本检索的案例匹配度从20%提升到基于法律知识图谱与事实相似的90%,同时,基于该系统对相似案例结合裁判尺度的分析,可以将法官的裁判尺度偏差降低一半以上。[14]而在2016年末,美国数据科学家设计出能够预测案件的新型人工智能系统。研究人员将欧洲人权法院近年的584个案件作为测试数据,测试人员将这些案件交由人工智能系统学习,并且独立对判决结果作出预测即回答究竟哪一方可以胜诉的问题。结果显示,人工智能系统预测的准确率高得惊人,可以达到79%。虽然人工智能系统预测成功率令人满意,但是人工智能的司法裁判是基于规则理性的推理,而无法像人类一样运用超越规则进行价值判断。人工智能的预测更多地依赖于非法律事实,而非人类创设的法律规则。

此外,更多目前人工智能预测系统的主要问题在于,研究人员使用的数据范围相对有限,现阶段基于大数据的类案推荐大多数采用的是自然语言识别技术进行海量文书的关键案情的提取,导致人工智能对判决的理解仅仅局限于训练数据[15](P142),而对于案件的背景知识知之甚少,所以常常无法理解判决与判决之间的细微差别,可能会导致案件判决的偏差。马尔库塞说:“当技术成为物质生产的普遍形式时,就制约着整个文化,人的体力和智力不得不依附于越来越复杂的机器,从而使人失去了其应有的创造性,成为机械系统的奴隶。”[16](P77)当法官在司法裁判中越来越多的运用人工智能作为辅助裁判工具时,人工智能审判辅助系统分析产生的结果会对法官的自我判断产生一定的导向性。当个案中出现一些需要给予特别考量的道德因素时,辅助审判系统可能会出现偏差。如果法官不对这些因素进行个案衡量,而是导向性的依赖辅助审判系统给出的结果,可能会产生裁判的不公正。长此以往,以人工智能为依托的辅助审判系统会导致法官产生技术上的路径依赖⑤,缩小司法的自由裁量权的适用空间,最终影响审判的公正性。因此,在司法裁判过程中,我们需要在算法决策之外,发挥人对技术的主观判断,避免形成以人工作智能为核心的技术上的路径依赖。具体来说,在人工智能辅助司法决策过程中,应要求辅助法官直接审判决策类的算法必须提供决策解释,鼓励其他影响法官决策的算法尽可能提高算法的可解释性,以促进司法决策的透明和公开,保证案件判决结果的公平公正。

(三)法律实施效果评价需要对市场参与各方的权利义务分配作出衡量

制定有效的人工智能治理规则往往依赖于我们对人工智能的正确理解。然而在作出任何有意义的治理决策之前,摆在人类面前的首先是一道认知难题:我们对于人工智能的认知有限,也缺乏了解人工智能的工具。在现实生活中,人工智能产生的成果关乎着人类各方权利义务的分配和利益的衡量。例如微软小冰创作的诗集,其法律性质如何,可否定义为作品,从而获得著作权法的保护。如果能获得保护,参与小冰创作的各方包括小冰算法的工程师、人工智能小冰及后续参与创作的人类创作者之间如何分配相应的权利义务。这些新型法律问题的解决依赖于我们合理考量这些法律问题背后所带来的社会影响和法律实施效果。在评价法律实施效果的过程中我们需要选择合理的分析路径。

首先,我们必须为机器进行双重意义的编码:也就是说我们需要将人类所要实现的法律目的写入法律,同时写入控制机器的软件。因为只有将现存的第一层编码,也就是法律编码里所有不清楚和不确定的因素完全排除,我们才能进行第二层编码的编写。而在这个阶段,明确的法律目的至关重要。具体来说,就是要运用法律分析工具具体衡量各方利益及由此带来的社会效果。以小冰诗集为例,对于人工智能生成物是否应该纳入法律保护范围,需要运用成本效益分析的法经济学分析方法,分析比较将其纳入法律保护框架中的社会效果。人工智能产生的大量创作成果在满足了独创性要求的情况下,如果不对这些成果给予著作权法上的保护,其后果是大量的具有独创性内容的成果将会进入公有领域,人类使用者将会有大量的免费优质内容可以使用,不用再需要通过付费获取内容,从而损害创作者的版权获利,挫伤版权人的创作意愿。我们可以将其归结为创作成果的“激励”与“接触”之间的交换平衡被打乱,没有法律保护复制的发生,则创造知识财产的激励也受到破坏。[17](P14)著作权法所设定的鼓励创作、激励创新的法律目的就难以实现。

其次,如果我们将法律条文编程输入智能机器,在第二次编码的编写过程中,软件代码不允许含混,因此代码必须表意明确,这样机器才能按照代码执行。[18](P138)这种输入过程一方面要求我们对法律条文的理解具有准确性,另一方面还需要为法律条文的法解释学留有一定的空间。面对不断涌现的新兴事物,司法过程中需要运用法解释学对新情况、新问题作出回应,这就需要我们在将法律条文输入的过程中将该法律条文背后所蕴含的法律目的和法律原理等内容进行转换,帮助人工智能在辅助司法决策过程中可以更好地服务于特定的法律目的,实现对各方权利义务的合理配置。

三、结 语

人工智能被誉为是当代创新技术“工具箱”中的极为重要的一种。过去的半个世纪以来,技术创新成为推动各行各业转型发展的基础性要素,从中央处理器、个人电脑、互联网络、智能设备、移动通信,到云计算、大数据、物联网、区块链等,新兴技术的日趋成熟,不断激活新一轮的创新浪潮,引领社会经济生活多个领域的深刻变革,但这些技术的变革与更新是以人的思想创新为根本。法国思想家布莱兹·帕斯卡曾说过:“人不过是一根芦苇,是自然界里最脆弱的东西;但他是一根会思想的芦苇。”[2](P1)我们人类进步与创新的源泉在于思想,而人工智能时代我们引以为傲的思想也可能会被取代和复制。

哲学家温迪楚指出,从基因密码到市场看不见的手,从意识形态到文化,程序将会成为一切不可见的却又有着巨大影响力的事物的强有力的“隐喻”。我们的基因密码也是数字化的,正如电脑代码一般。我们的文化也是可以再编程的,我们的大脑就是一台由神经元构成的电脑,进化就是对我们的编程,而基因密码每天都在被不断写入。我们人类进化的过程也伴随着技术的不断发展,而技术的进化过程中,也必然会从最初的只关注技术本身的发展逐渐过渡到将人类的价值观和伦理观纳入其中,更好地促进和引导技术的发展朝着有利于人类自身发展的方向演进,而人工智能便是这股技术进化浪潮中的典型代表。有人说:“人工智能,是西方式法治的大敌。”[19](P190)因为即使是我们人类看起来繁杂的程序、与日俱增的法规案例,人工智能系统可以迅速掌握。所有这些法律人引以为傲的知识和身份,连同多年积累的办案经验、人脉资源,被人工智能取代,成为算法与数据。我们在面对人工智能带来的机遇与挑战时候,不应盲目地否定或认可,应更加冷静客观地分析其背后的技术原理和算法实现过程。在法律实践的全流程中将技术与道德、伦理因素紧密结合,将人类的价值观和法律的目的性纳入人工智能的实现过程中,使其更好地为法律服务,构建一套人工智能在法律领域特有的并在各国具有普适性的法律伦理框架。

注释:

①机器学习是人工智能的一种类型,允许计算机在没有特别的程序指导下可以自主学习,使计算机可以通过大数据可以进行适应性学习。See Andrew Arruda,An Ethical Obligation to Use Artificial Intelligence?An Examination of the Use of Artificial Intelligence in Law and the Model Rules of Professional Responsibility,40 Am.J.Trial Advoc.443(2017).

②常被用作贬义词,形容那些站在历史对立面、反对技术进步和必然变革对新技术持仇视态度的人,这些人被概括称为“卢德分子”。参见:王闯《卢德分子》,《视野》2017年第19期第32页。

③电车难题,是一个伦理学的思想实验。英国哲学家菲利帕·芙特在1967年首次提出这个问题。在1996年,朱迪斯·汤姆逊、彼得·昂格尔等人重新提出这个问题,使这个问题为人所熟知。大致内容是假设你看到一辆刹车坏了的有轨电车,即将撞上前方轨道上的五个人,而备用轨道上有一个人,如果你什么都不做,五个人会被撞死,如果你按下一个按钮,车会驶入备用轨道,只会撞死一个人。你是否会牺牲一个人的生命而拯救另外五个人的生命?

④黑箱是指一个系统,该系统只能得到它的输入值和输出值,而不知道其内部结构。黑箱可以是任何系统,只要是仅根据其外部性质的研究来对它进行判断的系统。参见:高奇琦《人工智能:驯服赛维坦》,上海交通大学出版社2018年版第23页。

⑤路径依赖的概念最早来源于生物学界,用来说明偶然性随机因素对物种进化路径的影响,之后美国经济学家David将其引入经济学的研究范畴,用于解释技术变迁中的问题。See P.A.David,Clio and The Economics of Qwerty.American Economic Review,1985,75(2).

猜你喜欢
伦理人工智能法律
《心之死》的趣味与伦理焦虑
法律解释与自然法
护生眼中的伦理修养
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
让人死亡的法律
“互助献血”质疑声背后的法律困惑
医改莫忘构建伦理新机制