肖季业
(中南财经政法大学 法学院,湖北 武汉 430072)
近年来,域外人工智能与法律的结合日益紧密,并取得了一定数量的研究成果,理应成为我国法学界人工智能研究的重要参考与借鉴素材。具体而言,其发展趋势体现为研究主题更为拓展、内容更具针对性和实用性、学科融合更紧密、科研成果在法律领域的应用更迅速等方面,证明人工智能与法律的结合对提高法律系统的质量和运行效率具有积极意义,对人工智能的发展也有促进完善作用[1]。
引导美国人工智能发展的重要报告《为未来人工智能做好准备》认为,人工智能涵盖了几种分类:(1)像人类一样思考的系统;(2)仿人系统;(3)理性思考的系统;(4)理性行动的系统。其中,政府需要扮演多种角色,包括在应用程序开发过程中监控其安全性和公平性,调整监管框架,以鼓励创新、保护公众,支持基础研究和将人工智能应用于公共产品,提供更有效便捷的公众服务等[2]。紧接着白宫即发布《国家人工智能研究和发展战略计划》,提出应优先发展人工智能的伦理、法律和社会影响,确保系统安全可靠,制定标准和基准等七个战略方向与建议,为联邦资助人工智能研究制定了系列目标[3]。
国外学者对人工智能的关注并不仅仅局限在各自的学科领域,相反,必须以跨学科视角考察人工智能已成为了学术界的共识,相当数量的研究成果立足于机器人的具体应用场景,基于现实需求探讨其中所展现的理论和社会意义。尽管让人感到惊奇,但人工智能目前的确缺乏一个精确、普遍认可的定义,美国斯坦福大学在一份研究中尝试这样定义:人工智能是一种旨在使机器智能化的活动,而这种智能则能够使机器实体合理运行,且具预测性[4]。而华盛顿大学法学院助理教授瑞恩·卡洛认为,人工智能可以理解为基于对现实世界的分析数据,解决特定领域的问题、所设计近似于人类或动物部分认知能力的机器[5]。美国国际商用机器公司人工智能研究部门在报告中提出,人工智能是实现众多宏伟目标的工具,将在医疗保健、社会服务、公共安全、环境保护等诸方面推动生产方式的变革[6]。马克·库克柏夫对机器人“本体论个人主体”在哲学、伦理中的含义提出质疑,认为机器人作为单一道德实体的形象能够帮助或威胁我们,不仅因为其排除其他更复杂本体论的现实,也否认地理关系和整体性质,这种社会关系的转变要求我们修正对机器人的定义,关注与机器人交往、生活在一起的道德意义[7]。应如何看待人工智能?霍斯特·艾丹米勒认为只有法律能够决定人工智能的未来,但充满挑战与困难,机器人规制应针对特定机器人及具体场景而定,机器人法律受到社会深层次规范结构的影响[8]。
尽管域外对人工智能的准确定义没有达成共识,但人工智能对社会的巨大促进作用却得到了政府和学术界的一致认可。国家的管理者与科研机构先后出台部署规划,明确人工智能的战略发展方向与目标。不同于我国人工智能在法学研究领域所进行的单一学科理论探索,域外法学界一般立足于哲学、伦理学、工程学等多学科交叉视野,关注于人工智能在现实发展过程中与公共安全、环境保护等场景的应用。值得注意的是,域外人工智能的研究主体并非仅仅是法学学者与产业界人士,政府部门、商业机构、科研院所、法律界(包括律师、法官)、哲学界等均参与到了相关的研究之中,从不同的专业领域尝试解决问题,提供不同的思考路径。
1.隐私问题。面对机器人技术发展所带来的隐私、版权和安全问题,伯克哈德等认为需要“通过设计实现透明”的原则,但这也会带来更大的脆弱性和安全风险,问题的讨论应嵌入到对数据公平处理原则的讨论之中[9]。阿尔贝托等分析隐私问题将如何影响网络机器人在欧洲城市地区的部署,提出应明确以具体方式面对的哪些法律挑战,用于私人目的的数据记录和存储需要用户在一般法律框架内同意,个人资料的处理必须是限制性或匿名的,法律框架需要适应技术可能带来的变化,除非法律允许网络监视,否则机器人不应不加区别地读取个人信息、标识符号[10]。
2.责任的归属问题。韦斯顿·科威特提出人工智能软件开发的责任是非常具有现实意义的,第三方与人工智能之间的交互所造成损伤,不应成为对软件开发人员免责的理由。而这种交互是无法完全预见的,法律的设计必须考虑在保护受害者与人工智能公司之间取得平衡[11]。伯利克里·萨尔维尼等基于对意大利行政、刑事和民事法律的调查,试图回答城市地区从事卫生服务的自主机器人是什么和能做什么等问题,认为机器人的资格属性属于规范性空白,应由立法者填补,现阶段尽管机器人具有自主性,仍应视为财产,不应在造成伤害承担个人责任[12]。
3.人工智能的权利问题。权利问题的核心质疑在于机器人是否有自我意识,这也是提倡人工智能应属于机器的重要论调。而丹尼尔·登尼特驳斥了反对者从哲学、技术、精神论等方面提出的质疑,认为机器人可能在未来拥有自我意识,因为我们人类本质上也属于一种机器人,而我们拥有意识[13]。菲尔·麦克纳利认为权利的扩展性决定了机器人有朝一日会拥有权利。这可能有助于我们重新评价人类、机器和自然相互联系的权利和责任,而法律体系中权利与责任的划分标准也会进一步演变[14]。
4.人工智能的伦理与法律风险。人工智能的发展不断入侵监管的空白领域,造成了新的法律风险和伦理问题,法律的使命即在于试图减缓甚至消除这种威胁。通过测试人类与机器人互动的责任要件,乌戈·帕加罗在刑法、合同法、侵权法的视野下分析了27种假设,以期精确描述处于重重压力的机器人法律,他提出法律管控技术的目标不仅仅在于进入法律领域的机器人,还关系塑造人类与机器人互动环境的条款和形式[15]。彼得·阿萨罗等通过法律概念审视当前和未来机器人的适用,提出法律体系是应对机器人伦理道德时的重要选择,但法律的视线以外,机器人元伦理问题依然被忽略[16]。塞吉奥·费拉兹等提出人工智能实体所造成的伤害并不能承担责任,因为它们本质上仍然属于工具,而法律在人工智能的规制作用主要体现在两个方面:一是研究因使用人工智能而产生的行为或不作为所引起的责任制度,以及在这种情况下适用的惩罚;二是防止这种伤害,这意味着建立一套道德规范,包括建立和编写智能系统或机器人取代人类活动的基本规则[17]。温德尔·瓦拉赫认为机器人和神经技术的发展离不开伦理、法律和公共政策的核心保障作用,其目标在于从科学技术中获得最大限度的利益与最小化的伤害。人工智能技术的不可预测性不应该等同于不可治理,分析可以产生预期的知识,包括可预测的趋势、具体技术的用途,反过来这些知识也有助于制度的完善,在很大程度上这是一个渐进的过程[18]。在回答机器人是否能够为自身行为负责、关注这一问题的意义是什么等问题时,阿曼达·夏基认为智能机器人对他人的关系是已经写入编程的,机器人的任何决定依然取决于其最初的设计,尽管是经过训练或进化而来,这种智能在某些时候仍涉及人类的干涉,承认人类的责任是必要的[19]。
5.人工智能监管问题。罗纳德·莱昂尼斯等认为,处理机器人管制问题包括了在机器人设计中加入特定规则以对其行为进行规制,考虑到机器人在高度规范的环境中发挥作用这一事实,其不仅需要创造一种道德场景,还必须坚持和尊重现有的规范场景,在人类环境中工作的机器人应遵守社会和法律的规范[20]。
人工智能对传统法律体系带来的颠覆性影响,具体表现在隐私领域,隐私的泄露较之过往,手段更为便利智能、更加难以防范、情形更为严重,借助于人工智能的分析技术,个人的所有信息安全难以得到有效保障,但过度严格地限制企业的用户信息获取,则可能影响人工智能的发展,这一矛盾命题迫切需要法律做出取舍与平衡。人工智能软件、机器人的出现与应用,在责任归属领域,究竟是由用户、开发者、销售者中的谁来承担所引发的民事、刑事、行政责任。现实中可能人工智能产品的问世,存在更多的参与者,法律需要尽快填补这一空白。在机器人权利领域,权利的来源在于自我意识,而未来我们是否应该承认机器人的自我意识?这种意识与人类意识之间应该处于什么样的关系?依靠法律无法回答这些问题,哲学、工学、产业界等更多的主体都需要参与进来。在伦理与风险领域,人工智能的不可预测性加剧了风险社会的不稳定因素,任何人都处于这一风险之中,尽管学者之间存在争议,但机器人行为的可控性是减少人工智能风险的重要手段。在监管领域,监管主体、监管对象、监管方式、监管场景的变化都需要法律体系做出回应。
面对着诸多人工智能所引发的各种困境,传统法律体系赖以生存的责任认定体系、权利义务设定等基础理论的原生根基发生了变化,但法律体系本身仍坚守着旧有规范,这明显是无法适应人工智能发展需求的。因此,考虑到现实中人工智能的变化、多样性,由学者们先行进行理论层面的探索与思考,就显得具有相当的必要性了。
1.实务领域。面对人工智能对法律实务界的影响,肖恩·塞姆勒等认为,随着人工智能在法律研究和合同起草领域的深入应用,势必改变律师等法律职业所扮演的角色,但人工智能缺乏对信息的分析理解能力,律师将填补这个空白,即借助工具提供更有效的法律服务[21]。通过审视人工智能的定义及进化,班尼尔·班阿瑞等认为,面对人工智能对法律界和律师职业的改变,我们已通过市场和技术两种方式做好准备,市场失灵导致司法系统超载,法律科技初创企业的资金增长到惊人的高峰,市场失灵和技术成就将共同为新一代法律专业铺平道路[22]。
2.司法领域。人工智能在域外司法领域得到快速发展,在犯罪评估、辅助量刑等方面发挥着人工智能的运算和预测功能,也引发实务届与学术界的讨论。李本提出,目前美国司法中人工智能的应用遭受到准确性、社会歧视、 正当程序等多方批评,刑事领域算法的不透明可能导致发展的重心关注于科技企业的利润而不是司法的工作,我们需要进行坦诚、公开地讨论,也要增加人工智能技术的透明性[23]。瑞恩·卡洛着眼于机器人在司法想象中的具体作用,认为由于可能作为解释决定的论点,法官如何使用“机器人”这个概念成为解决问题的重点,对机器人隐喻的使用能够在某些方面强化正义,但从实际理解程度来看,法官对机器人的心理构建已经落后于技术的发展,随着机器人继续进入主流生活,并产生新的法律冲突,法官们需要更新这种思维模式[24]。
无论是实务抑或司法领域,人工智能在于法律共同体相结合的过程,对后者的转型产生着重要影响。在为法律界带来运算便利、降低工作强度的同时,不可避免地也带来了对算法歧视、不透明等问题的质疑,而如何做好程序员与法官律师、算法与法律之间的平衡、和谐发展,确保公平的价值观,是解决问题的关键。
知识产权领域已成为最早、最多面对人工智能冲击的法律领域,法学界一直未能对权利的属性、归属等问题得到公认的回答。亚瑟·米勒在二十世纪九十年代即提出计算机生成作品的出现,存在难以忽视的人为因素干预,导致权益分配时存在困难[25]。本杰明·索贝尔认为人工智能技术在保护版权作品方面具有巨大潜力,美国最有可能促进机器学习数据的法律机制是公平使用原则,但当前该原则应用在表达性机器学习时产生不利后果:拒绝使用可能会造成创新停止,鼓励使用可能会损害创造者合法利益,这种困境表明公平使用可能无法符合预期目标,作者探讨了对应学说和政策的变化问题,但是对如何避免问题,没有给出答案[26]。
蒂姆斯·巴特勒分析了人工智能发展所带来的威胁,对著作权的作者身份和独创性的概念进行了探讨,认为目前对传统版权破坏性最小的方案是假设一个虚构的人类作者,然后将版权分配给软件的创造者、问题解决者或者是电脑所有者,法院也能够认可这种方案,但这个解决办法是权宜之计。随着人工智能的全面发展,需要警惕未来可能的更大影响[27]。
艾丽卡·弗雷泽认为,人工智能加快创新步伐的潜在社会效益,将迫使人们重新审视知识产权法的基本原则。专利制度必须认识到其中的含义,并做好准备应对这样一个技术现实:人类与人工智能在发明创造中的贡献所占的比例逐渐在变化,而且逐渐朝向有利于机器的方向转变,专利制度必须在确保继续保护创新投资的同时控制作品权益之争所引发的风险[28]。罗伯特·德尼科拉认为宪法和版权法没有明确定义作者这一概念,版权局和一些法院要求作品中可受版权保护的表达方式来源于人的存在。如果人用电脑来辅助创作,结果可受版权保护;如果用户与计算机的交互提示是由计算机生成的表示,则不受版权保护,这是一个细微的、最终会产生反效果的区别,否认计算机创作的作品在物质和价值上与人类创造的作品没有区别,而开启计算机生成表达方式的计算机用户,应该被确定为作品的作者和版权所有者[29]。安德鲁·吴则认为,毫无疑问作品本身应该受到法律保护,但版权归属于智能最初的发明人,可能无法进一步激发创造力的发展[30]。
瑞安·艾博特则提出在部分领域计算机输出能构成可专利申请的主题,而计算机本身并不符合传统发明创造对人的要求,尽管专利局已对计算机的发明授予过专利,但法院、国会或专利局从未考虑过计算机发明人的问题,应在宪法和版权法律条文的框架内探索创造计算机作为发明人,以顺应技术发展趋势,达成保护法律秩序稳定之目标[31]。卡林·赫里斯托夫认为从产业的长远发展来看,给予人工智能程序员和所有者作者身份是必不可少的,与其重新定义“作者身份”以覆盖非人类,在美国版权法的条款中重新解释“员工”和“雇主”这些术语更为妥当,这种解释无需对目前的规则和指导方针进行冗长或有争议的改革[32]。
人工智能的出现,首先需要回答物权、产权、所有权、受益权等问题,因而我们可以认为,人工智能的法律问题,起源发展于知识产权。但事实上,这些问题至今仍存在着争议,人工智能发展存在着不同阶段和不同类型,基于视野的差别,域外学者面对“人工智能生成物版权”的答案也不尽相同。从人工智能的发展来看,在人工智能具备自我意识之前,对问题的争论还将持续相当长的一段时间。
机器人被设计成具有一定的社交属性,逐渐进入社会,成为与人类相似的“社会成员”,甚至成为“家庭成员”,人机之间的交互可能会引发人类情感和行为上的变化,而制度规范对这些社会机器人的定位、属性、资格、权责等方面已经严重落后于现实,引发了众多学者的思考。尽管距离科幻小说所描述的那种拥有类人化认知或情感的机器人还为时过早,但目前的技术和可预见的未来发展可能对机器人权利采取不同的方法。凯特·达林提出人类有将社会机器人拟人化的倾向,探讨将情感投射到机器人伴侣身上是否会导致有限法律权利的延伸,这牵扯到法律应该影响人们的心理喜好,抑或反之,我们应该向社会机器人提供法律保护的时间点取决于能否证明我们对机器人的行为会转化为其他场景[33]。社交机器人更容易被拟人化,很多场景中已开始以类似于宠物,甚至人类伴侣的形象出现。安德烈·波托尼亚等认为机器人伴侣产品对现有消费者保护制度构成挑战,从法律和伦理角度来看,它们都是产品,目的是为了满足可识别的人类需求,改变适用法律范式的论点应该基于纯粹的功能主义,即对特定机器人技术可取性的政策考虑,以及对现有法律提供的激励措施有效性的评估[34]。而詹姆斯·凯扎等学者通过实证分析个体层面的性别、宗教信仰、技术感知能力等因素在不同程度影响了用户对机器人外观的态度和情感,这种情绪和感知导致了技术的同化,对未来人机交互具有重要影响,而人类伴侣更倾向于将外观拟人化程度更高的机器人视为真实的人[35]。
尽管机器人距离影视作品中的“完全类人化”还为时尚早,但域外学者认为现有的机器人已经逐渐给现实社会带来一定的问题。一方面机器人可以扮演类似宠物的角色,寄托人类情感,另一方面机器人的外观越来越贴近人类,对机器人的态度可能会映射到对社会中的真实人类,尤其是给女性等弱势角色带来影响。已有学者对此表示担忧,而目前法律体系对此尚未给予足够的关注和回应。
国外学者对人工智能的研究起步较早,多学科形成了较为翔实的理论成果,但也存在重问题轻解决等现象,概括而言,域外人工智能研究的特点主要包括以下几个方面。从研究方法来看,以跨学科研究为主。人工智能的复杂性与广泛性超过单学科单学者的研究能力,已经成为学者们的共识,如在国际机器人大会上,有多篇学术论文由法学、工学、哲学等学者合作完成。从研究主题来看,多主体共同参与。理论界与实务界联系紧密,学术界负责理论研究,产业界负责技术研究,政府机构负责政策引导,各主体发挥自身优势积极参与人工智能的研究规制活动,产学结合、政学结合成为常态。从研究内容来看,关注于人工智能的现实场景。理论研究成果大多基于人工智能的实践运用,在实践中发掘问题、反思社会影响,理论贴近社会的实际需求。从研究角度来看,横向、纵向研究视野开阔。学者认为人工智能的管控纵向上应参考工业革命的应对策略,二者均属于技术推动的社会变革,具有重要的参考作用;横向上融合各国的治理实践,探索本土化研究。从制度规范来看,政策引导发展较快,立法经验丰富。在政策支持、伦理法规制定等方面已开始进行直接修改法律或出台新法律等诸多立法尝试,如美、德等国在自动驾驶等领域,赋予人工智能企业试验、路试的合法地位,鼓励产业应用;同时国家资助大学、科研机构从事理论研究,建立支持人工智能发展的政策体系。
对于我国而言,面对人工智能的巨大经济驱动作用和社会变革影响,法律体系理应成为保障人工智能平稳、顺利发展,防范社会问题、矛盾发生的重要屏障。但现阶段,受制于人工智能治理的复杂性、法律制度的滞后性等多重因素,人工智能的法律问题研究并未取得实质意义的进展。法学理论界的研究更倾向于闭门造车,对人工智能产业的发展缺乏足够的关注,忽视与其他学科的交流,具体表现为学术研究成果的数量较多而关键领域的研究较少,对理论问题的研究较多而对实践应用研究较少。但人工智能是一门实践性与应用性强的交叉学科,仅依靠法学单一学科是无法实现发展目标的。因而,以开放性视野持续关注域外法学研究的发展动态,加强人工智能国际学术交流合作,结合本土特色打造我们自身跨学科、产学结合的人工智能研究体系,就具有相当程度的必要性与合理性了。