人工智能法律规制的正当性、进路与原则

2019-03-05 23:35
江西社会科学 2019年2期
关键词:规制原则人工智能

人工智能的出现和发展根源于人类的本性:恐惧和贪婪。人工智能可能带来严重的不平等、失业、信任危机,对现有社会秩序带来严重挑战,最终可能失去控制。需要尽早对人工智能进行规制。规制的进路可以分为用技术规制以及用法律规制两种途径。尤其应当用法律来规制人工智能。用法律规制人工智能又可以分为法律规制人工智能本身以及法律规制人工智能背后的人。规制的原则包括目的正当原则、人类善良情感原则、公众知情原则或者透明原则、政府管控原则、分类管控原则、全程管控原则、预防原则以及国际合作原则。应当尽早制定人工智能促进法,确立人工智能发展的原则、划定人工智能发展的底线,并对现有法律进行整理,增加规制人工智能发展的有关内容。

工业革命以前,人类的生活模式几千年来一直是微澜不变的。[1]现代技术的发展让人类不得不在很短时间内应对一次一次的挑战,比如核技术、太空技术、生物技术以及网络技术,等等。[2]然而,人工智能带给人类的冲击,可能是人类有史以来面临的最大变局。乐观派所谓“以前那种种挑战人类不也应对过来了”的观点,不知还能否适用于人工智能。人工智能带来的自动化正在润物细无声地全方位改变我们的社会和生活,而无人驾驶汽车、面部识别解锁、AlphaGo等独立人工智能技术可能带来更大的冲击。技术进步在给人类社会带来巨大利益的同时,也成为一个重大的公共危险源。[3]但是,这些很可能仅仅是开始,就像暴风雨来临之前树叶的一丝摆动。

人工智能是福是祸?乐观派一直宣称人工智能带来的机遇远大于风险,人工智能将会让人类变得更强大,还将为人类创造出围绕机器人的新职业,科学家有能力保证人工智能被开发、利用的同时也能得到更多地控制[4],它仅在特定前提下才有可能挑战人类,在智慧和认知程度上也是不可能全面超越人类的[5]。超智能机器的发展是“人类需要做的最后一项发明”[6](P58-59)。“人类—机器共生体”并非技术灾难,反而能使人类从自身生物学弱点中获得最终的解放。[4]

与此截然相反,以斯蒂芬·霍金、比尔·盖茨、埃隆·马斯克等人代表的悲观派,则从很早就开始警告人们注意人工智能的安全性及其社会效益,它的全面发展可能导致人类的灭绝。[7]人工智能不再是人类的工具或技术,而是拥有高级智能的创造性力量。人工智能将超越受制于生物进化速度的人类,最终摆脱人类的控制,挑战人类作为地球上最高智能生命的地位。

笔者属于悲观派。人工智能的出现和发展根源在于人类的本性:贪婪和恐惧。总会有一些技术或科学的狂人裹挟着各种算计突破人类的底线,近期出现的基因编辑婴儿就是一声响亮的警钟。也许很快,与大众生活密切关联的人工智能法律问题就将接踵而至。魔高一丈,道才高一尺。法律规则的调整总是具有滞后性。因此要正视其负面影响,尽快采取措施予以规制,积极应对人工智能革命对当下社会秩序的挑战。要规制就必然涉及规制的正当性、进路与原则。

一、正当性

随着人工智能在广度和深度上对人类活动参与程度的日益加深,以巨大便利为诱饵,“机器吃人”的现象正在以前所未有的速度推进。就目前来看,人工智能可能至少带来以下的问题。

第一,人工智能会加剧现有的不平等,继而带来新的不平等。目前,人工智能产品中的算法歧视问题已经初现端倪。例如,微软开发的聊天机器人Tay在Twitter上发表的言论已经带有种族歧视和纳粹同情色彩。①从技术上讲,这种歧视的产生主要是因为用于训练人工智能的语料库中含有歧视性话语。人类固有的歧视和不平等经由算法得以自动化,而这会加剧阶层固化,并产生新的不平等问题。这种不平等导致的优等地位是更少数人的、更加隐秘的、更加巨大的和更加全面的。只有少数国家的少数人有能力推动人工智能发展,人工智能在决策过程中产生的有意识或无意识的歧视,将会导致更多的特定人群受到不公正的待遇。更重要的是,小部分掌握相关技术和数据的人轻易拥有了隐秘的影响,甚至是控制他人的能力,而这种控制和剥削也将以更加无声无息的面目出现。与此同时,大多数人将随时面临体力和脑力上被替代的风险,以及隐私和自由被剥夺的恐惧。国与国之间,人与人之间,少数公司、少数精英与大众之间存在着越来越深的人工智能鸿沟,对于绝大多数普罗大众来说,只能毫无察觉地被动接受,不可能有任何反抗的余地。自由与必然之间的关系,因人工智能的出现而越发成了一个由社会分层决定的事物:越来越少的人享有越来越大的自由,越来越多的人受到越来越强的必然性的束缚。[8]人类历经几千年才基本逃脱的丛林法则很可能会再次成为地球的通行法则。

第二,人工智能可能带来大量的失业问题。人工智能技术能够提升工作的自动化程度,减轻对人力劳动的需求。美国白宫在2016年12月20日发表的《人工智能、自动化及经济》报告中认为,83%的低时薪(每小时工资低于20美元)工作者将面临自动化技术带来的压力。②单单就无人驾驶来说,如果技术得到了推广,那目前以驾驶职业谋生的人都将会失去工作。这些人当中,相当数量的人几乎无法再获得新的谋生技能,而每个壮年劳动者背后都是需要扶养的老人和孩子。失业带来的失败挫折感以及家庭生活的负担,会带来沉重的社会问题。

第三,人工智能可能带来严重的信任问题。人工智能技术的发展会使得伪造可以达到乱真的程度。容貌、声音、笔迹、印章甚至人本身等都可以“假作真时真亦假”。例如,纽约大学的研究人员在2018年10月发表一篇论文宣布,通过运用真实照片的数据集训练神经网络可以伪造人类的指纹,攻击者可以反复试验以提升成功率。③既有人类社会的有序交往建立在特定身份的基础之上。如果身份识别的秩序被破坏,人们之间的信任就会被破坏,人类社会的秩序就会被破坏。

第四,人工智能可能面临失控的风险。短期看来,人工智能失控的风险主要来自于人类对弱人工智能产品的滥用。开发者与使用者可能基于不正当目的开发、使用人工智能,例如一些极端恐怖组织可能基于非法目的,以极具危险和破坏性的方式开发和使用人工智能,给人类带来毁灭性的灾难。另外,历史经验表明,科学家们虽善于技术创新,但却常常无法控制自己所发明技术的使用。例如,科学家怀着美好的期许发明了核武器,但最终却无法决定是否以及如何使用它。

长期看来,人工智能很可能不受制于生老病死,脱离生物演化的进程。人工智能会突破工具意义上的使用,走向超级智能,超越人类的智慧和认知水平,摆脱人类的控制,甚至发动“政变”,最终统治和替代人类,成为人类生存最大的威胁。④地球上现有物种都是经过长期进化形成的,在长期进化过程中,物种之间达成了动态平衡。而工业革命带来的种种新技术,留给人类调整自身加以适应的时间太短。世界上现有的各种问题,几乎都是工业革命带来的。人工智能从出现到勃发,人类作为整体的应对时间将更短。少数国家的极少数人裹挟着整个人类,最终可能走向不归路。到最后,那些极少数人恐怕也无法逃脱人工智能的统治。人工智能对人类文明的存在构成了根本性的风险。

上述无论哪种后果单独出现,都需要小心应对,更何况这些后果很可能同时出现。为了这个世界上的绝大多数人,也为了我们的后代,为了整个人类,必须对人工智能技术加以法律规制。

二、进 路

对人工智能进行规制,至少有两条进路。

第一条进路是通过技术来约束技术。比如,马斯克就曾主张,要战胜AI,就要使人成为AI,使大脑变成设备。[9]这就是通过技术战胜技术的进路。但是,这条进路本身仍然面临着技术稀缺性境况下的资源分配困境。如何确保每个人都能够成为差不多的AI。如何确保马斯克不把最厉害的AI用来武装自己,而把最烂的AI交给别人,甚至有些人根本就得不到AI,或者他有权决定给谁不给谁,给什么样的AI的时候,或者他来决定成为AI的人如何行动时,他就成了上帝。如何保证他是柏拉图理想国中的哲学王,而不是一个“希特勒”。而且,当人都成了AI,不正说明人已经被AI战胜了吗?再如,福克斯提出用“危险的动态管理”来管理人工智能[10](P155-167),实质上是想通过建立专门的人工智能安全管理系统来管理人工智能,但如何保证人工智能安全管理系统的可靠性?是否需要再建立一套管理系统来确保其安全性?如此往复,似乎又变成了一个无解的循环。

经验表明,技术战胜不了技术。就像核武器战胜不了核武器、化学武器战胜不了化学武器。技术主义的进路将导致人类陷入无穷无尽的竞争中,顶多是达成短暂的恐怖平衡,或者成了少数人要挟世界的筹码。虽然科技水平的发展成熟是解决风险问题的重要环节,但考虑到技术的复杂性、不确定性等特点,技术所产生的问题往往是无法仅靠其自身解决的。因此,解决人工智能安全问题还需要充分发挥规则进路的重要作用。

第二条规则进路指通过法律约束人工智能技术的发展。至少从目前来看,法律是避免人类社会落入丛林世界的不二选择。

法律对人工智能的规制又分为两个角度。一个是从人工智能入手,即规制人工智能本身。这一角度迄今大致有三种解决途径:伦理设计、限定应用范围以及限制AI的智能水平。[11]伦理设计的途径主要是确保机器人按照人类预设的道德原则和行为规则进行决策和行为。例如,阿西莫夫机器人三原则就是通过人类预设的道德原则约束机器人本身。[8]另外,2016年欧洲议会向欧盟委员会提出报告要求制定民事规范来限制机器人的生产和市场流通。其中第50条(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic Persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic Personality)。”这也是通过人类预设规则从人工智能的角度来约束人工智能的例子。应用范围的限定则主要是通过对一些存在争议,容易引起安全风险的人工智能技术的应用范围进行限定,以确保人工智能的安全性。限制智能水平主要是从确保人类对人工智能的控制力出发,建立人工智能的安全标准与规则,通过限制其自主程度和智能发展水平,控制安全风险。

人工智能法律规制的另一个角度是从人的角度规制人工智能,通过规制研究、生产人工智能的人,达到规制人工智能的目的。到目前为止,人或者人的组织是世界唯一的主体,通过人来规范行为是法律的惯常做法。实质上,除了主张赋予机器人法律主体地位这一超前性建议之外,前述规制人工智能本身的诸多规则仍然要通过规制人工智能背后的人类主体来得以落实。

上述两条进路都很重要。但是至少从目前看,每个人工智能背后,都能够追索到具体的自然人或者组织。因此,对于法律而言,至少在目前,从人的角度规制人工智能的法律手段更成熟,也更有效率,更能实现规制目的。虽然人工智能研发、生产、流通及使用过程风险较大,具有秘密性、分散性、不连续性、不透明性及难以预计后果等特点[3],但考虑到人工智能产业发展的现状和趋势,及其与大型研究机构、大型公司、政府机构等实力雄厚的团体间的密切联系,人工智能生产的整个过程实际上与20上世纪许多科技成果有类似之处,可以视为资本主义和消费主义发展到更高阶段的产物。[12]自工业革命以来,人类的法律已经在相关领域建构了许多能够缓解类似新科技风险的制度,例如信息公开、责任分担、责任保险等,可以考虑结合代码及其商业模式的特殊性,灵活运用这些现有制度,并将规制重点放在上述大型机构上。可见,从人的角度进行规制已有很多可供借鉴的有益经验,将会是可行和有效的一种规制路径。

现有的对人工智能进行规制的规则多限于伦理层面。⑤这毫无疑问是重要的,但是仅仅提出伦理倡议是不够的,还必须制定具有强制力的法律。由于法律天生的保守、滞后性,现在就必须关注、着手通过法律来约束人工智能背后的人。只有真正重视人工智能的安全问题,尽早着手研究如何约束人工智能技术的研发、生产、销售、使用等人的行为,确定相关人员的行为规则和法律责任,划定法律底线,人工智能才有可能不至于走向人类的反面,或者把悲剧结果出现的时间尽量往后推迟。正如国务院在《新一代人工智能发展规划》中所提出的,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”乃是当务之急。

三、原 则

从人的角度规制人工智能,是一项精致而系统的工程,既涉及前沿尖端科技,又涉及商业利益,需要国际组织、国家政府以及商业公司的协作,形成一套既鼓励技术良性发展,又落实事前、事中、事后全程管控的规则体系。从宏观角度视之,至少需要有以下八个原则。

(一)目的正当原则

目的正当原则主要规范人工智能研究开发。人工智能的研究开发是人工智能的最初源头,如蛇之七寸,应当是规制的关键。目的正当原则应作为首要原则予以遵守。对于人工智能的研究与开发,目的正当的涵义可以理解为三个层次。

第一,不能以侵犯人类生命(杀人)为目的研制人工智能,除非得到政府的授权和监督。以杀人为目的的人工智能的研制应当以禁止为一般性原则,仅在政府授权并配备可信赖的监督管理制度的情况下,才能够例外地被允许。为此,应当建构起包括研发授权审批、数据追踪、决策过程记录和说明、追究研发操作人员责任等内容的一系列制度。此外,在公法上,对于政府的此项授权与监督职能,本身也要受到严格的正当程序限制,否则将使得民众处于技术信息不对等的惊恐之中,进而对政权产生不信任。

第二,不能以颠覆人的主体地位为目的研制人工智能,即使是政府。机器应该服务于人类,而不是相反。⑥政府在推动人工智能技术发展的时候,必须首先在源头强调其研发目的是补充人类能力,而不是取代它们,必须保证人类在任何时候都能控制智能机器⑦,而不是被控制。这一原则涉及人类社会的根本性问题,不容挑战。任何政府也无权开展与颠覆人的主体地位相关的人工智能研发制造。

值得注意的是,影响机器人权利主体地位既有主观因素,即人们对机器人权利的态度,也包含客观要素,即机器人同人类之间的实力对比。[13]在“实力法则”之下,也许未来会出现拥有相当自主性的超级人工智能,人类不得不承认人工智能一定的主体地位。为此,立法必须明确人工智能研发的底线,禁止任何可能引发颠覆人类主体地位的研制行为。政府应当持续加强对人工智能研发的管控,始终确保人机关系中人类全面的主体地位。当人机利益发生冲突时,例如当人类正在遭遇危险,需要机器人舍己救人的情况下,必须确保在技术及法律上,人的生命健康价值优先于机器人的价值。也就是说,对于涉及人类人身安全的危险活动,机器人不享有紧急避险权。[13]

第三,不能以颠覆人类为目的研制人工智能,即使是政府。当人类整体利益和人工智能发生冲突的时候,要毫不犹豫地维护人类的利益。智能和自我改善的技术系统的开发和使用涉及相当大的风险。这些风险可能来源于滥用或不良设计,甚至可能来源于人工智能的自我进化。当人工智能技术发展到高级程度,无法预料或无意的系统行为将变得越来越危险且难以纠正时,并不是所有的系统都能够与人类利益保持一致⑥,面对有高度脱离控制风险的人工智能,必须贯彻目的正当原则。研制人工智能之初,就应当明确:研发一定是为了服务人类社会,也只能服务于人类的发展和福祉。这里的人类意指全体人类的利益,而不是单独某个国家或政府的利益,因此,禁止任何政府或者个人为侵犯甚至颠覆人类的目的而研制人工智能。

(二)人类善良情感原则

人类善良情感原则同样是面向研究开发者而设置的原则,人工智能的设计者和研制者,是人工智能使用、误用和行为所产生的情感道德影响的参与者,有责任和机会去塑造人工智能的情感。这一原则可以从积极责任和消极责任两个方面去理解。一方面,能够影响人工智能情感的人,有义务将人类的善良情感赋予人工智能;另一方面,必须禁止赋予人工智能颠覆人类的意识。任何有此企图或行为的人,都应当受到严厉的制裁。

其一,在赋予人工智能情感时,应当赋予其人类的善良情感。阿西洛马人工智能原则中的价值归属原则,要求“高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致”⑧,超级人工智能如果能够具备感情,那么研发者有义务将符合人类基本价值观的善良情感嵌入系统,以确保智能技术系统在任何情况下,都作出与人类善良积极的情感伦理一致的判断和决策,成为人类社会的良好成员,为人类更好地服务。

其二,不能赋予人工智能颠覆人类的意识。消极责任方面,在人工智能研究、制造、流通、使用等的一切环节,禁止任何可能使人工智能形成颠覆人类意识的行为。美国电气电子工程师协会(IEEE)《人工智能设计的伦理准则(第2版)》建议:设定一些福祉指标用以辨别智能技术系统会在哪些地方提高人类福祉,并以此为基础,为进一步的技术改进和创新指明方向。人工智能的设计和制造,旨在减少日常生活中的人工活动,为人类提供便利,增进人类福祉,因此,只有其设计能够符合人类善良的情感道德、价值和秩序,才可能充分实现设计初衷。高级人工智能被赋予的意识和智能,应该尊重和改进人类社会存在所依赖的秩序,而不是颠覆人类的此种秩序。

(三)公众知情原则或者透明原则

较之过去的任何科技,人工智能系统的内部运行方式及各环节之间的配合,都更不易为常人所理解[3],因此在该领域更应当强调公众知情原则。理由之一,人工智能是少数人的游戏,但是却可能危及整个人类。理由之二,世界上绝大多数人在人工智能面前都是待宰羔羊,没有任何反抗余地,都是弱者。弱者服从强者的前提,是强者必须接受监督。理由之三,算法正在统治世界。某些巨头掌握的数据资源和技术比政府更多,因此事实上获得了比政府更强大的能力和权力。当越来越多的人依赖定制化的新闻推送时,人工智能可能影响到总统选举。[14]应当像监督政府公权力一样监督这些少数的巨头,要把人工智能约束到制度的笼子里。

一般公众对人工智能的发展有知情的权利。人工智能的研究应当透明、尤其是那些可能颠覆人类的人工智能,应当公开,可被监督。人工智能的本质在于算法和数据处理[12],公众的知情权也主要围绕这两个领域展开。就算法而言,公众有权以常人可理解的方式知道算法的制定主体、算法的制定程序、制定规则、监督机制及责任机制等信息。此外,鉴于人工智能技术对大数据的依赖,公众应有权知晓其个人信息的利用和保护等方面的情况。但是,算法的可解释性规则至今仍然存在着巨大争议,描述神经网络完成训练的过程恐怕和描述人类如何进行思考一样困难。因此,要想实现算法的透明公开,恐怕也要仰赖于在政府的主导下人工智能基础知识的普及。

人工智能领域法律法规的制定也应当确保公众的知情参与。通过更多地了解人工智能相关技术的信息,公众不仅会对该技术更具信心,支持人工智能产业的发展,也会对立法部门和政府有更多的理解,更有能力处理好人工智能带来的问题。

(四)政府管控原则

在人工智能技术的发展中政府应该承担什么样的角色,积极地介入管控还是放任市场自我调节?向来推崇自由主义的马斯克在此问题上也一反常态地认为,在人工智能领域,政府监管的介入可能是一个非常明智的选择。“我们应该十分小心地看待人工智能。我猜测人类下一个生存威胁恐怕就是人工智能。我越来越倾向于认为对于人工智能应该在国际或者国家层面上有相应的监管措施,以防人类做出不可挽回的傻事来。”④政府必须采用一种负责任的并积极应对的管控方式,建立持续的管控制度。

各国政府应尽早给予人工智能安全问题足够的重视,运用国家资源对其进行监督和管控,提供长期持续的资金支持和应用鼓励。政府应当主导人工智能管控的研究,投入资金吸引包括技术专家、社会治理专家、法律专家等各领域的优秀人才,不断更新和加深对人工智能的理解,使政府的研究、监督、管控能力不低于商业公司。然后,民众再通过监督政府来监督人工智能。

(五)分类管控原则

人工智能的分类方法很多。考虑到现行法律管控体系较常见的分类方式,可以依据人工智能生产流程各环节进行分类。基于人工智能在研究、开发、销售、使用等环节的风险各不相同,可以为每个环节设置不同的门槛。

另外一种较现实的分类是依据人工智能应用的行业或领域不同,粗略的将其分为生产型人工智能、服务型人工智能、暴力型人工智能等,前两者的社会风险较小[13],而可以实施杀人等伤害人类行为的暴力型人工智能,就需要遵守不同的行为准则,接受类似于枪支、大规模杀伤性武器一样更加严格的管控。此种分类又可以再基于生产、服务于不同的具体行业而再做细分。例如进行金融服务的人工智能,一旦系统出现漏洞或者被滥用,带来的灾难可能远大于创造的价值,必须结合金融业的复杂性等风险特点,进行特别的管制,设置更为精细的规则。

(六)全程管控原则

鉴于人工智能技术与生俱来的强不透明性,有必要对具备危险性的人工智能的研究、设计、生产、试验、销售、流通、使用等整个流程进行管控,订立规则。

早在2015年,联合国教科文组织与世界科学知识与技术伦理委员会的报告就探讨了在制造一个人工智能需要不同的专家和部门合作的情况下,谁该为某次操作失误负责的问题。报告提出可以采取责任分担的方式,让所有参与到人工智能发明、授权和分配过程中的人来分担责任。[15]有必要在人工智能产品设计、制造、流通和使用的整个流程中建立一种新的责任分担机制。

首先应当强调的是贯穿所有环节的透明性,需要确保始终有人能够为人工智能所做的决策和行为以可理解的方式作出解释。可以考虑从某个环节开始为某些类型的人工智能配备 “黑匣子”,记录执行的每一笔交易的数据,包括其作出决策的逻辑。⑧要确立全程责任制,结合人工智能的技术标准、资格认证以及网络安全评估等制度,明确各环节行为人的责任,确定设计者、生产者、使用者等主体各自的权利、义务及责任,进行分类分级管理,实现事前行为有规则,事后责任可追究。例如,对于研发制造者而言,有义务首先运用比例原则,审慎衡量研发制造某人工智能所带来的社会效益和潜在损害间的比例,而后再决定是否以及如何进行研发。对于特定种类人工智能产品的研发,还应当经由政府批准、许可或者备案。使用者对人工智能的使用必须合法,尊重公序良俗,不得滥用,等等。

(七)预防原则

考虑到人工智能在智识上超越人类的可能性及由此而引发的高风险,显然不能等到安全问题产生后再考虑解决办法,需要在理论上和规则制度建设上积极做好预防准备。

《欧盟人工智能相关法律规则之——欧盟机器人民事法律规则》中明确规定机器人研究活动应遵循“预防原则”,预见结果的潜在安全影响,并采取适当的预防措施,与保护水平成正比,同时鼓励社会和环境的进步。阿西洛马人工智能原则在阐述人工智能的风险问题时,也提出:“人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。”国务院在《新一代人工智能发展规划》中指出:“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”可见,积极采取措施,避免人工智能可能产生的安全风险,已在全球范围内形成基本的共识。

预防机制的形成是系统工程,可以考虑从法律制度建设、技术约束机制、社会监督体系等方面着手规避风险。在法律制度方面,除前文提到的信息公开、禁止权利滥用、责任分担、预防机制外,还需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理。[16](P312)在技术约束方面,可以考虑借鉴工程管理的方式,对人工智能的研发建立安全评估机制,制定国家安全标准,由专业技术人员对人工智能系统进行安全评估,确定其安全级别和可能的危险因素。谷歌和牛津大学联合发起关于人工智能系统“自我毁灭装置(Kill Switch)”的研究,目的是让人工智能系统处于不间断的人类监管干预之下,而人工智能机器本身无法逃脱这一监管干预。[15]

对一种新技术甚至新的社会形态的高度依赖,本身就是一种危险。最根本的预防是建立人类社会自我运行管理的安全底线备份,即一旦关闭所有人工智能体系,人类要有最基本的生存能力。

要尽早着手进行反人工智能(Counter-AI)的研究。应当像病毒和反病毒的研究一样,既要从正面研究其可能的适用空间,也要从反面研究安全应对策略。人工智能的失控可能发生在以下几个方面:第一,人工智能或者自动化已经广泛渗透到既有的生产、生活、国防等设施设备之中。即使有99.99%的安全性,出现一次问题,都可能是致命的。比如核武器、大坝的监控设备、太空飞行器等。不断出现的小型可穿戴设备,同样存在这样的问题。第二,防范人工智能本身出现的其他风险,确保并行的另一套机制,在关键时刻可以拔掉人工智能的电源。同理,在军事行动中,敌人可能利用人工智能的弱点发动攻击。哈佛大学肯尼迪学院在研究报告中建议美国的国防和网络共同体应当在反人工智能能力方面寻求领先地位。[2]中国也非常有必要开展此类研究。

(八)国际合作原则

在全球化背景下,国家间的理解和合作是大势所趋,全球治理理论已经成为全球化和国际合作问题研究的重要分析工具。在人工智能领域,国际合作原则已然得到了包括联合国、欧盟、美国、英国、日本等诸多组织和国家的普遍认同,⑨合作可以分为几个层面。

首先是研究层面科学家的合作。人工智能的基础是技术问题,研发人工智能的科学家是在技术层面产生和解决人工智能安全风险的关键环节。生产门槛的降低使得研发的跨国流动性增强,应当着力于解决全球科学家们都具有足够的社会责任感这一问题。

其次是国际组织及政府间的合作。国际组织和各国政府必须积极承担起推动国际合作的责任。人工智能技术的安全问题是不可能在一国内部得到解决的。一旦发生人工智能的重大安全事故,没有国家能独善其身。技术的发展限制、应用限度、安全标准、伦理规范等问题,必须落实到具体的制度并得到普遍的遵守才有意义,而只有国际组织和政府间的合作才能实现这样的目标。有必要设立专门的国际组织,建立一整套人工智能的国际管控机制。

最后,企业间的合作也至关重要。由于各国制度差异较大,国际组织和政府间国际合作的开展可能受制于很多因素,可能进行合作的领域和进度都非常不确定。同时,在智能革命中,企业扮演的角色有时候比政府还要重要。因此,在世界范围内的企业之间展开合作,效率可能更高。许多企业已经在此方面展开了积极行动,例如Google、Facebook、Amazon、IBM以及Microsoft宣布成立“AI合作组织”(Partnership on AI),成立人工智能伦理咨询委员会,探讨人工智能应用和研究的伦理边界,保障人工智能应用符合人类社会的共同利益。[17]

需要注意的是,通过国际条约限制人工智能发展,尤其是在军事领域的应用并不乐观。从历史经验来看,1899年,世界主要军事大国在海牙召开和平会议,其中一项结果是在五年内禁止将飞机用于军事用途。虽然其目的是想随后就发布永久性禁令,但在1907年举办的第二次海牙和平会议上就推翻了前次会议的暂时性禁令,因为各国感知到了空战不可避免。于是所有大国都开始规划轰炸机的适用。1910年,欧洲大国的联合军用飞机舰队拥有50架军用飞机。到1914年,这一数字已经达到700架。当一战爆发时,每个欧洲交战国的首都——除罗马之外——仍然都遭受到了空袭。唯一真正限制军用飞机使用的是技术:初期的飞机在航程和炸弹运输能力上都很有限。[2](P50)所以,必须做好达不成国际条约的充分准备。

四、结 语

对人工智能进行规制具有正当性。必须从人的角度对人工智能的研究和应用加以规制。规制人工智能,需要遵循目的正当性原则、人类善良情感原则、公众知情原则或者透明原则、政府管控原则、分类管控原则、全程管控原则、预防原则、国际合作原则等。通过制定人工智能促进法将上述原则通过立法确立下来,通过修改既有法律,将上述原则落实到具体的部门法中。

我国应当尽早制定人工智能促进法,将上述原则通过立法的形式确立下来。要划定人工智能发展的底线,确保人工智能技术和商业的发展始终在人类的掌控之下。同时,建议对我国既有全部立法进行整理,将上述原则落实体现在具体的部门法中。比如,在《道路交通安全法》中增加无人驾驶汽车的规范,在《民用航空法》中增加无人机的规范,在《著作权法》中增加机器作品的著作权的规范,在正在起草的民法典分则中要有关于个人信息、数据保护的规范。

注释:

①Microsoft silences its new A.I.bot Tay,after Twitter users teach it racism,See https://techcru nch.com/2016/03/24/microsoft-silences-its-new-a-i-bot-tay-after-twitter-users-teach-it-racism/.

②Executive Office of the President.Artificial Intelligence,Automation,and the Economy,See https://obamawhitehouse.archives.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Auto mation-Economy.PDF.

③Philip Bontrager,Aditi Roy,et al.DeepMasterPrints:Generating MasterPrints for Dictionary Attacks via Latent Variable Evolution,See https://arxiv.org/pdf/1705.07386.pdf.

④Aileen Graef,Elon Musk.We Are “Summoning a Demon” with Artificial Intelligence,UPI,See https://perma.cc/M98J-VYNH.

⑤比如,阿西莫夫机器人三原则、阿西洛马人工智能原则、美国电气电子工程师协会(IEEE)《人工智能设计的伦理准则》,等等。

⑥参见美国电气电子工程师协会(IEEE)《人工智能设计的伦理准则(第2版)》。

⑦参见《欧盟人工智能相关法律规则之——欧盟机器人民事法律规则》,一般原则之三。

⑧参见《欧盟人工智能相关法律规则之——欧盟机器人民事法律规则》,一般原则之十二。

⑨2016年联合国发布《人工智能政策报告》,表达了对人工智能的关注,并针对人工智能技术发展带来的各种问题,提出了新的思考方式和解决途径。报告呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。《欧盟人工智能相关法律规则之——欧盟机器人民事法律规则》提出要在许多领域大力鼓励国际合作。美国国家科学与技术委员会《为人工智能的未来做好准备》中强调了美国作为人工智能技术的领先国家应继续在全球研究合作方面扮演重要角色,并促进国际标准共识的达成。2014年7月创新英国项目发布了一份机器人技术及自治化系统的2020年国家发展战略(RAS2020 National Strategy),提出提升各国政府、产业部门和机构之间的国际合作,以此鼓励更进一步的创新并且加强纽带。日本政府在2015年1月发布的《新机器人战略》中强调日本在发展人工智能、机器人产业等方面,应当积极参与国际交流与合作,提升在国际标准制定中的话语权。

猜你喜欢
规制原则人工智能
主动退市规制的德国经验与启示
论我国民间借贷法律规制的发展和完善——从抑制性规制到激励性规制
2019:人工智能
人工智能与就业
保护与规制:关于文学的刑法
坚守原则,逐浪前行
数读人工智能
下一幕,人工智能!
无罪推定原则的理解与完善
内容规制