【摘 要】 人工智能的发展是第四次工业革命的重要分支,理论上对人工智能的发展分为弱、类、强、超几个阶段,以超级人工智能的出现为分界线,此前人工智能通常是用普通计算机程序的手段实现的类人智能技术,此后的人工智能拥有几乎在所有领域远远超过人类的认知能力,这意味该技术将为人类社会带来巨大风险。本文拟在理解人工智能发展路径的基础上,根据其阶段性特点,探讨法律规制的必要性,进一步设计规制框架,发挥立法的能动作用,以期达到既促进发展,又规制风险的目的。
【关键词】 人工智能 超级人工智能 法律规制
一、人工智能的发展路径
当前人工智能在许多领域取得了令人瞩目的成果,使人们对该项技术的前景充满期待。机器智能一路发展,必定会逐渐接近并达到人类智能的水平,最终很可能会大大超越人类智能,从而带来控制问题的隐忧。这样的担忧由来已久,早在1956年的达特茅斯学院夏季项目中,研究人员就提出了要“尝试发现机器是如何使用语言、形成抽象思维与概念、解决人类所面临的问题以及学会自我改良的。”其目的就在于创造出具有人类智能甚至超越人类智能的机器。六十多年过去了,人工智能的发展起起落落,近年来在很多领域取得了超越人类的成就,如曾经被认为人类不可能被机器超越的围棋领域,谷歌研发的AlphaGo系统连胜人类顶尖棋手,给世人带来震撼。但是目前为止的人工智能仍没有全面达到人类认知能力的水平,更不用说超过人类。这与机器终有一天会获得超级智能并不矛盾,科学界归纳出的可能实现路径有以下几种:
1、学习模式,阿兰·图灵首先提出了“儿童思维机器”的概念,即通过模拟儿童习得知识的过程编写程序,使之在不断学习中达到成人的智能水平。该理论激发了“种子人工智能”的灵感,“儿童思维机器”只能通过积累内容来发展内在潜力,“种子人工智能“则可以改良自己的结构。谷歌公司AlphaGo系统使用的神经网络就是一种机器学习的方法,神经网络能够从经验中学习,也可以从样本中找到最自然的概括路径以及所输入数据隐含的统计规律。但是进一步提升机器的学习能力还需要理论上的进步,如构造人工智能系统的获知能力及处理不确定性和概率信息的能力,这些还需要研究信息传递的过程以及人脑内部的构造。
2、模拟进化,该路径是为了获得成熟的“儿童思维机器”。通过人为模拟进化过程,提高正向選择的效率,比如在足够快的计算机上运行遗传算法以得到类似生物进化的结果。但是该路径要求制造出运算能力足以处理庞大的生物进化数据的超强计算机。
3、全脑仿真,以人类大脑作为机器智能的模板 。实现全脑仿真需要完成以下步骤:第一,精细扫描人类大脑;第二,将扫描过的原始数据输入计算机,由自动图像处理重建在原先大脑中负责认知的三维神经网络;第三,在一个运算能力足够强大的计算机上输出神经计算结构。 如果完全成功,将生成具有记忆和完整人格的初始智能,仿真得到的人类思维便作为软件存在于一台计算机中了。要成功进行全脑仿真并不需要概念或理论上的突破,但需要一些非常先进的技术,如需要有足够高的分辨率和相关检测性能的高通量显微镜,才能进行自动图像分析,将原始扫描数据翻译成对一种神经计算元素相关的三维模型的阐释,然后模拟出得到的计算结构的强大硬件。[1]
4、借助高级智能,该路径是通过提高作为机器智能研究主体的人类的智能来间接达到实现机器智能的目的。通过优生计划、生物医药、基因操纵等方式可以实现,但是该路径面临着巨大的政治和道德风险。
二、人工智能带来的风险
从人工智能发展的阶段性特征来看,关于机器智能的前景有技术“奇点”和“智能爆发”等术语,表述的是机器智能在发展到一定程度后转化的生产力使得世界GDP飞速发展,以至于工业革命以后快速发展的历史较之也逊色不少。但要想达到“奇点”和“智能爆发”后的超级智能的程度,必须攻克上述理论上和技术条件上的难题,可以说,该过程需要相当长的时间。在超级人工智能到来之前,相对低水平的、专注于某个领域的人工智能方法正逐渐获得广泛应用。这些已经在应用中的人工智能技术,对于超级智能的进一步研究过程中将出现的新技术,以及将来会出现的超级智能本身,都会对人类生活产生颠覆性的、持续性的影响。
其影响是矛盾的,在降低一些风险的同时会增加另一些。就已经或者即将获得广泛应用的人工智能技术来说,它们在提高人类生活水平的同时,对现有的人类社会秩序也带来了冲击。包括:(1)伦理风险,如机器人在行动中如何维持人类基本伦理秩序,人与机器人的关系伦理,智能机器人对以人为中心的世界观的冲击,以及人工智能的广泛应用可能带来的“数字鸿沟”,贫富差距进一步加大等。(2)法律风险:如人工智能更体现“技术黑箱”,在民事侵权中判定相关主体责任,对机器人主体资格的认定,人工智能创造出的产品知识产权问题,在更加依赖大数据的人工智能时代隐私权的界定和保护,以及人工智能应用造成的劳动力就业市场萎缩等[2]。
就相对遥远的超级智能来说,它会降低很多既存风险,如由自然带来的威胁,但也会带来巨大的存在性风险[3]。如果一个机器智能项目在竞争中远远领先,很可能获得决定性战略优势[4],从而没有其他机器智能能够与之抗衡。发展到这一步的人工智能,人类如果不小心把握其动机与能力都可能造成存在性风险。相比于人类动机,人工智能往往只拥有简单的目标,但因为工具性目标[5]的存在,如追求自我保护、认知提升、技术完善、资源获取,人工智能很可能将能实现最终目标之外的多余智能用来不断追求工具性目标,然后用违背人类常理的方式毁灭人类。
三、法律规制的目的
人工智能的发展属于当前正在进行中的第四次技术革命的一支,将与其他技术革新一起,在速度、深度、广度上对社会造成前所未有的影响,甚至改变人类文明形态。这样的变革对于发达国家或欠发达国家而言都是必须牢牢把握的时代机遇,前者可以借此巩固技术优势,后者则可能实现“弯道超车”。尽管对于发展人工智能可能带来的短期和长期风险,有识之士早已提出警告,但是停止发展甚至限制发展都是不可能的,即使超级人工智能的到来真的有可能是人类自掘坟墓,各个国家也都希望掘墓人是自己而不是其他人,更何况现阶段看来风险是概率事件,收益却是实际存在的。目前各个国家都逐步开始了对相关技术的规制,如德国《联邦数据保护法》,加拿大《个人信息保护法案》,法国《数字共和国》,英国《2017年数据保护法案(草案)》,欧盟《通用数据保护条例》等等。我国也已颁布了《网络安全法》,并先后发布了《国家信息化发展战略纲要》《新一代人工智能发展规划》《智能制造发展规划(2016-2020年)》《高等学校人工智能创新行动计划》等等战略规划,相关立法势在
必行。
因此,人工智能的发展是一件已经在进行并且会持续发生的事情,法律所能做的就是提供合理的规制手段,达到以下目的:在目前处于弱、类人工智能的水平上,促进技术和理论发展;尽量保证发展过程的可控,以免小部分研究人员和投资者掌控具有决定性战略优势的超级智能并由此获利,全体社会成员只能被动承担风险。
四、法律规制的方法
(一)促进发展
国务院发布的《新一代人工智能发展规划》中已经为鼓励发展技术确定了大的战略布局,立法应当对此作出反应。
企业、高校、科研机构是具体人工智能项目的主要研究者和控制者,政府在这个过程中担任调控者和监督者的角色。前者享有获取政府资金和政策支持的权利,负有合理利用政府提供的资源进行研究,将研究成果按法律规定进行转化,配合政府制定相关规范等义务。后者负有为人工智能发展提供财政支持、创造条件的义务,享有对人工智能研究、生产活动进行调整、监控、处罚等权利。
立法需将相关主体的权利及义务落实成法律规范,明确企业、高校、科研团队等能够申请国家的財政投资,建议政府完善保障措施,要求提高网络基础设施、大数据基础设施、高效能计算机基础设施的建设水平,企业在符合条件的情况下享受税收等政策优惠。在建立人工智能标准的问题上,明确上述主体配合政府就必要的准入、安全问题参与讨论,为国家层面制定研究和生产标准提供智力资源,使得研究、生产规范化,并积极参与国际标准制定,在新一轮科技革命中掌握主动权。
在具体实施过程中,政府需要为上述主体权利的实现提供必要基础设施,以及配套政策保证立法目的实现。包括以立法的形式明确主要责任部门及其职权职责,必要时设立一个专门机构负责人工智能的发展规划、财政划拨、风险监控、国际合作等事宜,当前我国负责科学技术发展的科技部可以通过成立专门办事处、委员会的方式来开展工作。此外,扩大和维持人才队伍,将资金投向企业不愿意进入的领域,解决私营企业不从事的重要社会问题、高度加强对其他国家人工智能发展的关注等,也是政府应当承担的义务。
在促进与监管之后,立法需要从知识产权保护的角度出发,激励创新,结合人工智能相关技术的特点设置权利保护、权利交易、权利限制等制度,保障权利主体合法有序地获得资金支持,加快智力成果转化,促进新兴产业发展。
(二)规制风险
人工智能的发展可能带来许多新风险,规制风险要与现有法律做好立法衔接工作,在人工智能的专门立法出台之前,解决好新技术对原有法律制度造成的冲击,填补法律漏洞。
对即将到来的新立法,要在宏观层面树立风险社会的法律理念。享受技术革新带来的红利时,不忘风险如影随形,如此前工业革命带来的环境污染、基因技术、超级细菌等等。拥抱人工智能技术,要确立风险社会的立法理念,追求效益价值的同时,保障安全价值的实现。实现效益价值要求激发人工智能技术的创新活力,促进新技术的转化适用,也就是前述的以立法促进发展。而实现安全价值,要在风险社会理论指引下,从事先预防出发,在整个研发和应用的过程中落实责任制度,保障技术信息适度公开。
做到事先预防必须完善人工智能研究和生产的准入机制和风险评估制度,立法需要对相关主体资格做出限制,对具体项目内容进行审批。有可能造成重大风险的人工智能技术,在着手研究或生产之前,组织相关领域专家详尽论证可行性,必要情况下引入公众意见。对于无法预防或突然发生的风险,要及时反应,这就要求建立人工智能监测制度。对于企业、高校、科研团队等,可以财政投资为条件,要求其定期汇报研究进展。对人工智能研究成果的商品化、产业化附以备案登记的程序。对投入使用的人工智能产品,由地方各级政府部门在发现其造成威胁或实害时向责任部门上报。由来自政府、企业、高校、科研团队以及社会公众聘请的专家组成风险评估小组,对于特定项目进行评估,并向社会公布。责任制度的落实,可能因为人工智能技术的复杂性及其相当程度上的智能性更加困难(如无人驾驶汽车侵权究竟是由设计者、生产者还是所有者、使用者承担责任?)侵权法必须对这样的新型法律关系作出回应。
五、结语
人工智能技术有着诱人的发展前景,人类认识世界改造世界的过程是一个主体和客体互动的过程,主体从客体获取信息,对信息进行加工处理,做出判断以及策略,再施加于客体,以达到主观目的。在这个过程中,人工智能相关技术不断逼近向全领域、全方位发挥作用。相关科学家预测,人工智能超越人类智能之后,能够以不同于人类的方式高效完成这一认识世界、改造世界的过程。许多人类目前受制于物理上的限制或精神上的限制无法解决的问题,例如对于人本身的认识,对于人类所追求的价值的探究,都将以超越人类智慧的方式得到解决。
当前国际间的竞争态势使任何一个谋求人民幸福与国际尊重的国家在把握这一时代机遇的时候都不甘落于人后。尽管许多专业人士未雨绸缪地敲响警钟,依然无法阻挡人们对技术革新的渴望,毕竟历史演进的过程说明,新技术是“双刃剑”,且往往利远远大于弊。尽管本文在抽象意义上讨论了法律如何应对这样的挑战,但在具体的制度设计以及配套政策制定上还有很多问题留待解决。
注释
[1] 尼克·波斯特洛姆:《超级智能——路线图、危险性与应对策略》,中信出版社,2015年2月第1版,第38页。
[2] 吴汉东:《人工智能时代的制度安排与法律规制》,《社会科学文摘》,2017年第12期。
[3] 指威胁到人类生存的风险,在无法控制超级智能的情况下会出现。
[4] 指在技术方面和其他方面获得足够的优势,使其能够取得全球统治地位。
[5] 指那些任何超级智能体都会去追求的,对于所有最终目标都是有用的中间目标。
【参考文献】
[1] 尼克·波斯特洛姆:《超级智能——路线图、危险性与应对策略》,中信出版社,2015年2月第1版。
[2] 克劳斯·施瓦布:《第四次工业革命——转型的力量》,中信出版社,2016年6月第1版。
[3] Matthew U.Scherer: Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, And Strategies, Harvard Journal of Law&technologu, Volume 29,Number 2 Spring 2016.
[4] 何哲:《通向人工智能时代——兼论美国人工智能战略方向及对中国人工智能战略的借鉴》,《电子政务》,2016年12期。
[5] 钟义信:《人工智能:概念·方法·机遇》,《科学通报》,2017年22期。
[6] 吴汉东:《人工智能时代的制度安排与法律规制》,《社会科学文摘》,2017年第12期。
[7] 马长山:《人工智能的社会风险及其法律规制》,《法律科学(西北政法大学学报)》,2018年第6期。
作者简介:郭晔(1994-),女,硕士在读,中南财经政法大学,430000,研究方向:法理学。