孙 南 翔
(中国社会科学院 国际法研究所,北京 100720)
马克思指出,从前各种生产方式的技术基础在本质上是保守的,近代工业的技术基础却是革命性的(1)马克思.资本论:第一卷[M].北京:人民出版社,1953:595.。 21世纪以来,随着信息技术、生物技术、新能源技术、新材料技术等颠覆性工业技术的萌芽与发展,全球正加速推进第四轮科技革命和产业变革(2)冯昭奎.科技革命发生了几次——学习习近平主席关于“新一轮科技革命”的论述[J].世界经济与政治,2017(2):4.。当前,以5G、云计算、区块链、人工智能等技术为代表的技术竞争日益激烈。虽然网络空间对人类生产和生活带来了革命性的影响,然而,其仍没有改变以人为本位的决策机制。技术与代码规制方式并非网络空间治理的终极目的,其仅仅是实现人本宗旨的工具(3)孙南翔.论互联网自由的人权属性及其适用[J].法律科学,2017(3):32.,然而,在人工智能时代则近乎迥异。当前,人工智能技术正潜移默化地重塑社会经济活动的方式,重构人类的社会组织形态,推动国际行为体的内部变迁,进而引发国际体系的深刻变革(4)封帅.人工智能时代的国际关系:走向变革且不平等的世界[J].外交评论,2018(1):129.。从此层面而言,人工智能技术催生了人与物间的新型生产关系。人将可能不再是目的,而智能物不仅是手段,甚至可成为目的本身。
根据人类的认知,人工智能时代至少可分为三个不同的阶段:第一阶段为弱人工智能阶段,其主要依赖人类的指示或支持,通过硬件设备的快速更新、大数据的持续积累、深度学习算法的不断突破,促进人工智能技术的发展;第二阶段为强人工智能阶段,其主要依赖多层神经网络使人工智能获得自我学习能力,甚至发展出机器学习系统自身的直觉和知觉(5)卡鲁姆·蔡斯. 人工智能革命:超级智能时代的人类命运[M]. 张尧然,译. 北京:机械工业出版社,2017:1-106.;第三阶段为超人工智能阶段,出现了在科学创造力、智力和社交能力等方面比最强的人类大脑还聪明很多的智能机器(6)周辉. 算法权力及其规制[J]. 法制与社会发展,2019(6):122.。综合而言,弱人工智能技术仍是以人为中心,依靠人的命令从事深度学习;而强人工智能技术与超人工智能技术已无须以人为主体或本位,机器可实现自我学习,产生自我意识,特别是到了超人工智能阶段,法律的作用将被进一步削弱甚至消亡。
与网络时代相比,人工智能时代将颠覆传统的国际法律框架,国际法体系的主体、结构、运行规则等关键要素都将随之发生巨变。当然,由于技术所限,人工智能或机器人在短期内仍难以成为有自我意识的权利享有者和义务承担者,更遑论成为超人类的群体(7)RYAN C. Robotics and the lessons of cyberlaw[J]. California law review,2015,103 (3):517.。因此,当前理论界和实务界都将关注点集中在人工智能时代的萌芽和发展阶段。例如,欧洲理事会将人工智能定义为“旨在使机器产生人类认知能力的科学、理论和技术”(8)Council of Europe, artificial intelligence[EB/OL].[2019-12-03].https:∥www.coe.int/en/web/artificial-intelligence/glossary.,该含义隐含人工智能以服务人类为主要目的。
在人工智能的发展阶段,人工智能加快了全球治理进程,克服了人类思维的偏见和局限性,提高了决策效率,为解决诸如气候变化等高度复杂问题提供了全新的方法(9)郑海琦,胡波. 科技革命对全球海洋治理的影响[J]. 太平洋学报,2018(4):39.。然而,人工智能技术也带来了诸多挑战,特别是对以人人关系为基础而设立的法律传统及其法律体系产生了一些挑战。人工智能技术导致了个性化规则及其适用的可能性,进而弱化了法律平等观念并重构了公平与正义的理念(10)李晟. 略论人工智能语境下的法律转型[J]. 法学评论,2018(1):98.。在国际法层面,现有的人工智能技术给贸易法、战争法、人权法等领域带来了巨大的变革。基于此,下文对作为国际法起源的海洋法进行分析,以此探索人工智能技术对国际法体系特别是国际法基本原则的挑战,并提出初步的应对建议。
人工智能技术的发展对世界秩序构成了严峻的挑战。在弱人工智能阶段到强人工智能阶段的转变过程中,当前的实践主要关注人工智能技术给海洋法主体、海洋行为及海洋治理机制带来的挑战。
传统上,国家是国际法的唯一主体。然而,人工智能技术的革命性发展使得科技企业或科学家拥有了可比拟于国家的权力。例如,英国马诺尔研究公司曾为皇家海军提供了场景感知的人工智能软件,通过不同的算法和智能特征相结合,帮助军舰探测和评估战斗情景,检测和处理迫在眉睫的威胁(11)郑海琦,胡波. 科技革命对全球海洋治理的影响[J]. 太平洋学报,2018(4):42.。再比如,非政府组织利用野生动物安全保护辅助系统,模拟、监测和预测海上非法捕捞等国际偷猎者的活动(12)MATTHIJS M. International law does not compute:artificial intelligence and the development, displacement or destruction of the global legal order[J]. Melbourne journal of international law,2019,20(1):44.。诸如此类人工智能技术的运用使得科技企业和非国家行为体掌握了大量的数据和信息,极大影响着科学发展的未来方向,进而为人工智能介入全球海洋事务提供了基础,但这样可能会限制或削弱国家主权在海洋事务中的行使权力。
人工智能技术的发展对海洋法稳定的秩序造成了潜在的威胁。美国使用大量的无人机对伊拉克进行监视和打击,通过无人机定位和攻击,击毙伊朗少将苏莱曼尼。同时,人工智能技术也存在向海盗等海上犯罪团伙扩散的趋势,为海洋安全治理带来了新的挑战。例如,海盗能够轻易获得装有摄像机的无人机,并将其用于监视和袭击船舶。小型无人机花费不高且可从甲板上发射,因此海盗或其他组织有较强的意愿使用无人机,此举可能对海洋安全构成潜在威胁(13)郑海琦,胡波. 科技革命对全球海洋治理的影响[J]. 太平洋学报,2018(4):43.。由此可见,在人工智能时代,国家将不再是也不应是国际海洋法权利与义务的垄断者。
当前在世界范围内的海洋行为中,人工智能工具的使用是非常广泛的。基于运输、研究或监控目的的无人船舶或飞行器的使用给传统的国际海洋秩序和航空秩序都带来了挑战。
海洋行为与行为归责密切相关,下面以人工智能武器为例进行说明。在平时法中,当人工智能武器有违反国际法的行为时,不管是刑事行为还是民事行为,都可能使拥有或使用这些人工智能武器的国家产生责任(14)CASTEL J G,MATTHEW E C. The road to artificial super-intelligence:has international law a role to play?[J].Canadian journal of law and technology,2016,14(1):9.。受害者应该证明这些作为或不作为可以归因于国家或相关机构。在战时法中,机器人、无人船舶或其他人工智能武器必须在战争中遵守区分、比例性、军事必要性和人道主义等规则。然而,海洋行为区分为军事行为和民事行为。军事行为和民事行为在国际人道法、合同义务、严格责任规则等方面存在着显著的差异(15)UGO P. Guns, ships, and chauffeurs:the civilian use of UV technology and its impact on legal systems[J]. Journal of law, information and science,2011,21(2):224.。例如,现有的人道习惯法是以区分民用物体与军事目标为前提的,其要求保护民用物体免受攻击,除非民用物体被用于军事目的(16)让-马里·亨克茨,路易斯·多斯瓦尔德-贝克. 习惯国际人道法规则[M]. 刘欣燕,等译. 北京:法律出版社,2007:24.。由此,如何认定人工智能武器法律属性的问题至关重要。特别是在海洋法上,很多无人船舶不仅从事巡逻和边境安全事务,还从事运输等事务。由此可见,人工智能武器的使用方式与其海洋法上的权利密切相关。
除了以传统的国际立法方式解决人工智能武器问题外,很多国家还参加了联合国日内瓦会议,就人工智能武器问题举行正式谈判。在人工智能领域,以非政府组织和网络社会为主体的海洋治理机制正在形成。该治理机制由个人、职业机构、科学家、企业和公民社会等主体所组成(17)THOMAS B. International law and artificial intelligence[J]. German yearbook of international law,2017,60(1):91.。非国家实体通常以技术中立为理由排除国家的参与。例如,劳伦斯曾提出“编码即法律” “编码即正义”等观点。他指出,与其他规制形式相同,电脑硬件和软件能够限制和指导行为(18)LAWRENCE L. Code and other laws of cyberspace[M]. New York:Basic Books,1999:88-89.。在某种程度上,人工智能技术推崇编码或算法,而对人类社会中的道德、伦理和政治漠不关心,甚至有观点直言不讳地指出“人工智能的世界拒绝国王、总统和选举”(19)ALEXIS W. Net states rule the world, we need to reorganize their power[EB/OL].[2019-11-03] https:∥www.wired.com/story/net-states-rule-the-world-we-need-to-recognize-their-power/.。换言之,人工智能产生了无须道德、法律和伦理的世界。
不仅如此,海洋与人工智能治理机制融合的另一个严峻挑战在于治理机制的巴尔干化。传统上,海洋权利体系的规范体现在《联合国海洋法公约》中。然而,由于人工智能技术不仅涉及海洋法,还涉及技术法、航空法、国际人道法等领域,因此,联合国及相应的非政府机构正在加紧探索并研究人工智能的行为规范。从此层面而言,人工智能时代下的海洋治理机制正面临碎片化的挑战。
马克思和恩格斯曾指出,思想、观念、意识的生产最初直接与人类的物质生活、物质交往、现实生活的语言交织在一起(20)中共中央编译局.马克思恩格斯选集:第一卷[M]. 北京:人民出版社,2012:151.。世界的本原是物质的。在现有的人工智能阶段,人工智能技术发源并受制于人,人工智能所产生的思想、观念和认知来自人类世界。因此,国际海洋法应对人工智能技术的挑战应从客观世界中寻求解决方案。
技术进步伴随着人类社会发展的始终。20世纪90年代的互联网技术曾对全球法律秩序的稳定性产生了巨大的冲击。甚至有观点认为,互联网是独特的,因此应旗帜鲜明地支持“互联网例外主义”。该理论认为适用于互联网的法律与适用于其他媒介的法律应是不同的。然而实践证明,虽然谷歌公司、亚马逊公司等互联网企业逐步拓展,但互联网技术与电话、电报、电视或电缆等技术相似,在法律规范及适用层面并不存在实质性的差异(21)SZOKA B, MARCUS A. The next digital decade:essays on the future of the internet[M]. Washington,D.C.:TechFreedom, 2010:179.。道德的规训、法律的价值、伦理的观念仍在网络空间中发挥作用。虚拟空间与实体空间相同,并非法外空间。人类在实体空间所享有的法律权利在网络世界中同样应得到一以贯之的尊崇。
虽然对人工智能技术进行全面的国际立法可能是最好的方式,但由于国际条约制定的缓慢性与国际习惯法形成的滞后性,国际立法几乎难以系统地解决更新频繁的人工智能技术所产生的法律问题。在最优情形下,国际习惯法的产生至少需要10~15年;虽然条约的制定速度能快些,但是其仍滞后于技术的更新换代(22)COLIN B P. A view from 40,000 feet:international law and the invisible hand of technology[J].Cardozo law review,2001,23(1):185.。因此,对人工智能技术规制的最优选择应是最大化地发挥并探索现有的国际规则对人工智能技术的可适用性。托马斯·布曾研究发现,目前国际法院(包括前南斯拉夫国际法庭或国际法院)的案例足以解决人工智能时代的国家控制、归责和代理等问题。沟通论表明,人类与人工智能之间的通讯并不必然与人与人之间的社会沟通存在差异(23)THOMAS B. International law and artificial intelligence[J]. German yearbook of international law,2017,60(1):101-104.。基于此,坚持实体空间、网络空间、物联空间一体融合的法律机制是国际法应对人工智能挑战的基本原则。
体系融合原则能够在保护现有海洋秩序的前提下有效平衡人工智能时代的国家主权和海洋自由。按照实体空间的规则,任何在沿海国领海的无人船舶和无人机开展的活动若扰乱其秩序和安宁,那么沿海国均有权对该无人船舶和无人机行使执法管辖权。毫无疑问,属地管辖权是国家主权的基本内容,这在人工智能时代仍应得以适用。当然,人工智能技术也将产生新的权利体系,下面以登临权为例进行说明。传统的登临权是指在特定情况下,一国军舰对公海上外国船舶进行检查和搜查的权利。在人工智能时代,传统的登临权演化为使用人工智能技术对船舶进行电子监控、检查甚至搜查,此即虚拟登临权。虚拟登临权是否属于合法使用的权利引发了诸多争议。有观点认为,《联合国海洋法公约》第110(2)条规定的登临权仅限于“船舶上”。因此,若检测以电子或人工智能等方式进行,那么该检测违背了条约文本。然而,也有观点认为,应在和平利用海洋的原则下认可虚拟执法的正当性(24)吕方园. 海洋执法“虚拟登临权”理论困境与现实因应选择[J]. 法学杂志,2019(4):100.。
毫无疑问,如果以体系融合原则考虑虚拟登临权问题,其结论将更为明确。一方面,国家能够对人工智能工具实施管辖。国家有关机构可根据获得的线索对领海内无人船舶的网络通信进行监控。如果上述机构从该船舶发出的任何网络通信中确认其正在非法运输毒品,那么执法人员应能够使用人工智能技术使该船舶停止前行(25)迈克尔·施密特. 网络行动国际法塔林手册2.0版[M]. 黄志雄,等译. 北京:社会科学文献出版社,2017:262.。另一方面,人工智能技术也能够赋予国家更大的能力。除了数据监控外,虚拟登临还包括通过无人机或机器人等方式实现执法的目的。因此,体系融合原则最大化地发挥了现有海洋法规则的效用,相应地也实现了海洋自由与国家主权的有效平衡。
虽然人工智能技术带来了颠覆性的观念变革,但是现有的人工智能技术尚未改变人与物之间的从属关系以及国家与公民之间的身份关系。特别是当前,我们仍未赋予人工智能以法律资格,也无法要求人工智能承当相应的法律责任。一方面,人工智能没有可供自由处分的财产;另一方面,人工智能也缺少刑事或民事惩戒的感知与情感能力(26)IRIA G. Liability for AI decision-making:some legal and ethical considerations[J]. Fordham law review,2019,88(2):439.。因此,对人工智能法律责任的追究应采取技术穿透原则。
人工智能对归责原则的挑战主要体现为识别人类对人工智能技术的控制水平。《联合国国家责任草案》体现了国家归责的国际习惯法和一般法律原则,其第5条规定非国家机构的行为若是归责于国家,那么该机构应行使政府的职权。对人工智能而言,目前的难点在于如何证明国家通过个体对其进行全面的控制或有效的控制。人类对人工智能的控制体现在三个层面:人工智能自身的识别能力、人工智能所承担的任务类别、人类操作员对人工智能的监督水平(27)张卫华. 人工智能武器对国际人道法的新挑战[J]. 政法论坛,2019(4):150.。从现有的技术水平出发可知,人工智能的控制主体是开发者、程序员、运营者及其用户。虽然很多人将追求科学知识的自由视为一项基本权利,然而自纽伦堡审判以来,人们普遍认为科研自由并非完全不受限制,特别是应受到道德以及风险不确定性的限制。科研绝对自由的前提仅限于从事那些“负责任”的研究以及那些符合“合法的科学目的”的研究(28)ROSEMARY R. Public international law and the regulation of emerging technologies[M]∥ROGER B,ELOISE S,KAREN Y. The Oxford handbook of law, regulation and technology. New York:Oxford University Press,2017:500.。
从此层面,通过技术穿透原则,对人工智能的规制应穿透到人工智能本身,并追溯到其研发、运营及使用过程中。在现有的技术阶段和法治水平下,若人工智能实体能够被人类所控制,那么其应被视为是合法的。以人工智能武器系统为例,如果该系统无法得到人类的有效控制,那么其极可能被视为是不合法的(29)THOMAS B. International law and artificial intelligence[J]. German yearbook of international law,2017,60(1):91.。因此,使用人工智能技术或工具的国家或个体应承但对该人工智能进行有效控制的义务。当前,对高度自动化或自主武器系统进行“有意义的人类控制”是《常规武器公约》特定武器谈判的重点事项(30)KENNETH A,MATTHEW C W. Debating autonomous weapon systems, their ethics, and their regulation under international law[M]∥ROGER B,ELOISE S,KAREN Y. The Oxford handbook of law, regulation and technology. New York:Oxford University Press,2017:1097.。
在海洋法上,著名的“荷花号案”裁决指出“在国际规则外,国家享有广泛的自由”(31)孙南翔. 裁量余地原则在国际争端解决中的适用及其拓展[J]. 国际法研究,2018(4):60.。由于当前各国未就人工智能技术达成共识并形成公约义务,因此原则上,各国的船舶和航空器均有权在公海及其上空行动,公海航行、飞越和铺设海底电缆等行动均可适用于人工智能工具。国际海洋法也可适用于海上网络基础设施或通过海上网络基础设施而实施的人工智能行动(32)迈克尔·施密特. 网络行动国际法塔林手册2.0版[M]. 黄志雄,等译. 北京:社会科学文献出版社,2017:249.。当然,前提是国家应确保所开展的人工智能行动处于有效的控制范围内。若无人船舶主张通过沿海国领海的无害通过权,则任何在该船舶上开展的人工智能行动都必须符合行使该权利所要求的条件。具体而言,人工智能工具的无害通过至少应包括:第一,人工智能工具并未对沿海国进行武力威胁或使用武力;第二,人工智能行动应限于该船舶或系统内部,并未对沿海国的安全造成威胁;第三,人工智能行动未对沿海国防务或安全产生影响;第四,人工智能行动不应以干扰沿海国通信系统或其他设施或设备为目的。
现阶段的人工智能技术高度依赖数据与算法。数据和信息成为人工智能时代的新型资产,而算法从最初“提炼自这个世界,来源于这个世界”转向“开始塑造这个世界”(33)马长山. 智能互联网时代的法律变革[J]. 法学研究,2018(4):22.。在人工智能时代,作为算法的竞争品,以国家、地域和社会概念为支撑的法律、道德甚至伦理将可能岌岌可危。例如,部分非政府组织创设了所谓的网络行为规范,其并非产生于传统的国际法被创设的场所,却可以通过网络等媒介进行跨国界的宣传,向国际社会灌输强烈的遵守意识,尽管这些网络行为规范并不具有任何法律上的约束力。
未来,机器人将广泛地参与到社会生活中,如家务机器人、工业机器人等,这些机器人将深刻地影响着人们的生活。因此,有必要为机器人制定共同的产品标准(34)杨延超. 机器人法:构建人类未来新秩序[M]. 北京:法律出版社,2019:20.。随着社会治理的发展,人们已日益形成技术治理与法律治理二元共治的话语共识(35)郑智航. 网络社会法律治理与技术治理的二元共治[J]. 中国法学,2018(2):108.。换言之,人工智能时代法律也应实现技术化。在人工智能时代,我们面对诸多复杂的、具体的和技术性的问题,其中最为核心的问题是,法律标准如何转化为“可测试、可量化、可衡量和合理的可靠性工具”(36)KENNETH A,MATTHEW C W. Debating autonomous weapon systems, their ethics, and their regulation under international law[M]∥ROGER B,ELOISE S,KAREN Y. The Oxford handbook of law, regulation and technology. New York:Oxford University Press,2017:1097.。
在实体层面,我们应探索通过技术手段解决法律关切的问题。在算法上,人工智能技术的运用涉及大量的技术法规和国际标准的制定问题,解决这些问题是未来规制人工智能技术的重要切入点。与法律相比,标准的制定更灵活、更方便,且能够根据客观实践的变化而动态调整。因此,标准应成为解决与人工智能技术相关的道德和道义问题的场所。例如,有专家提出机器人制造准则,要求在编码中规定“人工智能不会伤害人类”(37)CASTEL J G, MATTHEW E C. The road to artificial super-intelligence:has international law a role to play?[J].Canadian journal of law and technology,2016,14(1):12.。在国际标准领域,电气和电子工程师协会(IEEE)正推动标准化道德原则的实施。该协会在人工智能以及自动系统的道德因素全球倡议中公布了 “道德嵌入的设计”一章的内容,提倡在技术中嵌入透明度、算法非歧视和隐私保护等规范。因此,各国应加大标准化协调工作力度,确保和平、有序的海洋规则体系的构建。
在程序层面,我们也应探索通过法律手段解决技术问题,特别是应在技术创新中增加法治的理念。欧盟学者指出,迎接人工智能挑战的重要方式是在人工智能系统的发展、推广和使用中普及法治(38)NILS M. Human rights implications of the usage of drones and unmanned robots in warfare[EB/OL].[2019-12-03].http:∥autonomousweapons.org/human-rights-implications-of-the-usage-of-drones-and-unmanned-robots-in-warfare/.。美国民主党参议员布克(Cory Booker)和怀登(Ron Wyden)在2019年4月提出了《2019算法问责制法案》,要求美国联邦贸易委员会对企业进行算法审查,并建立算法问责的明晰标准。归纳而言,全球法治的核心价值共有七项内容:第一,保护人类自由和尊严;第二,克服经济领域的绝对超级贫困;第三,缩小经济鸿沟;第四,防止对环境的更多危害;第五,缩小信息和技术鸿沟;第六,保证基本人权;第七,能够允许新型技术的发展(39)朴仁洙. 第四次工业革命下的国际合作与法治发展——在“‘一带一路’国际法治论坛”上的主旨发言[EB/OL].[2019-11-11].http:∥iolaw.cssn.cn/xszl/gjf10/ydyl/202001/t20200103_5070977.shtml.。在人工智能时代,实现法治的核心在于实现多元合作、实施算法问责制,而多元合作的前提是提高算法的透明度和解释力。
在国际海洋法中,为用户和相关个体提供技术性的正当程序权利是推动海洋法领域人工智能技术治理的应然路径。算法使人工智能技术产生了异化,特别是削弱了传统的知情权、参与权、异议权和救济权。因此,在人工智能时代应重置个人权利以对抗算法权力,与人工智能相关的新权利体系包括赋予公众算法的访问权、解释权(40)张欣. 算法解释权与算法治理路径研究[J]. 中外法学,2019(6):1430.。在某种程度上,技术科学与医疗科学相似,用户或患者不一定掌握专业知识能够看懂算法规则或药方,但公开与透明将会促进社会的监督和公众的参与。鉴于此,若人工智能技术涉及海洋环境等内容,应根据《联合国海洋法公约》的规定进行信息的分享,信息的分享不应限于国家层面,还应包括社会公众层面。
习近平指出,“由人工智能引领的新一轮科技革命和产业变革方兴未艾。人工智能正在对经济发展、社会进步、全球治理等方面产生重大而深远的影响”(41)习近平. 推动人工智能更好造福世界人民[N]. 人民日报(海外版),2019-05-17(1).。当前,人工智能技术正重塑着国际海洋秩序。然而,由于国际立法的滞后性以及弱人工智能技术的非自主性,我们应加速研究人工智能技术对法律机制的影响及其对人类社会生活的挑战。
第一,我国应积极探索国际海洋法对人工智能技术的可适用性。实践中,若没有清晰的、可预测的行动纲领,那么以人工智能技术为核心的新的军备竞赛将不可避免,大国势必追求人工智能技术并运用于军事领域以维持其大国地位。中小国家则会千方百计地寻求人工智能武器的扩散,以争取获得新的制衡手段(42)封帅. 人工智能时代的国际关系:走向变革且不平等的世界[J]. 外交评论,2018(1):141.。这将对全球安全体系和伦理基础构成威胁。因此,我们应尽快探索国际海洋法对人工智能技术适用的可行性,实现海洋秩序的有序化、规则化和法治化。
第二,在人工智能技术发展过程中,我国应探索法律技术化和技术法律化的机制。国家是传统国际法的主体。在人工智能时代,普通个人或科学家均能秘密开发相关武器,并逃离国际监管机构的审查。为维护和平与发展的环境,我们有责任对人工智能技术产品及其设计者设定一定的道德标准,促使科技向善。在未来的人工智能时代,我国应加强道德、伦理与技术的融合,共同开发和发展有利于维护人类共同利益的人工智能技术。
第三,在人工智能时代,我国应与世界各国携手共同迎接人工智能技术所带来的挑战。任一国家或国家行为体都无法解决人工智能所面临的所有法律、道德和伦理问题。未来总是不确定的,但是法治会帮助我们维护社会的稳定,以及实现未来的预期性及确定性。一方面,我们应积极引导法治在人工智能技术的使用、发明过程中发挥作用;另一方面,我们也应推动在人工智能技术的法律限制和道德规训上形成政府间共识,促使科技融入并推动人类命运共同体的构建。
未来,人工智能技术还将产生自我学习与自我认知能力,它既不能被人类所规制,也无法为人类所预知(43)RYAN C. Robotics and the lessons of cyberlaw[J]. California law review,2015,103 (3):513.。毫无疑问,我们面临的更大挑战将是无知与未知的人工智能技术。