沈 伟, 赵尔雅
(上海交通大学 凯原法学院, 上海 200030)
数字经济是以数据要素为基础的新兴经济形态,人工智能是数字经济的核心。联合国贸易和发展会议(United Nations Conference on Trade and Development, UNCTAD)发布的《2021年数字经济报告》指出,数字数据(digital data)的指数增长构成了包括人工智能在内的新兴数字技术的核心,并已成为一种基本的经济资源。①UNCTAD. Cross-border Data Flows and Development: For Whom the Data Flow, https://unctad.org/system/files/officialdocument/der2021_en.pdf, p. 3.在数字经济的三范围模型(three-scope model)中,信息技术/信息与通讯技术(IT/ICT)部门是数字经济的核心,与数字服务和平台经济共同构成了数字经济,而电子商务、精准农业和算法经济等则属于更广义上的数字化经济。②Rumana Bukht and Richard Heeks. Defining, Conceptualizing and Measuring the Digital Economy. International Organizations Research Journal, 13, 2018, pp. 143-172.本文讨论的数字经济实质上是广义的“数字驱动的经济”。一方面,数字经济以数据作为一种经济资源,数字数据被加工利用而产生经济效益;同时通过对数据的处理生成产品,不仅利用数据亦创造数据作为新的价值。另一方面,数字经济处于全球语境之中,这是由其利益相关方的多元性和覆盖范围的广泛性决定的,尤其和跨国互联网巨头业务的全球覆盖有关,正是数据的跨境流动使得这种全球语境成为现实可能。
人工智能是数字经济的核心,作为一种计算统计技术有能力从海量数据中找出隐藏的模式和规律,①郑戈:《数字社会的法治构型》,《浙江社会科学》2022年第1期。根据现存数据创造更多的数据信息知识,而更广泛的信息又可反作用于人工智能的研发与训练。相应的结果是,从来没有一个单一部门能像数字技术这样对整个世界拥有如此大的权力,可以针对的不仅仅是个人,而是全部人口,监控当前和预测未来的行为。②Renata Avila Pinto. Digital Sovereignty or Digital Colonialism. Sur - International Journal on Human Rights, 27, 2018,pp. 15-16.数字经济的领跑者正是通过控制数据和人工智能技术来获取经济和战略优势的。③UNCTAD. Cross-border Data Flows and Development: for Whom the Data Flow, https://unctad.org/system/files/officialdocument/der2021_en.pdf, p.xviii.例如,国际主流的AI框架由Google、Meta等科技巨头主导,形成了以Google-TensorFlow和Meta-PyTorch为代表的双寡头格局。④中国信通院:《AI框架发展白皮书(2022年)》,第18页,http://www.caict.ac.cn/kxyj/qwfb/bps/202202/P0202202263699086 06520.pdf。这类巨头通过其服务平台而掌握的全世界用户的数据将加固其领先地位。
人工智能的大规模涌现给国际法带来至少两个新议题:“人工智能中的国际法”与“国际法中的人工智能”,二者均已引发国际法和其他国际规则方面的讨论。前者关注人工智能如何影响国际法的运行,后者则讨论国际法如何适应人工智能运用愈发广泛的现实,或者说国际法如何被用以治理人工智能。有关“人工智能中的国际法”之讨论,如利用人工智能的有效算法在国际商事仲裁中协助任命仲裁员、一定程度上预测裁决结果等,⑤Young-Yik Rhim and KyungBae Park. The Applicability of Artificial Intelligence in International Law. Journal of East Asia and International Law, 12, 2019, p. 7.尽管这种技术性作用由于仲裁本质上是由人类仲裁员赋予合的社会性和政治性过程而显得十分有限。⑥Christine Sim. Will Artificial Intelligence Take over Arbitration? Asian International Arbitration Journal, 1, 2018, p. 14.而对于“国际法中的人工智能”,当前针对国际法下的人工智能治理之讨论主要集中于对人工智能武器的规制。这些武器在21世纪初期的武装冲突中已有使用,⑦2001年10月7日,美国及其盟国在阿富汗针对彼时塔利班领导人Mullah Omar进行的史上第一次无人机行动中发射导弹。而今在俄乌冲突中亦体现于双方对于面部识别技术和无人机的应用。有关以无人机等“致命自主武器”为代表的人工智能应用在国际法中执法、平时法与战时法各个领域中的合法性与归责方式均有讨论,⑧Stuart Casey-Maslen. Legality of Use of Armed Unmanned Systems in Law Enforcement. Stuart Casey-Maslen. Armed Unmanned Weapons Systems under Jus ad Bellum. And Nathalie Weizmann. Armed Drones and the Law of Armed Conflict. In Stuart Casey-Maslen, Maziar Homayounnejad, Hilary Stauffer, and Nathalie Weizmanne (eds), Drones and Other Unmanned Weapons Systems under International Law. Leiden: Brill, 2018.其中,国际人道法面临的挑战最为显著。具体而言,从人工智能自动化武器的合法性角度,主要观点认为:其一,人工智能武器所使用算法的局限,使其在战争中能否遵循区分原则和比例原则这类难以量化的决定⑨Kjolv Egeland. Lethal Autonomous Weapon Systems under International Humanitarian Law. Nordic Journal of International Law, 85, 2016, p. 108.受到严重怀疑。其二,人工智能武器可能动摇人类主体可归责性这一现代人道法的核心,⑩Chantal Grut. The Challenge to Autonomous Lethal Robotics to International Humanitarian Law. Journal of Conflict and Security Law, 18, 2013, pp. 5-24; 同上注。责任缺口的存在可能使得此类武器系统免于谴责和追责。⑪Tim McFarland & Tim McCormack. Mind the Gap: Can Developers of Autonomous Weapons Systems Be Liable for War Crimes? International Law Studies Series. US Naval War College, 90, 2014, pp. 361-385; U. C. JHA. Lethal Autonomous Weapon Systems and International Humanitarian Law. ISIL Year Book of International Humanitarian and Refugee Law, 16, 2016-2017, pp.112-139.从国际法对人工智能武器规制的角度,现有国际人道法的一般原则不足以规范这类破坏性军事技术,国际规范应当把人的生命价值放在首位并强调决策过程中的人类因素。①Kaja Kowalczewska. The Role of the Ethical Underpinnings of International Humanitarian Law in the Age of Lethal Autonomous Weapons Systems. Polish Political Science Yearbook, 48(3), 2019, pp. 464-475.各国应当推动起草和制定有关人工智能武器的国际条约,②张卫华:《人工智能武器对国际人道法的新挑战》,《政法论坛》2019年第4期。对致命性自主武器和非致命性自主武器应分别明确加以禁止和限制。③杨成铭、魏庆:《人工智能时代致命性自主武器的国际法规制》,《政法论坛》2020年第4期。此外,当前有关人工智能对其他国际法特定领域的讨论亦逐渐涌现,如国际海洋法④孙南翔:《人工智能技术对国际法的挑战及应对原则——以国际海洋法为视角》,《辽宁师范大学学报(社会科学版)》,2020年第4期。和海商法⑤范晓波、陈怡洁:《船舶无人化趋势下AI航行系统的责任探析》,《中国海商法研究》2021年第4期。领域,但对于人工智能有关的一般性国际法问题以及国际经贸领域具体规制的讨论相对不足,⑥赵骏、李婉贞:《人工智能对国际法的挑战及其应对》,《浙江大学学报(人文社会科学版)》,2020年第2期。且并未注重数字经济背景下数据治理在人工智能治理中作为前置性问题出现这一事实。事实上,人工智能在国际经济法中面临的规制空缺同样深刻,有国外研究指出:对外国人工智能供应商的区别对待是否有违各国在国际贸易中的承诺?用以训练人工智能的数据库是否将被视为外国投资?人工智能的作品是否会在国际知识产权法中受到全球统一的保护?投资人工智能或利用其进行投资又需要怎样的国际金融规则?这些都是国际经济法需要追问和解决的问题,⑦Anupam Chander and Noelle Wurst. Applying International Economic Law to Artificial Intelligence. Journal of International Economic Law, 24, 2021, pp. 804-805.并有研究就人工智能对WTO法的影响、作为数据治理的人工智能治理,及国际经济法的有限性等议题作出初步回应。⑧Shin-Yi Peng, Ching-Fu Lin, and Thomas Streinz (eds), Artificial Intelligence and International Economic Law: Disruption,Regulation, and Reconfiguration. London: Cambridge University Press, 2021.同时,国内文献在这些领域尚未提出明确问题或试图给出回复。本文主要以数字经济为背景,考察当前人工智能国际法规制的现状、讨论人工智能对于当前国际法的核心挑战,并提出国际合作与我国参与的应对思路。
在分析对人工智能治理方式时,有学者选择采用“政策(policy)”一词,并给出两方面原因:一是其他治理思路的缺陷,如单纯的伦理规范具有概念易变、缺乏强制力等局限性;二是“政策”治理思路的优势,如蕴含制定新法的空间、强调立法过程中的公共利益考量等。概言之,作者的讨论不限于具有约束力的法律规则,但也认可法律的可能性和终局性。⑨Ryan Calo. Artificial Intelligence Policy: A Primer and Roadmap. U.C. Davis Law Review, 51(2), 2017, pp. 409-410.事实上,在现实中,国际法对于信息空间的规制一直在跟进。例如,联合国2013年发布的《从国际安全的角度来看信息和电信领域发展的政府专家组的报告》明确指出,现行国际法尤其是《联合国宪章》适用于各国使用通信技术。⑩联合国大会:《从国际安全的角度来看信息和电信领域发展的政府专家组的报告》,A/68/98,2013年6月24日,第8页,https://digitallibrary.un.org/record/753 055/files/A_68_98-ZH.pdf。
国际法对人工智能进行治理的必要性首先在于这一技术本身的工具性,这意味着其应用必然是多领域和全球范围内的,而只有国际准则可以提供统一指引,国际层面的行业规则和软法的灵活特点则可以发挥先导或补充作用。其次,人工智能技术的多层次性,已经在数据层、算法层和应用层分别对现有有约束力的国际法规则造成冲击。例如,仅是在商业领域的广泛应用就足以放大人工智能的影响,将其全方位地投射到现有国际经贸规则上。故而,在国内法与道德准则发展的同时,人工智能对现有国际法的冲击无法被忽视,需要对有约束力的国际规则有所塑造。数字经济治理的新问题亦是如何治理人工智能创造与发展数字经济的过程,人工智能由于与数字资源的必然联系无法脱离数字经济的总体治理框架。
2022年1月,Meta宣布已经设计并建造了AI Research SuperCluster—当今运行速度最快的AI超级计算机之一。①Meta. Introducing the AI Research SuperCluster — Meta’s Cutting-edge AI Supercomputer for AI Research, January 24, 2022,https://ai.facebook.com/blog/ai-rsc/,2022年8月8日访问。2022年2月,Google的DeepMind宣布通过教授一种强化学习算法训练了一个人工智能来控制核聚变。②Amit Katwala. DeepMind Has Trained an AI to Control Nuclear Fusion, February 16, 2022, https://www.wired.com/story/deepmind-ai-nuclear-fusion/,2022年8月8日访问。自2018年首次公布自己的人工智能原则之后,Google每年更新其人工智能原则,包括就人工智能的标准与政策的全球对话总结成果并提出建议。③Google AI. Building Responsible AI for Everyone, https://ai.google/responsibilities/; Google 2021 AI Principles Progress Update, https://ai.google/static/documents/ai-principles-2021-progress-update.pdf.有学者警告,由于创新的速度已经超过了监管过程的惯性,政府在监管竞赛中正在输给技术专家、数据科学家和机器算法。④Travis LeBlanc. Sovereignty Disrupted. Federal Communications Law Journal, 70, 2018, p. 314.
在科技巨头企业极力推动人工智能的研发与广泛商业运用并试图主导行业规则的今天,为什么我们仍相信国际法在人工智能治理中的核心与根本作用?这是因为,人工智能可治理性的根本来源在于主权国家治理的有效性。一方面,人工智能本身可用于辅助政府公权力行使。人工智能不仅已经让使用自然语言进行准确和快速的法律研究成为可能,其预测封闭系统中行为的价值亦可被行政机构合法用以确保发布政策和指导监管的一致性。⑤Paul Armstrong. From Law Office to Administrative Proceedings. The Judges’ Journal, 59(1), 2020, pp. 20-25.不仅如此,人工智能还可能成为国际政治角力的工具。在2022年的俄乌冲突中,乌克兰国家安全局声称已关闭了一个在社交媒体上散布恐慌和炸弹威胁的俄罗斯社交机器人农场。⑥马晓晨:“人工智能与社交网络在俄乌冲突中的应用”,“蓝海星智库”公众号,2022年2月26日,https://mp.weixin.qq.com/s/l1sfNn9Q687N19JLpumAMg,2022年8月8日访问。另一方面,尽管大型私人公司具有丰厚的人工智能技术和社会资源,它们仍根本受制于政府管控。哈佛大学国际关系教授Stephen Walt认为“科技巨头不会重塑全球秩序”:数字空间比起必不可少的地缘政治的物理空间只是可选项,科技巨头无法拥有类似主权的权力或忠诚度,它们在数字世界中的地位会随着主权在数字世界中行使权力的扩散而削弱。⑦Stephen M. Walt. Big Tech Won’t Remake the Global Order, November 8, 2021, https://foreignpolicy.com/2021/11/08/bigtech-wont-remake-the-global-order,2022年8月8日访问。
当前,人工智能之国际法规制并不成熟。其一,从人工智能之国际治理的不同规制方式来看,目前的人工智能国际治理体系仍以伦理规则为主。在人工智能国际法规则确立之前,伦理准则和共同价值标准可以尽量确保价值导向强烈的技术运行之准确性和客观性。⑧施伟东:《论市域社会治理数字化转型的法治推进》,《政治与法律》2022年第3期。全世界在政府层面达成的最广泛的人工智能共识—联合国教科文组织大会于2021年11月通过的《人工智能伦理问题建议书》①UNESCO. UNESCO Member States Adopt the First Ever Global Agreement on the Ethics of Artificial Intelligence, November 25, 2021, https://www.unesco.org/en/articles/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence,2022年8月8日访问。即是一伦理共识。其二,从人工智能法律规则体系内部的不同层级来看,部分国家或地区的域内法及其他治理规则发展迅速。其中,欧盟作为一个特殊主体,其人工智能规则同时包含以人工智能为专题的立法与战略政策及以数据为规制对象的配套规则,亦提供了一种区域国际法的典范。不过,欧盟法中的人工智能规则的目的更多是促进欧盟作为市场平台对于投资者的吸引力,对于更广泛国际范围内的人工智能规制作用有限。
尽管现有国际法中尚不存在以人工智能为规制对象的多边国际条约,但有关的双边条约与共识渐次出现。2020年10月,印度外交部表示,印度与日本已确定一项协议,将促进关键信息基础设施、5G技术、物联网、人工智能和网络空间等关键领域在能力建设、研发、安全和弹性方面的合作;两国外长还宣布日本同意成为由印度提出的印度-太平洋倡议的主要合作伙伴。②Dipanjan Roy Chaudhury. India, Japan Finalize Pact for Cooperation in 5G, AI, Critical Information Infrastructure, October 7,2020, https://economictimes.indiatimes.com/news/defence/india-japan-finalise-pact-for-cooperation-in-5g-ai-critical-information2020年8月,新加坡与澳大利亚签署《双边数字经济协议》( SADEA),同时还签署了一系列谅解备忘录,其中就包括专门旨在发展和鼓励人工智能最佳实践以及伦理治理框架共享的谅解备忘录。③Ministry of Trade and Industry of Singapore. The Singapore-Australia Digital Economy Agreement Enters into Force,https://www.mti.gov.sg/-/media/MTI/Newsroom/Press-Releases/2020/12/Press-Release-on-the-SADEA-Entry-Into-Force_9-Dec.pdf.此外,学界也已出现就人工智能治理的最高约束力与广泛性的国际规则形式—国际条约—的设想,如Andrey Neznamov和Victor Naumov提出了《为机器人和人工智能的创建和使用的机器人和人工智能规则示范公约》,就发展人工智能过程中研发者应秉持的负责态度、合作发展统一国际规则和建立跨国组织等努力作出指导。④Andrey Neznamov and Victor Naumov. Model Convention on Robotics and Artificial Intelligence: Toward International Regulation. The Journal of Robotics, Artificial Intelligence and Law, 2, 2019, p. 205.
1.形式上以国际软法为主。当前国际法中的人工智能规制主要依托国际软法,具体包括两种主要形式。第一种是由传统国际法主体参与制定的、不具有约束力的国际规则。2019年5月经济合作与发展组织(OECD)理事会通过的《人工智能建议书》是第一个政府间的人工智能标准,为负责任地管理可信赖的人工智能确定了五项原则:包容性增长、可持续发展和福祉;以人为本的价值观和公平;透明度和可解释性;稳健性、安全性和安全性;问责制。⑤OECD. Recommendation of the Council on Artificial Intelligence, https://legalinstruments.oecd.org/en/instruments/OECDLEGAL-0449,2022年8月8日访问。2019年6月,G20部长级会议表决通过《G20贸易和数字经济部长声明》,⑥G20 Ministerial Statement on Trade and Digital Economy, http://www.g20.utoronto.ca/2019/2019-g20-trade.html,2022年8月8日访问。其中附件部分提出了“G20人工智能原则”,强调发展以人为本的人工智能,并明确该原则不具有约束力。第二种是以欧盟法为代表的区域性国际法。其中,有些是直接规则,比如《关于人工智能的统一规则并修正某些联合立法行为》的提案,⑦https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9 585-01aa75ed71a1.0001.02/DOC_1&format=PDF.提出了人工智能应用场景风险分级评定制度,以附件形式列举出了属于人工智能范围内的技术清单,以提供必要的法律确定性。有些是间接规则,比如《通用数据保护条例》(General Data Protection Regulation, GDPR),⑧https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32016R0679&from=EN.规定了个人数据自由流动的原则,引入了被遗忘权和数据可携带权,从个人对数据的自决权出发建构个人数据权利体系。①汪庆华:《人工智能的法律规制路径:一个框架性讨论》,《现代法学》2019年第2期。
2.内容上以间接规制为主。国际法中的人工智能规制规则并非都体现在直接规制规则上,尽管当前直接规制人工智能的有约束力的国际法规则相对缺失,但间接规制人工智能的国际法规则并不稀缺,其中典型的是以数据治理规则为代表的数字经济规则。
国际法层面的数字经济规则主要有两种形式:一是纳入自由贸易协定中的数字贸易协议内容,如《全面与进步跨太平洋伙伴关系协定》(CPTPP)中的第14章“电子商务”;二是专门的数字贸易协定,如东盟各国于2018年11月签署的《东盟电子商务协定》等。此外,最重要的多边贸易体制WTO框架下的电子商务谈判于2019年启动,目前仍在进行中,②WTO. E-commerce Negotiators Seek to Find Common Ground, Revisit Text Proposals, February 21, 2022, https://www.wto.org/english/news_e/news22_e/jsec_23feb22_e.htm,2022年8月8日访问。各成员在跨境数据流动、数据本地化、源代码保护、电子传输免关税永久化等方面分歧较大。③李墨丝:《WTO电子商务规则谈判:进展、分歧与进路》,《武大国际法评论》2020年第6期。在2022年6月举办的第十二届部长级会议上,各方表示重振《电子商务工作计划》相关工作,并同意将电子传输临时免征关税延续到下一届部长级会议。④“商务部世贸司负责人介绍世贸组织第12届部长级会议成果具体情况”,商务部世贸司:http://www.mofcom.gov.cn/article/bnjg/202206/20220603320845.shtml,2022年8月8日访问。
在经贸协定和其他与数字经济有关的协定中出现了两处有代表性的关于人工智能的共识:其一是《数字经济伙伴关系协定》(Digital Economy Partnership Agreement,DEPA)第8.2条“人工智能”,其二是SADEA第31条“人工智能”。二者的结构与内容颇为相似:首先,重申了人工智能在数字经济中日益广泛的作用;其次,指出有助于实现人工智能的益处的伦理治理框架对于可信、安全和负责任地使用人工智能技术的重要性,并强调“鉴于数字经济的跨境性质,双方进一步认可确保此类框架尽可能与国际接轨的好处”;最后,强调成员方的人工智能的合作和对国际共识的考量。以DEPA第8.2条为例,其重要性在于,此前国际贸易协定从未涉及与人工智能这类支撑数字经济之具体技术相关的问题。⑤Marta Soprana. The Digital Economy Partnership Agreement (DEPA): Assessing the Significance of the New Trade Agreement on the Block. Trade, Law and Development, 13(1), 2021, p. 161.不过,由于本条是以相当软化的语言表达的,⑥例如,第8.2条之第3款表述为“缔约方应努力(endeavor to)促进采用支持可信、安全和负责任使用人工智能技术的道德和治理框架(人工智能治理框架)。”它并不能被视为对开发人工智能治理框架的约束性承诺,而是更接近一种宣示工具。
人工智能对于当前国际法的挑战有两个层面。从国际法内部来看,直接规制人工智能的有约束力的国际规则缺位,反映出国际法体系在对人工智能规制上的滞后性,故人工智能带来的一大挑战是国际法体系如何规制新兴的人工智能。从国际法外部来看,国际法对人工智能的规制作为国际治理的方式之一亦有局限性,故另一大挑战是国际法体系如何与其他国际治理方式接轨。
人工智能对于以主权为基础的国际法体系是全新的规制对象,后者在规制过程中体现出明显的滞后性,国际法中的国际经贸规则是一个典例。
1.根本原因。排他性主权与统一数字空间之间存在张力。如果说不均衡的人工智能发展水平是致使人工智能国际规则缺位的现实原因,那么人工智能技术背后数据的天然流动性特征同主权治理的排他性特征间的冲突,则决定了人工智能国际治理困境的根本悖论—有学者称之为数据隐私的“巴尔干化/割据(balkanization)”现象。①Fernanda G. Nicola and Oreste Pollicino. The Balkanization of Data Privacy Regulation. West Virginia Law Review, 123,2020, p. 61.不平衡的人工智能发展加剧了数字割据,而数字鸿沟的扩大又加剧了人工智能水平的差异,这和数字经济运行在开源基础上的本质要求②Hila Lifshitz-Assaf and Frank Nagle. The Digital Economy Runs on Open Source. Here’s How to Protect It., September 2,2021, https://hbr.org/2021/09/the-digital-economy-runs-on-open-source-heres-how-to-protect-it,2022年8月8日访问。是相悖的。正如UNCTAD在2021年《数字经济报告》所指出的,目前世界范围内的技术竞争,尤其是人工智能技术的竞争,可能会导致数字空间的碎片化,出现一种各自为政的数字经济。③UNCTAD. Digital Economy Report 2021, p.3, https://unctad.org/system/files/official-document/der2021_en.pdf.数据巴尔干割据现象显然与互联网的开放属性和去中心化特征之间存在张力,这使得人工智能的统一国际法规则难以实现。
在这一背景下,甚至有学者警示数字殖民主义(digital colonialism)的来临:信息通信技术、人工智能创新以及在新兴市场快速部署系统和基础设施的能力都集中在少数几个国家,尤其是中国和美国;而技术相对落后国家很容易由于教育和科研水平的鸿沟陷入技术依赖和发展困顿。④Renata Avila Pinto. Digital Sovereignty or Digital Colonialism. Sur - International Journal on Human Rights, 27, 2018, pp. 16-17.我国在这一讨论中也成为被抨击对象,无中生有的观点认为中国正通过技术施加经济和政治压力,从而对非洲国家施行数字新殖民主义,其中的主要途径即在整个非洲部署人工智能技术和数据挖掘技术。⑤Willem Gravett. Digital Neo-Colonialism: The Chinese Model of Internet Sovereignty in Africa. African Human Rights Law Journal, 20, 2020, pp. 127-128.
2.具体表现。以国际经贸规则为例,国际经贸规则规制着全球价值流动的全过程,其本身是多环节与综合性的;又因为人工智能本身也是多层次的,这使得国际经贸规则成为人工智能规制面临问题的显著领域之一。人工智能在应用层、数据层和算法层均面临着在国际经贸规则中定位或规制路径不明的问题。
(1)人工智能在其应用层的产品属性不明。人工智能在应用层的主要体现为人工智能产品,而就人工智能产品是货物还是服务这一问题,现有国际贸易规则并没有予以明确。CPTPP在数字产品的定义条款中就通过注释直接回避了数字产品贸易归属于服务贸易还是货物贸易的争论。⑥Footnote 3 to Chapter 14 Electronic Commerce, CPTPP.而且,不仅是广义的数字产品面临这一困境,即使相对成熟领域的产品定位亦如此,其中一个重要原因是人工智能技术服务与产品通常聚合为一体而打包流通。以自动驾驶系统(Automated Driving Systems, ADSs)为例,它是人工智能应用相对成熟的领域之一,但供应链上的各个国家尚无法就这种货物和服务的集成体究竟属于二者中哪一类达成共识,而这将决定WTO法律体系中仅适用于货物贸易的《技术性贸易壁垒协议》能否适用。⑦Shin-yi Peng. Autonomous Vehicle Standards under the Technical Barriers to Trade Agreement: Disrupting the Boundaries? In Shin-Yi Peng, Ching-Fu Lin, and Thomas Streinz (eds), Artificial Intelligence and International Economic Law: Disruption,Regulation, and Reconfiguration. London: Cambridge University Press, 2021, p. 127.此外,即使人工智能产品受到规则保护与规制,其所基于的数据并不一定能享有类似待遇。例如,在数据被用以训练服务产品的情况下,仅有产品受保护而数据不受保护。只有当数据本身是终端服务产品且成员在减让表中具体承诺的时候,《服务贸易总协定》规则方可适用。
(2)人工智能在其数据层的数据法律性质不明。数据可否作为一种投资在国际投资法上并不清晰,是人工智能在其数据层面临的问题。其一,用以训练人工智能的数据是人工智能在数据层的核心要素,但能否对将数据投入人工智能训练的过程按照投资加以处理存在疑问。尽管大多数双边条约在定义“投资”时都采用例如“所有资产”的术语,且就投资定义存在当事人的意思自治空间,①Rudolf Dolzer and Christoph Schreuer. Principles of International Investment Law. London: Oxford University Press, 2012,p. 63.但数据的投入能否作为适格投资仍可能面临与单次商业交易的区分问题,这一区分的重要性在于不同语境决定了数据流动的不同待遇。其二,数据流动规则由于需要在传统投资实体待遇的框架下适用,可能受制于后者而遭克减。这一问题在规则上是由自由贸易协定中的电子商务与投资章节二分造成的。例如,CPTPP仅将跨境数据流动约束力条款纳入电子商务章节中,而未纳入投资章节中;而根据投资章节的第9.19条,投资者提出仲裁请求只能是基于东道国对该章A节下的义务、一项投资授权或一项投资协议这三类对象的违反。因此,投资者无法直接就投资过程中所遭受的数据流动限制向东道国主张权利。不过,由于电子商务章节的第14.2.5条亦规定了对第9章的合规要求,投资者可以对数据流动的限制构成对投资义务的违反为由向东道国主张权利。②Andrew D. Mitchell and Jarrod Hepburn. Don’t Fence Me in: Reforming Trade and Investment Law to Better Facilitate Cross-Border Data Transfer. Yale Journal of Law and Technology, 19, 2017, pp. 229-230.
(3)人工智能在其算法层:源代码的规制路径不明。人工智能之算法如何受到保护并适度开放,是人工智能在算法层面临的问题。人工智能算法的源代码开放本质是一个透明度问题,③Grazia Cecere, Nicoletta Corrocher, and Clara Jean. Fair or Unbiased Algorithmic Decision-Making? A Review of the Literature on Digital Economics, October 15, 2021, https://ssrn.com/abstract=3943389.这种透明度在浅层上意味着人工智能在同人类的交互中对自身身份的披露,在深层次上则意味着源代码的开放。目前,诸多经贸协定章节对数字产品源代码规制是谨慎限制源代码的披露情形,将其限缩于商业合同约定或当事国监管要求两类情况。如,CPTPP第14章电子商务之第14.17条“源代码”、《美墨加贸易协定》(USMCA)第19章数字贸易之第19.16条“源代码”和《美日数字贸易协定》直接涉及对源代码的强制技术转让之禁止,同时亦保留披露算法的空间。这一做法的问题在于,经贸协定中的源代码规则仅涉及单一的源代码披露,而未区分对于不同类型人工智能的不同监管方式:根据“是否以获得人工智能的解释为监管标准”,存在两类对于算法的监管模式,一是审计源代码的“白盒”方法,二是仅通过接口审计人工智能系统输入和输出的“黑盒”方法。④Irion, Kristina. AI Regulation in the European Union and Trade Law: How Can Accountability of AI and a High Level of Consumer Protection Prevail over a Trade Discipline on Source Code? January 26, 2021, https://ssrn.com/abstract=3 786 567 or http://dx.doi.org/10.2139/ssrn.3786567.当前的经贸规则中并没有区分两种模式,仅有的严格的源代码披露规制可能反而使得更需监管的黑盒人工智能不受有效约束。不过,即使不采取强行代码公开的法律要求,而是采取表面较为宽松的可解释性合规要求,代码的技术负责人也很难为外行提供自动化应用决策方式的准确解释,而这种信息与技术的双重优势地位很可能带来监管套利的空间。⑤唐林垚:《公共治理视域下自动化应用的法律规制》,《交大法学》2022年第2期。
1.国际法规则形成的周期较长。国际法的两种主要造法方式和法律渊源是国际条约和国际习惯,这决定了国际法规则达成所需时间较长,尤其在对人工智能等新兴产业规制上的空缺明显。一般来说,国际软法是特定领域国际法规范不足的有效补充,如国际环境法领域中的1972年斯德哥尔摩《人类环境宣言》和1992年里约《环境与发展宣言》两个软法文件已成为国际环境法框架形成的两个里程碑。不过,目前国际软法在人工智能规制上亦处于初步阶段,这体现为相关国际软法不仅数量少,而且总体上并没有提出新概念和新规则,也没有提出规制路线图,大部分是对伦理规则的整合重述,这方面的国际法规则明显滞后。
2.国际法立法过程的参与主体有限。首先,国际法规则的制定参与主体主要是国家,但在人工智能领域,行业巨头尽管在行业内具有充分的规范引领动机和资源以及相当的话语权,但其在国际法形成过程中的话语权与其行业地位并不匹配。其次,各国由于人工智能发展水平各异而利益诉求各不相同,在企图引导规范制定的人工智能领先国家的对立面,是陷于数字殖民主义之虞的发展中国家。有学者警示,由于具有更强技术实力和更大数据掌控规模的国家很可能在人工智能时代占据主导权,一种新的南北隔阂或将由此产生。①Han-Wei Liu and Ching-Fu Lin. Artificial Intelligence and Global Trade Governance: A Pluralist Agenda. Harvard International Law Journal, 61(2), 2020, p. 407.“全球线下人口是科技帝国的争议领土,因为谁让他们陷入数字封建主义,谁就能掌握未来的钥匙。”②Renata Avila Pinto. Digital Sovereignty or Digital Colonialism. Sur - International Journal on Human Rights, 27, 2018, pp. 16-17.
国际法对人工智能的规制面临上述内外两方面的挑战。为了应对内部挑战,国际法自身需要更新。为了应对外部挑战,国家亦应注重在发展初期运用国际法规制之外的方式协调治理。
国际法在人工智能规制中显现的滞后性并不意味着国际法体系不具有更新的能力,人工智能之全球治理仍需以国际法为中心。
1.传统概念的演进:从威斯特伐利亚主权到人工智能主权。主权作为国际法的基础概念一直处于演变之中,互联网时代催生出诸多主权的衍生概念,这是国际法对于网络空间规制的初步回应,如早在20世纪末就已出现“网络空间主权”概念。③Tim Wu. Cyberspace Sovereignty? The Internet and the International System. Harvard Journal of Law and Technology, 10(3),1997, pp. 647-666.近年来,有文献讨论了作为传统威斯特伐利亚主权概念续集的“信息主权”概念,认为这是“国家对信息保护、管理和共享的权力”,与传统主权概念类似,亦包括对内和对外两个维度。④刘连泰:《信息技术与主权概念》,《中外法学》2015年第2期。有研究进一步将网络主权分层解构为物理层、逻辑层、内容层三个层面的主权。⑤刘晗、叶开儒:《网络主权的分层法律形态》,《华东政法大学学报》2020年第4期。随着数据获取方式的变革,数据在信息形成中的重要性不断提升,数据主权也更多作为一个新概念被独立提及,它为应对通讯与网络技术发展而产生,更体现出数据及其云计算、物联网等技术对传统信息通讯工具的变革。⑥孙南翔、张晓君:《论数据主权——基于虚拟空间博弈与合作的考察》,《太平洋学报》2015年第2期。学界对于数据主权的定义大抵强调主权国家对于数据的控制,即根据所在民族国家的法律、惯例和习俗等进行信息管理。⑦C Matthew Snipp. What Does Data Sovereignty Imply: What Does It Look Like? In Tahu Kukutai and John Taylor (eds),Indigenous Data Sovereignty: Toward an Agenda. Canberra: Australian National University Press, 2016, p. 39.欧盟则采用了“数字主权”的提法,将之定义为“欧洲在数字世界中独立行动的能力”,包括促进数字创新的保护机制和进攻工具两方面,并重点关注人工智能问题。⑧https://www.europarl.europa.eu/RegData/etudes/BRIE/2020/651 992/EPRS_BRI(2020)651 992_EN.pdf.
总体而言,初显混沌的“网络空间”被逐步分解并分别产生相应细化的主权概念,各类衍生的主权概念同传统主权类似,均强调对国内网络空间和信息资源的独立控制权。最新出现的“人工智能主权”概念,对内意味着主权国家对人工智能技术与实体的立法、司法与行政管辖权;对外指国家享有自主决定和保护本国人工智能产业发展与规划而不受其他国家不能干扰之权利。①赵骏、李婉贞:《人工智能对国际法的挑战及其应对》,《浙江大学学报(人文社会科学版)》,2020年第2期。人工智能主权概念的出现本身值得肯定,因为人工智能对于传统主权概念的影响已经达到相当程度—人工智能构成了数字经济的基础,有关人工智能的主权问题不仅关涉以数据安全、规制权等为表现的传统主权,而且渗透到国际活动的各方面,如经贸规则中,从而与作为国际法律机制基本价值的发展权发生关联。②李蕾:《发展权与主权的互动是实现发展权的基本要求》,《政治与法律》2007年第4期。因此,在已有概念演进趋势之启发下可知,人工智能这一概念亦可继续完善。根据人工智能本身的技术特点,人工智能主权也可以细化为三个层次:其一,应用层面的人工智能主权,这包括对本国内人工智能使用者的行为进行规制的主权,由于人工智能本身已在诸多方面得到应用(如电子商务平台、自动化武器等),故这一层面的主权亦可能涉及国际法的多个领域;其二,数据层面的人工智能主权,这相当于目前已有的数据主权提法;其三,算法层面的人工智能主权,这可以包括对本国人工智能算法进行透明度监管以及对人工智能算法开发者的行为进行规制的主权。
尽管主权概念的衍生与类型化彰显了主权范式的演进,根据不同技术的性质对主权概念进行无限细分本身并不是目的,这不仅无法穷尽更没有必要。传统概念之演进更为重要的意义在于探究主权的运行模式与人工智能发展模式间的差异与共通之处,寻求人工智能国际法规制之思路。由上述对主权概念的变迁考察可知,人工智能与传统主权乃至后发的各类衍生主权概念间的差异在于,虽然人工智能主权概念是最新出现的,但人工智能的综合性决定了人工智能主权概念在范畴上并非最狭窄的。事实上,它比数据主权内涵更为复杂,因其涉及应用层、数据层和算法层三个层面的问题,而数据主权仅涉及人工智能在数据层面临的问题。人工智能主权与其他新兴主权概念的共通之处在于,其“对内”和“对外”的界限愈发模糊。例如,仅在数据层面,在数据主权讨论中数据本地化和数据流动两类价值并驾齐驱的情况下,主权国家对于数据的管制权相比于传统主权理念对应的规制权受到弱化。相比之下,人工智能的多层次属性更会加剧这种复杂性,因其在应用层和算法层分别面临类似的模糊性。故而,发展人工智能主权的新概念的意义就在于更新传统的主权观念,弱化主权意义上的国家边界,以适应人工智能的无国界性,为具体国际法规制规则提供理论基础。
2.规则体系的融贯:从现有规则到依托数字经济规则的人工智能规制规则。人工智能的国际法规制和规则应当同数字经济规则密切关联,其根源在于人工智能治理与数据治理具有密切关联。其一,数据的存在是人工智能发展的基础,人工智能开发主体需要借助数据完成其工作。《在英国发展人工智能产业》报告对于大数据和人工智能的关系用一句话对此进行概括:“数据是为了开发人工智能,人工智能是为了管理数据”。该报告指出,正是数据的快速增长催生了人工智能,获取大量数据和特定数据是成功训练机器学习算法的关键。③Growing the Artificial Intelligence Industry in the UK, p. 22, https://assets.publishing.service.gov.uk.在人工智能涉及三层空间—现实层、数据层和知识层中,数据层是人类复杂现实世界和经过人工建模或机器学习得到的结构化知识之间的连接层面。其二,人工智能的应用可能反过来干扰用户的数据权利。例如,现行法律并未充分考虑人类和机器在记忆与遗忘中的异同,机器与人类不同的遗忘特性会导致被遗忘权在人工智能领域适用的困境,使得被遗忘权的实施面临技术瓶颈和规制障碍。④翟凯:《论人工智能领域被遗忘权的保护:困局与破壁》,《法学论坛》2021年第5期。
数字经济规则可从两方面介入和辅助人工智能的国际法规制。一方面,对人工智能的规制可以部分直接适用现存的数字经济规则。人工智能在助力数字经济发展的同时,其产业亦有机会随数字经济国际规则的完善而得到规范。虽然直接规制人工智能的国际规则十分有限,但国际社会已表现出对以人工智能为生产力来源之一的数字经济的高度关注(如本文第三部分之总结所示),这类规则至少为对人工智能在数据层的规制提供了可参照的规则。同时,日渐增加的国际条约中的人工智能专章或专条预示着人工智能之规制将逐步成为专门领域。另一方面,数字经济规则对于人工智能规制不仅有规则供给的作用,而且还具有公共政策意义。尽管全球数据治理框架的可能性与路径虽然抉择未知,但大型私人公司主导的人工智能发展预示着私人治理时代的到来,为了维护人工智能领域的公共声音,需要从治理数据之根本入手,而不只是治理算法输出的结果。①Alicia Solow-Niederman. Administering Artificial Intelligence. Southern California Law Review, 93, 2020, p. 633.例如,就人工智能应用中饱受关注的算法歧视问题而言,人们企图避免的算法偏差,其实很大程度上源自数据本身的偏差,即用于训练算法的数据已经“嵌入”了偏差。②Aylin Caliskan, Joanna J. Bryson, and Arvind Narayanan. A Semantics Derived Automatically from Language Corpora Contain Human-like Biases. Science, 356, 2017, pp. 183-186. abstract=3943389.因此,虽然对于源代码的监管是控制算法影响的直接途径和人工智能规制的必然环节,但它并不应替代对于数据本身的规制,因为是后者决定了“何种数据应被筛选用于训练特定种类人工智能”等基本问题。
因此,在具体的国际法层面,一个重要任务便是实现现存国际法规则、数字经济规则和人工智能规制规则的融合。以前述经贸规则所面临的挑战为例,完成这项工作的一个重要载体是数字经济协定和自由贸易协定。其一,就应用层的人工智能产品的定性问题而言,在现存经贸规则中对各类产品的定义是否以及如何可以扩张解释不明确的情形下,可先依现存规则对于组合型人工智能产品之各部加以分别定性,再进一步探索对人工智能产品特有的规制标准,且应当确保人工智能产品及其生产所基于的数据受到分别保护。其二,就数据层的数据投资定性问题,在直接明确数据的投资性质较为困难的情况下,可以通过扩大协调自由贸易协定内部数据流动规则的适用范围,明确其包含投资章节,从而使得后发的数字经济规则对数据流动价值的保护发挥实效。其三,就算法层的源代码路径规制问题,则应着重选择依托现存的责任机制对算法进行治理,回归到对“人”的治理和法律主体的责任。例如,有学者指出,对于金融领域的算法治理,应当基于当前金融机构内部治理的管理者责任模式,亦将算法产生的问题归于个人责任,从而消除人工智能的黑箱问题。③Ross P. Buckley, Dirk A. Zetzsche, Douglas W. Arner and Brian W. Tang. Regulating Artificial Intelligence in Finance:Putting the Human in the Loop. Sydney Law Review, 43, 2021, p. 43.
面对人工智能国际法规制这一方式本身的缺陷,“超级软法”的生成可以缓解当下人工智能治理规则缺失的问题,多元主体的治理参与则有助于缓解根本的不平衡发展,二者在发挥治理作用的同时也均将促进国际法规则的形成。
1.借鉴与吸收“超级软法”。人工智能治理所需要依托的软法不仅限于国际法意义上的软法,还包括其他主体主导和制定的规范,有学者把这类自律性行业规范文件称为一种“超级软法(supersoftlaw)”—它们不具有正式约束力,出现在国际法的空白领域,凭借自身的优点产生强大的合规吸引力。④Thomas Burri. International Law and Artificial Intelligence. German Yearbook of International Law, 60, 2017, p. 106.当前,许多发生在传统的国际立法场域之外的人工智能国际标准制定正在进行中。例如,电气与电子工程师协会( IEEE)于2016年发起的“IEEE关于自治和智能系统伦理的全球倡议(AI/AS)”,是最全面的人工智能软法倡议,旨在“确保参与自动化和智能系统设计和开发的每一个利益相关者都受到教育、培训,并被授权在设计和使用中优先考虑道德因素,从而使这些技术为人类的利益而进步”,属于IEEE科技伦理项目的一部分。①The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, https://standards.ieee.org/industryconnections/ec/autonomous-systems.html,2022年8月8日访问。由人工智能领域巨头发起的人工智能合作伙伴组织(Partnership on AI, PAI),现在已经扩展到包括各领域公司、智囊团、人工智能学术组织、专业协会和慈善团体等多类主体。②PAI. About Us: Advancing Positive Outcomes for People and Society, https://www.partnershiponai.org/about/#pillar-3,2022年8月8日访问。
此类“超级软法”对于人工智能国际法规制的意义在于它们可以暂时填补国际法规则的缺位。首先,人工智能全球治理面临的更大挑战是避免进一步分散的治理措施,致力于实现全球普遍接受的法律环境。这需要一种新的思维方式—抛开传统的主权考虑,转向新的知识概念。③Rolf H. Weber. Global Law in the Face of Datafication and Artificial Intelligence. In Shin-Yi Peng, Ching-Fu Lin, and Thomas Streinz (eds), Artificial Intelligence and International Economic Law: Disruption, Regulation, and Reconfiguration. London:Cambridge University Press, 2021, p.69.此类“超级软法”的优势首先在于其弱主权化的本质,上述软法由于其本身适用的国际化(international in application)之特点将发挥关键作用。④Carlos Ignacio Gutierrez, Gary E Marchant, and Lucille Tournas. Lessons for Artificial Intelligence from Historical Uses of Soft Law Governance. Jurimetrics, 61(1), 2020, pp. 144-145.这些行业自治规则和政府规制相比具备更强的时效性、且形式更加灵活,可为强制性的行业规范确立起到先导作用。其次,此类“超级软法”对于人工智能国际法规制的意义还在于其能为后者提供可援引的规则。例如,SADEA第31条“人工智能”就明确在开发人工智能治理框架时应考虑国际公认的原则或指导方针。
2.包容多元主体的参与。多元主体的参与意味着主权国家之外的主体应参与人工智能的国际治理。人工智能的全球治理要求多极化主体的主导,这既意味着对人工智能技术霸权的防范,也意味着人工智能的国际治理中多方参与的治理模式:科技公司等非政府主体的积极参与将有助于弥合技术人员和政策制定者之间的信息不对称。政策制定者应关注如何通过市场和规范等替代监管模式来过滤公众意见并灌输公共价值观,而不只是试图通过法律直接控制人工智能的算法技术。⑤Alicia Solow-Niederman. Administering Artificial Intelligence. Southern California Law Review, 93, 2020, p. 695.以对算法的规则设计为例,在人工智能治理中,应注意避免将思路局限于以算法作为单一规制对象,而是需要在纵向上推动对数据来源筛选过程的源头监管、在横向上听取人工智能行业之外的社会公众对于人工智能算法的意见。多元主体的参与还意味着在人工智能发展不平衡的情形下,政府和行业主导者应当有意识地强调人工智能的普惠性和包容性,营造全球普适的法律环境。仍以对算法的规则设计为例,创新企业需要仔细、主动地思考算法设计者可以在智能平台中构建的不同功能。尽管政策制定者和消费者权益倡导者均常常将透明度和问责制放在首位,但包容性也应是受到关注的设计特征。⑥Peter K. Yu. Beyond Transparency and Accountability: Three Additional Features Algorithm Designers Should Build into Intelligent Platforms. Northeastern University Law Review, 13, 2021, p. 263.
多元主体参与的治理方式对于国际法规制的启示在于,人工智能国际法规制体系的形成过程应当纳入更多主体的考虑,以实现各方的协同共治。这一需求的背后是全球价值链的转型:全球优化的价值链—当前全球化阶段的一个常见特征—将让位于数字技术与旧的低成本技术相结合而形成的价值链,允许产品和服务之间的更大整合,并利用独立全球平台发展商品和服务的交换。⑦Daniel Wagner. AI & Global Governance: How AI is Changing the Global Economy, November 13, 2018, https://cpr.unu.edu/publications/articles/ai-global-governance-how-ai-is-changing-the-global-economy.html.这时,更多行业主体有资格参与进人工智能研发与应用的竞争,且相应的产品流动所受国家边界的限制减少了。目前,除了政府主导的行业规范设计,国际行业协会和跨国数字巨头公司也是行业规范生成的参与者甚至主导者,诸多主体已经推出了人工智能伦理倡议。下一步,通常作为国际法造法机关的国际政府间组织应当注意到这类来自外部的声音,积极吸引其他有影响力的个体也积极参与规则形成的过程。如人工智能企业商汤科技与上海交通大学清源研究院联合发布的《AI可持续发展白皮书》入选联合国“人工智能战略资源指南”,①“商汤科技《AI可持续发展白皮书》入选联合国“人工智能战略资源指南”,2021年6月30日,商汤新闻中心:https://www.sensetime.com/cn/news-detail/56 526?categoryId=72,2022年8月8日访问。即为一很好的例证。在非国际法治理方式向国际法体系融入的同时,人工智能的国际法规制亦有向国际软法方向演化的趋势,两种趋势相向而行,有助于形成以国际法规制为核心的、更为综合的人工智能国际治理体系。
在国内层面的人工智能规制议题中,当务之急是应对人工智能之应用已经造成的问题。为此,应以完善国内传统部门法和相关制度作为现实突破口。以算法歧视问题为例,其作为算法权力扩张的副产品,随着人工智能、大数据与自动化决策的发展应用而出现。②曹博:《算法歧视的类型界分与规制范式重构》,《现代法学》2021年第4期,第115-126页。为应对算法歧视问题,一方面,现存相关部门法仍是最重要的讨论框架之一。例如,就消费者遭遇算法歧视的状况,有学者建议可通过对我国现行《消费者权益保护法》所列举的消费者安全权予以扩张解释,以实现对日益强化的消费者数据权益之保护。③陈兵:《法治经济下规制算法运行面临的挑战与响应》,《学术论坛》2020年第1期,第20页。另一方面,亦需要对于具有共性的算法歧视问题进行一般性规制,以弥补部门法经验的局限性。我国网信办于2021年12月发布的《互联网信息服务算法推荐管理规定》提出对算法推荐服务提供者实施分级分类管理、建立算法分级分类安全管理制度,就是以算法本身作为切入点进行统一规制,在算法规制语境下明确用户权益和算法服务者义务,而不再局限于部门法语境。
进一步地,面对人工智能规制的国际话语权竞争,我国国内层面人工智能规制的长久之计在于建立完善的人工智能国内规制体系。一国提升其在人工智能国际法规制路径设计中的话语权有赖于该国自身拥有更多世界顶尖人工智能企业,而稳定的法律环境是促进人工智能产业发展的前提。欧盟的做法即是上述这一原理的体现:欧盟的人工智能发展在全球范围中并非领先—麦肯锡全球研究所2019年发布的《自人工智能前沿的说明》指出,欧洲在人工智能方面的早期投资上落后于美国和中国,仅拥有全球10%的数字独角兽。④McKinsey Global institute. Notes from the AI Frontier: Tackling Europe’s Gap in Digital and AI, p. 2, https://www.mckinsey.com.但是,欧盟做法的可取之处在于其围绕人工智能治理的规则体系深刻体现了规则本身的价值,即为市场中的投资者与潜在投资者提供制度的确定性以保障和促进产业发展。
具体而言,在人工智能国内规制体系的设计上,我国亦可以欧盟为范本,推动人工智能及与其相关的数字经济配套规则建设。欧盟的人工智能规制体系有两大特点:一是人工智能直接规制规则具有伦理色彩。欧盟《关于人工智能的统一规则(人工智能)并修正某些联合立法行为》正是把颇多伦理要求转化为具有法律约束力的具体规范,从而实现对个人权益的强保护。二是在整体上以数据规制为基础,直接规则与间接规则相结合。除《关于人工智能的统一规则(人工智能)并修正某些联合立法行为》提案外,欧盟还形成了以《通用数据保护条例》《数据治理法》《数字服务法》《数字市场法》为核心的数字经济法律体系。相应地,首先,我国应启动以伦理为基础的专门的人工智能规范构建。我国的人工智能直接规制法律规则尚付阙如,在构建这一体系的过程中应吸纳基本伦理规范和共识,尤其需靠拢以伦理规范为主要内容的现存专门的人工智能国际规范,联合国教科文组织的《人工智能伦理问题建议书》即为一例。我国在政策层面已对人工智能中的伦理问题表示关注,如2021年国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》,确立了人工智能增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当等基本伦理规范。①“《新一代人工智能伦理规范》发布”,2021年9月26日,中华人民共和国科学技术部:https://www.most.gov.cn/kjbgz/202 109/t20210926_177063.html,2022年8月8日访问。这类政策规范可为人工智能的法律规制提供素材甚至被吸纳为法律规范。其次,我国应同时完善数据规制规则体系,这是人工智能治理的基础。我国于近年来通过的《网络安全法》《数据安全法》《个人信息保护法》等法律初步勾勒出人工智能规制之配套规则体系的轮廓,但仅主要处理数据安全问题,在内容和数量上与欧盟尚有差距,应对问题有限。例如,欧盟的《数字市场法》禁止大型平台公司滥用市场支配地位打压其他竞争企业,而在我国尚无专门针对数字市场中“看门人”大型平台不正当竞争行为的法律,这一问题只能通过反垄断法律体系处理。此外,我国对于数字经济的专门支持措施在部分地区逐步开启。例如,《广州市数字经济促进条例》于2022年6月正式实施,鼓励与支持人工智能等八大领域数字经济核心产业创新发展,并提出构建数据、算法、算力协同发展的人工智能产业链。不过,鼓励人工智能研发的政策只是人工智能的治理起点,更重要的是法律规则的落地,方可为投资者提供制度确定性与投资吸引力。
首先,我国需密切关注并参与各类数字经济规则的形成。当前,人工智能国际法规制的突破口之一在国际经贸规则领域,如CPTPP的各类区域经贸协定为人工智能间接规制提供了讨论空间,有专门的数字经济协定更明确地把人工智能确定为规制对象与合作领域。2021年,我国正式提出申请加入由新加坡、新西兰和智利发起的全球第一个专门的数字经济制度安排DEPA,该协定的三个发起国并非传统意义上的全球经济主导者,在协定中较多关注包括人工智能在内的新兴技术发展,敦促缔约方采用支持可信、安全和负责任使用人工智能技术的道德和治理框架。加入这一协定正体现了我国在人工智能治理国际合作中的开放态度。我国在靠拢数字经济国际规则同时,亦须以该类国际规则为指导完善国内层面的人工智能规制规则、在国内作出相应的立法回应,尤其是在法律层面确立以现存伦理共识为基础的人工智能治理框架,以确保国内人工智能相关立法与规定在国际协定下的合法性与契合性。
其次,我国包括政府在内的各类主体应积极参与不具有法律约束力的人工智能治理规范之制定,如国际软法、行业规范以及伦理共识等。人工智能国际统一技术标准的诞生无法仅依靠政府介入而形成,而是更依赖于行业标准的初步建立与行业自我监管。因此,人工智能国际法规制体系建立的过程不仅需要政府在场,也需要非政府主体的广泛参与。在政府层面,我国应当参与人工智能国际治理的其他指引性、合作性、协商性的规范讨论和形成,积极表达与传递中国立场。例如,在数据安全议题上,我国继在2020年“抓住数字机遇,共谋合作发展”国际研讨会高级别会议上提出《全球数据安全倡议》后,又于2022年同中亚五国共同提出《“中国+中亚五国”数据安全合作倡议》,向国际社会展示了我国在数据安全议题上积极营造开放与公平、公正、非歧视之数字发展环境的一贯立场,与维护全球信息技术产品和服务供应链开放、安全、稳定的积极态度,②《全球数据安全倡议(全文)》,中央政府官方网站:http://www.gov.cn/xinwen/2020-09/08/content_5541579.htm,《“中国+中亚五国”数据安全合作倡议》,2022年8月8日访问。为营造安全稳定的人工智能应用与治理之国际环境作出贡献。而在非政府层面,我国则应支持国内的企业与行业组织、科研机构和人员等主体积极参与国际层面的讨论,促进非政府层面交流机制的形成。