人工智能治理国际合作:现状、挑战与方向

2023-02-18 14:25陈超张小可
当代中国与世界 2023年4期
关键词:人工智能监管

陈超 张小可

【关键词】人工智能治理;国际合作治理体系

随着人工智能技术的迅猛发展和广泛应用,全球人工智能治理成为当前科技发展的重要议题之一。目前,全球各国和国际组织纷纷开始制定人工智能治理的相关政策和法规,以确保人工智能的可持续发展和社会利益的最大化。同时,全球范围内也出现了一些人工智能治理的倡议和合作机制,旨在加强国际间的合作与交流,共同应对人工智能治理中的挑战。然而,人工智能治理的发展仍面临着许多困难。首先,针对人工智能技术的两大重要基础——大数据和算法,很难形成以国家为界的封闭式治理,其天然涉及一系列跨境治理议题。其次,人工智能的治理问题涉及众多利益相关方的利益平衡,需要建立起多方参与的合作机制。最后,全球范围内的人工智能治理存在着国家与地区差异。因此,全球人工智能治理的发展急需各国家和国际组织共同努力,加强合作与交流,制定适应人工智能发展的全球性治理模式,以推动人工智能的可持续发展并最大化社会利益。本文梳理中、美、欧等全球主要國家和地区的人工智能治理合作现状,分析人工智能治理国际合作当前所面临的挑战,提出有关推进人工智能国际合作的几点思考。

一、人工智能治理国际合作现状

自2016年以来,全球主要国家和地区政府和有关国际组织相继开始围绕人工智能发展存在的风险挑战展开全面而系统的讨论,并相继提出多元化的治理理念和治理路径。整体来看,中国、美国、欧盟在人工智能技术与应用方面处于世界前列,其对人工智能的监管探索也成为全球人工智能治理发展风向标。分析上述三个国家及地区的人工智能治理合作现状,发现治理主体和治理原则正不断趋同,但立法进程和法律法规差异体现出不同治理理念。政府间国际组织和行业组织在协调全球人工智能治理中扮演着重要角色。

(一)政府成为治理核心主体

全球人工智能治理已经普遍从宏观规划走向具体落地。整体来看,国家政府在人工智能治理中发挥着领导性作用,中国国务院、美国白宫、欧盟委员会在国家层面统领人工智能技术研发与治理框架搭建;科技部、国防部等政府部门积极推动对应政策法规出台,成为人工智能核心治理主体。此外,中美欧三方政府部门下均设立人工智能委员会或相似专业管理机构,为相关政策及法律法规制定提供咨询建议和必要支持,监督和管理人工智能发展标准及规则(表1)。

美国成立高级别管理机构较多,分别聚焦军事、技术研发等方面的监督管理。其在2018年成立“人工智能特别委员会”,成员涵盖多部门政府官员,为人工智能战略规划提供政策建议。同年成立的“人工智能国家安全委员会”负责协调政府、企业与研究机构合作,成员由政府官员、知名学者、企业高管等组成,作为联邦咨询机构为人工智能发展提供建议。

欧盟更加关注经济、产业方面的监管议题,注重数据治理与保护。其于2018年组建“人工智能高级别专家组”,成员包括学术界、工商界和民间社会组织,指导欧盟人工智能治理工作,推动了《可信人工智能道德准则》《建立以人为本的可信人工智能》《算法责任与透明治理框架》《人工智能白皮书——通往卓越和信任的欧洲路径》等治理政策文件的制定。专家组通过“欧洲人工智能联盟”与更广泛的利益相关者密切合作,广泛吸取社会各界对治理政策的反馈与建议。

中国科技部2019年成立“国家新一代人工智能治理专业委员会”,委员会成员由来自学术机构、科研单位、科技企业的专家学者组成,发布了《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》等文件,系统性阐述中国人工智能治理框架和行动指南。

(二)治理原则整体趋同

迄今已有包括中国、美国、欧盟在内的40多个机构或组织提出了各自的人工智能伦理原则(表2)。总体来看,中美欧就人工智能伦理原则已基本达成共识,主要可概括为五大方面。第一,包容性增长、可持续发展和福祉。这一原则要求人工智能通过促进包容性、公平性、可信赖的道德行为,为人类和社会发展带来助益。其中包括激发人类创造能力,促进包容性增长,降低经济社会不平等程度,保护生态自然环境,推动未来科技向增进人类社会福祉的方向发展。

第二,以人为本的价值观和公平公正。人工智能各阶段参与者应坚持以人为本的价值观,其中包括尊重自由、维护尊严、保护隐私、平等公平、倡导多样性、激发社会正义、保护国际公认的劳工权利等。在各种情况和技术水平下,考虑人类的决定能力,采取相对应的以人为本机制和保障措施。

第三,透明度和可解释性。人工智能系统应保持透明和负责任的对外资料披露,促进公众对系统输入和输出内容的理解。对于受到人工智能系统不利影响的利益相关方而言,了解其背后因素信息和服务逻辑,能帮助其更好地理解系统运行,必要时维护自身权益。

第四,稳健性和安全性。人工智能系统应保证运行过程的稳健、安全和可靠,即使被误用也能维持正常运行,避免产生不合理不必要的安全风险。因此,保证人工智能系统生命周期中的数据集、流程和决策的可追溯性十分必要,参与者应采取与人工智能发展阶段相适应的系统风险管理方法,解决隐私、数字安全、偏见等相关风险。

第五,可追责性。人工智能系统在运行过程中,能够对其决策和行为负责,并能够接受监督和追溯。

(三)法律法规体现治理理念差异

当前中美欧在人工智能领域立法进程存在差异,法律法规内容也充分体现出各国家/地区间不同治理理念(表3)。

美国联邦政府在立法方面态度较为审慎,没有专门针对人工智能监管的全面联邦立法,坚持突出市场作用、针对特定问题进行监管,由州层面进行分散探索,体现发展“有益的人工智能”理念。在法律法规制定过程中,采用分段方法制定法律法规,以帮助扫清技术应用障碍、促进产业发展为目的,主要为人工智能在特定部门和具体场景的应用进行监管,遵循基于应用的人工智能治理范式。2021年《无生物识别障碍住房法》要求住房和城市发展部向国会提交报告,说明这项面部和生物识别技术如何在公共住房部门及其租户中相互作用;《面部识别和生物识别技术暂停法案》对面部识别及其他生物技术使用进行限制;《算法公正和在线平台透明度法案》规定在线平台算法公正性和透明性;《过滤气泡透明度法案》对自动内容选择机制与方法进行规制。2022年共有17个州引入有关人工智能法案,各州的相关立法主要涉及人工智能大模型中的歧视与偏见、大模型的透明度、人工智能于生物识别领域的应用等。在2023年的立法会议上,至少25个州在今年引入人工智能法案。需要指出的是,在人工智能和大数据渗透的时代,美国的分段方法不利于安全防范和数据保护。由于每条法律都局限于自己的领域,因此在不同部门和应用中可能出现差距和不一致。

中国对人工智能采取发展与安全并重的监管方法,法律法规突出信息内容领域垂直治理,体现发展“负责任的人工智能”理念。算法是人工智能的核心要素之一,在过去的几年里,中国推出了一些全球首批针对生成式人工智能算法的具有全国约束力的法规,如《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》。监管重点着重于内容安全,强调生成式AI所产生的文本、图片、声音、视频、代码的真实性、准确性、客观性。中国的垂直人工智能监管方法有助于监管机构在出现具体问题时迅速解决问题,但缺点是,监管机构必须为每一项新的人工智能应用发布新的监管规定,迫使监管机构跟上不断发展的行业步伐。

欧盟明确提出引领人工智能全球立法规制的监管目标,以基本人权为底层逻辑,侧重保障个人权利,体现发展“以人为本的人工智能”理念。推动人工智能立法,依照法律规范进行治理是欧盟人工智能监管的特征之一,欧盟人工智能治理也因此获得了国际领先优势。2020年2月,欧盟委员会发布《人工智能白皮书》,在全球率先提出风险分级监管概念,人工智能治理由以原则讨论为主进入以政策讨论为主的治理阶段。2021年,随着欧盟《人工智能法案》(草案)的发布,全球人工智能监管的序幕正式拉开,全球人工智能治理从此由“软法”引领转向“硬法”规制。2023年6月14日,欧洲议会投票通过《人工智能法案》授权草案,该法案将成为全球首部人工智能管制法律,对其他国家和地区的人工智能治理具有重要借鉴意义。欧盟要求人工智能系统考虑人的能力和技能范围,支持人类能动性和监督性以实现发展,而不是减少或限制人类。《通用数据保护条例》赋予了欧盟居民对个人数据的更多控制权,并试图澄清在线服务商在收集、利用欧洲用户个人数据的规则和责任。

(四)国际协作机制发挥重要作用

政府间国际组织在全球人工智能治理中扮演着推动者的角色,组织引导形成大国共识,推动治理规则全球共享。经济合作与发展组织(OECD)成员国在2019年5月批准全球首个政府间人工智能标准——《OECD人工智能原则》,具体包括包容性增长、以人为本、透明性、稳健性、责任等元素。二十国集团(G20)于2019年6月发布《G20人工智能原则》,提出人工智能研究与开发、建立生态系统、创造有利政策环境、培养劳动力能力等具体细则。七国集团于2018年启动人工智能全球合作组织(GPAI),GPAI是一个由国家主导的多方利益相关者倡议,现在有18个国家和欧盟加入。2021年“美国—欧盟贸易和技术委员会”(TTC)成立,该委员会基于民主治理、公平竞争、法治、尊重人权,共容性增长等共同价值,探讨机制和方法以协调美国和欧盟在关键技术领域的合作。2021年联合国教科文组织发布《人工智能伦理问题建议书》,这是全球层面首个人工智能伦理的规范框架,旨在促进智能技术造福人类、社会、环境以及生态系统。

行业组织作为整合资源、促进合作的社会团体,也逐渐在协调人工智能治理国际合作、推动人工智能产业标准制定等领域发挥更加重要的角色。国际电气与電子工程师协会(IEEE)2019年发布《人工智能设计伦理准则》,通过伦理学研究和设计方法论,倡导人工智能领域的人权、福祉、数据自主性、有效性、透明、问责、知晓滥用、能力性等价值要素。2022年国际标准化组织(ISO)和国际电工委员会(IEC)正式发布标准详细描述与人工智能领域相关的概念和术语,2023年用于人工智能管理体系认证的标准已经进入批准阶段。

二、人工智能治理国际合作面临挑战

尽管当前全球在人工智能治理领域已出现一定程度趋同,但由于各国在文化信仰、经济结构、法律传统、人工智能比较优势等方面存在固有差异,达成更深层次的治理共识、构建国际合作治理体系和机制仍面临诸多挑战。

(一)原则理解存在差异

当前全球就人工智能发展原则已基本达成共识。然而,人工智能伦理中提出的原则清单通常过于宽泛和模糊,忽略了概念的复杂性和群体差异,无法明确指导行动。原则具有高度概括性,其抽象出重要道德主体以适用于广泛场景,但忽略了人与人之间重要和合理的价值观差异。以“公平”为例,虽然每个人都可能在原则上同意“公平”很重要,但对于究竟什么是公平存在深刻的政治分歧。公平应该包括确保每个人都有平等的机会获得某种利益,还是我们应该以最小化对最弱势群体的伤害为目标?即使统一的价值观也可能带来冲突,因为不同群体对同样价值观的排序存在差异。例如,西方和东方文化建立在不同的哲学传统之上,在数据隐私等关键问题上可能存在重大且无法解决的价值差异,更多的个人主义文化可能比更多的集体主义文化更重视个人隐私。使原则更加实用的一个重要步骤是将其细化为更具体的原则。例如,业界承诺不开发自主武器技术,这是一个具体的、能指导行动的原则,可以用来问责。但与此同时,过于细化的原则意味着其相关性仅限于某一领域,并且可能招致反对。

(二)监管力度强弱不一

当前全球人工智能治理呈现强监管、弱监管、适度约束三种代表性倾向。欧洲人工智能政策以个人安全为核心目标指向,是强监管政策的积极倡导和推行者。《人工智能法案》作为全球首部专门针对人工智能的综合性立法,具有强烈限制约束倾向。其现有条文主要涉及禁止和监管两大部分,明确了一系列禁止的人工智能行为,对高风险人工智能系统应遵守的要求、风险管理、数据治理、提供者和使用者以及其他各方义务与违法责任等进行了明确规定。美国人工智能政策旨在积极促进技术发展和科技创新,采用审慎监管方式支持人工智能技术自由发展,以充分释放人工智能技术潜力。其主张“除非有充分案例证明其危害性,否则任何新技术和新商业模式都被允许”的事后补救式监管方式。中国人工智能政策遵循适度约束原则,积极引导负责任的人工智能研发与应用活动,强调人工智能技术应助力人类发展,充分正视预判技术发展可能带来的问题与不确定性。《生成式人工智能服务管理暂行办法》明确提出,要强调保护,前瞻性地明确了“法律、行政法规没有规定的”不当行为的处理方式。

(三)人工智能概念碎片化

各国根据自身需要和实际提出了多种人工智能概念。中国立足人工智能与人类福祉,强调发展“负责任的人工智能”。中国的人工智能发展原则以增进全人类的共同福祉为目标,旨在确保人工智能符合人类价值观和伦理道德,在保证安全可靠可控的前提下服务人类社会文明进步。美国注重平衡个人和企业发展与治理需求,更加强调“有益的人工智能”。其在原则中强调人工智能应获取公众信任、增加公众参与、保证公众信任。同时,在开发监管和非监管方法时,以私营部门为主导,注重收益和风险平衡,帮助公司在公平的环境中竞争;采用灵活方法及管理,促进人工智能创新与增长。欧洲则重视人的积极影响,关注人类可控,发展“以人为本的人工智能”。其治理原则要求AI系统考虑人的能力和技能范围,支持人类能动性和监督性以实现发展,而不是减少或限制人类。特别的,治理原则要求公民对自己生产数据保持控制权。多种人工智能概念在完善人工智能治理不同维度的同时也造成了概念碎片化的问题,亟待具有全球对话基础的及更具包容性的人工智能概念。

(四)地缘竞争削弱合作意愿

随着人工智能技术的发展,其对地缘紧张局势的潜在影响巨大,尤其是中美关系。中国已经成功创建人工智能生态系统,并正在某些领域赶超美国。美国将此视为全球秩序的重新调整和国家安全威胁,中国也自然被其视为人工智能领域的头号竞争对手。美国政府近年相继推出《无尽前沿法案》等法案,并修订了针对中国企业的投资禁令,意在切断美国与中国在人工智能等敏感领域的资金技术交流,应对中国等国家“在军事、情报、监视或网络能力等重要敏感技术和产品方面的进步所带来的威胁”。受市场竞争和政治压力影响,欧盟自2020年初连续出台系列政策文件,加大对技术主权和科技自主性的关注,并将此作为长期目标。美国遏制中国人工智能发展的意愿,欧美科技保护主义浪潮的兴起,加剧了地缘竞争局势,增加了误解与不信任,限制人工智能监管的全球合作。这种情形下,寻找新的国际解决方案来协调人工智能监管并进行立法,可能会因此变得更加复杂。

(五)安全威胁造成“囚徒困境”

人工智能的发展拓宽了国家主权边界,带来了非传统主权安全领域的新议题。具体而言,人工智能算法革命的出现,以及主权边界向数字空间的延伸,扩展了国家安全的内涵,国家政治安全需要将数据隐私安全、互联网空间管辖权、网络意识形态安全等新要素纳入统筹。主权安全概念的宽泛化使其变得更加敏感和脆弱,意味着人工智能时代的国家政治安全更易受到威胁,加剧人工智能领域国际合作难度。人工智能技术推动各国政治安全议题相互嵌套,国家安全维护的自均衡模式正在向国家间安全维护的体系均衡模式转变。各国都不愿限制自身在军事等国家安全领域的人工智能应用,以免给竞争对手带来优势,这种“囚徒困境”常常成为国家间合作的障碍。即使人工智能治理合作可能给双方带来长期合作利益,但参与者更倾向于追求更短期利益,选择不合作。

三、关于加强人工智能治理国际合作的思考

鉴于人工智能技术的跨国界性和其拥有的广泛影响力,协调更加连贯的全球应对措施治理人工智能,对于确保安全稳定、包容互联的全球格局,抵御国家间不断扩大的数字碎片化至关重要。面对当前国际合作所面临的挑战,各国应秉持开放尊重心态,坚持求同存异方针,扩大交流对话领域,不断推进人工智能全球治理迈向新阶段。

(一)開放尊重,寻找共同价值基础

推进人工智能国际治理,需要充分认识现存差异,保持开放包容心态,在尊重不同的基础上寻找共同价值基础。当前各国人工智能治理面临的差异至少有三方面:一是各国所处发展阶段和文化信仰差异,导致价值层面排序不一,例如对于公民权利和基本权利的权衡;二是各国人工智能技术发展阶段差异,导致发展和治理优先级不同,例如美国在人工智能基础性技术开发方面领先;三是各国基本国情存在差异,导致人工智能应用具体场景不同,例如人脸识别技术在中国具有巨大应用市场。只有在尊重差异的基础上,建立广泛对话,正视差异领域,寻找共同价值基础,才能真正实现人工智能领域的国际治理。就现阶段而言,人类命运共同体思想具有弥合价值观差异与不同利益关切的重大价值,其主张追求世界范围内的共同繁荣和发展。中国应秉持人类命运共同体的治理理念,倡导以人为本、智能向善、多元参与、开放对话、共建共享、合作共赢,积极参与人工智能治理国际准则制定,推进国内与国际制度间协调统一,为建设持久和平、普遍安全的世界作出积极贡献。

(二)求同存异,推进分维度合作共建

人工智能全球性合作治理框架和体系在短期内难以成熟,需要求同存异,在不同维度寻求不同程度一致性。全球人工智能合作应分维度进行:第一个维度是横向的,旨在确定覆盖人工智能整个社会技术环境的最低要求,包括形成国际共认的人工智能定义和兼容性的国际原则等。在这一维度下应遵循包容、弹性的治理理念,尽量保持技术中立,确保方案兼容性,加深国际共识。例如,欧盟对在市场运行的高风险人工智能系统提出了相对严格的监管要求,但在《人工智能法案》指出,“拟议的最低要求已经与其他国际建议和原则基本一致,确保拟议的人工智能框架与欧盟国际贸易伙伴采用的框架兼容。第二个维度是垂直的,旨在围绕特定领域开展合作。特定领域的监管可以确保更高水平的确定性和对现有业务模式、产品和服务的遵守,例如在致命自主武器系统、卫生保健、运输和一般人工智能安全等领域建立和确定人工智能治理机制和标准。这些领域需要更量身定制的技术方法和监管方案。在这些领域,国际社会可能只需建立一个狭窄的监管框架,而不是实施一个涵盖人工智能及其应用各个方面的大框架,具有较高共识度的中微观层面的全球治理机制可能在以上领域加速形成。

(三)交流对话,发挥社会组织积极作用

人工智能全球化治理需要打造多元主体参与、多措并举、协同共治的治理机制。人工智能技术浪潮催生社会治理体系和机制的变革,人工智能治理正在从传统的政府主导的权威式管理走向多元主体协同共治的新范式,其重要特征之一是治理主体的多元化、治理手段的多样化。推动人工智能全球合作,依赖于包括国际组织、政府、行业协会、企业、公众等众多利益攸关方的共同努力。各方需要根据自身角色和能力,选择最佳手段,形成人工智能在国际范围内的协同共治。国际社会已在核军控和气候变化等领域形成领先经验,上述难题首先在学界和工业界中被广泛讨论和推动,最终上升为国际共识,形成有效的治理原则和制度。因此,在官方治理合作陷入僵局之时,各国企业、学界、非政府组织等主体间的行业学术交流对话可发挥“二轨外交”的有效功能,凝聚社会共识并推动其向官方共识转化,让人工智能为全人类发展带来助益。

猜你喜欢
人工智能监管
我校新增“人工智能”本科专业
综合监管=兜底的网?
2019:人工智能
对强化简易升降机监管的若干思考
人工智能与就业
数读人工智能
下一幕,人工智能!
下一幕,人工智能!
监管
监管和扶持并行