雷 挺,吴义熔
(1.北京师范大学政府管理学院,北京 100875;2.北京师范大学人文和社会科学高等研究院,广东珠海 519087)
人工智能(artificial intelligence,AI)基于计算机技术模拟人类智能,能够使计算机像人一样感知、理解、推理、思考、学习并参与社会活动,其发展历程可以追溯到20 世纪50 年代[1]。近年来,随着互联网和移动设备的普及,人工智能技术已经广泛应用于图像识别、语音识别、自然语言处理、机器翻译、智能客服、自动驾驶、气候环境监测、公共服务供给和农业生产等领域,通过改进预测、优化运营和改善资源分配以及个性化服务交付,带来了广泛的经济效益和社会效益[2]。然而,人工智能技术在提升社会效益与经济效益的同时,也带来了不可忽视的风险和挑战:在公共决策层面,人工智能技术本质上是基于数据和算法的,其行为和决策具有高度的复杂性和不确定性,缺乏相应的监管措施,会因为算法偏误出现决策偏差,从而给人类社会带来不良后果[3];在个人隐私与数据安全方面,人工智能技术需要大量的数据支持,缺乏严格的数据保护措施会导致个人隐私泄露、数据被滥用等问题[4];在社会伦理方面,人工智能技术还存在算法歧视、不符合人类价值观等社会伦理问题[5]。建构人工智能监管体系不仅能够保证人工智能技术被安全可靠地使用,还能够促进人工智能技术健康发展,以维护公众利益和社会稳定。建构完善的人工智能监管体系,确保人工智能技术的应用符合相关法律法规和伦理标准,已经成为新的全球共识[6]。
在全球化浪潮中,中国政府与欧盟委员会都在积极尝试使用以法律、行政等手段对人工智能发展加以规制,建构符合中国与欧盟人工智能发展策略的监管体系,以推动人工智能产业的蓬勃发展。近年来,中国政府陆续出台了《“互联网+”人工智能三年行动实施方案》《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018—2020 年)》《新一代人工智能治理原则——发展负责任的人工智能》等多项政策,以确保人工智能技术的研究和应用符合人类社会的伦理规范和法律法规[7]。2023 年4 月11 日,中国国家互联网信息办公室颁布了《生成式人工智能服务管理办法(征求意见稿)》,旨在促进生成式人工智能技术健康发展和规范应用。自2015 年以来,欧盟委员会也陆续发布《欧盟人工智能》(Artificial Intelligent for Europe)、《人工智能协调计划》(Coordinated Plan on Artificial Intelligence)、《可信人工智能伦理指南》(Ethics Guidelines for Trustworthy Artificial Intelligence)、《人工智能法案》(Artificial Intelligence Act)提案、《人工智能协调计划2021年审查》(Coordinated Plan On Artificial Intelligence 2021 Review)等一系列与人工智能监管相关的政策文件,以确保欧盟人工智能技术发展和应用的安全性、可靠性[8]。然而,中国目前还没完整的人工智能监管体系,现有人工智能监管体系已经滞后于中国突飞猛进的人工智能发展。当前,欧盟在人工智能监管体系建构方面已收获了诸多成功经验并发布了全球首部人工智能法案提案,对完善中国人工智能监管体系具有重要借鉴价值。
国内现有关于人工智能监管研究多集中于对人工智能监管的内涵界定、现实价值、顶层设计进行探究,缺乏国际视野的比较研究。针对既有研究的不足和中国现实情景,本研究力图解析欧盟人工智能监管的成功经验对中国的启示。
人工智能技术已经深入到人们生活的方方面面,对经济、社会和政府治理产生了深远的影响。现有文献中以“人工智能监管”作为主题词的研究不断涌现,然而关于人工智能监管的清晰释义却鲜少可见。以“人工智能监管”和“Artificial Intelligence Regulation”分别作为检索词,在中文社会科学引文索引(CSSCI)和Web of Science 核心合集等文献数据库中检索到中文文献8 篇、英文文献51 篇(检索日期为2023 年6 月18 日)。梳理检索所得文献发现,当前学术界主要从内涵界定、现实价值、顶层设计等方面展开人工智能监管方面的研究,尚未形成完整的理论分析框架,“人工智能监管”概念内涵界定也尚未达成统一。在人工智能监管的内涵界定层面,学者们分别从4 个视角进行了诠释:(1)技术监管视角。从该视角出发的学者们认为人工智能监管是对人工智能技术的研发、部署和应用进行监督和管理,确保其符合技术规范和安全要求。这包括对算法、数据集、模型和系统的审查、测试和认证,以保证其可靠性、安全性、透明度和稳定性。(2)行为监管视角。从该视角出发的学者们认为人工智能监管是对从事人工智能开发、运营和使用的个人及组织的行为进行监督和管理,防止其违反法律、道德和伦理原则,保障公众的隐私安全和个人权益。这包括对数据收集、使用、处理和分享的监管,以及对人工智能应用的社会、经济和环境影响的评估和管控。(3)法律监管视角。从该视角出发的学者们认为人工智能监管是对人工智能的技术创新、实践应用进行法律审查和规范,确保其符合法律法规和相关政策。这包括对人工智能的知识产权、责任、隐私安全和道德等方面的法律规定,以及对人工智能系统在特定领域的法律适用规范。(4)机构监管视角。从该视角出发的学者们认为人工智能监管是建立和完善人工智能监管机构、体系,对人工智能的技术开发、使用行为进行监督管理,并提供技术、法律和伦理的指导与支持。包括对人工智能监管机构的组织结构、职责、权力和责任进行界定,以及对人工智能监管机构的监督和评估。在人工智能监管的现实价值层面,Almeida 等[9]、Fortes 等[10]学者认为通过研究人工智能监管可以制定和完善相关法规准则,应对人工智能技术发展所带来的法律、伦理和社会问题,保护个人隐私、确保算法公正和决策透明,以促进可持续和负责任的人工智能应用,从而维护公众利益和社会价值。在顶层设计方面,Robert 等[11]认为人工智能监管面临着技术复杂性、数据隐私和数字公平性等挑战,但同时也提供促进创新、保护数据隐私和建立信任的机遇,我们可以通过制定适用于人工智能监管的法律框架、伦理准则、救济机制和追责机制,最大程度地实现人工智能应用的益处。
“人工智能治理”和“人工智能监管”是两个相关但又有区别的概念,它们共同关注着对人工智能的管理和规范。为了进一步明晰人工智能治理的内涵,以“人工智能治理”和“Artificial Intelligence Governance”分别作为检索词,在中文社会科学引文索引(CSSCI)和Web of Science 核心合集等文献数据库中检索到中文文献532 篇、英文文献913 篇(检索日期为2023 年6 月18 日)。梳理检索所得文献发现,当前国内外学界关于人工智能治理的研究成果颇丰,主要聚焦于人工智能治理内涵界定、机遇挑战、治理实践等方面。在人工智能治理概念的内涵界定层面,学界也尚未达成统一,多位学者从技术视角、治理视角对人工智能治理的内涵展开了探究。站在技术视角,贾开等[12]学者认为人工智能治理是指对人工智能技术的应用和发展进行规范、管理和监督的过程,它涵盖了对人工智能技术的伦理、法律、政策等方面进行审视和调整,以确保人工智能的应用符合公共利益、道德原则和社会价值观;站在治理视角,Kuziemski 等[13]学者则认为人工智能治理可以理解为针对人工智能技术在公共部门中应用的管理过程。在人工智能治理带来的机遇与挑战层面,陈少威等[14]学者认为人工智能技术的迅猛发展为社会治理提供了机会,新的算法、模型和技术工具能够辅助科学公共决策,但是同时也带来隐私保护、伦理问题、公平性和透明度等新的社会问题。在人工智能治理实践层面,Dixon 等[15]学者对来自中国、欧盟和美国的人工智能治理实践进行了比较分析,总结了其发展人工智能产业的成功经验,提出了7 项具有普适性的人工智能治理政策建议。
结合以上研究文献,相较于人工智能监管而言,人工智能治理的内涵更为广泛,涵盖了与人工智能相关的各种问题,包括技术发展、道德考量、社会影响等方面;人工智能监管的内涵则较为集中,聚焦于确保人工智能系统的合规性和安全性,包括数据隐私保护、算法公平性、透明度等方面。人工智能治理注重于建立原则、准则和规则,以引导人工智能的发展和应用,它关注的是制定适当的指导方针,确保人工智能的发展与社会道德价值相一致;而人工智能监管更注重对人工智能系统进行监督和控制,确保其遵守法律、道德和安全标准。因而,人工智能监管内涵可以归纳为主管机构以技术、法律、行政等手段对人工智能的技术创新、实践应用和使用者行为进行监督、管理和规范的活动,其目的是保障公众的权益、利益,确保人工智能系统的安全性、透明度、公正性、道德性和合规性,并促进人工智能的可持续发展[16]。随着人工智能技术的创新发展、应用场景的不断扩大,建构人工智能监管体系将成为保障社会稳定和可持续发展的重要基石。
技术-组织-环境(TOE)框架是一个广泛应用于组织行为和信息技术领域的理论模型,其发展历程可以追溯到20 世纪80 年代,当时的学者们开始关注组织对信息技术采纳的问题,并且尝试建立一个理论模型来解释这个现象[17]。最初的模型只包括技术和组织两个要素,但随着研究的不断深入,完整的TOE 框架于2003 年提出[18]。完整的TOE框架主要包括以下3 个要素:(1)技术(technology),指信息技术及其相关产品、服务和应用程序。技术要素包括硬件、软件、通信设备、网络、数据库等。(2)组织(organization),指实施和使用信息技术的组织,例如公司、政府机构、非营利组织等。组织要素包括组织结构、文化、策略、资源等。(3)环境(environment),指影响信息技术采纳和使用的外部环境因素,例如法律、市场、行业竞争、政策等。环境要素包括政治、经济、社会、技术、法律等方面。TOE 框架的主要观点是,这3 个要素之间的相互作用是影响信息技术采纳和使用的主要因素。具体来说,技术因素影响了信息技术的可行性和可用性,组织因素影响了信息技术的接受程度和使用效果,环境因素影响了信息技术采纳与使用的意愿和条件[19]。当前,TOE 框架已广泛应用于人工智能研究领域,例如张乐乐等[20]学者利用TOE理论框架分析了人工智能在教育领域创新扩散的影响因素,并提出了人工智能嵌入教育领域的政策建议;Stenberg 等[21]学者使用TOE 框架分析了政府部门使用人工智能的影响因素,结果表明有影响力的因素包含相对优势、兼容性、管理支持、官僚能力、监管环境和合作等。因此,TOE 框架将为本研究作为分析欧盟人工智能监管体系建构的分析框架,从技术、组织、环境等层面剖析欧盟人工智能监管措施以及这些措施之间的相互作用,全面探究欧盟人工智能监管体系建构过程。
人工智能作为一项快速发展的技术,对社会、经济和政治领域产生了深远影响,然而,随着人工智能技术的广泛应用,人工智能监管的问题日益凸显。现有相关研究虽然对人工智能监管的内涵界定、现实价值和顶层设计进行了一定探究,并对人工智能监管与人工智能治理的内涵进行了区分,但是仍然存在很多不足。主要是:其一,对人工智能监管的内涵学界尚未达成统一,对人工智能监管体系的构建尚未尝试构建理论分析框架展开分析;其二,集中于从宏观视角讨论人工智能监管的意义价值与顶层设计,缺乏对世界各国先进经验的总结和分析;其三,利用TOE 框架探究人工智能监管的研究还相对较少。
针对现有研究不足,本研究将从两方面对现有研究进行拓展:一方面,在明确了人工智能监管内涵基础上,对人工智能监管主体、方式和边界进行初探,并结合信息管理领域常用的TOE 框架构建分析框架,为人工智能监管研究进行了一定程度的理论铺垫;另一方面,利用分析框架对欧盟人工智能监管体系建构进行详细剖析,并总结其成功经验对中国的启示,以便进一步丰富人工智能监管的研究内容。
随着人工智能技术的迅速发展和应用范围不断扩大,越来越多的国家和地区开始意识到人工智能监管的重要性。如图1 所示,欧盟在人工智能监管领域居于全球领先地位,其有关领导机构陆续出台了多项人工智能监管政策文件,不断完善人工智能监管的政策框架体系。
图1 欧盟人工智能监管政策演进路径
首先,欧盟委员会(European Commission)[22]于2018 年4 月25 日发布了《欧洲人工智能战略》,该文件是欧盟首部涉及人工智能监管的规划文件,不仅提出了欧盟人工智能未来发展的战略规划,还提出了保障公众利益、确保可靠性和安全性、促进透明度等人工智能监管的基本原则。这份报告被视为欧盟人工智能监管政策的一个里程碑,为欧盟制定后续的人工智能监管政策奠定了基础。
其次,为了推进欧盟成员国之间在人工智能领域的协调发展、协同监管,欧盟委员会[23]于2018年12 月7 日正式发布了《人工智能协调计划》,旨在建立一个共享和可持续的数据生态系统,提高欧盟在人工智能领域的创新能力,同时强调制定符合伦理规范的人工智能政策,确保人工智能被合法公正和可靠地使用。该计划标志着欧盟开始对人工智能进行统一和协调的监管,以进一步推动欧盟人工智能的发展。
再次,为了进一步实现人工智能可信任发展、防范发展风险,欧盟委员会[24]于2019 年4 月8 日发布了由人工智能专家委员会撰写的《可信人工智能伦理指南》,旨在为人工智能技术的开发和应用提供指导、约束,推动人工智能技术的可持续、负责任和可信发展。该指南围绕尊重人类自主权、预防伤害、公平公正和可解释性等4 个核心原则展开,提出了7 个实践原则的关键要求:(1)人类代理与监督;(2)技术稳健性和安全性;(3)隐私与数据保护;(4)透明性;(5)多样性、非歧视和公平;(6)环境保护和社会福祉;(7)问责制。该指南是欧盟目前最为完备、最具操作性的人工智能伦理指南,为欧盟人工智能监管体系建构指明了原则方向。
此外,为了明确人工智能的定义、范畴、应用场景及其对社会和经济的影响,推动人工智能提升经济效益与社会效益,欧盟委员会[25]于2020 年2月19 日发布了《人工智能白皮书——欧洲卓越和信任方法》,提出了人工智能发展和监管的一系列政策措施,并介绍了欧盟委员会与其成员国,及与欧洲议会、欧洲数据保护监督机构、国际组织和私营部门等在人工智能发展方面的合作。该白皮书旨在让所有欧盟民众有信心接受基于人工智能的解决方案,同时鼓励企业开发人工智能,让人工智能成为人们的工具、成为社会中的向善力量,以不断增加人类福祉。
最后,为了系统全面地规范人工智能发展,欧盟委员会[26]于2021 年4 月21 日正式提出了全球首部《人工智能法案》提案,确立了以风险分级为核心的人工智能监管体系。该提案将人工智能技术分为4 类,分别是最小或无风险AI、有限风险AI、高风险AI 和不可接受风险AI,并针对不同风险类别的人工智能提出了不同程度的监管和管理办法。该提案还对人工智能系统运行过程中的可解释性、透明度、责任机制和个人隐私保护进行了规范说明,旨在通过制定一系列法律和政策,规范管理欧盟人工智能技术的发展应用,保护欧盟公民的权益和安全,促进欧盟人工智能技术的创新。
在澄清人工智能监管内涵的基础上,以技术-组织-环境(TOE)框架为基础建构分析框架,剖析欧盟人工智能监管体系。分析框架详细内容如图2 所示,其中人工智能监管的技术措施是指通过技术手段,确保人工智能系统的安全性、透明度、可解释性、隐私保护等方面的要求得到满足。这些技术包括但不限于:(1)人工智能系统的安全保障技术,如加密、数字签名等,可以确保人工智能系统不受到黑客攻击或其他安全威胁的影响;(2)人工智能系统的透明度和可解释性技术,如透明度测试、可解释性算法等,可以让人们更好地理解人工智能系统的决策过程和结果;(3)人工智能系统的隐私保护技术,如数据隐私保护算法、身份认证技术等,可以保护个人隐私不被人工智能系统滥用。人工智能监管的组织措施是指通过机构采用政策和行业标准等手段,确保人工智能技术的应用得到监管和规范。这些组织包括但不限于:(1)政府监管机构,如国家信息安全管理机构、工业和信息化部门等,可以确保人工智能技术应用符合国家法规;(2)行业协会、标准化组织等,如电气与电子工程师协会(Institute of Electrical and Electronics Engineers,IEEE)、国际标准化组织(International Organization for Standardization,ISO)等,可以制定行业标准、指南和规范,以确保人工智能技术得到规范应用。人工智能监管的环境措施是指影响人工智能技术监管的社会、政治、经济等手段。这些因素包括但不限于:(1)社会文化因素,如对人工智能技术的认知、接受程度、信任度等,可以影响人工智能技术的应用和监管;(2)政治因素,如政策制定者的态度、立场和政策方向,可以影响人工智能技术的监管和规范;(3)经济因素,如人工智能技术的商业价值和经济影响,可以影响人工智能技术的应用和监管。
图2 分析框架
4.2.1 可解释性人工智能技术使用
欧盟尤为重视可解释性人工智能技术在人工智能监管领域的使用。欧盟委员会在《人工智能法》提案中指出可解释性应作为人工智能监管的一项关键要求;此外,该提案还指出必须保证人工智能系统的可追溯性和可审查性,以便监管机构和独立的第三方能够对其进行审查和监管。同时,《可信人工智能伦理指南》也指出需要特别关注人工智能和自动化决策方面的透明度。
依据多项法规规定,欧盟委员会要求其各成员国对一些高风险的人工智能应用(如医疗、交通、公共财政等领域)进行审查,要求这些应用必须使用可解释的算法,以确保决策过程的透明性和可理解性。可解释性人工智能技术在德国、捷克、意大利等欧盟成员国的人工智能监管中广泛被使用,通过提供人工智能决策背后的逻辑和推理过程,使人们能够理解和审查人工智能的决策,从而实现人工智能监管。欧盟在人工智能监管中通过使用可解释性人工智能技术,有效提高人工智能系统的透明度和可解释性,使得人工智能系统的决策过程更加透明和可靠,从而提高人工智能系统的信任度和接受度[27]。
4.2.2 数据保护技术使用
在推进数字化转型进程中,数据保护一直是根植于欧盟核心价值观的重要议题。2018 年5 月25 日生效的《一般数据保护条例》(General Data Protection Regulation)对欧盟数据保护进行了全面规范。在欧盟人工智能监管体系中,数据保护也是尤为重要的内容。欧盟人工智能高级别专家组撰写的《可信人工智能伦理指南》中着重强调了数据保护准则,《人工智能法》提案中也将数据保护作为人工智能监管中的关注重点。
欧盟各成员国政府在人工智能监管中强化了数据加密、数据脱敏、数据匿名化、数据访问控制等技术的使用,以帮助保护欧盟公民的数据隐私,防止人工智能技术侵犯公民的隐私权。此外,欧盟多个各成员国还强调在人工智能监管中使用区块链技术和量子通信技术,以建立透明、不可篡改的数据记录系统,提升数据传输过程的保密性,提高数据的可信度、可靠性,从而进一步增强人工智能监管效果[28]。
4.3.1 成立利益相关者组织
人工智能监管涉及政府部门、企业组织、学术专家、从业人员、非政府组织和公民等诸多利益相关者,这些利益相关者在人工智能监管体系中扮演着不同的角色,需要相互协作和沟通,共同维护人工智能的应用安全和可持续发展。欧盟委员会组织成立了诸多利益相关者组织,以便高效便捷展开利益相关者咨询与协作,进而完善人工智能监管体系。首先,欧盟委员会首先在2018 年4 月成立了人工智能高级别专家组,由52 名分别来自学术界、工业界和民间社会的专家代表组成。该专家组的重要任务之一是为欧盟委员会制定人工智能伦理准则提供咨询,以确保人工智能技术的开发和应用符合伦理原则和法律法规。人工智能高级别专家组的工作还包括评估现有政策法规的适应性、有效性以及提出改进建议,以便欧盟可以更好地应对人工智能技术发展的挑战和机遇。其次,欧盟委员会在同年推动成立了欧洲人工智能联盟,旨在鼓励来自不同部门的利益相关者就欧洲人工智能的开发、应用进行对话与合作。该联盟由来自业界、学术界、民间社会组织的大约4 000 名利益相关者组成,其目标是提供一个分享欧洲人工智能开发和应用信息的平台;同时,该联盟为其每位成员提供在线研讨会、在线培训等一系列活动,以建构利益相关者协作网络,进而推动欧洲人工智能产业的协同发展。
4.3.2 设立欧盟人工智能委员会
专业的人工智能管理机构对推动人工智能发展事半功倍。依据欧盟《人工智能法案》提案,欧盟将成立一个全新的人工智能管理机构——欧盟人工智能委员会(European Artificial Intelligence Board,EAIB)。该机构由欧盟成员国人工智能监管机构代表(由该机构的负责人或同等高级官员代表)和欧盟数据保护专员代表组成,是类似于《通用数据保护条例》(GDPR)的监督机构,旨在确保人工智能技术在欧盟内部、欧盟与外部合作伙伴间的使用都遵守相关法律法规和伦理标准,加强欧盟对人工智能发展和应用的监管,保护欧盟公民、企业免受人工智能系统带来的潜在威胁。EAIB 将协调欧盟各成员国的人工智能监管工作,确保所有人工智能系统符合欧洲的监管标准和道德准则。此外,EAIB 还将提供技术和政策咨询,推动欧盟人工智能技术的可持续发展和创新,违反欧盟人工智能监管法规的企业行为将面临EAIB 的罚款,企业罚款最高可达全球营业额的6%,个人罚款最高可达30 万欧元。这项规定旨在确保企业在人工智能的开发、部署和使用中遵守欧洲的监管标准和道德准则。罚款制度的实施为EAIB 提供更多的监管工具和权力,促使企业更加自觉地遵守人工智能监管规则,同时也会对那些不遵守规则的企业施加足够的惩罚,以保护欧盟公民和企业的利益。
4.4.1 基于风险分级的人工智能监管思路
纷繁复杂的人工智能系统已经嵌入社会生活的方方面面,为了确保监管的灵活性、有效性,欧盟委员会在《人工智能法案》提案中确立了基于风险分级的人工智能监管思路(如表1 所示),为欧盟人工智能系统的开发、投放市场和使用制定了相应监管规则,并在意大利、德国、西班牙等国家已成功展开。风险分级监管思路可以根据不同的风险程度集中资源,对人工智能技术实施差异化的监管措施,从而确保人工监管的有效性和灵活性,并可以减少对低风险人工智能技术的过度监管和限制,为人工智能技术的创新和发展提供更多的空间和机会。
表1 欧盟人工智能监管的风险等级划分
4.4.2 明确人工智能伦理准则
明晰的人工智能伦理准则被欧盟委员会视为欧盟人工智能发展的起始点。欧盟委员会在《可信赖的人工智能伦理准则》《Ethics Guidelines for Trustworthy AI》明确澄清了人工智能发展的伦理准则,包含以下4 个方面:(1)尊重人的自主性原则。确保尊重人的自由和自治是欧盟缔结成立的核心目标,该原则要求人工智能系统的设计应该遵循以人为本的设计选择,公民在与人工智能系统交互时必须确保其能够充分有效地自我决定,人工智能系统不应该毫无道理地引导、胁迫、欺骗、操纵、制约人类行为,人工智能系统的使用应是为了增强、补充人类的认知、社会技能和文化知识。(2)预防伤害原则。该原则要求人工智能系统不应该以各种方式对人类产生不利影响,人工智能系统运行环境必须安全可靠,在技术上必须稳健,并且确保人工智能系统不会被恶意使用,关注弱势群体,预防人工智能使用过程中因权力或信息不对称造成的不利影响(3)公平原则。该原则强调人工智能系统的开发、部署和使用必须遵循公平原则,确保个人和群体免受偏见、歧视和污名化,人工智能应该促进获得教育、接受服务和学习技术方面的平等机会,同时保证人工智能参与公共决策过程的公正。公平原则还意味着人工智能从业者应该尊重手段与目的相称对的原则,平衡竞争利益。(4)可解释性原则。该原则意味着人工智能系统运转过程的公开透明化、在可能的范畴内向利益相关者解释决策产生机制,尤其要注意在“黑盒”算法场景下也要保证人工智能系统运行的可追溯性和可审计性。
4.4.3 设置人工智能监管沙盒
人工智能是一个快速发展的技术家族,欧盟尤其重视人工智能技术的创新和发展。2022 年秋季,在欧盟委员会的支持下,西班牙展开了全球首个人工智能监管沙盒(AI regulatory sandbox)试点。人工智能监管沙盒是指为了促进人工智能技术的创新和发展,同时保护公众利益和个人隐私,由监管机构提供的一种实验平台。人工智能监管沙盒是连接创新者和监管机构并为他们提供合作受控环境的一种方式,能为相关领域未来的监管规则制定提供参考。在西班牙人工智能监管沙盒中,人工智能技术的开发者和使用者可以在一定程度上规避现有的法规和监管要求,以测试和验证新技术或业务模式的可行性及有效性,同时西班牙政府部门和监管机构也可以更好地了解和监测这些新兴技术的发展趋势与潜在风险,并及时制定相应的监管政策和措施[29]。人工智能监管沙盒也为西班牙有关监管机构提供了一个了解各类利益相关者(如企业、学术机构、公民、社会组织等)关于人工智能技术发展的诉求和意见的平台,以便更好地制定相应的政策和规范。监管机构和创新者之间的这种合作,有利于促进人工智能系统的开发、测试和验证符合人工智能监管法规的要求。此外,人工智能监管沙盒还能够促进特定技术解决方案的出台和合规程序的测试,同时支持企业(特别是中小企业)避免不确定性和不必要的负担。
强化可解释性人工智能技术使用。人工智能已经嵌入中欧社会的方方面面,在金融领域应用于信用评估、智能客服和投资建议,在医疗健康领域应用于疾病诊断、药物研发、医疗影像识别和健康管理,在交通运输领域应用于自动驾驶技术、智能交通管理、交通预测,在教育领域应用于个性化教育、在线教育、智能教学,在零售领域应用于智能推荐、智能客服、自动化库存管理。在这些人工智能社会场景应用中,欧盟尤为重视可解释性原则的落地,要求其各成员国将可解释性人工智能技术嵌入其中。结合中国的社会现状而言,嵌入社会的人工智能系统拥有可追溯性和可解释性对维护社会公平、减少算法歧视极为重要。借鉴欧盟成功经验,在技术层面,中国可以强化可解释性人工智能技术的使用以增强人工智能监管。首先,在使用人工智能模型进行社会预测时,应该使用便于解释决策的模型,可以通过可视化方式展示输入的特征及其与输出之间的关系,帮助用户理解模型进行决策的过程[30]。其次,在选择算法时尽量优先选择可解释性算法,同时尽可能地为人工智能系统提供较多的数据集,以便人工智能系统更好地理解用户的需求和应用场景,作出更符合实际需求的决策,减少不可解释的误差[31]。
5.2.1 建构人工智能监管的利益相关者合作机制
各利益相关者对人工智能技术的认知和理解不同,他们对人工智能监管的期望和需求也不同,建立合作机制可以让各方的声音得到充分表达,从而提高人工智能监管的针对性和有效性。欧盟《人工智能法》提案中强调了利益相关者参与人工智能系统开发和部署的重要性,并由欧盟委员会于2018 年组织成立了人工智能高级别专家组和欧洲人工智能联盟等利益相关者组织,协同利益相关者们进行交流合作,从而形成共识、推动人工监管政策的完善和实施。当前中国人工智能监管的利益相关者合作机制还不甚完善,中国政府可以借鉴欧盟经验构建人工智能监管的利益相关者合作机制。首先,可以由政府牵头构建利益相关者合作平台,将来自工业界代表、学术界代表和民众代表聚集在一起,通过利益相关者合作平台建言献策,共同完善人工智能法规;其次,可以在人工智能监管领域建立专家组织,汇聚行业内的专家学者,为人工智能监管提供专业性支持和指导;再次,可以在人工智能监管领域建立行业协会,以阿里巴巴、腾讯、字节跳动和百度为代表的企业组织在人工智能技术的研发和应用中占据了重要角色,联合这些企业建立行业协会以规范行业标准并监督企业行为的合法性。利益相关者在人工智能监管中都有着不同的角色和职责,构建利益相关者合作机制能够促进利益相关者共同维护人工智能技术的安全和可持续发展。
5.2.2 设立央地协同的人工智能监管机构
人工智能监管是一项纷繁复杂的工程,设立人工智能监管机构尤为必要。欧盟《人工智能法案》提案提出设立欧盟人工智能委员会,以协同推动欧盟内外部人工智能产业的创新发展,并确保欧盟人工智能发展的可靠性、安全性。中国目前还没有专门的人工智能监管机构,可以参考欧盟经验并结合中国实际,设立央地协同的人工智能监管机构。首先,可以由国务院牵头成立中央人工智能监管机构,主要负责人工智能监管的政策制定、统筹协调和指导管理等工作;其次,在地方政府层面,各省、自治区、直辖市可以根据自身实际情况建立相应的人工智能监管机构,负责本地区的人工智能监管工作。中央人工智能监管机构和地方人工智能监管机构之间应建立起协作机制,加强信息共享、技术支持、政策衔接和工作协调等方面的合作;同时,央地政府在制定人工智能监管法规时充分考虑央地协同的需求和实际情况制定监管标准和规范,以确保监管工作有效开展。
5.3.1 借鉴风险分级监管思路,完善人工智能监管法律框架
欧盟近年来陆续出台了一系列人工智能监管政策法规,并在2021 年提出了全球首部《人工智能法案》提案。中国作为世界人工智能发展的先驱力量,虽然已陆续出台了《新一代人工智能发展规划》《国家人工智能产业创新发展战略》《人工智能标准化白皮书》等政策法规以促进人工智能发展,但是这些政策法规仅仅对人工智能发展原则和监管有部分涉及,目前还没有一部全面的全国性人工智能法案和人工智能监管的专门法案。中国可以根据自身情况和发展需求,积极吸取欧盟在人工智能监管方面的经验和做法,完善人工智能监管法律框架,以建立一个可持续、安全可信的人工智能生态系统。2023 年4 月1 日,中国国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》,并向全社会公开征求意见。中国可以根据其自身情况,制定一部全面的全国性《人工智能法案》和借鉴风险分级思路的人工智能监管专门法案,这些政策法规应该涵盖从人工智能的研发、测试到商业化应用的全过程。
5.3.2 开展人工智能监管沙盒试点
人工智能监管沙盒试点可以提供一个相对灵活和包容的监管环境,让各类企业可以在一定程度上自由地探索和试验新的人工智能技术;同时,人工智能监管沙盒试点还可以收集数据和经验,为制定更加有效的人工智能监管政策提供参考。借鉴欧盟成功经验,中国可以开展人工智能监管沙盒试点工作,以促进人工智能技术的规范发展和创新。中国的人工智能监管沙盒试点可以从以下4 个步骤完成:(1)人工智能监管部门应该制定明确的监管沙盒试点方案,明确试点的目的、范围、实验条件、实验过程和评估指标等内容,确保试点的合法性和有效性。(2)人工智能监管部门可以实行人工智能监管沙盒试点资格申请制,企业或机构需要向监管部门提交试点申请材料,这些材料包括企业或机构的基本信息、试点方案、技术方案、隐私保护方案等,监管部门则根据试点申请材料评估试点范围和实验条件,为试点企业或机构提供必要的支持和指导,确保企业或机构在试点过程中遵守法律法规和伦理原则。(3)试点企业或机构应该在中国人工智能监管部门的指导下实施试点方案,并对试点过程进行实时监测和记录,及时反馈试点结果和问题,以便监管部门对技术效果、隐私保护、风险管理、伦理问题等方面进行试点成效评估。(4)监管部门在试点过程中根据实际情况及时调整监管措施,确保试点过程中的合法性、有效性和安全性,为后续试点提供参考。
5.3.3 加强人工智能监管的区域与国际合作
随着全球化的发展,加强人工智能监管的区域与国际合作已成为全球共识,欧盟极为重视人工智能监管区域国际合作对人工智能产业发展的意义。中国作为负责任的区域性大国,可以通过展开人工智能监管的区域与国际合作,促进人工智能产业健康发展。中国加强人工智能监管的区域和国际合作具体措施包含:(1)加强人工智能监管的国际标准制定与合作。中国应该积极参与人工智能监管的国际标准制定,推动全球一致的人工智能标准体系建立,与其他国家和地区开展紧密合作,分享成功经验和优秀实践,这有助于降低国际间的监管壁垒,提高人工智能应用的国际安全性,促进全球人工智能技术的健康发展。(2)推动跨国企业人工智能应用合规。在全球化发展背景下,跨国企业在人工智能领域的活动也日益增多,中国可以通过加强与其他国家的交流协作,推动跨国企业在人工智能应用领域的规范化,引导这些企业的行为符合人工智能的跨国监管标准,维护公平竞争和民众权益。(3)加强人才交流和合作。人工智能监管需要具备跨学科的知识和技能,涉及伦理、法律、技术等多个领域,加强与其他国家和地区的人才交流合作有助于提升中国人工智能监管部门的专业素养,以更好地应对人工智能监管挑战。
随着人工智能技术在日常生活和社会生产中不断嵌入,构建健全的人工智能监管体系以防范人工智能发展风险已成为全球共识。欧盟陆续出台了《欧洲人工智能战略》《人工智能协调计划》《可信人工智能伦理指南》《人工智能白皮书——欧洲卓越和信任方法》等多项人工智能监管政策文件,并于2021 年4 月21 日正式提出了全球首部《人工智能法案》,不断完善人工智能监管的政策框架体系。中国作为世界人工智能发展的先驱力量,也已陆续出台了《新一代人工智能发展规划》《国家人工智能产业创新发展战略》《人工智能标准化白皮书》等政策法规以促进人工智能发展,但目前还没有一部全面的全国性人工智能法案和人工智能监管的专门法案。因此,本研究在梳理国内外人工智能监管相关研究基础上,进一步澄清了人工智能监管内涵,并结合信息管理领域常用的TOE 框架构建分析框架,对欧盟人工智能监管体系进行了详细剖析。其技术层面的人工智能监管措施主要包括可解释性人工智能技术和数据保护技术的使用;组织层面的人工智能监管措施主要包括成立利益相关者组织和设立欧盟人工智能委员会;环境层面的人工智能监管措施主要包括基于风险分级的人工智能监管思路、明确人工智能伦理准则和设置人工智能监管沙盒。依据欧盟经验,结合中国实际,分别从上述3 个层面对完善中国人工智能监管体系提出了具体的政策建议。