创新友好人工智能监管:目标导向与实施体制

2024-10-17 00:00:00唐要家王钰
人文杂志 2024年9期

关键词 人工智能 风险 创新友好监管 可信人工智能 监管实施体制

人工智能(AI)是第四次产业革命的关键驱动力,它是一种破坏性技术进步,正在对经济社会产生重大影响。人工智能应用不仅极大地促进了创新和经济高质量增长,而且促进了社会安全与社会和谐。但人工智能应用也带来算法偏见、隐私侵犯、信息操纵等风险,引发了人们的广泛担忧,不信任成为影响人工智能创新发展的重要障碍。因此,实行有效的人工智能监管成为应对风险的重要政策应对,其目的是构建可信任的人工智能发展环境。目前,欧盟、美国、中国等经济体都在进行人工智能监管政策探索,但如何构建监管与创新平衡的监管体制这一难题仍未得到解决。一方面人工智能技术发展带来的诸多风险影响深刻,需要有效应对;另一方面人工智能技术是新质生产力发展的引擎,是国际科技竞争的关键领域,需要维持强创新动力。由此,人工智能监管既要有效管控各种潜在的重大风险,也要释放创新潜能,更好地促进创新发展,促进人工智能以有利于人类社会的方式创新发展。因此,如何构建创新友好的监管体制成为迫切需要解决的重大问题。

一、人工智能开发应用的风险与最优监管路径

1.人工智能开发应用引发的主要风险

近年来,在大数据和算力技术快速发展的推动下,人工智能技术获得了快速发展和广泛应用,但同时也引发了各界对其潜在风险的担忧。总体来说,人工智能系统应用可能带来如下主要风险:一是个人隐私侵犯风险。人工智能的发展使消费者使用的各种设备和在线活动面临更高的隐私数据泄露风险。二是个人身体或心理损害风险。人工智能应用者可能会利用其来强化对人的行为引导和心理暗示,如在线服务中的消费上瘾、算法劳动者监督等,这会对人的身体或心理健康产生损害。三是竞争与创新损害风险。人工智能为企业实施算法合谋、算法个人化定价、算法自我优待等垄断行为提供了新的手段,从而会扭曲市场竞争。同时,生成式人工智能的发展会带来知识产权侵权问题,从而产生扼杀原始创新的风险。四是社会公平风险。人工智能在就业、招生、司法等领域的应用可能会对特定群体产生严重的不公平风险。五是社会伦理价值风险。人工智能系统可能会不断向个人推送其偏好的内容而强化社会认知偏见,也有可能会大量推送非法有害内容,而生成式人工智能可能会生成和传播大量虚假信息或新闻,从而对社会舆论和伦理价值产生损害。六是公共安全风险。人工智能可以提升网络攻击频率和强度,可能会加剧网络安全风险,同时人工智能的军事化应用会威胁国防安全。

2.现有人工智能风险治理路径的缺陷

面对人工智能应用带来的各种风险,政治学、经济学、社会学、法学等不同研究领域的学者对人工智能或算法监管问题提出了各种各样的政策思路,总体可以概括为四种路径。一是技术治理路径。Guihot等、Taeihagh都认为算法“黑箱”是导致人工智能应用产生各种风险的主要原因。① Cogwill和Tucker认为算法偏差是产生人工智能应用偏差的根本原因。② 针对算法黑箱问题,Butterworth和Tutt提出算法可解释性监管政策,认为通过增强算法可解释性可以有效缓解算法应用风险。③ 二是事前监管路径。一些学者提出应重点强化事前行政监管,主要措施是对人工智能系统应用实行影响评估和算法审计。④ Pasquale指出人工智能影响评估制度有助于将“黑箱社会”转变为“显见社会”,能从根本上建立算法信任。⑤ 三是行为治理路径。Saurwein等认为人工智能应用风险来自数据本身存在的偏差和数据中包含的人的行为偏差。⑥ Chander进一步指出,人工智能应用风险的根本原因不在于算法黑箱而在于应用者的行为偏差。⑦ 因此,监管政策重在改变人工智能系统应用者以及社会成员的行为规则。Guihot等提出自我监管为主的思路,倡议采用自愿的行为规则来指导人工智能设计与应用,政府则需要事前明确政策预期。⑧ 四是综合治理路径。Leenes和Lucivero指出应该采取社会、法律、伦理等多种手段来治理人工智能。① Gasser和Almeida提出应采用技术—社会—伦理的三层治理框架。② Almeida等更是提出应建立包括立法、行政、司法、社会、国际合作等的多元人工智能治理框架。③

总体来说,上述理论研究基本都是针对人工智能风险来寻求有效的治理措施,是以消除风险为单一目标的监管路径,并没有在防控风险和鼓励创新的双重目标下寻求最佳的平衡性监管。单一风险目标的监管路径很可能在实现风险防控目标的同时造成对创新发展的阻碍,并削弱长期的安全保障。因为可信的安全必须建立在高质量创新发展的基础之上,缺乏创新发展的支撑将难以保障长期的安全。因此,实现安全与创新是人工智能监管无法回避的二维目标。

3.创新友好人工智能监管的合意性

人工智能技术创新是新质生产力的核心驱动力。新质生产力是创新起主导作用的先进生产力质态。人工智能是一种对经济社会具有革命性影响的通用目的技术,人工智能技术创新不仅会产生一大批高技术成果,还会带动一大批后续的应用性创新成果出现,不仅会催生一大批新产业的涌现,而且还具有广泛的行业融合性,会全面赋能传统产业和实体经济实现高质量发展,从而带动全要素生产率的大幅提升。人工智能技术推动的新一轮产业革命也被称为智能化革命或第四次产业革命。可以说,谁掌握了人工智能创新发展优势地位,谁就主导了全球第四次产业革命。在此背景下,人工智能监管应顺应新一轮产业革命趋势,助力发展新质生产力。

在全球高科技竞争的背景下,人工智能是中国实现高水平科技自立自强的关键核心技术。目前,人工智能成为全球大国战略竞争的新赛道,它是中美两国高科技竞争的焦点,人工智能创新发展很大程度上决定了中美高科技竞争的走向。为了遏制中国人工智能创新发展,近年来美国先后出台了涉及高端芯片、数据流动、人才交流、风险资本等一揽子对华封锁政策,并且美国政府还出台了一系列确保美国人工智能全球领先的战略规划与支持政策;同时欧盟、英国等也都为争夺人工智能全球领导地位而实施了一系列的支持政策。在人工智能全球战略竞争的背景下,人工智能监管的科学性关乎中国人工智能创新发展和国际竞争重大战略目标的实现,要求人工智能监管应以促进人工智能高质量创新为根本原则,从而更好地服务于国家发展战略。

人工智能监管实际上是对处于快速发展中的创新进行监管,这内在地要求建立与创新特性相匹配的监管体制。人工智能技术创新的最根本特性是具有较高的不确定性,这也决定了人工智能风险的不确定性,并使监管政策面对较大的不确定性。目前人工智能技术仍然处在快速创新和持续的迭代升级阶段,其对经济社会的影响仍然具有非常大的不确定性。此时,政府监管面临非常严重的信息不完全,监管机构也缺乏准确预测风险和提前设计最优监管政策的能力,武断的监管会严重阻碍人工智能的创新发展。面对高度不确定性和复杂的人工智能技术,人工智能监管应避免成为创新阻碍,从而丧失重大的发展机遇和创新收益。因此,人工智能监管必须基于技术创新的不确定性和动态发展性来进行设计,一方面要实行谦抑监管,坚持包容审慎的基本原则;另一方面要实行敏捷监管,保持监管制度供给的及时跟进和良好制度回应,针对重大风险及时提供有效的监管制度供给,确保人工智能创新发展并促进人的福利全面提升。

创新友好监管就是以促进创新发展为根本原则,以最小化创新损害为监管政策依据,通过不断完善和优化监管体制与治理体系,营造有利于人工智能创新发展的生态,从而实现监管与创新的动态匹配。创新友好监管能够很好地实现监管与创新发展的平衡,促进人工智能更好地创新发展并助力实现国家发展战略,并最终全面提升人的福祉。因此,创新友好监管体制应成为人工智能监管体制的基本模式选择,监管应促进安全可信基础上的人工智能创新,通过监管来营造有利于创新发展的生态以最大化释放人工智能促进新质生产力发展的巨大潜能,并促进中国人工智能国际竞争力的提升,确保中国实现成为全球人工智能重要领导者的战略目标。

二、创新友好人工智能监管的基本目标:可信人工智能

人工智能监管主要是针对人工智能技术应用所带来的各种损害风险而采取有效的防控政策来最小化风险,以最大化公共利益,实现技术创新发展与人的福利提升的协同。在技术快速变革的背景下,信任是人工智能创新发展的基石。可信人工智能监管能很好地维护利益相关者的权益,并为人工智能的创新发展构建信任的外部环境,从而为人工智能创新发展和商业应用提供稳定可预期的外部环境和丰富的应用场景。为此,可信人工智能监管应包括四个核心要素:伦理的人工智能、可靠的人工智能、创新的人工智能、法治的人工智能。

1.伦理的人工智能

首先,人工智能系统应用要保护人的基本权益。人工智能系统应用要尊重和保护人的基本权利,不能限制和损害人的基本权利。人工智能系统开发与应用应维护人的主体地位,不能损害人的基本权益,应更好地促进人的解放,为人的发展和福利提高创造更大的空间。人工智能技术不应成为应用者用来剥削消费者、压榨劳动者、侵犯个人隐私和损害个人尊严的工具。其次,人工智能系统应尊重人的自决权。人始终是技术的主人而非技术的奴隶,人工智能系统必须始终是可控的,要确保人对人工智能系统应用的决策能力和监督能力。人工智能开发应用应尊重人的自决权,不能操纵信息和发布虚假信息、不能误导人做出错误的决策。再次,人工智能系统应不损害公平正义。人工智能系统应用应确保公平和平等地分配成本与收益,确保弱势群体免于人工智能应用带来的不公平对待和歧视性待遇。人工智能应更好地促进社会公平正义,使每个人平等地接受教育、获得就业机会、享受公共服务。

2.可靠的人工智能

首先,人工智能系统应用应具有坚实的技术保障。坚实的技术保障要求人工智能系统在开发时采用适当预防风险的方法,以能够可靠地预期行为的方式,将各种损害风险降至最低,并重点防止不可接受损害风险的出现。其次,人工智能系统应用应具有科学的风险管控措施。人工智能系统应用安全不仅体现在技术保障上,而且也体现于系统应用者的组织治理制度和政府监管制度保障。为防范人工智能应用风险,需要建立全生命周期的风险防控机制,通过系统设计阶段的风险防范设计,安装使用阶段的风险评估、风险监测、风险处置等来确保有效地防控风险,消除高损害风险的发生,减少一般损害风险的发生。再次,人工智能系统应用应具有可问责的治理制度。人工智能系统应用者是确保人工智能应用安全可信的第一责任人。为此,应明确人工智能应用者需要履行的基本安全义务,建立包括人工智能审计、人工智能应用评估报告、利益相关者参与及其法律行政责任等在内的问责制。

3.创新的人工智能

首先,政府监管应更好地促进人工智能技术创新。在人工智能驱动的新一轮产业革命背景下,创新是实现社会公共利益最大化的最主要因素。人工智能监管不能牺牲和阻碍创新发展,而应更好地促进人工智能负责任地持续创新发展。其次,政府监管应有助于人工智能国家战略的实现。人工智能是高技术创新行业,是全球高科技竞争的重点,是中国抢占国际高科技领先地位的重要技术关键点。人工智能监管应有助于中国人工智能的创新发展,有助于中国人工智能技术、产业和企业群体持续增强国际竞争力,助力中国成为全球人工智能领导者。再次,政府监管应采用鼓励创新的政策工具。政府监管应该为人工智能技术创新、商业化应用和产业化发展提供有利的政策环境,保持比例相称的监管强度,避免超前监管、过度监管和一刀切监管,更多地采取促进创新的试验性监管以及具有弹性的软监管政策。

4.法治的人工智能

首先,人工智能应用应具有相对完备的法律规则体系。人工智能创新发展不能野蛮生长,应在法治的框架内进行。为此,需要根据技术发展和特定场景中技术应用出现的各种风险损害及时制定和完善法律法规,明确人工智能技术发展和应用应遵守的基本原则,划定人工智能技术应用不能触碰的红线,明确人工智能系统应用者的治理责任,确保系统应用者的权责对等。其次,人工智能应用要依法合规。人工智能系统应用应在法治的框架下进行,使用人工智能的私人组织和公共机关要遵守人工智能监管的有关法律,依法开发、安装、使用人工智能系统,遵守法律规定的基本原则,履行法定的基本义务,并为明显违背法律规定的行为承担相应法律责任。再次,政府监管要依法行政。政府监管也要遵守法治原则,监管机构的监管职权必须具有明确法律授权,执法行动必须依法合规,并充分尊重企业经营自主权。面对动态的人工智能技术创新,监管机构应建立稳定一贯的监管规则体系和富有弹性的政策体系,为创新发展提供稳定可预期的政策环境。

三、创新友好人工智能监管的基本导向:基于风险的监管

创新友好人工智能监管力求在最小化人工智能技术应用风险的同时最大化释放创新潜能。人工智能监管是针对创新技术应用所带来的不确定性风险的监管,而不是对研发创新的监管。因此,创新友好人工智能监管最科学的方式是实行基于风险的监管,通过科学的风险评估来建立基于风险损害的分级分类监管,重点监管不可接受风险和高风险人工智能应用,对中风险人工智能应用则采用低强度监管,对低风险人工智能应用则实行监管豁免,①从而增强监管的适时性、针对性、精准性和比例性,避免一刀切监管和过度监管对创新的巨大损害,使人工智能创新主体和应用主体能够明确红绿灯,形成稳定预期,从而有激励持续地增加创新投入和进行商业化开发,实现风险管控与创新发展的平衡。

1.基于风险损害程度的分级监管

人工智能监管应根据人工智能在特定环境下应用可能对相关主体造成的风险损害程度,来设计与损害程度相称的监管强度和政策手段。人工智能技术发展带来的风险主要不是技术本身的风险,而是人工智能应用在特定场景中所产生的具有场景依赖的应用风险,因此基于风险的监管重点是高风险的应用场景。具体来说:一是基于人工智能系统应用场景的风险,对人工智能系统设定不同风险等级的标准,针对不同风险等级的人工智能实行不同的监管强度和监管政策,政府监管的重点是不可接受风险和高风险的人工智能系统应用,特别是政府公共服务、司法系统、就业、招生等领域和对人身心健康带来损害的人工智能应重点监管。二是基于人工智能应用行业的风险,根据不同行业的应用风险损害程度,将关键信息基础设施行业作为人工智能监管的重点。关键信息基础设施行业一般包括公共通信和信息服务、能源、交通、水利、金融、公共服务等重要行业和领域。三是基于人工智能系统影响的主体,重点强化对弱势群体如儿童、残疾人、老年人等的保护。

2.基于风险生成机制的分类监管

人工智能应用监管的重心是防止出现系统性偏差,由于人工智能风险是由多种因素造成的,监管应针对风险的不同成因精准施策,长短期措施有序安排,避免将人工智能技术作为罪魁祸首的单一维度监管思维。首先是技术性偏差。技术性偏差是指人工智能系统程序设计、投入的数据质量、系统运行透明度低等因素造成的运行结果偏差,其监管政策是强化算法程序设计合规、加强数据治理、对人工智能系统的设计和安装使用实施评估认证制度。其次是人为性偏差。人为性偏差是指应用者出于私人利益目标而人为地操纵算法以谋取私利,典型的如数字企业有误导性地推荐商品、发布虚假销量数据、操纵用户评价信息、刻意隐瞒隐私风险等。人为性偏差监管政策的重点是强化人工智能系统应用者的主体责任,增强人工智能系统应用的透明度和可问责性。再次是制度性偏差。人工智能应用产生的偏差在某种程度上是社会价值观念和运行规则的偏差通过人工智能系统的放大反映。制度性偏差是指一个社会的法规、政策、制度体制、文化意识等所具有的历史性局限,这种历史形成的偏差或制度缺陷带入人工智能系统会产生有偏差的运行结果,从而限制个人权利,造成对特定群体的歧视,损害社会公平正义。解决制度性偏差的主要路径是构建利益相关者参与的多元治理体系,鼓励利益相关者参与人工智能系统生命周期各个阶段的治理,在多元主体良性互动中消除制度性偏差。

3.基于风险阶段差异的动态监管

动态来看,人工智能风险的产生具有明显的阶段性分布特征,监管需要针对人工智能技术发展不同阶段的风险问题来合理匹配监管强度并科学选择针对性政策。首先,在人工智能开发设计阶段,监管主要是贯彻基于设计来确保合规的要求,在系统框架、算法运行规则和数据投入设计中,避免将技术或人为的系统性偏见带入,通过设计来确保合规,实现设计的可信。其次,在模型测试验证阶段,数据质量是监管的重点,应强化数据质量标准和数据质量管理体系,并建立有效的模型风险评估机制,提升风险防控措施的有效性。再次,在系统安装阶段,监管主要是政府对较高风险的人工智能应用进行风险评估与算法审计,防止高损害风险人工智能系统的安装应用。最后,在系统运行阶段,应对人工智能系统的运行实行动态监控和评估,应用主体应具有科学的风险管理措施保障,以确保功能正常运行,确保系统应用不会造成意想不到的危害。在动态的全生命周期监管中,人工智能应用主体的自我治理始终是基础,监管需要科学定位政府监管机构和人工智能应用主体的权责关系,注重激励应用主体开展自我治理,构建合作监管体制。

4.基于风险演化的综合监管治理

人工智能技术应用产生的潜在风险具有广泛的经济社会影响,既需要技术治理体系的完善,也需要经济社会做出相适应的制度变革。人工智能监管不能将监管对象局限于人工智能技术本身,让人工智能承担不合理的责任,而应从多个层面着手并在多元主体间配置治理责任。首先,人工智能不仅仅是一种技术性工具,也是一种重构人与人、人与企业、企业与政府等各种关系的力量,是一种新的经济社会权力。人工智能应用风险实际是技术创新对原有技术、经济、社会平衡关系的冲击所带来的。其次,由于人工智能应用超越了单纯的技术工具范畴,它必然会受到各种复杂的经济社会关系的影响,人工智能应用产生的各种偏差结果及其引发的歧视性本质上是经济社会运行中痼疾的技术性映射或技术性系统强化。再次,人工智能的创新发展必须具有兼容的经济社会环境,包容、信任、鼓励的创新生态对人工智能创新发展至关重要。综上,在技术、经济、社会都处在动态变化的情况下,政府监管不再是一个静态的制度实施过程,而是对技术、经济、社会动态变化所引发的利益相关者之间复杂利益冲突做出的主动性监管制度回应。因此,人工智能监管必须采用“技术—经济—社会”综合治理理念,促进技术、经济、社会的整体协同演化,从而构建可信人工智能持续优化的治理生态。

四、创新友好人工智能监管的实现基础:监管实施体制

创新友好监管目标的实现关键在于能否建立好的监管实施体制。政府监管是一种行政行为,监管实施体制从根本上决定了监管绩效。① 作为一种颠覆性技术,人工智能创新发展需要创新监管实施体制,实现监管与创新的动态匹配。因此,人工智能监管迫切需要建立有利于创新的监管实施体制,营造有利于同步促进安全可信和创新发展的生态。为此,创新友好目标导向的政府监管机构需要发挥好两种基本的角色:一是消极行动者角色,即通过完善监管行政制度确保政府监管不会阻碍人工智能的创新发展;二是积极行动者角色,即通过监管为人工智能创新发展提供有力的要素供给和产业化应用场景,并营造有利于创新发展的制度环境,以最大化促进人工智能创新发展。

1.创新友好人工智能监管要确保监管与创新的动态匹配

从政府监管与人工智能创新发展的关系来说,创新友好监管体制关键是形成监管与创新的动态匹配。首先,创新友好人工智能监管应实现二者的协调。政府监管与创新发展的协调体现在两个方面:一是监管有利于人工智能高质量创新发展,科学的人工智能监管能够为人工智能创新发展营造安全可信的外部环境,既会增强消费者的信心,从而扩大人工智能的应用场景,也会增进研发者和投资者从事研发创新的积极性,从而总体上促进人工智能创新发展;二是人工智能创新发展有利于高效能监管,人工智能技术创新发展会不断优化技术设计,消除技术性缺陷带来的风险,安全技术创新会为消除风险提供有效技术治理手段,同时人工智能技术创新也为实现政府监管的智能化提供了技术支持。其次,创新友好人工智能监管要避免二者的动态失调。政府监管与人工智能创新发展的失调主要体现在两个方面:一是人工智能技术创新打破了原有监管体制维持的均衡态势,新技术的出现导致原有监管体制与政策工具失效,产生较大的监管缺口,降低政府监管整体效能,从而带来较高的风险隐患;二是不科学的政府监管严重阻碍了人工智能创新发展,这主要体现为监管不足与监管过度:前者体现为面对人工智能快速的创新发展,政府监管没有提供及时有效的制度供给,导致人工智能创新发展产生风险损害,并使创新发展缺乏良好外部环境;后者体现为政府错误的监管决策、过于超前的监管政策、不合理的高强度监管、不科学的政策工具导致人工智能创新发展面临过度的不合理限制和过高合规成本,严重打击微观主体创新积极性,或严重阻碍创新成果商业化应用和产业化发展。因此,创新友好监管体制要通过制度建设来避免监管不足和监管过度对创新的阻碍和对监管效能的制约,确保政府监管与技术创新的动态最优匹配(见图1)。

2.创新友好人工智能监管实施体制应坚持的原则

创新友好人工智能监管应坚持如下的基本原则:一是法治化原则。政府应确保监管规则的明确性和一致性,避免削弱企业投资激励和企业家创新创业的信心。二是突出原则监管原则。对于不明确的风险或尚未大规模显现的风险适用原则监管,监管机构制定基本的行为原则,具体实施则由企业根据自身的实际情况来灵活决定;仅对大量事实已充分证明具有严重危害的人工智能开发应用风险才实行规则监管,监管机构直接规定企业不可以实施的具体应用或行为。三是增强公众信任原则。监管应重在构建公众对人工智能开发应用的信任,监管不仅要关注人工智能技术安全、治理制度安全和商业应用安全来保护人的基本权益,也要通过增强透明度和安全宣传等来提高公众信任。四是风险敏感原则。政府监管应根据不同风险损害来实施相匹配的监管强度与监管政策,贯彻基于风险的监管体制。五是最小化创新损害原则。监管工具选择应追求最小化创新损害,通过科学的政策影响评估和政策优化,采取创新损害最小的政策工具,并将促进企业主动合规和软监管措施作为优先选项。

3.创新友好人工智能监管的行政体制保障

在人工智能监管中,政府始终是最为关键的监管主体,尤其是在行政监管主导的体制中,法治化的监管行政体制是创新的重要保障。创新友好监管行政体制建设重点为:一是构建高效协同的监管机构体系。政府监管层面,应建立国家统一监管与行业分散监管相结合体制,国家统一立法,由国家专门监管机构负责统一执法,各行业主管部门根据行业领域制定细则并负责本行业监管。为了促进各部门的协同监管,应根据权责对等原则来配置各部门的监管职责,完善部际协同监管体制。二是建立体现程序正义的监管行政程序。正当的行政程序是防止行政监管权滥用,避免监管失误与阻碍创新的重要制度保障。为此,应重点强化监管影响评估制度,监管部门出台监管政策必须进行成本与收益评估,尤其是重点评估其对创新发展带来的影响,并比较各种替代性方案来选择创新损害最小的政策方案。三是建立公私合作监管新体制。人工智能监管要构建公私合作体制,政府监管机构与大型数字平台企业、行业组织等建立合作监管体制,并积极吸收利益相关者参与治理,构建多元主体参与的监管治理体制。

4.创新友好人工智能监管的政策工具创新

第一,建立多种政策手段相机应用的人工智能监管工具箱。依据人工智能监管强度,监管政策工具包括五种:一是伦理治理。人工智能监管应坚持伦理先行,建立并完善人工智能伦理准则,通过完善制度确保落实,将伦理融入人工智能全周期,使遵守伦理准则成为相关主体的自觉行动,实现内源性治理。二是系统应用者的自我监管。要充分发挥系统应用者作为风险控制第一责任人的主体地位,激励其主动采取有效措施来降低各种风险。三是行业组织私人监管。其措施包括行业组织制定行为规则、制定与推行行业管理或技术安全标准、开展行业算法认证等。四是政府监管。政府监管机构应多采用信息披露、安全标准、应用指南、安全认证等软监管方式。五是技术性解决方案。人工智能安全技术为人工智能监管提供了新的治理手段,如隐私安全技术能实现“数据可用不可见”,充分保障隐私安全。综上,人工智能监管应根据不同应用场景来灵活选择政策工具,注重不同政策工具的组合,并最小化命令—控制式监管手段的应用。

第二,实施规则透明、外部评估与内部自评相结合的人工智能影响评估制度。人工智能影响评估重点是针对人工智能系统应用的各种潜在影响进行评估,影响评估包括人工智能系统应用前的事前评估和人工智能系统应用后的事后评估,影响评估的内容重点是分析人工智能引发的潜在风险及其损害。影响评估制度是目前各国人工智能监管的重要政策手段。2019年欧洲议会通过的《算法问责与透明治理框架》、2022年3月美国国会通过的《2022年算法问责法》都对达到适用标准的企业提出了进行影响评估的要求。中国应制定明确具体的政策,在高风险的重点领域推进强制性人工智能应用影响评估制度,明确影响评估的具体内容和操作程序,并确保评估的透明。与此同时,对于中低风险的领域则应鼓励企业基于自愿来开展评估,并鼓励主动采取合规治理措施。

第三,采用鼓励创新的人工智能监管政策以最大化促进创新。为鼓励创新,人工智能监管应更多采用“监管沙盒”等试验性监管政策。对于一些具有较大原创性的人工智能技术研发或通用性人工智能技术研发可以设立安全区,对研发阶段的人工智能技术实行监管责任豁免,并通过监管为人工智能技术研发提供高质量数据供给、统一调度的算力和开放创新的生态;对于已经开发成功并将进行商业化应用的人工智能,可在一定的可控范围内进行试验性应用,充分评估潜在的主要风险,据此要求企业在技术应用中来提升数据质量、完善系统设计和完善风险管理措施,同时也要主动优化政府监管体制和创新监管政策,实现政府监管与创新的匹配;对于暂时无法确定人工智能应用风险的新技术产业化应用,应建立必要的容错机制,以鼓励创新发展。为促进人工智能商业化应用和产业化发展,应建立和完善人工智能监管政策和创新发展政策的协同机制,通过政府监管来消除阻碍人工智能创新发展的各种障碍,营造有利于创新发展的要素供给、应用场景、政策与制度环境,以全面促进人工智能创新发展。

五、中国人工智能监管体制完善的重点

面对人工智能应用带来的潜在风险,强化风险管控是人工智能监管的重要任务。2021年国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,以网信办为主的监管机构制定了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》等监管法规,并不断强化监管行政执法。长期以来,中国政府监管体制具有典型的强政府特征,同时监管职权配置是明显的条块分割体制。在中国特色政府监管体制下,如何防止不恰当的监管实施体制损害人工智能创y2Rn18SgQ8CdBQvzzy5A8g==新发展,是一个亟待从根本上解决的重大问题。未来中国人工智能监管体制应重点在如下方面予以完善:

第一,起草制定《人工智能法》,以强化监管法治化。当前,中国系统监管人工智能的国家级法律依然处于缺失状态,分散的部门立法和多头管理增加了人工智能创新发展的政策不确定性,迫切需要通过统一的国家层级立法来明确人工智能监管的基础性问题,为人工智能创新发展提供稳定可预期的制度保障。具体建议如下:一是确立以人为本的立法理念。人工智能监管的基本理念应坚持以人为中心,增进人类福祉,促进人的全面发展。二是明确人工智能监管基本原则。人工智能开发应用应遵循安全性原则、透明度原则、公平性原则和问责性原则。三是明确政府监管要遵守法治化原则。政府监管要严格法治化,明确相关部门的职权权限和监管责任,切实依法行政。四是明确基于风险的分级分类监管。依据人工智能风险评估和风险等级划分,实行基于风险的分级分类监管,针对不同行业独特应用场景来建立分产业风险评估和监管体系。五是促进多元治理与开放合作。要消除阻碍开放创新的各种行政壁垒,促进形成利益相关者合作治理体系,并鼓励合作创新和开源生态体系建设,形成有利于创新的合作与开放生态。六是人工智能监管要坚持国际化。人工智能监管要遵守国际共识和共同原则,加强人工智能监管政策的国际协调,积极推动人工智能创新的国际合作,为中国人工智能全球化创新发展提供有利的国际环境。

第二,着力改革完善监管行政执法体制,以提升监管正当化。一是政府监管必须始终依法行政。政府监管权的行使必须具有明确的法律授权,不能随意执法和恣意妄为,根本消除过度监管、不当监管对创新发展造成的严重损害,营造有利于创新发展的政策环境。二是政府监管必须确保政策合力。政府监管体制要防止部门主义的冒进执法,要注重消除地方保护主义对形成人工智能创新开放生态和全国统一大市场的各种阻碍,健全人工智能监管机构体系和部门协同体制,确保监管政策的统一性,明确人工智能监管必须服务于促进人工智能创新发展的重大国家战略。三是政府监管必须具备公正程序。政府监管政策制定必须有公众意见征询过程,必须进行监管政策成本—收益分析,监管必须建立政策实施效果后评估制度,并实施相应的事后问责机制。四是监管方式应创新友好。政府监管应及时清理阻碍创新发展的监管政策,并及时出台与创新发展相适应的监管政策。监管手段应更多地采用标准化、指南、行为准则等非约束性监管政策,并强化监管政策工具创新。应推行数据质量标准化,促进高质量数据供给;打破条块分割体制,提升全国算力设施系统调度;建立鼓励创新的新型知识产权保护制度;建立人工智能测试中心和商业化应用试验区,实施监管沙盒制度;鼓励安全技术开发、应用和产业化发展,增强安全技术保障;改革教育体制、科技体制和融资体制,培育数据要素市场,促进数据流动,消除阻碍人工智能创新发展的各种体制政策障碍,营造促进创新发展的外部环境。

第三,建立系统应用者主动治理的激励制度,以增强监管合规化。人工智能应用者的自我治理是实现创新友好监管的重要基础,要尊重企业自主经营权,鼓励企业根据自身情况来选择最佳合规方案,从而最小化政府监管的创新损害。一是依据比例原则合理确定人工智能系统应用者的治理责任。人工智能系统的安全责任应主要配置给人工智能系统应用者,其应承担必要的注意义务,应建立科学、规范和系统的风险管理制度体系,充分履行相应的安全保障责任。二是高风险人工智能应用者应充分履行透明度义务,保障消费者的基本权益,以增强公众信任。人工智能系统应确保具有透明度,使用户能够理解并正确使用系统输出结果。人工智能采集利用消费者数据要遵守“知情—同意”要求,基于人工智能的个人化定价、内容推荐等必须事前明确告知消费者,人工智能合成的内容必须进行明确的标签标注,并赋予消费者不同的应用界面选项。三是强化对人工智能应用者的问责。人工智能系统应用者需要对人工智能应用风险承担第一责任,并履行相应的问责义务要求。四是强化对企业主动合规的激励机制建设,实施可信人工智能安全认证与动态的安全可信评估,让安全成为企业竞争的重要质量维度,对于具有可信的安全保障能力的企业可以给予更多的治理自主权和一定的产业政策优惠。

第四,实现伦理治理的全过程内嵌,以突出监管软性化。伦理是实现人工智能创新发展与安全应用相平衡的重要软监管方式。为有效发挥伦理的内源性治理作用,需要进一步完善相关制度。具体而言:一是进一步明确人工智能伦理原则。人工智能治理的价值准则是以人为中心,人工智能相关活动过程应遵守增进人类福祉、尊重和保护人的基本权利、坚持公平公正、合理控制风险和保持公开透明等原则,应通过指南对上述原则做出明确界定。二是健全人工智能伦理治理体制。应完善政府人工智能伦理管理体制,明确相关主体伦理治理责任,使伦理成为激励和约束企业的重要内源性治理机制。三是加强伦理治理制度保障。应完善人工智能伦理规范和标准,建立人工智能伦理评价制度,并及时将重要的伦理规范上升为法律法规。四是深入开展人工智能伦理教育。要重视人工智能伦理教育,积极推动人工智能伦理培训,强化相关人员的伦理意识。