袁亦豪
(上海社会科学院,上海 200083)
随着人工智能(AI)在近些年来的井喷式发展,其所带来的各方面风险也开始引起各方注意。康奈尔大学的研究指出,人工智能可以被用来延续偏见、赋能武器、传播错误信息和进行网络攻击。即使在人类参与下使用,人工智能也能造成自主性伤害[1]。尽管如此,目前对于人工智能造成的潜在风险类型仍缺乏清晰的界定,全球知名研究机构如布鲁金斯学会、普华永道,各类国际组织如经合组织、世界经济论坛等都根据自身的认知划定了相关的风险类型。通过归纳,目前对人工智能风险的判断主要有以下几类:
人工智能的技术风险主要针对其系统以及相应的平台带来的风险。第一,涉及数据隐私的安全风险。AI系统通常需要大量数据来进行训练和学习,这可能涉及个人隐私信息的收集和处理。如果这些数据受到不当使用、泄露或黑客攻击,将导致隐私泄露并带来后续的风险。第二,恶意使用的安全风险:AI 技术也可能被用于恶意目的,包括网络攻击、虚假信息生成和社交工程等,使用者可通过AI 技术提升攻击的复杂性和威力,甚至为杀伤性武器赋能。
人工智能的经济风险主要指包含失业与经济不平等。人工智能驱动的自动化有可能导致各行各业的工作岗位流失,对低技能工人的伤害尤其明显。随着人工智能技术的不断发展和效率的提高,劳动力必须适应和获得新的技能,而低技能工人的工作替代性强而赋能效应却相对缺乏。在此基础上,人工智能可能造成经济不平等,使富裕的个人和公司受益过多。而由于人工智能开发和所有权集中在少数大公司手中,这种不平等可能会进一步加剧。
人工智能的社会风险主要体现在人类对人工智能的不信任及相关的潜在风险。第一,人工智能系统缺乏透明度,这种不透明性模糊了人工智能技术的决策过程和基本逻辑。当人们不能理解一个人工智能系统是如何得出结论时,就会导致对采用这些技术的不信任和抵制[2]。第二,人工智能对人类隐私产生巨大的破坏力。人工智能技术的基本运作建立在收集和分析大量的个人数据之上,从而将引发了与数据隐私和安全相关的问题。
人工智能的运行模式可能对于人类习以为常的伦理、道德及法律的认知逻辑产生新的挑战。第一,人工智能程序是有偏见的训练数据或算法设计,系统可能放大社会偏见并造成进一步的撕裂。第二,人工智能系统中被灌输道德和伦理价值观,在面临复杂的决策环境中,不一定符合人类的基本伦理认识。第三,在新的场域中,缺乏新的法律法规来规范或解决人工智能技术引起的上述各类问题。
目前看来,尽管各方对于人工智能风险的判断仍处于摸索的阶段,但是对于加强监管以降低其风险已经取得了一定的共识。对于企业而言,行业领导者正寻求一种可信的、数据安全的方式使用人工智能技术。而在政府层面,欧盟、美国、中国等都在推出各自的监管措施或法律,以确保技术发展处于正确的方向。
美国的科技和产业体制一向以私营部门为主,政府参与程度始终较低。联邦层面,美国目前没有明确针对人工智能的法律,但政府部门正在与企业界就监管问题磋商并达成一些成果,立法部门同样在该领域取得了小幅进展。
第一,美国商务部下属的国家标准与技术研究所(NIST)主要担任人工智能(AI)技术和系统的设计、开发、使用和治理方面培养信任,涵盖了人工智能的风险识别及政策制定等 工 作。2023 年1 月26 日,NIST发布了人工智能风险管理框架(AI RMF 1.0) ,3 月30 日NIST 启 动了可信赖和负责任的人工智能资源中心,该中心将促进该框架的实施及国际协调。该框架通过一个共识性的、开放的、透明的和协作的过程开发,旨在为各方的人工智能风险管理工提供合作平台及支持服务。
第二,白宫与科技巨头就人工智能的发展路径及风险控制进行磋商。2023 年7 月21 日,白宫七 家领先的人工智能公司(Amazon,Anthropic, Google, Inflection,Meta, Microsoft 及 OpenAI)共 同宣布帮助人工智能技术朝着安全、安全和透明的方向发展。其主要达成的共识包括:确保产品的可靠性,进行足够的安全测试并公布风险管理信息;保证系统的安全性,加强网络与内部数据安全并建立漏洞弥补机制;争取公众信任,公开人工智能的使用记录和限制条件,并避免歧视与隐私泄露。
第三,国会议员已经就涉及人工智能监管提交法案草案。立法小组于2023 年6 月20 日提交了一项法案[3],旨在建立一个专注于人工智能监管的委员会。该委员会一方面要减轻人工智能的风险和危害,另一方面又要保护美国“在人工智能创新方面的领导地位以及这种创新可能带来的机遇”。平衡这两方面的考虑意味着制定一种全面的监管方法,承认在利用人工智能的变革力量带来社会和经济效益的同时解决潜在缺陷的重要性。
欧盟对于人工智能监管的态度相对积极。欧盟特别注重人工智能发展中的两个问题。第一,伦理和法律准则。为了确保人工智能的发展和应用符合道德和法律要求,欧洲将伦理和法律准则置于人工智能战略的核心。欧盟希望通过一系列指导原则和规范,在涉及数据隐私、透明度、责任和公平等方面促进人工智能的可持续发展。第二,数据共享与隐私保护。欧洲鼓励数据共享和合作,以加强人工智能算法的训练和改进,同时也重视个人隐私的保护,在数据使用和处理过程中采取相应的法律和技术措施。从前些年开始,欧盟就已经试图推出高度规范性指令,针对高风险人工智能系统的研发者和使用者做出具体的技术和机构规定。
2.2.1《通用数据保护条例》
《通用数据保护条例》(GDPR)是欧盟于2018 年5 月25 日实施的旨在保护欧盟内部个人隐私和个人数据的法规,是欧盟在人工智能时代专注于数据隐私的重要法案。GDPR 取代了以前的《数据保护指令》 ,并对数据保护规则进行了重大修改和改进。法案明确了适用范围,欧盟以外的企业若为欧盟居民提供的个人数据类服务,同样受到管辖。该法规要求企业必须使个人对数据处理保持自由、具体、知情和明确的状态。GDPR 赋予个人获取、修正、删除、传输数据的权利,并限制个人行为受AI 等自动化决策的影响。大型企业必须任命一名数据保护官,负责监督数据保护战略并确保遵守该法律。同时, GDPR 对不遵守规定的行为实施了严厉的处罚,对最严重的违规行为处以高达2000 万欧元或全球年收入的4% 的罚款。
2.2.2《欧盟人工智能法案》
2021 年4 月,欧盟委员会提出了欧盟首个人工智能监管框架。作为其数字战略的一部分,欧盟希望对人工智能(AI)进行监管,以确保为这一创新技术的开发和使用创造更好的条件。一旦通过,这将是世界上第一个系统性的关于人工智能的规则。
这份法案中,不同应用的人工智能系统将根据其对用户构成的风险进行分类,不同的风险水平对应不同的监管级别[4]。不可接受风险的人工智能系统被视为对人类构成威胁,将被禁止使用,包括:对人或特定弱势群体的认知行为控制,操纵社会撕裂,实时和远程生物识别系统等。高风险的人工智能系统被定义为对安全或基本权利产生负面影响,并将分为两类:1)在欧盟产品安全法规下的产品中使用的人工智能系统;2)在8 个特定领域中使用且必须在欧盟数据库中注册。低风险的人工智能系统应符合最低限度的透明度要求,使用户能够作出知情的决定。与应用程序交互之后,用户可以决定是否继续使用它。当用户与人工智能交互时,用户应该意识到这一点。这包括生成或操纵图像、音频或视频内容的人工智能系统[5]。
现有的人工智能系统主要由大型科技公司开发,产品的迭代升级能力强,监管措施的出台速度远远落后于产品的更新速度。2022 年11 月,chatgpt-3 的发布才将其从一个软件工程师的工具,重新定位为一个以消费者为中心的工具,而仅仅四个月之后, OpenAI 公布了 GPT-4 支持基础大型语言模型(LLM)的最新版本,“展示了人类水平的性能”。ChatGPT成为历史上增长最快的网站,在两个月内吸引了超过1 亿用户。然而,应对人工智能驱动的变革速度,可能超出监管部门现有的专业知识和能力。今天用的监管法规和结构大部分建立在电气时代的假设之上,这些假设已经被数字平台时代的飞速发展超越。客观来看,现有的规则不够灵活,尚无法应对人工智能的发展速度。未来对于人工智能的监管方式应更专注于职权与功能,而不是依靠政策加以约束之上。相关部门需要更多的灵活性,摆脱旧的监管方式,以跟上技术发展的步伐。
人工智能的监管内容方面,政策制定者并没有取得一种共识。在消除偏见、数据隐私和系统安全性等领域的监管,涵盖太多的领域,从而大幅度提高了监管的难度。更进一步,作为一种强化系统,人工智能本身不具备主观的善恶,因此对其监管的难度较大。以欧盟制定的人工智能法草案为例,存在明显的漏洞和例外。例如,目前法案中明确禁止面部识别,但这项条款却忽视了面目识别在安全保密、身份认证,甚至协助破案中发挥的巨大作用。究竟如何定义人工智能的风险等级,如何权衡其对社会发展带来的利弊,监管无疑面临很大的挑战。
虽然对监管的必要性取得了一定的共识,但毫无疑问监管政策会阻碍行业发展和技术进步。相比于中美两国,欧盟缺乏大型的人工智能企业,整体的运用水平也相对较低。这某种程度上使其采取了较为严格的数据管理政策,而在人工智能的发展要素中,数据起到了关键性的作用。谷歌前董事长施密特称,他认为更希望由公司主导监管界限,这种自我监管的方式与过去20 年数字平台公司一直倡导的不干涉方案是一样的[6]。布鲁金斯学会认为,所有现代法规都在保护公共利益与促进创新和投资之间走钢丝。在人工智能时代,监管意味着承认不同的人工智能应用会带来不同的风险,并确定一个监管与风险相匹配的方案,同时避免阻碍创新。
人工智能的强大赋能作用及其快速的发展趋势,一方面极大改变了人类的生产生活方式,另一方面对于人类自身也造成了威胁与挑战,因此人工智能监管也必然随着产品与技术的更新而不断向前跟进。根据中国互联网信息办公室网站2023 年4 月11 日消息,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,起草了《生成式人工智能服务管理办法》,并现向社会公开征求意见。可见,世界主要行为体都开始关注人工智能监管这一前沿话题。可以预见的是,人工智能监管的前路并不平坦,需要更精准风险的识别、更先进的监管模式,并充分考虑监管的各类挑战,才能实现监管与发展的平衡,从而实现有效监管。 (文责自负)